Aktuelles PDF gibt's auch hier: https://flavigny.de/lecture/pdf/analysis2 zum bequemeren Lesen.
25개 이상의 토픽을 선택하실 수 없습니다. Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

226 lines
15KB

  1. \documentclass{lecture}
  2. \begin{document}
  3. \newcommand{\K}{\mathbb{K}}
  4. \section{Lineare Abbildungen auf dem \texorpdfstring{$K^{n}$}{K\unichar{"207F}}}
  5. \begin{definition}[Lineare Abbildung]
  6. Eine lineare Abbildung $\varphi: \K^n \to \K^m$ heißt linear, falls $\forall \alpha, \beta \in \K$ gilt $$\varphi (\alpha x + \beta y) = \alpha \varphi(x) + \beta \varphi(y)\qquad\forall x,y \in \K^n$$
  7. \end{definition}
  8. \begin{bem}
  9. Eine lineare Abbildung läßt sich als Matrix darstellen. Betrachte $x\in \K^n$ und euklidische/kartesische Basis $e^{(i)},\; i = 1,\dots n$. Dann $\exists !$ Darstellung von $x$ bezüglich der Basis
  10. $$x = \sum_{i = 1}^{n}x_i\cdot e^{(i)}.$$
  11. Die Koeffizienten $x_i, i = 1, \dots n$ sind Koordinaten. Wir definieren Koordinatenvektor $\hat x = \begin{pmatrix}
  12. x_1\\\vdots\\x_n
  13. \end{pmatrix}$. Dann ist $$\varphi(x) = \varphi\left(\sum_{i = 1}^{n}x_i\cdot e^{(i)}\right) = \sum_{i = 1}^{n}x_i \cdot \varphi\left(e^{(i)}\right).$$
  14. $\varphi(x)$ hat auch eine (eindeutige) Darstellung bzgl. Basis in $\K^m$.
  15. $$\varphi(x) = \sum_{j = 1}^{m} \underbrace{\varphi_j(x)}_{*} \cdot e^{(j)} = \sum_{j = 1}^{m}\underbrace{\left(\sum_{i = 1}^{n}x_i\overbrace{\varphi_j\left(e^{(i)}\right)}^{a_{ji}}\right)}_{= \varphi_j(x)} \cdot e^{(j)}$$
  16. \begin{center}
  17. (*) Koordinaten von $\varphi_j(x)$ bzgl. Basis $e^{(j)}, j = 1, \dots, m$
  18. \end{center}
  19. Dabei sind die $\varphi_j(x)$ Koordinaten und der Koordinatenvektor ist $\hat\varphi(x) = \begin{pmatrix}
  20. \varphi_1(x)\\
  21. \dots\\
  22. \varphi_m(x)
  23. \end{pmatrix}$. Dann erhalten wir eine Matrix
  24. $$\begin{pmatrix}
  25. \varphi_1\left(e^{(1)}\right) & \dots & \varphi_1\left(e^{(n)}\right)\\
  26. &\vdots & & \vdots\\
  27. \varphi_m\left(e^{(1)}\right) & \dots & \varphi_m\left(e^{(n)}\right)
  28. \end{pmatrix} = \begin{pmatrix}
  29. a_{11} & \dots & a_{1n}\\
  30. \vdots & & \vdots \\
  31. a_{m1} & \dots & a_{mn}
  32. \end{pmatrix} = A \in \K ^{m\times n}$$
  33. Für einen Koordinatenvektor bezüglich Basis $e^{(j)}$ gilt $$\varphi(x) = \left(A\hat x\right)_j = \sum_{i = 1}^{n}a_{ij} x_i, \qquad j = 1, \dots, m$$
  34. Die lineare Abbildung $\varphi: \K^n \to \K^m$ lässt sich bezüglich festgelegter Basen von $\K^n$ und $\K^m$ eindeutig durch die Matrix $A\in K^{m\times n}$ beschreiben.
  35. $$\hat \varphi(x) = A\hat x, \qquad x\in \K^n$$
  36. Im folgenden wird der Punkt $x$ mit seiner speziellen kartesischen Darstellung $\hat x$ identifiziert.
  37. Konvention: $A\in \K^{m\times n}$
  38. \begin{itemize}
  39. \item Anzahl an Zeilen $m =$ Dimension des Bildraums $\K^m$
  40. \item Anzahl an Spalten $n =$ Dimension des Urbildraums $\K^n$
  41. \end{itemize}
  42. Falls $m =n$ definiert $A\in K^{n\times n}$ eine lineare Abbildung in $\K^n$.
  43. \end{bem}
  44. \begin{lemma}[Lineare Abbildungen in $\K^n$]
  45. \label{lemma:linabb}
  46. Sei $A = (a_{ij})_{i,j=1}^n \in \K^{n\times n}$. Dann sind die folgenden Aussagen äquivalent.
  47. \begin{enumerate}
  48. \item $A$ ist regulär
  49. \item $Ax = b$ ist eindeutig lösbar $\forall b\in \K^n$ (Bijektivität der linearen Abbildung)
  50. \item $Ax = 0$ hat nur eine Lösung $x = 0$ (Injektivität)
  51. \item $Ax = b$ ist $\forall b \in \K^n$ lösbar (Surjektivität)
  52. \item Rang$(A) = n$
  53. \item $\det (A) \neq 0$
  54. \item Alle Eigenwerte $\lambda \in \C$ von $A$ sind ungleich Null
  55. \item Die (komplex) transponierte Matrix $\bar{A}^T$ ist regulär.
  56. \end{enumerate}
  57. \end{lemma}
  58. Weitere Begriffe und Eigenschaften
  59. \begin{itemize}
  60. \item $A, A' \in \K^{n\times n}$ sind \textbf{identisch} $(a_{ij} = a_{ij}' \ \forall i, j) \Leftrightarrow Ax = A'x \ \forall x \in \K^n$
  61. \item $A, A' \in \K^{n\times n}$ sind \textbf{ähnlich}, wenn $\exists T \in \K^{n\times n}$ regulär, sodass $$A' = T^{-1} AT$$
  62. Übergang $A \to A'$ heißt Ähnlichkeitstransformation und es gilt für $z \in \C$
  63. \begin{align*}
  64. \underbrace{\det(A' - z \mathbb{I})}_{\overset{\text{\footnotesize Charakt. Polynom für $A'$}}{\text{\footnotesize Nullstellen $=$ EW von $A'$}}}
  65. &= \det\left(T^{-1}AT - z \underbrace{T^{-1}T}_{= \mathbb{I}}\right)\\
  66. &= \det(T^{-1}(A- z \mathbb{I})T)\\
  67. &\stackrel{\det(AB) = \det(A)\det(B)}{=}\qquad \qquad \det(T^{-1}) \det(A - z \mathbb{I})\det(T)\\
  68. &\stackrel{\det(T^{-1})\det(T) = 1 = \det(\mathbb{I}))}{=} \qquad \qquad \underbrace{\det(A - z \mathbb{I})}_{\mathclap{\text{char. Pol. von $A$}}}
  69. \end{align*}
  70. Ähnliche Matrizen haben also die gleichen Eigenwerte, aber im Allgemeinen unterschiedliche Eigenvektoren.
  71. \item $n \times n$ Matrizen $A\in \K^{m\times n}$ bilden einen Vektorraum.
  72. \begin{itemize}
  73. \item \textbf{Konvergenz} von Folgen von Matrizen ist komponentenweise Konvergenz
  74. $$A^{(k)} \to A, k \to \infty \Leftrightarrow a_{ij}^{(k)} \overset{k \to \infty}{\to} a_{ij}\ \forall i = 1, \dots, m, \forall j = 1, \dots n$$
  75. \end{itemize}
  76. \item Sei $\Vert \cdot \Vert$ eine beliebige Norm auf $\K^n$. Dann
  77. $$\norm{A} \coloneqq \sup\limits_{x \in \K^n\setminus \{0\}} \frac{\norm{Ax}}{\norm{x}} = \sup\limits_{x\in \K ^n} \norm{Ax}\; \text{für}\; \norm{x} = 1$$ ist die von $\norm{\cdot}$ in $\K^n$ erzeugte natürliche \textbf{Matrixnorm}
  78. \begin{itemize}
  79. \item Für natürliche Matrixnorm gilt notwendig $\norm{\mathbb{I}} = 1$
  80. \item Natürliche Matrixnorm ist \underline{verträglich} mit $\norm{\cdot}$, d.h. für $A\in K^{n\times n}$ ist $\norm{Ax} \leq \norm{A}\cdot \norm{x}, x\in \K^n$
  81. \item und \underline{submultiplikativ}, d.h.
  82. $\norm{AB} \leq \norm{A}\norm{B}$ für $A, B \in \K^{n\times n}$
  83. \end{itemize}
  84. \end{itemize}
  85. \begin{bsp}
  86. $\norm{A}_F = \left(\sum_{j, k = 1}^{n}|a_{jk}|^2 \right)^{\frac{1}{2}}$ heißt \textbf{Frobenius}-Norm. Sie ist verträglich mit $\norm{\cdot}_2$ in $\K^n$ und submultiplikativ, aber keine natürliche Matrixnorm, weil $\norm{\mathbb{I}}_F = \sqrt{n} \neq 1$ für $n \geq 2$.
  87. \end{bsp}
  88. \begin{lemma}[Natürliche Matrixnormen]
  89. Die natürliche Matrixnormen zu $\norm{\cdot}_\infty$ ($\ell_\infty$ / Maximumnorm) und $\norm{\cdot}_1$ ($\ell_1$-Norm) in $\K^n$ sind
  90. $$\norm{A}_\infty \coloneqq \max\limits_{1 \leq i \leq n} \sum_{j = 1}^{n}|a_{ij}|\qquad \text{Maximale Zeilen-Summen-Norm}$$
  91. $$\norm{A}_\infty \coloneqq \max\limits_{1 \leq j \leq n} \sum_{i = 1}^{n}|a_{ij}|\qquad \text{Maximale Spalten-Summen-Norm}$$
  92. \end{lemma}
  93. \begin{proof}
  94. \begin{enumerate}
  95. \item Matrixnorm $\norm{\cdot}_\infty$ ist eine Norm (d.h. erfüllt Normeigenschaften (N1), (N2) und (N3))
  96. \item Z.z. Verträglichkeit
  97. $$\norm{Ax}_\infty\! = \max\limits_{1 \leq i \leq n} \left| \sum_{j = 1}^{n}a_{ij}x_j\right| \leq \max\limits_{1 \leq i \leq n}\left(\sum_{j = 1}^{n}|a_{ij}| \cdot |x_j|\right)\! \leq \norm{x}_\infty \cdot \max_{1\leq i \leq n} \sum_{j = 1}^{n} |a_{ij}| = \norm{x}_\infty \cdot \norm{A}_\infty$$
  98. $\implies$ Verträglichkeit mit $\norm{\cdot}_\infty$
  99. \item Z.Z. $\norm{A}_\infty = \sup\limits_{\norm{x}_\infty = 1} \norm{Ax}_\infty$
  100. $$\norm{Ax}_\infty = 0 \implies A = 0\implies \norm{A}_\infty = 0 = \sup\limits_{\norm{x}_\infty = 1} \norm{Ax}_\infty$$
  101. Sei $A \neq 0$, dann $\norm{A}_\infty > 0$ (Definitheit von Normen). Sei $$\norm{A}_\infty = \max\limits_{1\leq i\leq n} \sum_{j = 1}^{n}|a_{ij}| = \sum_{j = 1}^{n}|a_{mj}|\text{ für ein }m\in \{1, \dots, n\}.$$ Setze $z_j = \frac{|a_{mj}|}{a_{mj}}$, falls $a_{mj} \neq 0$ und sonst $z_j = 0$. ($z_j = \operatorname{sign}(a_{mj})$). Für $z = \begin{pmatrix}
  102. z_1 \\ \vdots \\ z_n
  103. \end{pmatrix}$ gilt dann $\norm{z}_\infty = 1$ und $$(Az)_m = \sum_{j = 1}^{n}a_{mj}z_j = \sum_{j = 1}^{n}|a_{mj}| = \norm{A}_\infty.$$ Es folgt
  104. $$\norm{A}_\infty = (Az)_m \leq \norm{Az}_\infty \leq \sup\limits_{\norm{y}_\infty = 1} \norm{Ay}_\infty \leq \sup\limits_{\norm{y}_\infty = 1} \norm{A}_\infty \cdot \underbrace{\norm{y}_\infty}_{=1} = \norm{A}_\infty$$
  105. $$\implies \norm{A}_\infty = \sup\limits_{\norm{y}_\infty = 1} \norm{Ay}_\infty$$
  106. \end{enumerate}
  107. Beweis für $\ell_1$ analog.
  108. \end{proof}
  109. \begin{definition}
  110. \begin{enumerate}
  111. \item Eigenwerte $\lambda \in \K$ einer Matrix $A\in \K^{n\times n} = $ Nullstellen des charakteristischen Polynoms
  112. $$p(\lambda) = \det(A - \lambda \mathbb{I})$$
  113. \item $\sigma(A) = \{\lambda \ |\ \lambda\text{ Eigenwert von } A\}$ heißt \textbf{Spektrum} von $A$.
  114. \item $\forall \lambda \in \sigma(A)\ \exists \text{ Eigenvektor } w\in \K^n\setminus\{0\}:$
  115. $$A w = \lambda w$$
  116. Die Eigenvektoren zu $\lambda$ bilden einen Vektorraum, den \textbf{Eigenraum} zu $\lambda$ mit Dimension = \textbf{geometrische Vielfachheit} von $\lambda$.
  117. \item Abschätzung der Eigenwerte: Sei $\lambda \in \sigma(A)$ und $w$ ein Eigenvektor zu $\lambda$ mit $\norm{w} = 1$.
  118. Dann $|\lambda| = |\lambda| \cdot \norm{w} = \norm{\lambda w} = \norm{Aw} \underset{\text{Verträglichkeit}}{\leq} \norm{A}\cdot \norm{w} = \norm{A} \implies |\lambda| \leq \norm{A}$
  119. \item $A$ heißt \textbf{hermitesch}, falls gilt
  120. $$A = \bar{A}^T\quad (a_{ij} = \overline{a_{ji}})$$
  121. Reelle hermitesche Matrizen heißen \textbf{symmetrisch}. Für das Skalarproukt gilt
  122. $$A = \bar{A}^T \Leftrightarrow (Ax, y)_2 = (x, Ay)_2 \ \forall x, y \in \K^n$$
  123. Hermitesche Matrizen sind diagonalisierbar = ähnlich zu einer Diagonalmatrix, alle Eigenwerte einer hermiteschen Matrix sind reell. $\exists$ eine orthonormale Basis aus Eigenvektoren.
  124. \item $A\in \K^{n\times n}$ heißt \textbf{positiv definit}, wenn gilt $(Ax, x)_2 \in \R$, $(Ax, x)_2 > 0 \ \forall x \in \K^n\setminus\{0\}$. Eine hermitesche Matrix ist positiv definit $\Leftrightarrow$ alle Eigenwerte sind positiv.
  125. \item $\norm{\cdot}_2$ ($\ell_2$-Norm) im $\K^n$ erzeugt eine natürliche \textbf{Matrixnorm (Spektralnorm)} $\norm{\cdot}_2$
  126. \end{enumerate}
  127. \end{definition}
  128. \begin{lemma}[Spektralnorm]
  129. \label{lemma:spektralnorm}
  130. Sei $A \in \K^{n\times n}$. Dann ist $\bar{A}^TA \in \K^{n\times n}$ hermitesch und positiv semidefinit. Für die Spektralnorm gilt
  131. $$\norm{A}_2 = \max \left\{\sqrt{|\lambda|}, \lambda \in \sigma(\bar{A}^TA)\right\}$$
  132. Sei $A$ hermitesch, bzw. symmetrisch, dann gilt $\norm{A}_2 = \max\{\sqrt{|\lambda|}, \lambda\in \sigma(A)\}$
  133. \end{lemma}
  134. \begin{proof}
  135. \begin{enumerate}[1)]
  136. \item $\bar{A}^{T}A$ hermitesch, denn
  137. \[
  138. \overline{\left( \bar{A}^{T}A \right)^{T}}
  139. = \left( A^{T}\bar{A} \right)^{T} = \bar{A}^{T}A
  140. .\] $\bar{A}^{T}A$ positiv semidefinit, denn
  141. \[
  142. (\bar{A}^{T}Ax, x)_2 = (Ax, Ax)_2 = \Vert A x \Vert_2^{2} \ge 0 \qquad
  143. \forall x \in \mathbb{K}^{n}
  144. .\]
  145. \item Es ist nach Definition
  146. \[
  147. \Vert A \Vert_2^2 = \sup_{\Vert x \Vert_{2} = 1} \Vert A x \Vert_2^{2}
  148. = \sup_{\Vert x \Vert_2 = 1} (Ax, Ax)_2
  149. = \sup_{\Vert x \Vert_2 = 1} (x, \bar{A}^{T}Ax)_2
  150. .\] Wegen (1) ist $\bar{A}^{T}A$ hermitesch und positiv
  151. semidefinit, d.h. es ex. $U \in \mathbb{K}^{n \times n}$
  152. mit $U$ unitär und $U^{T}\bar{A}^{T}AU = D$, wobei
  153. $D = \text{diag}(\lambda_1, \ldots, \lambda_n)$, $\lambda \in \sigma(\bar{A}^{T}A)$ und
  154. $\lambda_i \ge 0$ reell.
  155. Sei $y = \bar{U}^{T}x = U^{-1}x \implies x = Uy$. Damit folgt
  156. mit $|\lambda_{max}| := \max \{ |\lambda_i| \mid \lambda_i \in \sigma(\bar{A}^{T}A)\} $
  157. \begin{align*}
  158. \Vert A \Vert_2^2 &= \sup_{\Vert x \Vert_2 = 1} (x, \bar{A}^{T}Ax)_2 \\
  159. &= \sup_{\Vert Uy \Vert_2 = 1} (\underbrace{Uy}_{= x}, \bar{A}^{T}A\underbrace{Uy}_{= x})_2 \\
  160. &= \sup_{\Vert y \Vert_2 = 1} (y, \underbrace{\bar{U}^{T}\bar{A}^{T}AU}_{= D}y)_2 \\
  161. &= \sup_{\Vert y \Vert_2 = 1} (y, Dy)_2 \\
  162. &= \sup_{\Vert y \Vert_2 = 1}
  163. (\underbrace{\lambda_1 |y_1|^2 + \ldots + \lambda_n |y_n|^2}
  164. _{= \sum_{i=1}^{n} \lambda_i |y_i|^2}) \\
  165. &\le \sup_{\Vert y \Vert_2 = 1} \sum_{i=1}^{n} |\lambda_{max}| |y_i|^2 \\
  166. &= |\lambda_{max}| \sup_{\Vert y \Vert_2 = 1} \Vert y \Vert_2^2 \\
  167. &= |\lambda_{max}|
  168. .\end{align*}
  169. Sei $y$ Eigenvektor zu $\lambda_{max}$ und $\Vert y \Vert_2 = 1$. Dann gilt
  170. $Dy = \lambda_{max}y$, also $(y, Dy)_2 = \lambda_{max}\underbrace{(y,y)_2}_{= 1}$. Damit
  171. existiert ein $y$, s.d. $(y, Dy)_2 = \lambda_{max}$. % ????
  172. Also folgt
  173. $\displaystyle \sup_{\Vert y \Vert_2 = 1}(y, Dy)_2 = \lambda_{max}$. Damit folgt die
  174. Behauptung für $A \in \mathbb{K}^{n \times n}$. Behauptung
  175. für $A$ hermitesch analog. % ???????
  176. \end{enumerate}
  177. \end{proof}
  178. \begin{definition}[orthonormale/unitäre Matrizen]
  179. Eine Matrix $Q\in \K^{m\times n}$ heißt \textbf{orthonormal}, wenn ihre Spaltenvektoren ein Orthonormalsystem im $\K^m$ bilden, d.h.
  180. $$Q = (q_1, \dots, q_n)\qquad q_j \in \K^m$$
  181. $$(q_i, q_j)_2 = \sum_{k = 1}^{m} q_{ik}\cdot \overline{q_{kj}} = \begin{cases}
  182. 1, &i =j\\
  183. 0, &\text{sonst}
  184. \end{cases}$$
  185. Falls $m =n$ heißt $Q$ unitär.
  186. \end{definition}
  187. \begin{lemma}
  188. Sei $Q\in \K^{n\times n}$ unitär. Dann ist $Q$ regulär, $Q^{-1} = \overline{Q}^T$ und $(Qx, Qy)_2 = (x,y)_2,\; x,y\in \K^n$
  189. $$\norm{Qx}_2 = \norm{x}_2, \; x\in \K^n$$
  190. d.h. euklidisches Skalarproukt und euklidische Norm sind invariant unter unitären Transformationen und folglich $\norm{Q}_2 = \norm{Q^{-1}}_2 = 1$
  191. \end{lemma}
  192. \begin{proof}
  193. \begin{enumerate}
  194. \item Z.Z. $Q^{-1} = \overline{Q}^T$\\
  195. Sei $Q = (q_1, \dots, q_n), \overline{Q}^T = \begin{pmatrix}
  196. \overline{q}_1^T\\
  197. \vdots\\
  198. \overline{q}_n^T
  199. \end{pmatrix}$. Dann gilt
  200. $$\overline{Q}^T \cdot Q = \begin{pmatrix}
  201. \overline{q}_1^T \cdot q_1 & \dots & \overline{q}_1^T \cdot q_n\\
  202. \vdots & \ddots & \vdots\\
  203. \overline{q}_n^T \cdot q_1 & \dots & \overline{q}_n^T \cdot q_n
  204. \end{pmatrix} \overset{Q \text{ unitär}}{=} \begin{pmatrix}
  205. 1 & & 0\\
  206. & \ddots & \\
  207. 0 & & 1
  208. \end{pmatrix}$$
  209. \item \begin{align*}
  210. (Qx, Qy)_2 &= (x, \overline{Q}^TQ y)_2 = (x,y)_2\\
  211. \norm{Qx}_2^2 &= (Qx, Qx)_2 = (x,x)_2 = \norm{x}_2^2\\
  212. \norm{Q}_2 &= \sup\limits_{\norm{x}_2 =1} \norm{Qx}_2 = \sup\limits_{\norm{x}_2 =1} \norm{x}_2 = 1\\
  213. \norm{Q^{-1}}_2 &= \sup\limits_{\norm{x}_2 =1} \norm{Q^{-1}x}_2 = \sup\limits_{\norm{x}_2 =1} \norm{QQ^{-1}x}_2 = \sup\limits_{\norm{x}_2 =1} \norm{x}_2 = 1
  214. \end{align*}
  215. \end{enumerate}
  216. \end{proof}
  217. \end{document}