| @@ -8,16 +8,16 @@ | |||
| \section{Lineare Abbildungen auf dem \texorpdfstring{$K^{n}$}{K\unichar{"207F}}} | |||
| \begin{definition}[Lineare Abbildung] | |||
| Eine lineare Abbildung $\varphi: \K^n \to \K^m$ heißt linear, falls $\forall \alpha. \beta \in \K$ gilt $$\varphi (\alpha x + \beta y) = \alpha \varphi(x) + \beta \varphi(y)\qquad\forall x,y \in \K^n$$ | |||
| Eine lineare Abbildung $\varphi: \K^n \to \K^m$ heißt linear, falls $\forall \alpha, \beta \in \K$ gilt $$\varphi (\alpha x + \beta y) = \alpha \varphi(x) + \beta \varphi(y)\qquad\forall x,y \in \K^n$$ | |||
| \end{definition} | |||
| \begin{bem} | |||
| Eine lineare Abbildung läßt sich als Matrix darstellen. Betrachte $x\in \K^n$ und euklidische /kartesische Basis $e^{(i)},\; i = 1,\dots n$. Dann $\exists !$ Darstellung von $x$ bezüglich der Basis | |||
| Eine lineare Abbildung läßt sich als Matrix darstellen. Betrachte $x\in \K^n$ und euklidische/kartesische Basis $e^{(i)},\; i = 1,\dots n$. Dann $\exists !$ Darstellung von $x$ bezüglich der Basis | |||
| $$x = \sum_{i = 1}^{n}x_i\cdot e^{(i)}.$$ | |||
| Die Koeffizienten $x_i, i = 1, \dots n$ sind Koordinaten. Wir definieren Koordinatenvektor $\hat x = \begin{pmatrix} | |||
| x_1\\\vdots\\x_n | |||
| \end{pmatrix}$. Dann ist $$\varphi(x) = \varphi\left(\sum_{i = 1}^{n}x_i\cdot e^{(i)}\right) = \sum_{i = 1}^{n}x_i \cdot \varphi\left(e^{(i)}\right).$$ | |||
| $\varphi(x)$ hat auch eine (eindeutige) Darstellung bzgl. Basis in $\K^m$. | |||
| $$\varphi(x) = \sum_{j = 1}^{m} \underbrace{\varphi_j(x)}_{*} = \sum_{j = 1}^{m}\underbrace{\left(\sum_{i = 1}^{n}x_i\overbrace{\varphi_j\left(e^{(i)}\right)}^{a_{ji}}\right)}_{= \varphi_j(x)} \cdot e^{(j)}$$ | |||
| $$\varphi(x) = \sum_{j = 1}^{m} \underbrace{\varphi_j(x)}_{*} \cdot e^{(j)} = \sum_{j = 1}^{m}\underbrace{\left(\sum_{i = 1}^{n}x_i\overbrace{\varphi_j\left(e^{(i)}\right)}^{a_{ji}}\right)}_{= \varphi_j(x)} \cdot e^{(j)}$$ | |||
| \begin{center} | |||
| (*) Koordinaten von $\varphi_j(x)$ bzgl. Basis $e^{(j)}, j = 1, \dots, m$ | |||
| \end{center} | |||
| @@ -47,7 +47,7 @@ | |||
| Falls $m =n$ definiert $A\in K^{n\times n}$ eine lineare Abbildung in $\K^n$. | |||
| \end{bem} | |||
| \begin{lemma}[Lineare Abbildungen in $\K^n$] | |||
| Sei $A = (a_{ij})_{i,j}^n \in \K^{n\times n}$. Dann sind die folgenden Aussagen äquivalent. | |||
| Sei $A = (a_{ij})_{i,j=1}^n \in \K^{n\times n}$. Dann sind die folgenden Aussagen äquivalent. | |||
| \begin{enumerate} | |||
| \item $A$ ist regulär | |||
| \item $Ax = b$ ist eindeutig lösbar $\forall b\in \K^n$ (Bijektivität der linearen Abbildung) | |||
| @@ -56,12 +56,12 @@ | |||
| \item Rang$(A) = n$ | |||
| \item $\det (A) \neq 0$ | |||
| \item Alle Eigenwerte $\lambda \in \C$ von $A$ sind ungleich Null | |||
| \item Die (komplex) transponierte Matrix $\overline{A}^T$ ist regulär. | |||
| \item Die (komplex) transponierte Matrix $\bar{A}^T$ ist regulär. | |||
| \end{enumerate} | |||
| \end{lemma} | |||
| Weitere Begriffe und Eigenschaften | |||
| \begin{itemize} | |||
| \item $A, A' \in \K^{n\times n}$ sind \textbf{identisch} $(a_{ij} = a_{ij}' \forall i, j) \Leftrightarrow Ax = A'x \forall c \in \K^n$ | |||
| \item $A, A' \in \K^{n\times n}$ sind \textbf{identisch} $(a_{ij} = a_{ij}' \ \forall i, j) \Leftrightarrow Ax = A'x \ \forall x \in \K^n$ | |||
| \item $A, A' \in \K^{n\times n}$ sind \textbf{ähnlich}, wenn $\exists T \in \K^{n\times n}$ regulär, sodass $$A' = T^{-1} AT$$ | |||
| Übergang $A \to A'$ heißt Ähnlichkeitstransformation und es gilt für $z \in \C$ | |||
| \begin{align*} | |||
| @@ -69,13 +69,13 @@ Weitere Begriffe und Eigenschaften | |||
| &= \det\left(T^{-1}AT - z \underbrace{T^{-1}T}_{= \mathbb{I}}\right)\\ | |||
| &= \det(T^{-1}(A- z \mathbb{I})T)\\ | |||
| &\stackrel{\det(AB) = \det(A)\det(B)}{=}\qquad \qquad \det(T^{-1}) \det(A - z \mathbb{I})\det(T)\\ | |||
| &\stackrel{\det(T^{-1}\det(T) = 1 = \det(\mathbb{I}))}{=} \qquad \qquad \underbrace{\det(A - z \mathbb{I})}_{\mathclap{\text{char. Pol. von $A$}}} | |||
| &\stackrel{\det(T^{-1})\det(T) = 1 = \det(\mathbb{I}))}{=} \qquad \qquad \underbrace{\det(A - z \mathbb{I})}_{\mathclap{\text{char. Pol. von $A$}}} | |||
| \end{align*} | |||
| Ähnliche Matrizen haben also die gleichen Eigenwerte, aber im Allgemeinen unterschiedliche Eigenvektoren. | |||
| \item $n \times n$ Matrizen $A\in \K^{m\times n}$ bilden einen Vektorraum. | |||
| \begin{itemize} | |||
| \item \textbf{Konvergenz} von Folgen von Matrizen ist komponentenweise Konvergenz | |||
| $$A^{(k)} \to A, k \to \infty \Leftrightarrow a_{ij}^{(k)} \overset{k \to \infty}{\to} a_{ij} \forall i = 1, \dots, m, \forall j = 1, \dots n$$ | |||
| $$A^{(k)} \to A, k \to \infty \Leftrightarrow a_{ij}^{(k)} \overset{k \to \infty}{\to} a_{ij}\ \forall i = 1, \dots, m, \forall j = 1, \dots n$$ | |||
| \end{itemize} | |||
| \item Sei $\Vert \cdot \Vert$ eine beliebige Norm auf $\K^n$. Dann | |||
| $$\norm{A} \coloneqq \sup\limits_{x \in \K^n\setminus \{0\}} \frac{\norm{Ax}}{\norm{x}} = \sup\limits_{x\in \K ^n} \norm{Ax}\; \text{für}\; \norm{x} = 1$$ ist die von $\norm{\cdot}$ in $\K^n$ erzeugte natürliche \textbf{Matrixnorm} | |||
| @@ -90,7 +90,7 @@ Weitere Begriffe und Eigenschaften | |||
| $\norm{A}_F = \left(\sum_{j, k = 1}^{n}|a_{jk}|^2 \right)^{\frac{1}{2}}$ heißt \textbf{Frobenius}-Norm. Sie ist verträglich mit $\norm{\cdot}_2$ in $\K^n$ und submultiplikativ, aber keine natürliche Matrixnorm, weil $\norm{\mathbb{I}}_F = \sqrt{n} \neq 1$ für $n \geq 2$. | |||
| \end{bsp} | |||
| \begin{lemma}[Natürliche Matrixnormen] | |||
| Die natürliche Matrixnormen zu $\norm{\cdot}_\infty$ ($l_\infty$ / Maximumnorm) und $\norm{\cdot}_1$ ($l_1$-Norm) in $\K^n$ sind | |||
| Die natürliche Matrixnormen zu $\norm{\cdot}_\infty$ ($\ell_\infty$ / Maximumnorm) und $\norm{\cdot}_1$ ($\ell_1$-Norm) in $\K^n$ sind | |||
| $$\norm{A}_\infty \coloneqq \max\limits_{1 \leq i \leq n} \sum_{j = 1}^{n}|a_{ij}|\qquad \text{Maximale Zeilen-Summen-Norm}$$ | |||
| $$\norm{A}_\infty \coloneqq \max\limits_{1 \leq j \leq n} \sum_{i = 1}^{n}|a_{ij}|\qquad \text{Maximale Spalten-Summen-Norm}$$ | |||
| \end{lemma} | |||
| @@ -108,30 +108,30 @@ Weitere Begriffe und Eigenschaften | |||
| $$\norm{A}_\infty = (Az)_m \leq \norm{Az}_\infty \leq \sup\limits_{\norm{y}_\infty = 1} \norm{Ay}_\infty \leq \sup\limits_{\norm{y}_\infty = 1} \norm{A}_\infty \cdot \underbrace{\norm{y}_\infty}_{=1} = \norm{A}_\infty$$ | |||
| $$\implies \norm{A}_\infty = \sup\limits_{\norm{y}_\infty = 1} \norm{Ay}_\infty$$ | |||
| \end{enumerate} | |||
| Beweis für $l_1$ analog. | |||
| Beweis für $\ell_1$ analog. | |||
| \end{proof} | |||
| \begin{definition} | |||
| \begin{enumerate} | |||
| \item Eigenwerte $\lambda \in \K$ einer Matrix $A\in \K^{n\times n} = $ Nullstellen des charakteristischen Polynoms | |||
| $$p(\lambda) = \det(A - \lambda \mathbb{I})$$ | |||
| \item $\sigma(A) = \{\lambda |\lambda\text{ Eigenwert von } A\}$ heißt \textbf{Spektrum} von $A$. | |||
| \item $\forall \lambda \in \sigma(A) \exists \text{Eigenvektor } w\in \K^n\setminus\{0\}:$ | |||
| \item $\sigma(A) = \{\lambda \ |\ \lambda\text{ Eigenwert von } A\}$ heißt \textbf{Spektrum} von $A$. | |||
| \item $\forall \lambda \in \sigma(A)\ \exists \text{ Eigenvektor } w\in \K^n\setminus\{0\}:$ | |||
| $$A w = \lambda w$$ | |||
| Die Eigenvektoren zu $\lambda$ bilden einen Vektorraum, den \textbf{Eigenraum} zu $\lambda$ mit Dimension = \textbf{geometrische Vielfachheit} von $\lambda$. | |||
| \item Abschätzung der Eigenwerte: Sei $\lambda \in \sigma(A)$ und $w$ ein Eigenvektor zu $\lambda$ mit $\norm{w} = 1$. | |||
| Dann $|\lambda| = |lambda| \cdot \norm{w} = \norm{\lambda w} = \norm{Aw} \underset{\text{Verträglichkeit}}{\leq} \norm{A}\cdot \norm{w} = \norm{A} \implies |\lambda| \leq \norm{A}$ | |||
| Dann $|\lambda| = |\lambda| \cdot \norm{w} = \norm{\lambda w} = \norm{Aw} \underset{\text{Verträglichkeit}}{\leq} \norm{A}\cdot \norm{w} = \norm{A} \implies |\lambda| \leq \norm{A}$ | |||
| \item $A$ heißt \textbf{hermitesch}, falls gilt | |||
| $$A = \overline{A}^T\quad (a_{ij} = \overline{a_{ji}})$$ | |||
| $$A = \bar{A}^T\quad (a_{ij} = \overline{a_{ji}})$$ | |||
| Reelle hermitesche Matrizen heißen \textbf{symmetrisch}. Für das Skalarproukt gilt | |||
| $$A = \overline{A}^T \Leftrightarrow (Ax, y)_2 = (x, Ay)_2 \forall x, y \in \K^n$$ | |||
| $$A = \bar{A}^T \Leftrightarrow (Ax, y)_2 = (x, Ay)_2 \ \forall x, y \in \K^n$$ | |||
| Hermitesche Matrizen sind diagonalisierbar = ähnlich zu einer Diagonalmatrix, alle Eigenwerte einer hermiteschen Matrix sind reell. $\exists$ eine orthonormale Basis aus Eigenvektoren. | |||
| \item $A\in \K^{n\times n}$ heißt \textbf{positiv definit}, wenn gilt $(Ax, x)_2 \in \R$, $(Ax, x)_2 > 0\forall x \in \K^n\setminus\{0\}$. Eine hermitesche Matrix ist positiv definit $\Leftrightarrow$ alle Eigenwerte sind positiv. | |||
| \item $\norm{\cdot}_2$ ($l_2$-Norm) im $\K^n$ erzeugt eine natürliche \textbf{Matrixnorm(Spektralnorm)} $\norm{\cdot}_2$ | |||
| \item $A\in \K^{n\times n}$ heißt \textbf{positiv definit}, wenn gilt $(Ax, x)_2 \in \R$, $(Ax, x)_2 > 0 \ \forall x \in \K^n\setminus\{0\}$. Eine hermitesche Matrix ist positiv definit $\Leftrightarrow$ alle Eigenwerte sind positiv. | |||
| \item $\norm{\cdot}_2$ ($\ell_2$-Norm) im $\K^n$ erzeugt eine natürliche \textbf{Matrixnorm (Spektralnorm)} $\norm{\cdot}_2$ | |||
| \end{enumerate} | |||
| \end{definition} | |||
| \begin{lemma}[Spektralnorm] | |||
| Sei $A \in \K^{n\times n}$. Dann ist $\overline{A}^TA \in \K^{n\times n}$ hermitesch und positiv semidefinit. Für die Spektralnorm gilt | |||
| $$\norm{A}_2 = \max \{\sqrt{|\lambda|}, \lambda \in \sigma(\overline{A}^TA)\}$$ | |||
| Sei $A \in \K^{n\times n}$. Dann ist $\bar{A}^TA \in \K^{n\times n}$ hermitesch und positiv semidefinit. Für die Spektralnorm gilt | |||
| $$\norm{A}_2 = \max \left\{\sqrt{|\lambda|}, \lambda \in \sigma(\bar{A}^TA)\right\}$$ | |||
| Sei $A$ hermitesch, bzw. symmetrisch, dann gilt $\norm{A}_2 = \max\{\sqrt{|\lambda|}, \lambda\in \sigma(A)\}$ | |||
| \end{lemma} | |||
| \begin{proof} | |||
| @@ -156,12 +156,12 @@ Weitere Begriffe und Eigenschaften | |||
| \item Z.Z. $Q^{-1} = \overline{Q}^T$\\ | |||
| Sei $Q = (q_1, \dots, q_n), \overline{Q}^T = \begin{pmatrix} | |||
| \overline{q}_1^T\\ | |||
| \dots\\ | |||
| \vdots\\ | |||
| \overline{q}_n^T | |||
| \end{pmatrix}$. Dann gilt | |||
| $$\overline{Q}^T \cdot Q = \begin{pmatrix} | |||
| \overline{q}_1^T \cdot q_1 & \dots & \overline{q}_1^T \cdot q_n\\ | |||
| \vdots & & \vdots\\ | |||
| \vdots & \ddots & \vdots\\ | |||
| \overline{q}_n^T \cdot q_1 & \dots & \overline{q}_n^T \cdot q_n | |||
| \end{pmatrix} \overset{Q \text{ unitär}}{=} \begin{pmatrix} | |||
| 1 & & 0\\ | |||
| @@ -171,8 +171,8 @@ Weitere Begriffe und Eigenschaften | |||
| \item \begin{align*} | |||
| (Qx, Qy)_2 &= (x, \overline{Q}^TQ y)_2 = (x,y)_2\\ | |||
| \norm{Qx}_2^2 &= (Qx, Qx)_2 = (x,x)_2 = \norm{x}_2^2\\ | |||
| \norm{Q}_2 &= \sup\limits_{\norm{x_2} =1} \norm{Qx}_2 = \sup\limits_{\norm{x_2} =1} \norm{x}_2 = 1\\ | |||
| \norm{Q^{-1}}_2 &= \sup\limits_{\norm{x_2} =1} \norm{Q^{-1}x}_2 = \sup\limits_{\norm{x_2} =1} \norm{QQ^{-1}x}_2 = \sup\limits_{\norm{x_2} =1} \norm{x}_2 = 1 | |||
| \norm{Q}_2 &= \sup\limits_{\norm{x}_2 =1} \norm{Qx}_2 = \sup\limits_{\norm{x}_2 =1} \norm{x}_2 = 1\\ | |||
| \norm{Q^{-1}}_2 &= \sup\limits_{\norm{x}_2 =1} \norm{Q^{-1}x}_2 = \sup\limits_{\norm{x}_2 =1} \norm{\overline{Q}Q^{-1}x}_2 = \sup\limits_{\norm{x}_2 =1} \norm{x}_2 = 1 | |||
| \end{align*} | |||
| \end{enumerate} | |||
| \end{proof} | |||