\documentclass[uebung]{../../../lecture} \title{Einführung in die Numerik: Übungsblatt 5} \author{Leon Burgard, Christian Merten} \begin{document} \punkte \begin{aufgabe} \begin{enumerate}[a)] \item Beh.: Sei $P \in \R^{n \times n}$ mit $P^2 = P$ und $P \neq 0$. Dann gilt für $\Vert P \Vert \ge 1$ für jede natürliche Matrixnorm $\Vert \cdot \Vert$. \begin{proof} Sei $P \in \R^{n \times n} \setminus \{0\} $ mit $P^2 = P$ und $\Vert \cdot \Vert$ natürlich. Dann ist $\Vert \cdot \Vert$ insbesondere submultiplikativ, also folgt $\Vert P \Vert = \Vert P^2 \Vert \le \Vert P \Vert \cdot \Vert P \Vert \implies 1 \le \Vert P \Vert$. \end{proof} \item Beh.: Sei $A \in \mathbb{C}^{n \times n}$. Dann gilt \[ A = \bar{A}^{T} \iff (Ax, y)_2 = (x, Ay)_2 \quad \forall x, y \in \mathbb{C}^{n} .\] \begin{proof} Sei $A \in \mathbb{C}^{n \times n}$. Es ist \begin{salign*} &(Ax, y)_2 = (x, Ay)_2 \quad \forall x, y \in \mathbb{C}^{n}\\ \iff &x^{T}A^{T} \bar{y} = x^{T}\bar{A}\bar{y} \quad \forall x, y \in \mathbb{C}^{n} \\ \stackrel{(*)}{\iff}& A^{T} = \bar{A} \\ \iff& A = \bar{A}^{T} .\end{salign*} $(*)$ folgt durch Einsetzen von allen Koordinateneinheitsvektoren für $x$ und $y$. \end{proof} \item Sei $A \in \mathbb{K}^{n \times n}$ symmetrisch und positiv definit. Beh.: Es existiert ein $B \in \mathbb{K}^{n \times n}$ mit $A = B \cdot B$. \begin{proof} Da $A$ symmetrisch und positiv definit, existiert eine orthogonale Matrix $Q$ und eine Diagonalmatrix $D$ mit $A = QDQ^{T}$. Da $A$ symmetrisch und positiv definit, sind alle Eigenwerte $\lambda_i$ positiv. Definiere \begin{align*} \widetilde{D} := \begin{pmatrix} \sqrt{\lambda_1} & 0 & \\ 0 & \ddots & \\ & & \sqrt{\lambda_n} \end{pmatrix} .\end{align*} Dann gilt also $D= \widetilde{D}^2$. Dann wähle $B := Q \widetilde{D}Q^{T}$. Dann folgt \begin{align*} B \cdot B = Q\widetilde{D} \underbrace{Q^{T} \cdot Q}_{= E_n} \widetilde{D}Q^{T} = Q \widetilde{D}^2 Q^{T} = QDQ^{T} = A .\end{align*} \end{proof} \end{enumerate} \end{aufgabe} \begin{aufgabe} Sei $A \in \mathbb{K}^{n \times n}$ positiv definit und für $\mathbb{K} = \R$ sei $A$ symmetrisch. Es sei außerdem für $x \in \mathbb{K}^{n}$: \[ R_A(x) = \frac{(Ax, x)_2}{(x,x)_2} .\] \begin{enumerate}[a)] \item Beh.: \begin{align*} \sup_{x \in \mathbb{K}^{n} \setminus \{0\} } R_A(x) &= \lambda_{\text{max}}(A) \\ \inf_{x \in \mathbb{K}^{n} \setminus \{0\} } R_A(x) &= \lambda_{\text{min}}(A) .\end{align*} \begin{proof} Falls $\mathbb{K} = \R$, dann ist $A$ bereits symmetrisch. Falls $\mathbb{K} = \mathbb{C}$, ist $A$ nach VL hermitesch, da $A$ positiv definit, d.h. $(Ax, x)_2 \in \R$ $\forall x \in \mathbb{C}^{n}$. $\lambda_i$ seien die Eigenwerte von $A$. Da $A$ positiv definit, gilt $\lambda_i > 0$. Da $A$ symmetrisch bzw. hermitesch, gilt dann: \[ \sup_{x \in \mathbb{K}^{n} \setminus \{0\} } \frac{\Vert A x \Vert_2}{\Vert x \Vert_2} = \max_{1 \le i \le n} | \lambda_i | = \lambda_{\text{max}}(A) .\] Weiter gilt $\forall x \in \mathbb{K}^{n}$: \begin{align*} \frac{(Ax, x)_2}{(x,x)_2} \quad \stackrel{\text{C.S.U.}}{\le} \quad \frac{\Vert Ax \Vert_2 \Vert x \Vert_2}{\Vert x \Vert_2^2} = \frac{\Vert Ax \Vert_2}{\Vert x \Vert_2} .\end{align*} Damit folgt \begin{align*} \sup_{x \in \mathbb{K}^{n} \setminus \{0\} } R_A(x) \le \sup_{x \in \mathbb{K}^{n} \setminus \{0\} } \frac{\Vert A x \Vert_2}{\Vert x \Vert_2} = \lambda_{\text{max}}(A) .\end{align*} Also ist $\lambda_{\text{max}}(A)$ eine obere Schranke von $R_A(x)$. Weiter existiert ein Eigenvektor $v \in \mathbb{K}^{n}$ zum Eigenwert $\lambda_{\text{max}}(A)$ mit $Av = \lambda_{\text{max}}(A) v$. Damit folgt \begin{align*} R_A(v) = \frac{(Av, v)_2}{(v,v)_2} = \frac{\lambda_{\text{max}}(A)(v,v)_2}{(v,v)_2} = \lambda_{\text{max}}(A) .\end{align*} Also folgt die Behauptung für das Supremum. Für das Infimum gilt \begin{align*} \inf_{x \in \mathbb{K}^{n} \setminus \{0\} } R_A(x) &= - \sup_{x \in \mathbb{K}^{n} \setminus \{0\} } - R_A(x) \\ &\ge - \sup_{x \in \mathbb{K}^{n} \setminus \{0\} } - \frac{\Vert Ax \Vert}{\Vert x \Vert_2} \\ &= - \max_{1 \le i \le n} - | \lambda_i | \\ &= \min_{1 \le i \le n} |\lambda_i| \\ &= \lambda_{\text{min}}(A) .\end{align*} Also ist $\lambda_{\text{min}}(A)$ eine untere Schranke von $R_A(x)$. Analog zu $\lambda_{\text{max}}(A)$ existiert wieder ein Eigenvektor, sodass die Infimumseigenschaft folgt. \end{proof} \item Beh.: \[ \text{cond}_2(A) = \Vert A \Vert_2 \Vert A^{-1} \Vert_2 = \frac{\lambda_{\text{max}}(A)}{\lambda_{\text{min}}(A)} .\] \begin{proof} $A$ ist wie in (a) immer noch symmetrisch bzw. hermitesch. Dann gilt nach VL \[ \Vert A \Vert_2 = \lambda_{\text{max}}(A) .\] Außerdem existiert $A^{-1}$, da $A$ positiv definit und symmetrisch bzw. hermitesch und damit alle Eigenwerte positiv. Weiter ist $A^{-1}$ ebenfalls symmetrisch bzw. hermitesch, denn $A$ ist symmetrisch bzw. hermitesch und damit $\overline{A^{-1}}^{T} = \left( \bar{A}^{T} \right)^{-1} = A^{-1}$. Weiter gilt $\lambda \neq 0$ Eigenwert von $A$, dann ist $\frac{1}{\lambda}$ Eigenwert von $A^{-1}$ zu den selben Eigenvektoren, denn \[ Av = \lambda v \implies A^{-1} A v = \lambda A^{-1} v \implies v = \lambda A^{-1} v \implies \frac{1}{\lambda} v = A^{-1} v .\] Da $A$ positiv definit und symmetrisch bzw. hermitesch, sind alle Eigenwerte positiv und damit $\lambda_{\text{max}}(A^{-1}) = \frac{1}{\lambda_{\text{min}}(A)}$. Damit folgt \begin{align*} \text{cond}_2(A) = \Vert A \Vert_2 \Vert A^{-1} \Vert_2 = \lambda_{\text{max}}(A) \lambda_{\text{max}}(A^{-1}) = \frac{\lambda_{\text{max}}(A)}{\lambda_{\text{min}}(A)} .\end{align*} \end{proof} \end{enumerate} \end{aufgabe} \begin{aufgabe} Ansatz 1. Bezeichne \[ G := \{ A \in \mathbb{K}^{n \times n} \mid A \text{ untere Dreicksmatrix mit 1-en auf Hauptdiagonale }\} .\] \begin{enumerate}[a)] \item Beh.: $G$ ist Gruppe. \begin{proof} \begin{enumerate}[(G1)] \item Seien $A, B \in G$ mit $A = (a_{ij})_{i,j=1}^{n}$ und $B = (b_{ij})_{i,j=1}^{n}$. Dann ist $C = AB$ mit $C = (c_{ij})_{i,j=1}^{n}$. Wegen $A$, $B \in G$ , gilt $a_{ij} = b_{ij} = 0$ für $i < j$ und $a_{ij} = b_{ij} = 1$ für $i = j$. Damit folgt: \begin{salign*} c_{ij} &= \sum_{k=1}^{n} a_{ik} b_{kj} = \sum_{k=j}^{i} a_{ik}b_{kj} = \begin{cases} 0 & i < j \\ 1 & i = j \\ \sum_{k=j}^{i} a_{ik}b_{kj} & \text{sonst} \end{cases} .\end{salign*} Also ist $C \in G$. \item Das neutrale Element ist die Einheitsmatrix $E_n \in \mathbb{K}^{n \times n}$. Diese ist untere Dreiecksmatrix mit 1-en auf Hauptdiagonale also $E_n \in G$. \item Sei $A \in G$. Dann ist $\text{det}(A) = 1$, wegen der Dreiecksgestalt und allen Hauptdiagonalelementen gleich $1$. Also ex. $A^{-1} \in \mathbb{K}^{n \times n}$. Zz.: $A^{-1} \in G$. Betrachte die Adjunkte $\tilde{A}$ zu $A$ mit Einträgen $\tilde{a}_{ij} = (-1)^{i+j} | A_{ji}|$, wobei $A_{ji}$ die Matrix bezeichnet, die durch Streichen der $j$-ten Zeile und $i$-ten Spalte in $A$ entsteht. Seien $1 \le i,j \le n$. Falls $i = j$. Dann ist $\tilde{a}_{ii} = (-1)^{2i} | A_{ii}| = |\underbrace{A_{ii}}_{\in G}| = 1$. Falls $i < j$. Dann ist $A_{ij}$ obere Dreiecksmatrix mit $0$ auf der Hauptdiagonale, oder eine $4 \times 4$ Blockmatrix, mit zwei Nullblöcken nebeneinander. Also $|A_{ij}| = 0$ und damit $\tilde{A} \in G$. Damit folgt mit der 2. Cramerschen Regel: \[ A^{-1} = \frac{1}{|A|} \tilde{A} \in G .\] \end{enumerate} \end{proof} \item Beh.: $G$ ist nicht abelsch. \begin{proof} \begin{align*} \begin{pmatrix} 1 & 0 & 0 \\ 1 & 1 & 0 \\ 0 & 1 & 1 \end{pmatrix} \cdot \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 1 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 0 & 0 \\ 1 & 1 & 0 \\ 0 & 2 & 1 \end{pmatrix} \neq \begin{pmatrix} 1 & 0 & 0 \\ 1 & 1 & 0 \\ 1 & 2 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 1 & 1 \end{pmatrix} \cdot \begin{pmatrix} 1 & 0 & 0 \\ 1 & 1 & 0 \\ 0 & 1 & 1 \end{pmatrix} .\end{align*} \end{proof} \item Beh.: $LU$ Zerlegung eindeutig. \begin{proof} Sei $A \in \mathbb{K}^{n \times n}$ regulär und $A = LU = \tilde{L}\tilde{U}$ mit $L, \tilde{L} \in G$ und $U, \tilde{U}$ obere Dreicksmatrizen. Dann ist zunächst $U, \tilde{U}$ regulär, denn: $L, \tilde{L} \in G$, also regulär und die Menge der regulären Matrizen in $\mathbb{K}^{n \times n}$ Gruppe. Somit \[ A = LU = \tilde{L} \tilde{U} \implies L^{-1}A = U \land \tilde{L}^{-1}A = \tilde{U} .\] Damit folgt \begin{align*} &A = LU \\ \implies & A = \tilde{L}\tilde{U} (\tilde{L}\tilde{U})^{-1} LU \\ \implies & A = A (\tilde{L}\tilde{U})^{-1} LU \\ \implies & E_n = (\tilde{L}\tilde{U})^{-1} LU \\ \implies & E_n = \tilde{U}^{-1} \tilde{L}^{-1} L U \\ \implies &\tilde{U}U^{-1} = \tilde{L}^{-1}L \in G .\end{align*} Da $\tilde{U}$ und $U^{-1}$ obere Dreiecksmatrizen, ist auch das Produkt, analog zu (a) eine obere Dreicksmatrix, d.h. $\tilde{U}U^{-1} \in G$ ist obere Dreicksmatrix, damit folgt $\tilde{U}U^{-1} = E_n$, also $\tilde{L}^{-1}L = E_n \implies L = \tilde{L}$. Also $LU = A = L \tilde{U}$. Da $L$ regulär, folgt $U = \tilde{U}$. \end{proof} \end{enumerate} \end{aufgabe} \end{document}