diff --git a/sose2020/la/uebungen/la5.pdf b/sose2020/la/uebungen/la5.pdf index ec68cb5..3291b57 100644 Binary files a/sose2020/la/uebungen/la5.pdf and b/sose2020/la/uebungen/la5.pdf differ diff --git a/sose2020/la/uebungen/la5.tex b/sose2020/la/uebungen/la5.tex index a81d308..03ef385 100644 --- a/sose2020/la/uebungen/la5.tex +++ b/sose2020/la/uebungen/la5.tex @@ -25,7 +25,8 @@ Mit dem Satz von Cayley-Hamilton gilt $\chi_{A}^{\text{char}}(A) = 0 \implies \chi_A^{\text{char}} \in I_A$. \end{proof} - \item Beh.: Es ex. ein eindeutig bestimmtes Polynom $\chi_{A}^{\text{min}} \in K[t] \setminus \{0\} $ + \item Beh.: Es ex. ein eindeutig bestimmtes normiertes Polynom + $\chi_{A}^{\text{min}} \in K[t] \setminus \{0\} $ mit $I_A = \left( \chi_{A}^{\text{min}} \right) $. \begin{proof} Es ist $\chi_{A}^{\text{char}} \neq 0$ und $\chi_{A}^{\text{char}} \in I_A$, also @@ -76,7 +77,8 @@ \iff & f(A) = 0 \\ \stackrel{S \neq 0}{\iff} & S f(A) S^{-1} = 0 \\ \iff& f(SAS^{-1}) = 0 \\ - \iff & f(B) = 0 + \iff & f(B) = 0 \\ + \iff & f \in I_B .\end{salign*} Also ist $(\chi_{A}^{\text{min}}) = I_A = I_B = (\chi_{B}^{\text{min}})$ und, wegen $\chi_{A}^{\text{min}}$ und $\chi_{B}^{\text{min}} $ normiert, diff --git a/sose2020/num/uebungen/num5.pdf b/sose2020/num/uebungen/num5.pdf new file mode 100644 index 0000000..81b4652 Binary files /dev/null and b/sose2020/num/uebungen/num5.pdf differ diff --git a/sose2020/num/uebungen/num5.tex b/sose2020/num/uebungen/num5.tex new file mode 100644 index 0000000..8c40a3c --- /dev/null +++ b/sose2020/num/uebungen/num5.tex @@ -0,0 +1,254 @@ +\documentclass[uebung]{../../../lecture} + +\title{Einführung in die Numerik: Übungsblatt 5} +\author{Leon Burgard, Christian Merten} + +\begin{document} + +\punkte + +\begin{aufgabe} + \begin{enumerate}[a)] + \item Beh.: Sei $P \in \R^{n \times n}$ mit $P^2 = P$ und $P \neq 0$. Dann gilt für $\Vert P \Vert \ge 1$ für + jede natürliche Matrixnorm $\Vert \cdot \Vert$. + \begin{proof} + Sei $P \in \R^{n \times n} \setminus \{0\} $ mit $P^2 = P$ und $\Vert \cdot \Vert$ natürlich. + Dann ist $\Vert \cdot \Vert$ insbesondere submultiplikativ, also folgt + $\Vert P \Vert = \Vert P^2 \Vert \le \Vert P \Vert \cdot \Vert P \Vert \implies 1 \le \Vert P \Vert$. + \end{proof} + \item Beh.: Sei $A \in \mathbb{C}^{n \times n}$. Dann gilt + \[ + A = \bar{A}^{T} \iff (Ax, y)_2 = (x, Ay)_2 \quad \forall x, y \in \mathbb{C}^{n} + .\] + \begin{proof} + Sei $A \in \mathbb{C}^{n \times n}$. Es ist + \begin{salign*} + &(Ax, y)_2 = (x, Ay)_2 \quad \forall x, y \in \mathbb{C}^{n}\\ + \iff &x^{T}A^{T} \bar{y} = x^{T}\bar{A}\bar{y} \quad \forall x, y \in \mathbb{C}^{n} \\ + \stackrel{(*)}{\iff}& A^{T} = \bar{A} \\ + \iff& A = \bar{A}^{T} + .\end{salign*} + $(*)$ folgt durch Einsetzen von allen Koordinateneinheitsvektoren für $x$ und $y$. + \end{proof} + \item Sei $A \in \mathbb{K}^{n \times n}$ symmetrisch und positiv definit. + Beh.: Es existiert ein $B \in \mathbb{K}^{n \times n}$ mit $A = B \cdot B$. + \begin{proof} + Da $A$ symmetrisch und positiv definit, existiert eine orthogonale Matrix $Q$ und + eine Diagonalmatrix $D$ mit $A = QDQ^{T}$. Da $A$ symmetrisch und positiv definit, + sind alle Eigenwerte $\lambda_i$ positiv. Definiere + \begin{align*} + \widetilde{D} := \begin{pmatrix} \sqrt{\lambda_1} & 0 & \\ + 0 & \ddots & \\ + & & \sqrt{\lambda_n} \end{pmatrix} + .\end{align*} + Dann gilt also $D= \widetilde{D}^2$. Dann wähle $B := Q \widetilde{D}Q^{T}$. Dann folgt + \begin{align*} + B \cdot B = + Q\widetilde{D} \underbrace{Q^{T} \cdot Q}_{= E_n} \widetilde{D}Q^{T} + = Q \widetilde{D}^2 Q^{T} = QDQ^{T} = A + .\end{align*} + \end{proof} + \end{enumerate} +\end{aufgabe} + +\begin{aufgabe} + Sei $A \in \mathbb{K}^{n \times n}$ positiv definit und für $\mathbb{K} = \R$ sei $A$ symmetrisch. Es + sei außerdem für $x \in \mathbb{K}^{n}$: + \[ + R_A(x) = \frac{(Ax, x)_2}{(x,x)_2} + .\] + \begin{enumerate}[a)] + \item Beh.: + \begin{align*} + \sup_{x \in \mathbb{K}^{n} \setminus \{0\} } R_A(x) &= \lambda_{\text{max}}(A) \\ + \inf_{x \in \mathbb{K}^{n} \setminus \{0\} } R_A(x) &= \lambda_{\text{min}}(A) + .\end{align*} + \begin{proof} + Falls $\mathbb{K} = \R$, dann ist $A$ bereits symmetrisch. Falls $\mathbb{K} = \mathbb{C}$, + ist $A$ nach VL hermitesch, da $A$ positiv definit, d.h. $(Ax, x)_2 \in \R$ + $\forall x \in \mathbb{C}^{n}$. + + $\lambda_i$ seien die Eigenwerte von $A$. Da $A$ positiv definit, gilt $\lambda_i > 0$. + Da $A$ symmetrisch bzw. hermitesch, gilt dann: + \[ + \sup_{x \in \mathbb{K}^{n} \setminus \{0\} } \frac{\Vert A x \Vert_2}{\Vert x \Vert_2} + = \max_{1 \le i \le n} | \lambda_i | = \lambda_{\text{max}}(A) + .\] Weiter gilt $\forall x \in \mathbb{K}^{n}$: + \begin{align*} + \frac{(Ax, x)_2}{(x,x)_2} \quad \stackrel{\text{C.S.U.}}{\le} \quad + \frac{\Vert Ax \Vert_2 \Vert x \Vert_2}{\Vert x \Vert_2^2} + = \frac{\Vert Ax \Vert_2}{\Vert x \Vert_2} + .\end{align*} + Damit folgt + \begin{align*} + \sup_{x \in \mathbb{K}^{n} \setminus \{0\} } R_A(x) + \le \sup_{x \in \mathbb{K}^{n} \setminus \{0\} } \frac{\Vert A x \Vert_2}{\Vert x \Vert_2} + = \lambda_{\text{max}}(A) + .\end{align*} + Also ist $\lambda_{\text{max}}(A)$ eine obere Schranke von $R_A(x)$. + + Weiter existiert ein Eigenvektor $v \in \mathbb{K}^{n}$ + zum Eigenwert $\lambda_{\text{max}}(A)$ mit + $Av = \lambda_{\text{max}}(A) v$. Damit folgt + \begin{align*} + R_A(v) = \frac{(Av, v)_2}{(v,v)_2} = \frac{\lambda_{\text{max}}(A)(v,v)_2}{(v,v)_2} + = \lambda_{\text{max}}(A) + .\end{align*} + Also folgt die Behauptung für das Supremum. + + Für das Infimum gilt + \begin{align*} + \inf_{x \in \mathbb{K}^{n} \setminus \{0\} } R_A(x) &= + - \sup_{x \in \mathbb{K}^{n} \setminus \{0\} } - R_A(x) \\ + &\ge - \sup_{x \in \mathbb{K}^{n} \setminus \{0\} } - \frac{\Vert Ax \Vert}{\Vert x \Vert_2} \\ + &= - \max_{1 \le i \le n} - | \lambda_i | \\ + &= \min_{1 \le i \le n} |\lambda_i| \\ + &= \lambda_{\text{min}}(A) + .\end{align*} + Also ist $\lambda_{\text{min}}(A)$ eine untere Schranke von $R_A(x)$. Analog + zu $\lambda_{\text{max}}(A)$ existiert wieder ein Eigenvektor, sodass + die Infimumseigenschaft folgt. + \end{proof} + \item Beh.: + \[ + \text{cond}_2(A) = \Vert A \Vert_2 \Vert A^{-1} \Vert_2 = \frac{\lambda_{\text{max}}(A)}{\lambda_{\text{min}}(A)} + .\] + \begin{proof} + $A$ ist wie in (a) immer noch symmetrisch bzw. hermitesch. Dann gilt nach VL + \[ + \Vert A \Vert_2 = \lambda_{\text{max}}(A) + .\] Außerdem existiert $A^{-1}$, da $A$ positiv definit und symmetrisch bzw. hermitesch und + damit alle Eigenwerte positiv. Weiter ist $A^{-1}$ ebenfalls symmetrisch bzw. hermitesch, + denn $A$ ist symmetrisch bzw. hermitesch und damit + $\overline{A^{-1}}^{T} = \left( \bar{A}^{T} \right)^{-1} = A^{-1}$. + + Weiter gilt $\lambda \neq 0$ Eigenwert von $A$, dann ist $\frac{1}{\lambda}$ Eigenwert + von $A^{-1}$ zu den selben Eigenvektoren, denn + \[ + Av = \lambda v \implies A^{-1} A v = \lambda A^{-1} v \implies v = \lambda A^{-1} v \implies + \frac{1}{\lambda} v = A^{-1} v + .\] Da $A$ positiv definit und symmetrisch bzw. hermitesch, sind alle Eigenwerte positiv und + damit $\lambda_{\text{max}}(A^{-1}) = \frac{1}{\lambda_{\text{min}}(A)}$. Damit folgt + \begin{align*} + \text{cond}_2(A) = \Vert A \Vert_2 \Vert A^{-1} \Vert_2 = \lambda_{\text{max}}(A) + \lambda_{\text{max}}(A^{-1}) = \frac{\lambda_{\text{max}}(A)}{\lambda_{\text{min}}(A)} + .\end{align*} + \end{proof} + \end{enumerate} +\end{aufgabe} + +\begin{aufgabe} + Ansatz 1. Bezeichne + \[ + G := \{ A \in \mathbb{K}^{n \times n} \mid A \text{ untere Dreicksmatrix mit 1-en auf Hauptdiagonale }\} + .\] + \begin{enumerate}[a)] + \item Beh.: $G$ ist Gruppe. + \begin{proof} + \begin{enumerate}[(G1)] + \item Seien $A, B \in G$ mit $A = (a_{ij})_{i,j=1}^{n}$ und $B = (b_{ij})_{i,j=1}^{n}$. + Dann ist $C = AB$ mit $C = (c_{ij})_{i,j=1}^{n}$. Wegen + $A$, $B \in G$ , gilt $a_{ij} = b_{ij} = 0$ für $i < j$ und + $a_{ij} = b_{ij} = 1$ für $i = j$. Damit folgt: + \begin{salign*} + c_{ij} &= \sum_{k=1}^{n} a_{ik} b_{kj} + = \sum_{k=j}^{i} a_{ik}b_{kj} + = \begin{cases} + 0 & i < j \\ + 1 & i = j \\ + \sum_{k=j}^{i} a_{ik}b_{kj} & \text{sonst} + \end{cases} + .\end{salign*} + Also ist $C \in G$. + \item Das neutrale Element ist die Einheitsmatrix $E_n \in \mathbb{K}^{n \times n}$. Diese + ist untere Dreiecksmatrix mit 1-en auf Hauptdiagonale also $E_n \in G$. + \item Sei $A \in G$. Dann ist $\text{det}(A) = 1$, wegen der Dreiecksgestalt und + allen Hauptdiagonalelementen gleich $1$. Also ex. $A^{-1} \in \mathbb{K}^{n \times n}$. + + Zz.: $A^{-1} \in G$. Betrachte die Adjunkte $\tilde{A}$ zu $A$ mit + Einträgen $\tilde{a}_{ij} = (-1)^{i+j} | A_{ji}|$, + wobei $A_{ji}$ die Matrix bezeichnet, die durch Streichen der $j$-ten Zeile + und $i$-ten Spalte in $A$ entsteht. + + Seien $1 \le i,j \le n$. Falls $i = j$. Dann ist + $\tilde{a}_{ii} = (-1)^{2i} | A_{ii}| = |\underbrace{A_{ii}}_{\in G}| = 1$. + Falls $i < j$. Dann ist $A_{ij}$ obere Dreiecksmatrix mit $0$ auf der + Hauptdiagonale, oder eine $4 \times 4$ Blockmatrix, mit zwei Nullblöcken nebeneinander. + Also $|A_{ij}| = 0$ und damit $\tilde{A} \in G$. + + Damit folgt mit der 2. Cramerschen Regel: + \[ + A^{-1} = \frac{1}{|A|} \tilde{A} \in G + .\] + \end{enumerate} + \end{proof} + \item Beh.: $G$ ist nicht abelsch. + \begin{proof} + \begin{align*} + \begin{pmatrix} + 1 & 0 & 0 \\ + 1 & 1 & 0 \\ + 0 & 1 & 1 + \end{pmatrix} + \cdot + \begin{pmatrix} + 1 & 0 & 0 \\ + 0 & 1 & 0 \\ + 0 & 1 & 1 + \end{pmatrix} + = + \begin{pmatrix} + 1 & 0 & 0 \\ + 1 & 1 & 0 \\ + 0 & 2 & 1 + \end{pmatrix} + \neq + \begin{pmatrix} + 1 & 0 & 0 \\ + 1 & 1 & 0 \\ + 1 & 2 & 1 + \end{pmatrix} + = + \begin{pmatrix} + 1 & 0 & 0 \\ + 0 & 1 & 0 \\ + 0 & 1 & 1 + \end{pmatrix} + \cdot + \begin{pmatrix} + 1 & 0 & 0 \\ + 1 & 1 & 0 \\ + 0 & 1 & 1 + \end{pmatrix} + .\end{align*} + \end{proof} + \item Beh.: $LU$ Zerlegung eindeutig. + \begin{proof} + Sei $A \in \mathbb{K}^{n \times n}$ regulär und + $A = LU = \tilde{L}\tilde{U}$ mit $L, \tilde{L} \in G$ und + $U, \tilde{U}$ obere Dreicksmatrizen. + + Dann ist zunächst $U, \tilde{U}$ regulär, denn: $L, \tilde{L} \in G$, also regulär und + die Menge der regulären Matrizen in $\mathbb{K}^{n \times n}$ Gruppe. Somit + \[ + A = LU = \tilde{L} \tilde{U} \implies L^{-1}A = U \land \tilde{L}^{-1}A = \tilde{U} + .\] + Damit folgt + \begin{align*} + &A = LU \\ + \implies & A = \tilde{L}\tilde{U} (\tilde{L}\tilde{U})^{-1} LU \\ + \implies & A = A (\tilde{L}\tilde{U})^{-1} LU \\ + \implies & E_n = (\tilde{L}\tilde{U})^{-1} LU \\ + \implies & E_n = \tilde{U}^{-1} \tilde{L}^{-1} L U \\ + \implies &\tilde{U}U^{-1} = \tilde{L}^{-1}L \in G + .\end{align*} + Da $\tilde{U}$ und $U^{-1}$ obere Dreiecksmatrizen, ist auch das Produkt, + analog zu (a) eine obere Dreicksmatrix, d.h. + $\tilde{U}U^{-1} \in G$ ist obere Dreicksmatrix, damit folgt + $\tilde{U}U^{-1} = E_n$, also $\tilde{L}^{-1}L = E_n \implies L = \tilde{L}$. Also + $LU = A = L \tilde{U}$. Da $L$ regulär, folgt $U = \tilde{U}$. + \end{proof} + \end{enumerate} +\end{aufgabe} + +\end{document}