diff --git a/ana1.pdf b/ana1.pdf index 5c520c5..f9831df 100644 Binary files a/ana1.pdf and b/ana1.pdf differ diff --git a/ana1.tex b/ana1.tex index 6fc43dc..da13f27 100644 --- a/ana1.tex +++ b/ana1.tex @@ -32,8 +32,8 @@ $x=0$: $f_n(0) = 0 = f(0)$\\ $0 < x \le 2$: $\forall n \ge \frac{2}{x}$, $f_n(x) = 0 = f(x)$ \item $f_n(x) = x^{n}$, $f_n\colon [0,1] \to \R$. - \begin{figure}[h!] - \begin{tikzpicture} + \begin{figure}[ht!] + \begin{tikzpicture}[scale = 0.97] \begin{axis}% [grid=both, minor tick num=4, @@ -50,7 +50,7 @@ \addplot[domain=0:1,samples=50,smooth,red] {x^4}; \end{axis} \end{tikzpicture} - \begin{tikzpicture} + \begin{tikzpicture}[scale = 0.97] \begin{axis}% [grid=both, minor tick num=4, @@ -95,8 +95,8 @@ \text{graph}(f_n) \subset \epsilon\text{-Umgebung von Graphen von } f := \{ (x, y) \in D \times \R \mid | y - f(x)| < \epsilon\} .\] - \begin{figure}[h!] - \begin{tikzpicture} + \begin{figure}[ht!] + \begin{tikzpicture}[scale = 0.97] \begin{axis}% [grid=both, minor tick num=4, @@ -113,7 +113,7 @@ \addplot[domain=0:1,samples=50,smooth,dashed, blue] {0.3*sin(deg(8*x)) + 0.2*x + 0.3}; \end{axis} \end{tikzpicture} - \begin{tikzpicture} + \begin{tikzpicture}[scale = 0.97] \begin{axis}% [grid=both, minor tick num=4, @@ -293,10 +293,12 @@ Wichtige Frage: Wenn $f_n \to f$, gilt dann auch $\int_{a}^{b} f_n \to \int_{a}^ $f_n \xrightarrow[\text{gleichmäßig}]{n \to \infty} f \implies f$ stetig $\implies f$ Riemann-integrierbar. Es gilt - \[ - \left| \int_{a}^{b} f_n(x) dx - \int_{a}^{b} f(x) dx\right| = \left| \int_{a}^{b} (f_n(x) - f(x))dx\right| - \le \int_{a}^{b} |f_n(x) - f(x)| dx \le \underbrace{\max_{x \in [a,b]} |f_n(x) - f(x)|}_{= \underbrace{\Vert f_n - f \Vert_\infty}_{\xrightarrow{n \to \infty} 0}\underbrace{(b-a)}_{\text{beschränkt}}} - .\] + \begin{align*} + \left| \int_{a}^{b} f_n(x) dx - \int_{a}^{b} f(x) dx\right| &= \left| \int_{a}^{b} (f_n(x) - f(x))dx\right|\\ + &\le \int_{a}^{b} |f_n(x) - f(x)| dx\\ + &\le \max_{x \in [a,b]} |f_n(x) - f(x)| \cdot (a-b)\\ + &=\underbrace{\norm{f_n - f}_\infty}_{\xrightarrow{n \to \infty} 0}\underbrace{(b-a)}_{\text{beschränkt}}. + \end{align*} \end{proof} \begin{satz}\label{permutesumint} diff --git a/ana4.pdf b/ana4.pdf index bc642c0..70dfcf9 100644 Binary files a/ana4.pdf and b/ana4.pdf differ diff --git a/ana4.tex b/ana4.tex index 688d6a2..e37373d 100644 --- a/ana4.tex +++ b/ana4.tex @@ -86,19 +86,18 @@ &\left| x_{i}^{(k)} - x_{i} \right| \overset{k \to \infty}{\longrightarrow} 0, i = 1,...,n. \end{align*} Das heißt $\lim_{n \to \infty} x_{i}^{(k)} = x_{i}$ (komponentenweise Konvergenz in $\R$ oder $\C$) -\end{bem} - +\end{bem}\vspace*{-3mm} \begin{satz}[Satz von Cauchy und Satz von Bolzano-Weierstraß] - \label{satz:bolzano} + \label{satz:bolzano}\ \vspace*{-3mm} \begin{enumerate}[1)] - \item Jede Cauchy-Folge in $K^{n}$ konvergiert, d.h. der normierte Raum $(K^{n}, \norm{\cdot}_{\infty})$ ist vollständig. Ein vollständiger normierter Raum wird Banach-Raum genannt. + \item Jede Cauchy-Folge in $K^{n}$ konvergiert, d.h. der normierte Raum $(K^{n}, \norm{\cdot}_{\infty})$ ist vollständig. Ein vollständiger normierter Raum wird Banach-Raum genannt. \vspace*{-2mm} \item Jede beschränkte Folge in $K^{n}$ besitzt eine konvergente Teilfolge. - \end{enumerate} + \end{enumerate}\vspace*{-3mm} \end{satz} \begin{proof} \begin{enumerate}[1)] - \item Sei $(x^{(k)})_{k \in \N}$ eine Cauchy-Folge, d.h. $\forall \varepsilon > 0, \exists N_{\varepsilon}, \forall k,l \geq N_{\varepsilon}$ gilt $\norm{x^{(k)} - x^{(l)}}_{\infty} < \varepsilon$. + \item Sei $(x^{(k)})_{k \in \N}$ eine Cauchy-Folge, d.h. $\forall \varepsilon > 0, \exists N_{\varepsilon}, \forall k,l \geq N_{\varepsilon}:\norm{x^{(k)} - x^{(l)}}_{\infty} < \varepsilon$. Betrachte Komponentenfolge $(x_{i}^{(k)})_{k \in \N}, i = 1,...,n$. Die Komponentenfolgen sind Cauchy-Folgen, weil $$\left| x_{i}^{(k)} - x_{i}^{(l)} \right| \leq \norm{x^{(k)} - x^{(l)}}_{\infty} < \varepsilon, \forall k,l \geq N_{\varepsilon}, \forall i = 1,...,n.$$ $\implies \lim_{k \to \infty} x_{i}^{(k)} \eqqcolon x_{i} \implies x^{(k)} \overset{k \to \infty}{\longrightarrow} x = \icol{x_{1} \\ \vdots \\ x_{n}}$ in $\ell_{\infty}$ Norm. \item Sei $(x^{(k)})_{k \in \N}$ beschränkt $\implies$ $(x_{i}^{(k)})_{k \in \N}, \forall i = 1,...,n$ auch beschränkt \\ @@ -202,7 +201,7 @@ Bezeichnung: $\norm{\cdot}$ irgendeine Norm. \end{enumerate} \end{bsp} -\begin{satz}[Eigenschaften abgeschlossener Mengen] +\begin{satz}[Eigenschaften abgeschlossener Mengen]\ \begin{enumerate}[(1)] \item Sind $V, U$ ($V,U \subset \K^{n}$) abgeschlossen, dann ist $U \cup V \subset \K^{n}$ auch abgeschlossen. \item Sind $U_{i}, (i \in I)$ abgeschlossene Mengen in $\K^{n}$. Dann ist $\underset{i \in I}{\bigcap} U_{i}$ auch abgeschlossen. diff --git a/ana5.pdf b/ana5.pdf index 447a00a..b0c0e94 100644 Binary files a/ana5.pdf and b/ana5.pdf differ diff --git a/ana5.tex b/ana5.tex index ef1813c..13a08cc 100644 --- a/ana5.tex +++ b/ana5.tex @@ -7,8 +7,8 @@ \[ A \text{ abgeschlossen} \iff - \text{Ist } \left(x^{(k)}\right)_{k\in\N} \text{ konvergente Folge in } A - \text{ mit } \lim_{k \to \infty} x^{(k)} = a\text{, dann } a \in A + \text{Ist}\; \big(x^{(k)}\big)_{k\in\N} \text{ konvergente Folge in } A + \text{ mit } \lim_{k \to \infty} x^{(k)}\! = a\text{, dann } a \in A .\] \end{satz} @@ -80,12 +80,12 @@ \begin{definition}[Inneres, Abschluss] Sei $M \subset \mathbb{K}^{n}$ - \begin{itemize} + \begin{itemize}\vspace*{-3mm} \item Die Menge $M^{\circ} := M \setminus \partial M$ heißt das \underline{Innere} von $M$. \item Die Menge $\overline{M} := M \cup \partial M$ heißt der \underline{Abschluss} von $M$. - \end{itemize} + \end{itemize}\vspace*{-3mm} \end{definition} \begin{satz}[Inneres ist Offen, Abschluss ist abgeschlossen] @@ -153,7 +153,7 @@ \begin{definition}[Kompaktheit] Eine Menge $M \subset \mathbb{K}^{n}$ heißt \underline{kompakt} - (bzw. \underline{folgenkompakt}), wenn jede Folge aus $M$ eine + (\underline{folgenkompakt}), wenn jede Folge aus $M$ eine konvergente Teilfolge mit Grenzwert in $M$ besitzt. \end{definition} diff --git a/ana6.pdf b/ana6.pdf index 3093e40..67a82d8 100644 Binary files a/ana6.pdf and b/ana6.pdf differ diff --git a/ana6.tex b/ana6.tex index b80aa2d..8d3a81d 100644 --- a/ana6.tex +++ b/ana6.tex @@ -85,11 +85,11 @@ Wichtige Ungleichungen \begin{lemma}[Ungleichung von Hölder] Seien $p,q \in \R, p>1, \ q<\infty, \ \frac{1}{p} + \frac{1}{q} = 1$. Dann gilt $$\underbrace{|(x,y)_2|}_{% - \footnotesize\begin{tabular}{c}euklidisches\\Skalarprodukt\end{tabular}} + \text{\footnotesize\begin{tabular}{c}euklidisches\\Skalarprodukt\end{tabular}}} \leq \underbrace{\norm{x}_p}_{% - \footnotesize\begin{tabular}{c}$\ell_p$-Norm\\ von $x$\end{tabular}} + \text{\footnotesize\begin{tabular}{c}$\ell_p$-Norm\\ von $x$\end{tabular}}} \cdot \underbrace{\norm{y}_q}_{% - \footnotesize\begin{tabular}{c}$\ell_q$-Norm\\ von $y$\end{tabular}} $$ + \text{\footnotesize\begin{tabular}{c}$\ell_q$-Norm\\ von $y$\end{tabular}}}$$ \end{lemma} \begin{proof} diff --git a/ana7.pdf b/ana7.pdf new file mode 100644 index 0000000..0e22470 Binary files /dev/null and b/ana7.pdf differ diff --git a/ana7.tex b/ana7.tex new file mode 100644 index 0000000..739691b --- /dev/null +++ b/ana7.tex @@ -0,0 +1,179 @@ +\documentclass{lecture} + + +\begin{document} + +\newcommand{\K}{\mathbb{K}} + + +\section{Lineare Abbildungen auf dem \texorpdfstring{$K^{n}$}{K\unichar{"207F}}} +\begin{definition}[Lineare Abbildung] + Eine lineare Abbildung $\varphi: \K^n \to \K^m$ heißt linear, falls $\forall \alpha. \beta \in \K$ gilt $$\varphi (\alpha x + \beta y) = \alpha \varphi(x) + \beta \varphi(y)\qquad\forall x,y \in \K^n$$ +\end{definition} +\begin{bem} + Eine lineare Abbildung läßt sich als Matrix darstellen. Betrachte $x\in \K^n$ und euklidische /kartesische Basis $e^{(i)},\; i = 1,\dots n$. Dann $\exists !$ Darstellung von $x$ bezüglich der Basis + $$x = \sum_{i = 1}^{n}x_i\cdot e^{(i)}.$$ + Die Koeffizienten $x_i, i = 1, \dots n$ sind Koordinaten. Wir definieren Koordinatenvektor $\hat x = \begin{pmatrix} + x_1\\\vdots\\x_n + \end{pmatrix}$. Dann ist $$\varphi(x) = \varphi\left(\sum_{i = 1}^{n}x_i\cdot e^{(i)}\right) = \sum_{i = 1}^{n}x_i \cdot \varphi\left(e^{(i)}\right).$$ + $\varphi(x)$ hat auch eine (eindeutige) Darstellung bzgl. Basis in $\K^m$. + $$\varphi(x) = \sum_{j = 1}^{m} \underbrace{\varphi_j(x)}_{*} = \sum_{j = 1}^{m}\underbrace{\left(\sum_{i = 1}^{n}x_i\overbrace{\varphi_j\left(e^{(i)}\right)}^{a_{ji}}\right)}_{= \varphi_j(x)} \cdot e^{(j)}$$ + \begin{center} + (*) Koordinaten von $\varphi_j(x)$ bzgl. Basis $e^{(j)}, j = 1, \dots, m$ + \end{center} + Dabei sind die $\varphi_j(x)$ Koordinaten und der Koordinatenvektor ist $\hat\varphi(x) = \begin{pmatrix} + \varphi_1(x)\\ + \dots\\ + \varphi_m(x) + \end{pmatrix}$. Dann erhalten wir eine Matrix + $$\begin{pmatrix} + \varphi_1\left(e^{(1)}\right) & \dots & \varphi_1\left(e^{(n)}\right)\\ + &\vdots & & \vdots\\ + \varphi_m\left(e^{(1)}\right) & \dots & \varphi_m\left(e^{(n)}\right) + \end{pmatrix} = \begin{pmatrix} + a_{11} & \dots & a_{1n}\\ + \vdots & & \vdots \\ + a_{m1} & \dots & a_{mn} + \end{pmatrix} = A \in \K ^{m\times n}$$ + Für einen Koordinatenvektor bezüglich Basis $e^{(j)}$ gilt $$\varphi(x) = \left(A\hat x\right)_j = \sum_{i = 1}^{n}a_{ij} x_i, \qquad j = 1, \dots, m$$ + Die lineare Abbildung $\varphi: \K^n \to \K^m$ lässt sich bezüglich festgelegter Basen von $\K^n$ und $\K^m$ eindeutig durch die Matrix $A\in K^{m\times n}$ beschreiben. + $$\hat \varphi(x) = A\hat x, \qquad x\in \K^n$$ + Im folgenden wird der Punkt $x$ mit seiner speziellen kartesischen Darstellung $\hat x$ identifiziert. + Konvention: $A\in \K^{m\times n}$ + \begin{itemize} + \item Anzahl an Zeilen $m =$ Dimension des Bildraums $\K^m$ + \item Anzahl an Spalten $n =$ Dimension des Urbildraums $\K^n$ + \end{itemize} + Falls $m =n$ definiert $A\in K^{n\times n}$ eine lineare Abbildung in $\K^n$. +\end{bem} +\begin{lemma}[Lineare Abbildungen in $\K^n$] + Sei $A = (a_{ij})_{i,j}^n \in \K^{n\times n}$. Dann sind die folgenden Aussagen äquivalent. + \begin{enumerate} + \item $A$ ist regulär + \item $Ax = b$ ist eindeutig lösbar $\forall b\in \K^n$ (Bijektivität der linearen Abbildung) + \item $Ax = 0$ hat nur eine Lösung $x = 0$ (Injektivität) + \item $Ax = b$ ist $\forall b \in \K^n$ lösbar (Surjektivität) + \item Rang$(A) = n$ + \item $\det (A) \neq 0$ + \item Alle Eigenwerte $\lambda \in \C$ von $A$ sind ungleich Null + \item Die (komplex) transponierte Matrix $\overline{A}^T$ ist regulär. + \end{enumerate} +\end{lemma} +Weitere Begriffe und Eigenschaften +\begin{itemize} + \item $A, A' \in \K^{n\times n}$ sind \textbf{identisch} $(a_{ij} = a_{ij}' \forall i, j) \Leftrightarrow Ax = A'x \forall c \in \K^n$ + \item $A, A' \in \K^{n\times n}$ sind \textbf{ähnlich}, wenn $\exists T \in \K^{n\times n}$ regulär, sodass $$A' = T^{-1} AT$$ + Übergang $A \to A'$ heißt Ähnlichkeitstransformation und es gilt für $z \in \C$ + \begin{align*} + \underbrace{\det(A' - z \mathbb{I})}_{\overset{\text{\footnotesize Charakt. Polynom für $A'$}}{\text{\footnotesize Nullstellen $=$ EW von $A'$}}} + &= \det\left(T^{-1}AT - z \underbrace{T^{-1}T}_{= \mathbb{I}}\right)\\ + &= \det(T^{-1}(A- z \mathbb{I})T)\\ + &\stackrel{\det(AB) = \det(A)\det(B)}{=}\qquad \qquad \det(T^{-1}) \det(A - z \mathbb{I})\det(T)\\ + &\stackrel{\det(T^{-1}\det(T) = 1 = \det(\mathbb{I}))}{=} \qquad \qquad \underbrace{\det(A - z \mathbb{I})}_{\mathclap{\text{char. Pol. von $A$}}} + \end{align*} + Ähnliche Matrizen haben also die gleichen Eigenwerte, aber im Allgemeinen unterschiedliche Eigenvektoren. + \item $n \times n$ Matrizen $A\in \K^{m\times n}$ bilden einen Vektorraum. + \begin{itemize} + \item \textbf{Konvergenz} von Folgen von Matrizen ist komponentenweise Konvergenz + $$A^{(k)} \to A, k \to \infty \Leftrightarrow a_{ij}^{(k)} \overset{k \to \infty}{\to} a_{ij} \forall i = 1, \dots, m, \forall j = 1, \dots n$$ + \end{itemize} + \item Sei $\Vert \cdot \Vert$ eine beliebige Norm auf $\K^n$. Dann + $$\norm{A} \coloneqq \sup\limits_{x \in \K^n\setminus \{0\}} \frac{\norm{Ax}}{\norm{x}} = \sup\limits_{x\in \K ^n} \norm{Ax}\; \text{für}\; \norm{x} = 1$$ ist die von $\norm{\cdot}$ in $\K^n$ erzeugte natürliche \textbf{Matrixnorm} + \begin{itemize} + \item Für natürliche Matrixnorm gilt notwendig $\norm{\mathbb{I}} = 1$ + \item Natürliche Matrixnorm ist \underline{verträglich} mit $\norm{\cdot}$, d.h. für $A\in K^{n\times n}$ ist $\norm{Ax} \leq \norm{A}\cdot \norm{x}, x\in \K^n$ + \item und \underline{submultiplikativ}, d.h. + $\norm{AB} \leq \norm{A}\norm{B}$ für $A, B \in \K^{n\times n}$ + \end{itemize} +\end{itemize} +\begin{bsp} + $\norm{A}_F = \left(\sum_{j, k = 1}^{n}|a_{jk}|^2 \right)^{\frac{1}{2}}$ heißt \textbf{Frobenius}-Norm. Sie ist verträglich mit $\norm{\cdot}_2$ in $\K^n$ und submultiplikativ, aber keine natürliche Matrixnorm, weil $\norm{\mathbb{I}}_F = \sqrt{n} \neq 1$ für $n \geq 2$. +\end{bsp} +\begin{lemma}[Natürliche Matrixnormen] + Die natürliche Matrixnormen zu $\norm{\cdot}_\infty$ ($l_\infty$ / Maximumnorm) und $\norm{\cdot}_1$ ($l_1$-Norm) in $\K^n$ sind + $$\norm{A}_\infty \coloneqq \max\limits_{1 \leq i \leq n} \sum_{j = 1}^{n}|a_{ij}|\qquad \text{Maximale Zeilen-Summen-Norm}$$ + $$\norm{A}_\infty \coloneqq \max\limits_{1 \leq j \leq n} \sum_{i = 1}^{n}|a_{ij}|\qquad \text{Maximale Spalten-Summen-Norm}$$ +\end{lemma} +\begin{proof} + \begin{enumerate} + \item Matrixnorm $\norm{\cdot}_\infty$ ist eine Norm (d.h. erfüllt Normeigenschaften (N1), (N2) und (N3)) + \item Z.z. Verträglichkeit + $$\norm{Ax}_\infty\! = \max\limits_{1 \leq i \leq n} \left| \sum_{j = 1}^{n}a_{ij}x_j\right| \leq \max\limits_{1 \leq i \leq n}\left(\sum_{j = 1}^{n}|a_{ij}| \cdot |x_j|\right)\! \leq \norm{x}_\infty \cdot \max_{1\leq i \leq n} \sum_{j = 1}^{n} |a_{ij}| = \norm{x}_\infty \cdot \norm{A}_\infty$$ + $\implies$ Verträglichkeit mit $\norm{\cdot}_\infty$ + \item Z.Z. $\norm{A}_\infty = \sup\limits_{\norm{x}_\infty = 1} \norm{Ax}_\infty$ + $$\norm{Ax}_\infty = 0 \implies A = 0\implies \norm{A}_\infty = 0 = \sup\limits_{\norm{x}_\infty = 1} \norm{Ax}_\infty$$ + Sei $A \neq 0$, dann $\norm{A}_\infty > 0$ (Definitheit von Normen). Sei $$\norm{A}_\infty = \max\limits_{1\leq i\leq n} \sum_{j = 1}^{n}|a_{ij}| = \sum_{j = 1}^{n}|a_{mj}|\text{ für ein }m\in \{1, \dots, n\}.$$ Setze $z_j = \frac{|a_{mj}|}{a_{mj}}$, falls $a_{mj} \neq 0$ und sonst $z_j = 0$. ($z_j = \operatorname{sign}(a_{mj})$). Für $z = \begin{pmatrix} + z_1 \\ \vdots \\ z_n + \end{pmatrix}$ gilt dann $\norm{z}_\infty = 1$ und $$(Az)_m = \sum_{j = 1}^{n}a_{mj}z_j = \sum_{j = 1}^{n}|a_{mj}| = \norm{A}_\infty.$$ Es folgt + $$\norm{A}_\infty = (Az)_m \leq \norm{Az}_\infty \leq \sup\limits_{\norm{y}_\infty = 1} \norm{Ay}_\infty \leq \sup\limits_{\norm{y}_\infty = 1} \norm{A}_\infty \cdot \underbrace{\norm{y}_\infty}_{=1} = \norm{A}_\infty$$ + $$\implies \norm{A}_\infty = \sup\limits_{\norm{y}_\infty = 1} \norm{Ay}_\infty$$ + \end{enumerate} + Beweis für $l_1$ analog. +\end{proof} +\begin{definition} + \begin{enumerate} + \item Eigenwerte $\lambda \in \K$ einer Matrix $A\in \K^{n\times n} = $ Nullstellen des charakteristischen Polynoms + $$p(\lambda) = \det(A - \lambda \mathbb{I})$$ + \item $\sigma(A) = \{\lambda |\lambda\text{ Eigenwert von } A\}$ heißt \textbf{Spektrum} von $A$. + \item $\forall \lambda \in \sigma(A) \exists \text{Eigenvektor } w\in \K^n\setminus\{0\}:$ + $$A w = \lambda w$$ + Die Eigenvektoren zu $\lambda$ bilden einen Vektorraum, den \textbf{Eigenraum} zu $\lambda$ mit Dimension = \textbf{geometrische Vielfachheit} von $\lambda$. + \item Abschätzung der Eigenwerte: Sei $\lambda \in \sigma(A)$ und $w$ ein Eigenvektor zu $\lambda$ mit $\norm{w} = 1$. + Dann $|\lambda| = |lambda| \cdot \norm{w} = \norm{\lambda w} = \norm{Aw} \underset{\text{Verträglichkeit}}{\leq} \norm{A}\cdot \norm{w} = \norm{A} \implies |\lambda| \leq \norm{A}$ + \item $A$ heißt \textbf{hermitesch}, falls gilt + $$A = \overline{A}^T\quad (a_{ij} = \overline{a_{ji}})$$ + Reelle hermitesche Matrizen heißen \textbf{symmetrisch}. Für das Skalarproukt gilt + $$A = \overline{A}^T \Leftrightarrow (Ax, y)_2 = (x, Ay)_2 \forall x, y \in \K^n$$ + Hermitesche Matrizen sind diagonalisierbar = ähnlich zu einer Diagonalmatrix, alle Eigenwerte einer hermiteschen Matrix sind reell. $\exists$ eine orthonormale Basis aus Eigenvektoren. + \item $A\in \K^{n\times n}$ heißt \textbf{positiv definit}, wenn gilt $(Ax, x)_2 \in \R$, $(Ax, x)_2 > 0\forall x \in \K^n\setminus\{0\}$. Eine hermitesche Matrix ist positiv definit $\Leftrightarrow$ alle Eigenwerte sind positiv. + \item $\norm{\cdot}_2$ ($l_2$-Norm) im $\K^n$ erzeugt eine natürliche \textbf{Matrixnorm(Spektralnorm)} $\norm{\cdot}_2$ + \end{enumerate} +\end{definition} +\begin{lemma}[Spektralnorm] + Sei $A \in \K^{n\times n}$. Dann ist $\overline{A}^TA \in \K^{n\times n}$ hermitesch und positiv semidefinit. Für die Spektralnorm gilt + $$\norm{A}_2 = \max \{\sqrt{|\lambda|}, \lambda \in \sigma(\overline{A}^TA)\}$$ + Sei $A$ hermitesch, bzw. symmetrisch, dann gilt $\norm{A}_2 = \max\{\sqrt{|\lambda|}, \lambda\in \sigma(A)\}$ +\end{lemma} +\begin{proof} + später +\end{proof} +\begin{definition}[orthonormale/unitäre Matrizen] + Eine Matrix $Q\in \K^{m\times n}$ heißt \textbf{orthonormal}, wenn ihre Spaltenvektoren ein Orthonormalsystem im $\K^m$ bilden, d.h. + $$Q = (q_1, \dots, q_n)\qquad q_j \in \K^m$$ + $$(q_i, q_j)_2 = \sum_{k = 1}^{m} q_{ik}\cdot \overline{q_{kj}} = \begin{cases} + 1, &i =j\\ + 0, &\text{sonst} + \end{cases}$$ + Falls $m =n$ heißt $Q$ unitär. +\end{definition} +\begin{lemma} + Sei $Q\in \K^{n\times n}$ unitär. Dann ist $Q$ regulär, $Q^{-1} = \overline{Q}^T$ und $(Qx, Qy)_2 = (x,y)_2,\; x,y\in \K^n$ + $$\norm{Qx}_2 = \norm{x}_2, \; x\in \K^n$$ + d.h. euklidisches Skalarproukt und euklidische Norm sind invariant unter unitären Transformationen und folglich $\norm{Q}_2 = \norm{Q^{-1}}_2 = 1$ +\end{lemma} +\begin{proof} + \begin{enumerate} + \item Z.Z. $Q^{-1} = \overline{Q}^T$\\ + Sei $Q = (q_1, \dots, q_n), \overline{Q}^T = \begin{pmatrix} + \overline{q}_1^T\\ + \dots\\ + \overline{q}_n^T + \end{pmatrix}$. Dann gilt + $$\overline{Q}^T \cdot Q = \begin{pmatrix} + \overline{q}_1^T \cdot q_1 & \dots & \overline{q}_1^T \cdot q_n\\ + \vdots & & \vdots\\ + \overline{q}_n^T \cdot q_1 & \dots & \overline{q}_n^T \cdot q_n + \end{pmatrix} \overset{Q \text{ unitär}}{=} \begin{pmatrix} + 1 & & 0\\ + & \ddots & \\ + 0 & & 1 + \end{pmatrix}$$ + \item \begin{align*} + (Qx, Qy)_2 &= (x, \overline{Q}^TQ y)_2 = (x,y)_2\\ + \norm{Qx}_2^2 &= (Qx, Qx)_2 = (x,x)_2 = \norm{x}_2^2\\ + \norm{Q}_2 &= \sup\limits_{\norm{x_2} =1} \norm{Qx}_2 = \sup\limits_{\norm{x_2} =1} \norm{x}_2 = 1\\ + \norm{Q^{-1}}_2 &= \sup\limits_{\norm{x_2} =1} \norm{Q^{-1}x}_2 = \sup\limits_{\norm{x_2} =1} \norm{QQ^{-1}x}_2 = \sup\limits_{\norm{x_2} =1} \norm{x}_2 = 1 + \end{align*} + \end{enumerate} +\end{proof} +\end{document} diff --git a/analysisII.pdf b/analysisII.pdf index dc4cd31..fe54b88 100644 Binary files a/analysisII.pdf and b/analysisII.pdf differ diff --git a/analysisII.tex b/analysisII.tex index 5dcb6b5..9fc3221 100644 --- a/analysisII.tex +++ b/analysisII.tex @@ -22,5 +22,6 @@ \input{ana4.tex} \input{ana5.tex} \input{ana6.tex} +\input{ana7.tex} \end{document}