diff --git a/ana10.tex b/ana10.tex index 077c520..3bfb1df 100644 --- a/ana10.tex +++ b/ana10.tex @@ -126,7 +126,7 @@ Frage: Unter welchen Bedingungen konvergiert die Fixpunktiteration? eine Lösung $x^{*} = A^{-1}b$. Sei $g(x) \coloneqq x - \sigma (Ax - b)$ mit $\sigma \in \mathbb{K} \setminus \{0\} $. - Fixpunktiteration $x^{(k)} = x^{(k-1)} - \sigma (Ax^{(k-1}) - b)$, $k \in \N$ konvergiert, wenn + Fixpunktiteration $x^{(k)} = x^{(k-1)} - \sigma (Ax^{(k-1)} - b)$, $k \in \N$ konvergiert, wenn $g$ kontraktiv ist. Zum Beispiel in $\ell_2$: \begin{align*} \Vert g(x) - g(y) \Vert_2 &= \Vert x - \sigma(Ax - b) - y + \sigma(Ay -b)\Vert_2 \\ diff --git a/ana12.tex b/ana12.tex index 07f3ec8..bc59b21 100644 --- a/ana12.tex +++ b/ana12.tex @@ -4,7 +4,7 @@ \newcommand{\dv}[2]{\frac{\d #1}{\d #2}} \section{Totale Differenzierbarkeit} -Erinnerung (Analysis 1) $f \colon D \to \R,\; D \subset \R$, ist genau dann in $x\in D$ differenzierbar, falls $f$ in $x$ ,,gut`` linear approximierbar ist, d.h. $\exists a\in \R$ mit $f(x + h) = f(x) + a\cdot h + w(h)$ wobei $\lim\limits_{h\to 0} \frac{w(h)}{|h|} = 0 (f'(x) = a)$. +Erinnerung (Analysis 1) $f \colon D \to \R,\; D \subset \R$, ist genau dann in $x\in D$ differenzierbar, falls $f$ in $x$ ,,gut`` linear approximierbar ist, d.h. $\exists a\in \R$ mit $f(x + h) = f(x) + a\cdot h + w(h)$ wobei $\lim\limits_{h\to 0} \frac{w(h)}{|h|} = 0 \ (f'(x) = a)$. \begin{definition}[total differenzierbar] Es sei $D\subset \R^n$ offen und $f\colon D \to \R^m$ eine Abbildung. $f$ heißt im Punkt $x\in D$ \underline{(total) differenzierbar}, falls es eine lineare Abbildung $A \colon \R^n \to \R^m$ gibt, sodass @@ -18,7 +18,7 @@ Erinnerung (Analysis 1) $f \colon D \to \R,\; D \subset \R$, ist genau dann in $ ,\] wobei $\lim\limits_{h\to 0} \frac{\norm{\omega(h)}}{\norm{h}} = 0 \;(\Leftrightarrow (\ref{eq:diffbar}), \Leftrightarrow \omega(h) = o(\norm{h}))$. Da alle Normen auf $\R^m$ äquivalent sind, ist es gleichgültig, welche Norm man in (\ref{eq:diffbar}) verwendet. $A$ heißt das \underline{Differential} von $f$ im Punkt $x$. - Schreibweise: \[\d f(x),\; \d f\bigg|_x,\; \d f_x,\; Df(x),\; Df\bigg|_x,\; Df_x,\; \d f(x)\bigg|_{x = x_0},\; Df(x_0).\] + Schreibweise: \[\mathrm{d} f(x),\; \mathrm{d} f\Big|_x,\; \mathrm{d} f_x,\; Df(x),\; Df\Big|_x,\; Df_x,\; \mathrm{d} f(x)\Big|_{x = x_0},\; Df(x_0).\] \end{definition} \begin{bem} Für $n=m=1$ ist die Definition der totalen Ableitung äquivalent zur Definition der Ableitung von Funktionen einer Variablen. @@ -88,9 +88,9 @@ Erinnerung (Analysis 1) $f \colon D \to \R,\; D \subset \R$, ist genau dann in $ \end{salign*} \end{proof} \begin{korrolar} - Sei $\nabla f(X) \neq 0$. Dann ist der Winkel $\theta$ zwischen zwei Vektoren $v\in \R^n$ und $\nabla f(x) \in \R^n$ definiert durch \[\cos(\theta) = \frac{(\nabla f(x), v)_2}{\norm{\nabla f(x)}_2\cdot \norm{v}_2}.\] + Sei $\nabla f(x) \neq 0$. Dann ist der Winkel $\theta$ zwischen zwei Vektoren $v\in \R^n$ und $\nabla f(x) \in \R^n$ definiert durch \[\cos(\theta) = \frac{(\nabla f(x), v)_2}{\norm{\nabla f(x)}_2\cdot \norm{v}_2}.\] Damit gilt für $\norm{v}_2 = 1$ \[\pdv{f}{v}(x) \oldstackrel{\text{Lemma } \ref{lemma:richtungsableitung}}{=} (\nabla f, v)_2 = \norm{\nabla f(x)}_2 \cdot \norm{v}_2 \cdot \cos(\theta) \oldstackrel{\norm{v}_2 =1}{=} \norm{\nabla f(x)}_2 \cdot \cos(\theta)\] - $\pdv{f}{v}(x)$ wird maximal, wenn $\cos(\theta) = 1 \implies v$ und $\nabla f(x)$ die gleiche Richtung haben: d.h. Der Vektor $\nabla f(x)$ ist die Richtung des stärksten Anstiegs von $f$ im Punkt $x$. + $\pdv{f}{v}(x)$ wird maximal, wenn $\cos(\theta) = 1$, also wenn $v$ und $\nabla f(x)$ die gleiche Richtung haben: d.h. der Vektor $\nabla f(x)$ ist die Richtung des stärksten Anstiegs von $f$ im Punkt $x$. \end{korrolar} \begin{bem} \begin{enumerate} @@ -143,8 +143,8 @@ Erinnerung (Analysis 1) $f \colon D \to \R,\; D \subset \R$, ist genau dann in $ + \lim\limits_{\xi\to 0} \frac{\norm{\omega_f(\eta)}}{\norm{\xi}} = 0\] \end{proof} \begin{bem}[Komponentenweise für $i = 1,\dots,m$ und $j = 1, \dots, r$] - \[D_xh(x) = D_yf(y) D_xg(x) \Leftrightarrow \underbrace{\pdv{h_j}{x_i}(x)}_{\partial_i(f\circ g)_j} = \sum_{i = 1}^{n} \pdv{f_j}{y_k}(g_1(x)\dots, g_n(x))\cdot \pdv{g_k}{x_i}(x_1, \dots, x_m)\] - Spezialfall: $m = r = 1 (g \colon D_g \subset \R \to \R^n),\; f\colon D_f\in \R^n \to \R$ + \[D_xh(x) = D_yf(y) D_xg(x) \Leftrightarrow \underbrace{\pdv{h_j}{x_i}(x)}_{\partial_i(f\circ g)_j} = \sum_{k = 1}^{n} \pdv{f_j}{y_k}(g_1(x),\dots, g_n(x))\cdot \pdv{g_k}{x_i}(x_1, \dots, x_m)\] + Spezialfall: $m = r = 1 \ (g \colon D_g \subset \R \to \R^n,\; f\colon D_f\subset \R^n \to \R)$ \[h'(x) = \dv{}{x} h(x) = \dv{}{x} f(g(x)) = \sum_{k = 1}^{n} \pdv{f}{y_k}\ (g_1(x), \dots, g_n(x))\cdot \dv{}{x} g_k (x) = (\nabla_yf(g(x)), g'(x))_2\] \end{bem} \end{document}