Selaa lähdekoodia

minor corrections

master
salagne 5 vuotta sitten
vanhempi
commit
c96d648a92
2 muutettua tiedostoa jossa 7 lisäystä ja 7 poistoa
  1. +1
    -1
      ana10.tex
  2. +6
    -6
      ana12.tex

+ 1
- 1
ana10.tex Näytä tiedosto

@@ -126,7 +126,7 @@ Frage: Unter welchen Bedingungen konvergiert die Fixpunktiteration?
eine Lösung $x^{*} = A^{-1}b$. Sei $g(x) \coloneqq x - \sigma (Ax - b)$ mit
$\sigma \in \mathbb{K} \setminus \{0\} $.

Fixpunktiteration $x^{(k)} = x^{(k-1)} - \sigma (Ax^{(k-1}) - b)$, $k \in \N$ konvergiert, wenn
Fixpunktiteration $x^{(k)} = x^{(k-1)} - \sigma (Ax^{(k-1)} - b)$, $k \in \N$ konvergiert, wenn
$g$ kontraktiv ist. Zum Beispiel in $\ell_2$:
\begin{align*}
\Vert g(x) - g(y) \Vert_2 &= \Vert x - \sigma(Ax - b) - y + \sigma(Ay -b)\Vert_2 \\


+ 6
- 6
ana12.tex Näytä tiedosto

@@ -4,7 +4,7 @@
\newcommand{\dv}[2]{\frac{\d #1}{\d #2}}

\section{Totale Differenzierbarkeit}
Erinnerung (Analysis 1) $f \colon D \to \R,\; D \subset \R$, ist genau dann in $x\in D$ differenzierbar, falls $f$ in $x$ ,,gut`` linear approximierbar ist, d.h. $\exists a\in \R$ mit $f(x + h) = f(x) + a\cdot h + w(h)$ wobei $\lim\limits_{h\to 0} \frac{w(h)}{|h|} = 0 (f'(x) = a)$.
Erinnerung (Analysis 1) $f \colon D \to \R,\; D \subset \R$, ist genau dann in $x\in D$ differenzierbar, falls $f$ in $x$ ,,gut`` linear approximierbar ist, d.h. $\exists a\in \R$ mit $f(x + h) = f(x) + a\cdot h + w(h)$ wobei $\lim\limits_{h\to 0} \frac{w(h)}{|h|} = 0 \ (f'(x) = a)$.

\begin{definition}[total differenzierbar]
Es sei $D\subset \R^n$ offen und $f\colon D \to \R^m$ eine Abbildung. $f$ heißt im Punkt $x\in D$ \underline{(total) differenzierbar}, falls es eine lineare Abbildung $A \colon \R^n \to \R^m$ gibt, sodass
@@ -18,7 +18,7 @@ Erinnerung (Analysis 1) $f \colon D \to \R,\; D \subset \R$, ist genau dann in $
,\] wobei $\lim\limits_{h\to 0} \frac{\norm{\omega(h)}}{\norm{h}} = 0 \;(\Leftrightarrow (\ref{eq:diffbar}), \Leftrightarrow \omega(h) = o(\norm{h}))$. Da alle Normen auf $\R^m$ äquivalent sind, ist es gleichgültig, welche Norm man in (\ref{eq:diffbar}) verwendet.

$A$ heißt das \underline{Differential} von $f$ im Punkt $x$.
Schreibweise: \[\d f(x),\; \d f\bigg|_x,\; \d f_x,\; Df(x),\; Df\bigg|_x,\; Df_x,\; \d f(x)\bigg|_{x = x_0},\; Df(x_0).\]
Schreibweise: \[\mathrm{d} f(x),\; \mathrm{d} f\Big|_x,\; \mathrm{d} f_x,\; Df(x),\; Df\Big|_x,\; Df_x,\; \mathrm{d} f(x)\Big|_{x = x_0},\; Df(x_0).\]
\end{definition}
\begin{bem}
Für $n=m=1$ ist die Definition der totalen Ableitung äquivalent zur Definition der Ableitung von Funktionen einer Variablen.
@@ -88,9 +88,9 @@ Erinnerung (Analysis 1) $f \colon D \to \R,\; D \subset \R$, ist genau dann in $
\end{salign*}
\end{proof}
\begin{korrolar}
Sei $\nabla f(X) \neq 0$. Dann ist der Winkel $\theta$ zwischen zwei Vektoren $v\in \R^n$ und $\nabla f(x) \in \R^n$ definiert durch \[\cos(\theta) = \frac{(\nabla f(x), v)_2}{\norm{\nabla f(x)}_2\cdot \norm{v}_2}.\]
Sei $\nabla f(x) \neq 0$. Dann ist der Winkel $\theta$ zwischen zwei Vektoren $v\in \R^n$ und $\nabla f(x) \in \R^n$ definiert durch \[\cos(\theta) = \frac{(\nabla f(x), v)_2}{\norm{\nabla f(x)}_2\cdot \norm{v}_2}.\]
Damit gilt für $\norm{v}_2 = 1$ \[\pdv{f}{v}(x) \oldstackrel{\text{Lemma } \ref{lemma:richtungsableitung}}{=} (\nabla f, v)_2 = \norm{\nabla f(x)}_2 \cdot \norm{v}_2 \cdot \cos(\theta) \oldstackrel{\norm{v}_2 =1}{=} \norm{\nabla f(x)}_2 \cdot \cos(\theta)\]
$\pdv{f}{v}(x)$ wird maximal, wenn $\cos(\theta) = 1 \implies v$ und $\nabla f(x)$ die gleiche Richtung haben: d.h. Der Vektor $\nabla f(x)$ ist die Richtung des stärksten Anstiegs von $f$ im Punkt $x$.
$\pdv{f}{v}(x)$ wird maximal, wenn $\cos(\theta) = 1$, also wenn $v$ und $\nabla f(x)$ die gleiche Richtung haben: d.h. der Vektor $\nabla f(x)$ ist die Richtung des stärksten Anstiegs von $f$ im Punkt $x$.
\end{korrolar}
\begin{bem}
\begin{enumerate}
@@ -143,8 +143,8 @@ Erinnerung (Analysis 1) $f \colon D \to \R,\; D \subset \R$, ist genau dann in $
+ \lim\limits_{\xi\to 0} \frac{\norm{\omega_f(\eta)}}{\norm{\xi}} = 0\]
\end{proof}
\begin{bem}[Komponentenweise für $i = 1,\dots,m$ und $j = 1, \dots, r$]
\[D_xh(x) = D_yf(y) D_xg(x) \Leftrightarrow \underbrace{\pdv{h_j}{x_i}(x)}_{\partial_i(f\circ g)_j} = \sum_{i = 1}^{n} \pdv{f_j}{y_k}(g_1(x)\dots, g_n(x))\cdot \pdv{g_k}{x_i}(x_1, \dots, x_m)\]
Spezialfall: $m = r = 1 (g \colon D_g \subset \R \to \R^n),\; f\colon D_f\in \R^n \to \R$
\[D_xh(x) = D_yf(y) D_xg(x) \Leftrightarrow \underbrace{\pdv{h_j}{x_i}(x)}_{\partial_i(f\circ g)_j} = \sum_{k = 1}^{n} \pdv{f_j}{y_k}(g_1(x),\dots, g_n(x))\cdot \pdv{g_k}{x_i}(x_1, \dots, x_m)\]
Spezialfall: $m = r = 1 \ (g \colon D_g \subset \R \to \R^n,\; f\colon D_f\subset \R^n \to \R)$
\[h'(x) = \dv{}{x} h(x) = \dv{}{x} f(g(x)) = \sum_{k = 1}^{n} \pdv{f}{y_k}\ (g_1(x), \dots, g_n(x))\cdot \dv{}{x} g_k (x) = (\nabla_yf(g(x)), g'(x))_2\]
\end{bem}
\end{document}


Loading…
Peruuta
Tallenna