|
- \documentclass{lecture}
- \begin{document}
- \newcommand{\pdv}[2]{\frac{\partial #1}{\partial #2}}
- \newcommand{\dv}[2]{\frac{\mathrm{d} #1}{\mathrm{d} #2}}
-
- \section{Totale Differenzierbarkeit}
- Erinnerung (Analysis 1) $f \colon D \to \R,\; D \subset \R$, ist genau dann in $x\in D$ differenzierbar, falls $f$ in $x$ ,,gut`` linear approximierbar ist, d.h. $\exists a\in \R$ mit $f(x + h) = f(x) + a\cdot h + w(h)$ wobei $\lim\limits_{h\to 0} \frac{w(h)}{|h|} = 0 \ (f'(x) = a)$.
-
- \begin{definition}[total differenzierbar]
- Es sei $D\subset \R^n$ offen und $f\colon D \to \R^m$ eine Abbildung. $f$ heißt im Punkt $x\in D$ \underline{(total) differenzierbar}, falls es eine lineare Abbildung $A \colon \R^n \to \R^m$ gibt, sodass
- \begin{equation}\label{eq:diffbar}
- \lim\limits_{\stackrel{h\to 0}{h\neq 0}} \frac{f(x + h) - f(x) - A\cdot h}{\norm{h}} = 0
- \end{equation}
- Oft wird (\ref{eq:diffbar}) durch eine Bedingung an den Rest $\omega(h),\; \omega\colon D \to \R^m$
- definiert:
- \[
- f(x + h) = f(x) + A\cdot h + \omega(h)
- ,\] wobei $\lim\limits_{h\to 0} \frac{\norm{\omega(h)}}{\norm{h}} = 0 \;(\Leftrightarrow (\ref{eq:diffbar}), \Leftrightarrow \omega(h) = o(\norm{h}))$. Da alle Normen auf $\R^m$ äquivalent sind, ist es gleichgültig, welche Norm man in (\ref{eq:diffbar}) verwendet.
-
- $A$ heißt das \underline{Differential} von $f$ im Punkt $x$.
- Schreibweise: \[\mathrm{d} f(x),\; \mathrm{d} f\Big|_x,\; \mathrm{d} f_x,\; Df(x),\; Df\Big|_x,\; Df_x,\; \mathrm{d} f(x)\Big|_{x = x_0},\; Df(x_0).\]
- \end{definition}
- \begin{bem}
- Für $n=m=1$ ist die Definition der totalen Ableitung äquivalent zur Definition der Ableitung von Funktionen einer Variablen.
- \end{bem}
- \begin{satz}[Differenzierbarkeit]
- Sei $D \subset \R^n$ offen. Für Funktionen $f: D \to \R^m$ gilt:
- \begin{enumerate}[1)]
- \item Sei $f$ in $x\in D$ differenzierbar, dann ist $f$ partiell differenzierbar und $Df(x) = J_f(x),\; J_f(x)$ Jacobi-Matrix
- \item Sei $f$ partiell differenzierbar in einer Umgebung von $x\in D$ und die partiellen Ableitungen stetig in $x$, dann ist $f$ differenzierbar in $x$.
- \end{enumerate}
- \end{satz}
- \begin{proof}
- $n=2$ und $m = 1$.
- \begin{enumerate}[1)]
- \item Sei $f$ differenzierbar. Dann gilt \begin{align*}
- \lim\limits_{h_i\to 0} \frac{f(x + h_i \cdot e^{(i)}) - f(x)}{h_i}
- &= \lim\limits_{h_i\to 0} \left(Df(x) \cdot e^{(i)} + \frac{\omega(h_i)}{h_i}\right)\\
- &= Df(x) \cdot e^{(i)} + \underbrace{\lim\limits_{h_i\to 0} \frac{\omega(h_i)}{h_i}}_{\to 0}\\
- &= Df(x) \cdot e^{(i)}
- \end{align*}
- $ \implies f$ partiell differenzierbar und $Df(x)e^{(i)} = \begin{pmatrix}
- \partial_i f_1\\ \vdots \\ \partial_i f_m
- \end{pmatrix} \implies Df(x) = J_f(x)$.
- \item Sei $f$ stetig partiell differenzierbar und $h = \begin{pmatrix}
- h_1 \\ h_2
- \end{pmatrix}$. Dann gilt
- \begin{salign*}
- f(x + h) - f(x) &= f(x_1 + h_1, x_2 + h_2) - f(x_1 + h_1, x_2) + f(x_1 + h_1, x_2) - f(x_1, x_2)
- \intertext{$\exists \theta_1, \theta_2 \in (0,1)$ mit }
- f(x + h) - f(x)&\stackrel{\text{MWS}}{=} h_2 \partial_2 f(x_1 + h_1, x_2 + \theta_2 \cdot h_2) + h_1 \partial_1 f(x_1 + \theta_1 \cdot h_1, x_2)\\
- &= h_2(\partial_2f(x_1,x_2) + w_2(h_1,h_2)) + h_1(\partial_1f(x_1, x_2) + w_1(h_1,h_2)),
- \intertext{wobei}
- \omega_1(h_1, h_2) &= \partial_1f(x_1 + \theta_1 h_1, x_2) - \partial_1 f(x_1, x_2)
- \intertext{und}
- \omega_2(h_1,h_2) &= \partial_2f(x_1 + h_1, x_2 + \theta_2 h_2) - \partial_2f(x_1,x_2).
- \intertext{$\partial_1f(x), \partial_2f(x)$ stetig $\implies \lim\limits_{h\to 0} \omega_1(h_1,h_2) = 0,\; \lim\limits_{h\to 0} \omega_2(h_1,h_2) = 0$. Daher gilt}
- f(x + h) - f(x) &= h_1\partial_1 f(x) + h_2\partial_2f(x) + h_1\omega_1(h) + h_2\omega_2(h)\\
- &= (\partial f_1(x), \partial f_2(x))\begin{pmatrix}
- h_1\\h_2
- \end{pmatrix} + (\omega_1(h), \omega_2(h))\begin{pmatrix}
- h_1\\h_2
- \end{pmatrix}\\
- &= Df(x) \cdot h + \tilde{\omega}(h)
- \end{salign*}
- mit $\lim\limits_{h\to 0} \frac{\norm{\tilde{\omega}(h)}}{\norm{h}} = 0$.
- Also ist $f$ differenzierbar und $Df(x) = \nabla^Tf(x)$.
- \end{enumerate}
- \end{proof}
- \begin{korollar}
- stetig partiell differenzierbar $\implies$ (total) differenzierbar $\implies$ partiell differenzierbar. Die umgekehrten Implikationen gelten im Allgemeinen nicht.
- \end{korollar}
- \begin{lemma}[Richtungsableitung]\label{lemma:richtungsableitung}
- Sei $D\in \R^n$ offen, $f \colon D \to \R$ im Punkt $x\in D$ differenzierbar. Dann gilt $\forall v \in \R^n$ mit $\norm{v}_2 = 1$ existiert die Ableitung in Richtung $v$ (sog. \underline{Richtungsableitung})
- \[\pdv{f}{v}(x) \coloneqq \lim\limits_{t\searrow 0} \frac{f(x + tv) - f(x)}{t}\] und \[\pdv{f}{v}(x) = (\nabla f(x), v)_2\]
- \end{lemma}
- \begin{proof}
- Sei $x \in D$ und definiere die Funktion $\xi(t) \coloneqq x + tv$. $\xi(t)\in D$ für $t \in [0, \epsilon)$ für genügend kleine $\epsilon > 0$. Betrachte die Komposition $h \coloneqq f\circ \xi: [0,\epsilon) \to \R$. Dann gilt
- \begin{salign*}
- \pdv{f}{v}(x) &\stackrel{\text{Def. Richtungsabl.}}{=} \lim\limits_{t\searrow 0} \frac{f(x + tv) - f(x)}{t}\\
- &\stackrel{\text{Def. Abl.}}{=} \dv{}{t} f(x + tv)\bigg|_{t=0}\\
- &\stackrel{f(x + tv) = (f \circ \xi)(t)}{=}\dv{h}{t}\bigg|_{t=0}\\
- &= h'(0)
- \intertext{Kettenregel:}
- h'(t) &= \sum_{i = 1}^{n} \pdv{f}{x_i}(\xi(t))\cdot \xi_i'(t)\\
- \implies h'(0) &\stackrel[\xi_i'(t) = v_i]{\xi(0) = x + 0\cdot v}{=} \sum_{i = 1}^{n}\pdv{f}{x_i}(x)\cdot v_i\\
- &= (\nabla f(x),v)_2
- \end{salign*}
- \end{proof}
- \begin{korollar}
- Sei $\nabla f(x) \neq 0$. Dann ist der Winkel $\theta$ zwischen zwei Vektoren $v\in \R^n$ und $\nabla f(x) \in \R^n$ definiert durch \[\cos(\theta) = \frac{(\nabla f(x), v)_2}{\norm{\nabla f(x)}_2\cdot \norm{v}_2}.\]
- Damit gilt für $\norm{v}_2 = 1$ \[\pdv{f}{v}(x) \oldstackrel{\text{Lemma } \ref{lemma:richtungsableitung}}{=} (\nabla f, v)_2 = \norm{\nabla f(x)}_2 \cdot \norm{v}_2 \cdot \cos(\theta) \oldstackrel{\norm{v}_2 =1}{=} \norm{\nabla f(x)}_2 \cdot \cos(\theta)\]
- $\pdv{f}{v}(x)$ wird maximal, wenn $\cos(\theta) = 1$, also wenn $v$ und $\nabla f(x)$ die gleiche Richtung haben: d.h. der Vektor $\nabla f(x)$ ist die Richtung des stärksten Anstiegs von $f$ im Punkt $x$.
- \end{korollar}
- \begin{bem}
- \begin{enumerate}
- \item Es gibt Funktionen, für welche alle Richtungsableitungen existieren, die aber dennoch nicht (total) differenzierbar sind.
- \item Es gibt Funktionen, die stetig und partiell differenzierbar, aber nicht (total) differenzierbar sind.
- \end{enumerate}
- \end{bem}
- \begin{satz}[Kettenregel]
- Seien $D_f \subset \R^n$ und $D_g \subset \R^m$ offen, $g \colon D_g \to \R^n, f: D_f \to \R^r$ Abbildungen. Falls $g$ im Punkt $x \in D_g$ und $f$ im Punkt $y = g(x) \in D_f$ differenzierbar sind, gilt: Die Komposition $h = f\circ g$ ist im Punkt $x$ differenzierbar und \[\underbrace{D_x h(x)}_{\in \R^{r \times m}} = \underbrace{D_y f(g(x))}_{\in \R^{r \times n}} \underbrace{D_x g(x)}_{\in \R^{n \times m}}\]
- \end{satz}
- \begin{proof}
- Seien $x\in D_g$ und $y = g(x) \in D_f$. Dann gilt nach Voraussetzungen
- \begin{align*}
- g(x + \xi) &= \underbrace{g(x)}_{\eqqcolon y} + \underbrace{D_xg(x) \xi + \omega_g(\xi)}_{\eqqcolon \eta} &&\text{mit } \lim\limits_{\stackrel{x+\xi \in D_g}{\norm{\xi} \to 0}} \frac{\norm{\omega_g(\xi)}}{\norm{\xi}} = 0\\
- f(y + \eta) &= f(y) + D_yf(y) \eta + \omega_f(\eta)&&\text{mit } \lim\limits_{\stackrel{x+\eta \in D_f}{\norm{\eta} \to 0}} \frac{\norm{\omega_f(\eta)}}{\norm{\eta}} = 0\\
- \end{align*}
- Dann erhalten wir
- \begin{salign*}
- (f\circ g)(x + \xi) &= f(g(x + \xi))\\
- &\stackrel{g(x + \xi) = g(x) + \eta = y + \eta}{=} f(y + \eta)\\
- &= f(y) + D_yf(y)\cdot \eta + \omega_f(\eta)\\
- &= f(y) + D_yf(y) (D_xg(x)\xi + \omega_g(\xi)) + \omega_f(\eta)\\
- &= f(y) + D_yf(y)D_x g(x) \cdot \xi + D_yf(y) \omega_g(\xi) + \omega_f(\eta)\\
- &= (f\circ g)(x) + \underbrace{D_yf(y)D_xg(x)}_{D_x(f\circ g)} \cdot \xi + \omega_{f\circ g}(\xi),
- \end{salign*}%eta = D_xg(x)\xi + w_g(\xi)
- wobei hier $\omega_{f\circ g}(\xi) = D_yf(y)\omega_g(\xi) + \omega_f(\eta)$. Es genügt also zu zeigen, dass \[\lim\limits_{\norm{\xi}\to 0} \frac{\norm{\omega_{f\circ g}(\xi)}}{\norm{\xi}} = 0.\]
- Aus $\lim\limits_{\norm{\xi}\to 0} \frac{\norm{\omega_g(\xi)}}{\norm{\xi}} = 0$ folgt sofort
- $\lim\limits_{\norm{\xi}\to 0} \frac{\norm{D_yf(y)\omega_g(\xi)}}{\norm{\xi}} = 0$.
- Wir schließen aber auch, dass es eine Konstante $c >0$ geben muss, sodass $\norm{\omega_g(\xi)} \leq c
- \norm{\xi}$. Wegen $\lim\limits_{\norm{\eta}\to 0} \frac{\norm{\omega_f(\eta)}}{\norm{\eta}} = 0$
- muss es ein $\tilde{\omega}_f(\eta)$ mit $\lim\limits_{\eta\to 0} \tilde{\omega}_f(\eta) = 0$ geben,
- sodass $\omega_f(\eta) = \norm{\eta}\cdot \tilde{\omega}_f(\eta)$. Mit diesen Aussagen gilt:
- \begin{salign*}
- \norm{\omega_f(\eta)} %&\stackrel{w_f(\eta) = \norm{\eta} \tilde{w}_f(\eta)}{\le} \norm{D_x g(x)\xi + w_g(\xi)} \tilde{w}_f (\eta)\\
- &= \norm{D_x g(x)\xi + \omega_g(\xi)} \norm{\tilde{\omega}_f (\eta)}\\
- &\le \left(\norm{D_xg(x)} \norm{\xi} + \norm{\omega_g(\xi)}\right) \cdot \norm{\tilde{\omega}_f(\eta)}\\
- &\le \left(\norm{D_xg(x)} + c\right)\norm{\xi} \cdot \norm{\tilde{\omega}_f(\eta)}\\
- \implies \frac{\norm{\omega_f(\eta)}}{\norm{\xi}} &\le \left(\norm{D_xg(x)} + c\right)
- \cdot \norm{\tilde{\omega}_f(\eta)}
- \intertext{Wegen $\lim\limits_{\xi\to 0} \eta = \lim\limits_{\xi\to 0} D_xg(x)\xi + \omega_g(\xi) = 0$
- folgt $\displaystyle \lim_{\xi \to 0} \tilde{\omega}_f(\eta) = 0$ und damit}
- 0 \le \lim\limits_{\xi\to 0} \frac{\norm{\omega_f(\eta)}}{\norm{\xi}}
- &\le \lim\limits_{\xi\to 0} \left(\norm{D_xg(x)} + c\right) \cdot \norm{\tilde{\omega}_f(\eta)}
- = \left(\norm{D_xg(x)} + c\right) \cdot \norm{ \lim_{\xi \to 0} \tilde{\omega}_f(\eta)}
- = 0
- \end{salign*}
- Insgesamt erhalten wir
- \[\lim\limits_{\norm{\xi}\to 0} \frac{\norm{\omega_{f\circ g}(\xi)}}{\norm{\xi}}
- \le \lim\limits_{\norm{\xi}\to 0} \frac{\norm{D_yf(y)\omega_g(\xi)}}{\norm{\xi}}
- + \lim\limits_{\xi\to 0} \frac{\norm{\omega_f(\eta)}}{\norm{\xi}} = 0\]
- \end{proof}
- \begin{bem}[Komponentenweise für $i = 1,\dots,m$ und $j = 1, \dots, r$]
- \[D_xh(x) = D_yf(y) D_xg(x) \Leftrightarrow \underbrace{\pdv{h_j}{x_i}(x)}_{\partial_i(f\circ g)_j} = \sum_{k = 1}^{n} \pdv{f_j}{y_k}(g_1(x),\dots, g_n(x))\cdot \pdv{g_k}{x_i}(x_1, \dots, x_m)\]
- Spezialfall: $m = r = 1 \ (g \colon D_g \subset \R \to \R^n,\; f\colon D_f\subset \R^n \to \R)$
- \[h'(x) = \dv{}{x} h(x) = \dv{}{x} f(g(x)) = \sum_{k = 1}^{n} \pdv{f}{y_k}\ (g_1(x), \dots, g_n(x))\cdot \dv{}{x} g_k (x) = (\nabla_yf(g(x)), g'(x))_2\]
- \end{bem}
- \end{document}
- Kostinas Version des letzen Beweises vor der Bemerkung
- \begin{salign*}
- \norm{w_{f\circ g}(\xi)} &= \Vert w_f(\underbrace{D_xg(x)\xi + w_g(\xi)}_{\eta})\Vert\\
- &\stackrel{w_f(\eta) = \norm{\eta} \tilde{w}_f(\eta)}{\le} \norm{D_x g(x)\xi + w_g(\xi)} \tilde{w}_f (D_xg(x)\xi + w_g(\xi))\\
- &\le (\norm{D_xg(x)} \norm{\xi} + \norm{w_g(\xi)}) \cdot \norm{\tilde{w}_f(D_xg(x)\xi + w_g(\xi))}\\
- &\le (\norm{D_xg(x)} + c)\norm{\xi} \cdot \norm{\tilde{w}_f(D_xg(x)\xi + w_g(\xi))}\\
- \implies \frac{\norm{w_{f\circ g}(\xi)}}{\norm{\xi}} &= (\norm{D_xg(x)} + c) \cdot \norm{\tilde{w}_f(D_xg(x)\xi + w_g(\xi))}
- \end{salign*}
|