Aktuelles PDF gibt's auch hier: https://flavigny.de/lecture/pdf/analysis2 zum bequemeren Lesen.
Você não pode selecionar mais de 25 tópicos Os tópicos devem começar com uma letra ou um número, podem incluir traços ('-') e podem ter até 35 caracteres.

355 linhas
23KB

  1. \documentclass{lecture}
  2. \begin{document}
  3. \newcommand{\pdv}[2]{\frac{\partial #1}{\partial #2}}
  4. \newcommand{\dv}[2]{\frac{\mathrm{d} #1}{\mathrm{d} #2}}
  5. \def\mathunderline#1#2{\color{#1}\underline{{\color{black}#2}}\color{black}}
  6. \section{Extremwertaufgaben}
  7. \begin{definition}[lokales Maximum/Minimum]
  8. Sei $D \subset \R^n$ offen, $f\colon D\to \R$. Ein Punkt $x\in D$ heißt lokales \underline{Minimum (Maximum)} von $f$, falls eine Umgebung $K_\delta(x)\subset \R^n$ existiert mit \[f(x)\leq f(y),\; \forall y\in K_\delta(x)\cap D\] ($f(x)\geq f(y),\; \forall y\in K_\delta(x)\cap D$). Falls \[f(x) < f(y), \forall y \in K_\delta(x)\cap D\setminus\{x\}\] ($f(x) > f(y)$), dann heißt $x$ \underline{striktes} lokales Minimum (Maximum).
  9. \end{definition}
  10. \begin{satz}[Notwendige Bedingung für lokales Extremum (Min oder Max)]
  11. \label{satz:notwendig-extremum}
  12. Sei $D\subset \R^n$ offen, $f\colon D\to \R$ stetig differenzierbar und $x\in D$ ein lokales Extremum von $f$. Dann gilt : $\nabla f(x) = 0$.
  13. \end{satz}
  14. \begin{proof}
  15. Für $i = 1,\dots,n$, betrachte $g_i(t)\coloneqq f(x + te_i)$. Da $D$ offen ist, sind alle $g_i$ auf einem Intervall $(-\delta, \delta), \delta > 0$ wohldefiniert und differenzierbar. $g_i(t)$ hat in $t = 0$ ein lokales Minimum/Maximum , also gilt $\forall i = 1, \dots, n$ \[\dv{g_i(t)}{t}\bigg|_{t=0} = 0.\]
  16. Aufgrund der totalen Differenzierbarkeit von $f$ folgt
  17. \[ 0 = \dv{g_i(t)}{t}\bigg|_{t=0} \oldstackrel{\text{Kettenregel}}{=} \sum_{j = 1}^{n}\pdv{f(x)}{x_j} \cdot \delta_{ij} = \pdv{f(x)}{x_i} \qquad \forall i = 1\dots, n
  18. \]
  19. \end{proof}
  20. \begin{bem}
  21. Die Umkehrung ist falsch, z.B. $f(x) = x^3,\; f\colon \R \to \R$, hat in $x=0$ $\nabla f(x) = 0$, aber $x = 0$ ist kein Max/Min von $f(x) = x^3$.\\
  22. $f\colon \R^2 \to \R,\; f(x_1, x_2) = x_1x_2$ hat in $x = \begin{pmatrix}
  23. 0\\0
  24. \end{pmatrix} \nabla f(x) = 0$, aber $x = 0$ ist kein Max/Min von $f$.
  25. \end{bem}
  26. \begin{satz}[Hinreichende Bedingung für lokales Extremum]\
  27. Sei $D\subset \R^n$ offen, $f\in C^2(D,\R)$ und $x\in D$ mit $\nabla f(x) = 0$. Dann gilt:
  28. \begin{enumerate}
  29. \item $H_f(x)$ positiv definit $\implies x$ striktes lokales Minimum von $f$.
  30. \item $H_f(x)$ negativ definit $\implies x$ striktes lokales Maximum von $f$.
  31. \item $H_f(x)$ indefinit $\implies x$ kein lokales Extremum.
  32. \end{enumerate}
  33. \end{satz}
  34. \begin{proof}
  35. Nach Taylor gilt lokal um $x$:
  36. \[f(x+h) = f(x) + (\nabla f(x), h)_2 + \frac{1}{2}(H_f(x)h, h)_2 + \omega_2(x,h)\] mit $\frac{\omega_2(x,h)}{\norm{h}^2} \oldstackrel{h \to 0}{\to} 0$
  37. \begin{enumerate}
  38. \item Sei $H_f(x)$ positiv definit. Betrachte $\min_{\norm{h}=1} (H_f(x)h, h)_2$. Die Menge $\{h\in \R^n\mid\norm{h} = 1\}$ ist kompakt $\implies (H_f(x)h, h)_2$ nimmt ihr Minimum auf $\{h\in \R^n\mid \norm{h} =1\}$ als stetige Funktion an. $\implies \alpha \coloneqq \min_{\norm{h} = 1} (H_f(x)h, h)_2 > 0$, da $H_f(x)$ positiv definit ist. Sei $h\in \R^n\setminus\{0\}$ beliebig. Dann gilt
  39. \[(H_f(x)h, h)_2 = \norm{h}^2 \underbrace{\left(H_f(x)\cdot \frac{h}{\norm h}, \frac{h}{\norm h}\right)_2}_{\geq \alpha}\geq \alpha \norm h^2 > 0\]
  40. Wähle $\delta > 0$ klein, sodass $\forall \norm h < \delta$ gilt $|\omega_2(x,h)| \leq \frac{\alpha}{4}\norm h^2$ (weil $\omega_2(x,h) = o(\norm h^2)$). Damit gilt $\forall h, \norm h < \delta$
  41. \[f(x+h) = f(x) + (\underbrace{\nabla f(x)}_{=0}, h)_2 + \frac{1}{2}(H_f(x)h, h)_2 + \omega_2(x,h) \geq f(x) + \frac{\alpha}{2}\norm h^2 - \frac{\alpha}{4}\norm h^2 > f(x)\]
  42. $\implies x$ striktes lokales Minimum von $f$.
  43. \item Ersetze $f$ durch $-f$, dann 1)
  44. \item $\exists h \in \R^n$ mit $(H_f(x)h, h)_2 = \alpha > 0$, sodass
  45. \[
  46. f(x + th) \oldstackrel{\text{Taylor}}{=} f(x) + \frac{1}{2}t^2\cdot \alpha + \omega_2 (x , th) = f(x) + t^2\left(\frac{\alpha}{2}+ \underbrace{\frac{\omega_2(x,th)}{t^2}}_{\oldstackrel{t\to 0}{\longrightarrow}0}\right) \oldstackrel{\text{für } 0 < t \ll 1}{>} f(x)
  47. \]
  48. Außerdem $\exists \eta \in \R^n$ mit $(H_f(x)\eta, \eta)_2 = \beta < 0$. Analog $\implies f(x + t\eta) \leq f(x) + \beta\frac{t^2}{4}< f(x)$ für $0 < t \ll 1$. $\implies f(x)$ kein Maximum/Minimum.
  49. \end{enumerate}
  50. \end{proof}
  51. \begin{bsp}
  52. \begin{enumerate}
  53. \item $f(x,y) \coloneqq x^2 + 2y^2 \implies \nabla f(x,y) = \begin{pmatrix}
  54. 2x\\4y
  55. \end{pmatrix} = 0$ für $\begin{pmatrix}
  56. x\\y
  57. \end{pmatrix} = \begin{pmatrix}
  58. 0\\0
  59. \end{pmatrix}$.
  60. $H_f(x,y) = \begin{pmatrix}
  61. 2 & 0\\ 0 & 4
  62. \end{pmatrix}$ positiv definit. $\implies \begin{pmatrix}
  63. x\\y
  64. \end{pmatrix} = 0$ striktes lokales Minimum (sogar global).
  65. \begin{tabular}{cll}
  66. $f(x)\leq f(y)$ &$\forall y\in D$ & globales Minimum\\
  67. $f(x) < f(y)$ &$\forall y\in D\setminus\{x\}$ &striktes globales Minimum
  68. \end{tabular}
  69. \item $f(x,y) \coloneqq x^2 - y^2 \implies \nabla f(x,y) = \begin{pmatrix}
  70. 2x\\-2y
  71. \end{pmatrix} = 0$ für $\begin{pmatrix}
  72. x\\y
  73. \end{pmatrix} = \begin{pmatrix}
  74. 0\\0
  75. \end{pmatrix}$.
  76. $H_f(x,y) = \begin{pmatrix}
  77. 2 & 0\\ 0 & -2
  78. \end{pmatrix}$ indefinit. $\implies 0 \in \R^2$ kein lokales Extremum.
  79. \item $f_1(x,y) \coloneqq x^2 + y^4,\; f_2(x,y) \coloneqq x^2,\; f_3(x,y)\coloneqq x^2 + y^3$
  80. Es gilt
  81. \[
  82. \nabla f_i(0) = 0\in \R^2,\; H_{f_i}(0) = \begin{pmatrix}
  83. 2 & 0\\
  84. 0 & 0
  85. \end{pmatrix}
  86. \forall i =1,2,3
  87. \]
  88. Die Hesse-Matrix ist positiv semidefinit. Es gilt
  89. \begin{tabular}{lcl}
  90. für $f_1$:& Punkt 0 ist ein& \underline{striktes} lokales Maximum,\\
  91. für $f_2$:& Punkt 0 ist ein& \underline{lokales Minimum}, aber \underline{nicht strikt},\\
  92. für $f_3$:& Punkt 0 ist ein& Sattelpunkt.
  93. \end{tabular}
  94. \end{enumerate}
  95. \begin{figure}
  96. \begin{tikzpicture}[scale=0.8]
  97. \begin{axis}
  98. [
  99. domain=-1:1,
  100. samples=20,
  101. grid = major
  102. ]
  103. \addplot3 [surf] {x^2 + 2*y^2};
  104. \end{axis}
  105. \end{tikzpicture}
  106. \begin{tikzpicture}[scale=0.8]
  107. \begin{axis}
  108. [
  109. domain=-1:1,
  110. samples=20,
  111. grid = major
  112. ]
  113. \addplot3 [surf] {x^2 - y^2};
  114. \end{axis}
  115. \end{tikzpicture}
  116. \caption{Links: $f(x,y) = x^2 +2y^2$ ist ein Paraboloid, Rechts: $f(x,y) = x^2-y^2$ ist eine Sattelfläche}
  117. \end{figure}
  118. \end{bsp}
  119. \section{Implizite Funktionen und Umkehrabbildung.}
  120. Frage: \underline{Umkehrabbildung:} Auflösen von $x = g(y)$, d.h.
  121. \begin{equation}
  122. \left\{\begin{array}{rl}
  123. x_1&=g_1(y_1,\dots,y_n)\\
  124. \vdots&\\
  125. x_n&=g_n(y_1,\dots,y_n)\\
  126. \end{array}\right\} \Leftrightarrow
  127. \left\{\begin{array}{rl}
  128. 0&=x_1-g_1(y_1,\dots,y_n)\\
  129. \vdots&\\
  130. 0&=x_n-g_n(y_1,\dots,y_n)\\
  131. \end{array}\right\}\tag{*}\label{star}
  132. \end{equation}
  133. $n$ Gleichungen, $n$ Unbekannte $y_1,\dots, y_n$.
  134. Gesucht: Abbildung $f$ mit $y = f(x)$ ($f=g^{-1})$, s.d. $(x,f(x))$ Gleichung \eqref{star} löst (lokal um $(x_0,y_0=f(x_0))$).
  135. \paragraph{Implizite Funktion} $m$ Gleichungen, $m$ Unbekannte $y_1,\dots, y_m$.
  136. \begin{equation}
  137. \left.\begin{array}{rl}
  138. 0&=F_1(x_1,\dots,x_n,y_1,\dots,y_m)\\
  139. \vdots&\\
  140. 0&=F_m(x_1,\dots, x_n,y_1,\dots,y_m)
  141. \end{array}\right\}\tag{**}\label{doublestar}
  142. \end{equation}
  143. $0 = F(x,y)$ Auflösen nach $y$, d.h.
  144. Gesucht: Abbildung $f$, s.d. $y = f(x)$ mit $(x,f(x))$ löst \eqref{doublestar} (lokal um eine Lösung $(x_0,y_0):F(x_0,y_0) = 0$)
  145. \begin{bsp}
  146. $m=1,\;n=1,\; F(x,y) = x^2 + y^2-1$
  147. \begin{minipage}[c]{0.35\textwidth}
  148. \begin{tikzpicture}[scale=0.8]
  149. \draw[->] (0,-1.5) -- node[right,pos=.9] {$(x_0,y_0)$} (0,1.5);
  150. \draw[->] (-1.5,0) -- node[below,pos=1.3] {$F(x,y) = 0$} (1.5,0);
  151. \draw (0,0) circle (1cm);
  152. \draw[fill] (0,1) circle (2pt);
  153. \draw[fill=red,draw=red] (0,0) circle (2pt);
  154. \node[color=red] at (.3,0) {)};
  155. \node[color=red] at (-.3,0) {(};
  156. \draw[fill=blue,draw=blue] (1,0) circle (2pt);
  157. \node[color=blue] at (1.3,0) {)};
  158. \node[color=blue] at (.7,0) {(};
  159. \end{tikzpicture}
  160. \end{minipage}%
  161. \begin{minipage}[c]{0.65\textwidth}
  162. An der Stelle $\mathunderline{red}{x_0 = 0,\; y_0 = 1}$ gilt $F(0,1)=0$,\\ also
  163. $F(x,y) = 0 \Leftrightarrow y^2 = 1-x^2$.
  164. \[\implies \mathunderline{red}{f(x)\coloneqq \sqrt{1-x^2}}\text{ für } |x| < 1\] $\mathunderline{red}{\text{ erfüllt }F(x,f(x)) = 0},\; |x| < 1$.
  165. \end{minipage}
  166. Für $\mathunderline{blue}{x_0 =1,\; y_0 = 0}$ hingegen gibt es keine Umgebung von $x_0 = 1$, sodass \[\mathunderline{blue}{\exists f\colon U(x_0) \to \R\text{ mit }F(x,f(x)) = 0}.\]
  167. \end{bsp}
  168. \begin{satz}[Satz über implizite Funktionen]
  169. \label{satz:sif}
  170. Sei $D^x \subset \R^n$ offen, $D^y \subset \R^m$ offen, $F^1 \in C^1 (D^x\times D^y,\R^m)$ (stetig differenzierbar) und $(\hat{x}, \hat{y})\in D^x\times D^y$ mit $F(\hat x, \hat y) = 0$. Die $m\times m$ Matrix
  171. \[
  172. D_yF(x,y) =\begin{pmatrix}
  173. \pdv{F_1}{y_1} &\dots &\pdv{F_1}{y_m}\\
  174. \vdots & \ddots & \vdots\\
  175. \pdv{F_m}{y_1}&\dots&\pdv{F_m}{y_m}
  176. \end{pmatrix}
  177. \]
  178. sei im Punkt $(\hat x, \hat y)$ invertierbar. Dann gilt:
  179. \begin{enumerate}
  180. \item $\exists$ offene Umgebungen $U(\hat x) \subset D^x,\; U(\hat y)\subset D^y$ um $\hat x$ und $\hat y$ und $\exists$ eine stetige Funktion $f\colon U(\hat x) \to U(\hat y)$, s.d.
  181. \[F(x,f(x)) = 0\quad\forall x\in U(\hat x)\]
  182. \item $f$ ist eindeutig bestimmt, d.h. $F(x,y) = 0$ für $(x,y) \in U(\hat x)\times U(\hat y)\Leftrightarrow y = f(x)$
  183. \item $f$ ist in $\hat x$ stetig differenzierbar und $J_f(\hat x) = D_xf(\hat x)\in \R^{m \times n}$ ist \[D_xf(\hat x) = -(D_yF(\hat x, \hat y))^{-1}D_xF(\hat x, \hat y).\]
  184. \end{enumerate}
  185. \end{satz}
  186. \begin{proof}
  187. \begin{enumerate}
  188. \item O.B.d.A. sei $(\hat x, \hat y) = (0,0)$ (sonst betrachte $F(x,y) - F(\hat x, \hat y)$). Die Matrix $J_y \coloneqq D_yF(0,0)$ ist regulär. Definiere $G\colon D^x\times D^y \to \R^m,\; G(x,y) \coloneqq y - J^{-1}_yF(x,y)$. $G$ ist stetig differenzierbar und erfüllt: $G(0,0) = 0$ und $F(x,y) = 0 \Leftrightarrow G(x,y) = y$. Jacobi-Matrix von $G(x,y)$ bzgl. $y$:
  189. \[D_yG(x,y) = \mathbb{I} - J_y^{-1} D_yF(x,y) \text{ und insb. } D_yG(0,0) = \mathbb{I} - J_y^{-1}J_y = 0.\]
  190. $F$ stetig differenzierbar $\implies D_yG(x,y)$ stetig $\implies \exists K_r^x(0) \times K_r^y(0) \subset D^x \times D^y$ mit Radius $r$, sodass $\norm{D_yG(x,y)}_2\leq \frac{1}{2},\; (x,y)\in K_r^x(0)\times K_r^y(0)$. $G(0,0) = 0\implies \exists K_s^x(0)\subset K_r^x(0)$ mit Radius $0< s\le r$ sodass
  191. \[\norm{G(x,0)}_2 \le \frac{1}{2} r,\; x\in K_s^x(0)\]
  192. Ziel: Konstruiere $f\colon K_s^x(0)\to K_r^y(0)$ stetig mit $G(x,f(x)) = f(x)\; (\Leftrightarrow F(x,f(x)) = 0)$. Betrachte Fixpunktgleichung
  193. \[G(x,y) = y,\; x\in K_s^x(0).\]
  194. Für $(x,y_1),\; (x,y_2)\in K_s^x(0)\times K_r^y(0)$ gilt
  195. \[\norm{G(x,y_1) - G(x,y_2)}_2 \oldstackrel{\text{MWS}}{\le} \sup_{(x,y)\in K_s^x(0)\times K_r^y(0)}\norm{D_yG(x,y)}_2 \cdot \norm{y_1-y_2}_2 \le \frac{1}{2}\norm{y_1-y_2}_2.\]
  196. Sei $y\in \overline{K_r^y(0)}$
  197. \[\norm{G(x,y)}_2 \le \norm{G(x,y)-G(x,0)}_2 + \norm{G(x,0)}_2 \le \frac{1}{2}\norm{y}_2 + \frac{1}{2}r\le r\]
  198. d.h. $G(x,\cdot)$ ist eine Selbstabbildung der abgeschlossenen Kugel $\overline{K_r^y(0)}$.
  199. Außerdem, $\norm{G(x,y_1) -G(x,y_2)}_2 \le \frac{1}{2}\norm{y_1-y_2}\implies G(x,\cdot)$ ist eine Kontraktion mit Lipschitz-Konstante $L=\frac{1}{2}$. Aus dem Banachschen Fixpunktsatz (\ref{satz:banach-fix})
  200. folgt $\forall x \in K_s^x(0) \exists!$ ein Fixpunkt $y(x)\in K_r^y(0)$ von $G(x,\cdot)$:
  201. \[y(x) = \lim\limits_{k\to \infty} y^{(k)}(x),\; y^{(k)}(x)=G(x,y^{(k-1)}(x)),\; k\in \N\] mit Startpunkt $y^{(0)}(x)\coloneqq 0$.
  202. Es gilt die Fehlerabschätzung $\forall x \in K_s^x(0)$:
  203. \[\norm{y(x)-y^{(k)}(x)}_2 \le 2^{-k}\norm{y^{1}(x)-y^{(0)}(x)}_2 = 2^{-k}\norm{G(x,0)-0}_2 \le 2^{-k} \frac{1}{2}r\]
  204. Für $k\in \N$ gilt \[y^{(k)}(x) = G(x,y^{(k-1)}(x)) = y^{(k-1)}(x)-J_y^{-1}\underbrace{F(x,y^{(k-1)}(x))}_{\text{stetig}}\]
  205. Induktiv folgt $y^{(k)}(x)$ stetig in $x\in K_2^x(0)$. Definiere $f(x)=y(x),\; f\colon K_s^x(0) \to K_r^y(0)$ und nach Konstruktion gilt
  206. \[G(x,f(x)) = f(x),\quad x\in K_s^x(0).\]
  207. Aus der Abschätzung $\norm{y(x)-y^{(k)}(x)}\leq 2^{-k-1}\cdot r,\; x\in K_s^x(0)$ folgt, dass $y^{(k)}(x)\oldstackrel{k\to \infty}{\longrightarrow} y(x)$ gleichmäßig auf $K_s^x(0)$ konvergiert $\implies y(x)$ stetig.
  208. $\implies$ 1. Behauptung für $(\hat x, \hat y) = (0,0)$ mit $U(\hat x)\coloneqq K_s^x(0)$ und $U(\hat y)\coloneqq K_r^y(0)$.
  209. \item Die Eindeutigkeit von $y = f(x)$ folgt nun aus dem Banachschen Fixpunktsatz. Für $x\in K_s(\hat x)$ ist der Fixpunkt der Gleichung $G(x,y) = y$ eindeutig bestimmt.
  210. \item Da $F(x,y)$ in $(0,0)$ differenzierbar ist, gilt nach Definition der Differenzierbarkeit
  211. \[
  212. F(x,y) = \underbrace{F(0,0)}_{=0} + D_xF(0,0)\cdot x + \underbrace{D_yF(0,0)}_{=J_y}\cdot y + \omega(x,y),
  213. \]
  214. wobei $\omega \colon K_s^x(0)\times K_r^y(0) \to \R^m$ die Eigenschaft $\norm{\omega(x,y)}_2 = o(\norm{(x,y)}_2)$ besitzt. Aus dem Beweis von 1. wissen wir, dass $F(x,f(x)) = 0$ für $x\in K_s^x(0)$ gilt. Einsetzen ergibt
  215. \begin{align*}
  216. 0 &= F(x,f(x)) = D_xF(0,0) \cdot x + J_y \cdot f(x) + \omega(x, f(x))\\
  217. f(x) &= -J_y^{-1}\cdot D_xF(0,0) \cdot x \underbrace{ - J_y^{-1} \cdot \omega(x,f(x))}_{\eqqcolon \psi(x)}\\
  218. &= -J_y^{-1} D_xF(0,0) x + \psi(x)
  219. \end{align*}
  220. Reminder: Def. Differenzierbarkeit: $f(0 +x) = \underbrace{f(0)}_{=0} + Df(x) \cdot x + \psi(x)$ mit $\psi(x) = o(\norm{x}_2)$
  221. Es genügt also zu zeigen, dass $\psi(x) = o(\norm{x}_2)$, d.h. $\lim\limits_{x\to 0} \frac{\psi(x)}{\norm{x}_2} = 0$. Wir nutzen $\omega(x,y) = o(\norm{(x,y)}_2)$, d.h. \[\frac{\norm{\omega(x,y)}_2}{\norm{(x,y)}_2} \xrightarrow{\norm{(x,y)_2}\to 0} 0 \]
  222. d.h. $\forall \epsilon > 0 \ \exists \delta_1 \in (0,s),\; \delta_2\in (0,r)$ sodass $\forall x$ mit $\norm{x}_2\le \delta_1$ und $\forall y$ mit $\norm{y}_2 \le \delta_2$ gilt
  223. \[
  224. \norm{\omega(x,y)}_2 \le \epsilon \norm{(x,y)}_2 \le \epsilon(\norm{x}_2 + \norm{y}_2)
  225. \]
  226. Da $f$ überdies auch stetig ist (siehe Beweis 1.), gibt es ein $\delta \in (0,\delta_1)$ sodass $\forall \norm{x}_2 \le \delta$ gilt $\norm{f(x)}_2\le \delta_2$. Daraus schließen wir für $x$ mit $\norm{x}_2 \le \delta$:
  227. \[
  228. \norm{\omega(x,f(x))}_2 \le \epsilon(\norm{x}_2 + \norm{f(x)}_2)
  229. \]
  230. Dies können wir nun auf $f(x)$ anwenden.
  231. \begin{salign*}
  232. f(x) &= -J_y^{-1} D_xF(0,0)\cdot x + \psi(x)
  233. \intertext{Es gilt $\psi(x) = -J_y^{-1}\omega(x,f(x))$}
  234. \norm{f(x)} &\le \underbrace{\norm{J_y^{-1} D_xF(0,0)}_2}_{\eqqcolon c_1} \cdot \norm{x}_2 + \underbrace{\norm{J_y^{-1}}_2}_{\eqqcolon c_2} \cdot \norm{\omega(x,f(x))}_2\\
  235. &\le c_1 \norm{x}_2 + c_2 \norm{\omega(x,f(x))}_2
  236. \intertext{Setzen wir nun $\epsilon = \frac{1}{2c_2}$, so erhalten wir für genügend kleines $x$}
  237. &\le c_1\norm{x}_2 + c_2\cdot \frac{1}{2c_2}(\norm{x}_2 + \norm{f(x)}_2)\\
  238. &= \left(c_1 + \frac{1}{2}\right) \norm{x}_2 + \frac{1}{2}\norm{f(x)}_2\\
  239. \implies \frac{1}{2}\norm{f(x)}_2 &\le \left(c_1+ \frac{1}{2}\right)\norm{x}_2
  240. \end{salign*}
  241. Zusammen erhalten wir also:
  242. \begin{salign*}
  243. \norm{\psi(x)}_2 &\le \norm{J_y^{-1}}_2 \cdot \norm{\omega(x,f(x))}_2
  244. \intertext{Für $\norm{x}_2 \le \delta$ gilt}
  245. &\le c_2 \cdot \epsilon(\norm{x}_2 + (2c_1 +1)\norm{x}_2)\\
  246. &\le \epsilon \cdot c_3 \cdot \norm{x}_2
  247. \intertext{Daraus schließen wir}
  248. \frac{\norm{\psi(x)}_2}{\norm{x}_2} &\le \epsilon \cdot c_3
  249. \intertext{Da $\epsilon$ beliebig ist, folgt}
  250. \frac{\norm{\psi(x)}_2}{\norm{x}_2} &\stackrel{x \to 0}{\to} 0\\
  251. \implies \frac{\psi(x)}{\norm{x}_2} &\stackrel{x \to 0}{\to} 0
  252. \end{salign*}
  253. Daraus folgt nun schließlich für das Differential von $f$ in $x = 0$
  254. \[D_xf(0) = -J_y^{-1} D_xF(0,0)\]
  255. Weiter müssen wir noch zeigen, dass $D_xf(x)$ in $K_\delta^x(0) \subset K_s^x(0)$ existiert und stetig ist in $x = 0$. Da $D_yF(x,y)$ stetig in $(0,0)$ ist, gibt es ein $\delta > 0$, sodass $\forall (x,y) \in K_s^x(0) \times K_\delta^y(0) \subset K_s^x(0)\times K_r^y(0)$ gilt
  256. \[
  257. \norm{D_yF(0,0) - D_yF(x,y)}_2 < \frac{1}{\norm{D_yF(0,0)^{-1}}_2}
  258. \]
  259. Nach dem Störungssatz (\ref{kor:stoerung})
  260. ist also $D_yF(x,y)$ regulär, also $\det D_yF(x,y) \neq 0$. Die Elemente von $D_yF(x,y)^{-1}$ sind nach der Cramerschen Regel stetige Funktionen der Elemente von $D_yF(x,y)$.
  261. Daher ist \[(D_yF(x,y))^{-1}D_xF(x,y)\] als Produkt stetiger Funktionen stetig und nach Definition der Stetigkeit gilt
  262. \[
  263. \norm{(D_yF(x,y))^{-1}D_xF(x,y) - (D_yF(0,0))^{-1}D_xF(0,0)} \xrightarrow{\norm{(x,y)}_2 \to 0} 0
  264. \]
  265. Analog wie oben folgern wir
  266. \[f(x+h)-f(x) = -(D_yF(x,f(x)))^{-1} D_xF(x,f(x)) \cdot h + \omega(x,h),\quad \omega(x,h) = o(\norm{h}_2)\]
  267. Die Ableitung $D_xf(x) = -(D_yF(x,f(x)))^{-1} D_xF(x,f(x))$ von $f$ ist stetig in $x = 0$.
  268. \end{enumerate}
  269. \end{proof}
  270. \begin{bsp}
  271. $F(x,y) \coloneqq x^2 + y^2 -1$. Dann ist $D_yF(x,y) = 2y$. Nach dem Satz über implizite Funktionen folgt, dass $F(x,y) = 0$ in einer Umgebung von $(\hat x, \hat y)$ mit $\hat x^2 + \hat y^2 -1 = 0,\; \hat y \neq 0$ (d.h. $\hat x \neq \pm 1$) eindeutig durch $y = \sqrt{1-x^2}$ oder $y = -\sqrt{1-x^2}$ nach $y$ auflösbar ist.
  272. \end{bsp}
  273. \begin{bem}[Implizites Differenzieren]
  274. SIF und $F(x,y) = 0 \Leftrightarrow y=f(x),\; F(x,f(x)) = 0$.
  275. Kettenregel: $0 = F(x,f(x))$.
  276. \[
  277. 0 = \dv{F}{x}(x,f(x)) = \left(\pdv{F}{x} + \pdv{F}{y} \cdot \pdv{f}{x}\right) \implies \pdv{f}{x} = -\left(\pdv{F}{y}\right)^{-1}\pdv{F}{x}
  278. \]
  279. Die zweiten Ableitungen erhält man durch implizites Differenzieren von $\dv{F(x,f(x))}{x} = 0$.
  280. \end{bem}
  281. \begin{bsp}
  282. $F\colon \R^2 \to \R,\; F(x,f(x)) = 0$
  283. \begin{align*}
  284. 0 &=\pdv{F}{x} + \pdv{F}{y}f'&&\text{1. Ableitung}\\
  285. 0 &= \dv{}{x}\left(\pdv{F}{x} + \pdv{F}{y}f'\right) &&\text{2. Ableitung}\\
  286. 0 &= \pdv{^2F}{x^2} + \pdv{^2F}{y\partial x}f' + \left(\pdv{^2F}{x\partial y} + \pdv{^2F}{y^2}f'\right)f' + \pdv{F}{y}f''\\
  287. 0 &= \pdv{^2F}{x^2} + 2\pdv{^2F}{y\partial x}f' + \pdv{^2F}{y^2}{f'}^2 + \pdv{F}{y}f''\\
  288. f'' &= -\left(\pdv{F}{y}\right)^{-1}\left(\pdv{^2F}{x^2} + 2\pdv{^2F}{y\partial x}f' + \pdv{^2F}{y^2}{f'}^2\right)
  289. \end{align*}
  290. \end{bsp}
  291. \subsection{Umkehrabbildungen}
  292. Fragestellung: Sei $f \colon D\subset \R^n \to \R^n$. Existiert die Umkehrabbildung $f^{-1}: B_f \to \R^n$?
  293. \begin{definition}
  294. Sei $D\subset \R^n$ offen. Eine Abbildung $f\colon D\to \R^n$ heißt \underline{regulär} in $\hat x\in D$, wenn $\exists K_\delta(\hat x) \subset D$, sodass $f$ in $K_\delta(\hat x)$ stetig differenzierbar und die Jacobimatrix $J_f(\hat x)$ regulär ist. $f$ heißt regulär in $D$, wenn $f$ in jedem Punkt $\hat x \in D$ regulär ist.
  295. \end{definition}
  296. \begin{satz}[Umkehrabbildung]\label{umkehrfunktion}
  297. Sei $D\subset \R^n$ offen und $f\colon D\to \R^n$ regulär in $\hat x\in D$. Dann $\exists$ eine offene Umgebung $V(\hat x) \subset D$ von $\hat x$ derart, dass $U(\hat y) \coloneqq f(V(\hat x))$ eine offene Umgebung von $\hat y = f(\hat x) $ ist und $f\colon V(\hat x) \to U(\hat y)$ bijektiv. Weiter gilt: Die Umkehrabbildung $f^{-1}: U(\hat y) \to V(\hat x)$ ist regulär in $\hat y$ und
  298. \[J_{f^{-1}}(\hat y) = (J_f(\hat x))^{-1},\; \det J_{f^{-1}}(\hat y) = \frac{1}{\det J_f(\hat x)}\]
  299. \end{satz}
  300. \begin{proof}
  301. Sei $\hat x \in D$ und $\hat y \coloneqq f(\hat x)\in f(D)$.
  302. \begin{figure}
  303. \centering
  304. \begin{tikzpicture}
  305. \coordinate (x) at (-.5,-.5);
  306. \coordinate (y) at (5.5,-.5);
  307. \draw[color = black] (0,0) circle (2cm);
  308. \node at (0,1.5) {$D$};
  309. \draw[thick, color = red] (x) circle (1cm);
  310. \draw[color = blue, fill = blue!20!white] (-.5,-.5) circle (.7cm);
  311. \node[color = red] at (1,0) {$U(\hat x)$};
  312. \draw[->] (2,0) -- node[pos = 0.6, above] {$f$} (4,0);
  313. \draw[color = black] (6,0) circle (2cm);
  314. \node at (6,1.5) {$f(D)$};
  315. \draw[thick, color = red, fill = blue!20!white] (y) circle (1cm);
  316. \node[color = red] at (7,0) {$U(\hat y)$};
  317. \node[color = blue] at (-.6,-.2) {$V(\hat x)$};
  318. \node [fill=black,inner sep=1pt,circle,label=-45:$\hat x$] at (x) {};
  319. \node [fill=black,inner sep=1pt,circle,label=0:$\hat y$] at (y) {};
  320. \end{tikzpicture}
  321. \end{figure}
  322. Betrachte $F \colon \R^n \times D \to \R^n, F(y,x) = y-f(x)$. Für $(\hat x, \hat y)$ gilt $F(\hat y, \hat x) = 0$. Die Jacobimatrix $D_xF(y,x) = -J_f(x)$ ist regulär in $\hat x$. Mit Vertauschung von $x$ und $y$ folgt aus dem Satz über implizite Funktionen, dass Umgebungen $U(\hat y)$, $U(\hat x)$ und genau eine stetig differenzierbare Abbildung $g:U(\hat y) \to U(\hat x)$ existieren, sodass $\forall y \in U(\hat y)$
  323. \[
  324. 0 = F(y,g(y)) = y-f(g(y)), \implies \exists! x = g(y)\in U(\hat x) \text{ mit } y= f(x)
  325. \]
  326. Setze dann \[V(\hat x) \coloneqq U(\hat x) \cap f^{-1}(U(\hat y)) = \{ x\in U(\hat x)\mid f(x) \in U(\hat y)\}.\]
  327. Da $U(\hat x)$ und $f^{-1}(U(\hat y))$ offen sind, ist auch $V(\hat x)$ offen. Daher ist $f\colon V(\hat x)\to U(\hat y)$ bijektiv und die Umkehrabbildung $f^{-1}\colon U(\hat y) \to V(\hat x)$ ist gerade $g$.
  328. \begin{align*}
  329. J_{f\circ f^{-1}}(\cdot) = J_{\mathrm{id}}(\cdot) &= \mathbb{I}
  330. \intertext{Mit der Kettenregel folgt}
  331. J_f(\hat x) \cdot J_{f^{-1}}(f(\hat x)) = \mathbb{I}\\
  332. \implies J_{f^{-1}}(f(\hat x)) = J_f(\hat x)^{-1}
  333. \end{align*}
  334. \end{proof}
  335. \begin{korollar}
  336. Sei $D\subset \R^n,\; f\colon D\to \R^n$ regulär und $O \subset D$ offen. Dann ist $f(O)$ offen.
  337. \end{korollar}
  338. \begin{proof}
  339. Sei $O \subset D$ offen und $y\in f(O)$ beliebig mit $y = f(x),\; x\in O$. Nach Satz \ref{umkehrfunktion} existieren $\forall y$ Umgebungen $K_r(y)\subset f(O)$ und $K_s(x)\subset O$ sodass $K_r(y)\subset f(K_s(x))\implies f(O)$ offen.
  340. \end{proof}
  341. \begin{bem}
  342. \begin{enumerate}
  343. \item Satz \ref{umkehrfunktion} garantiert nur die lokale Umkehrbarkeit von $f$.
  344. \item Es seien $U, V$ offene Mengen in $\R^n$ und $f\colon U\to V$ stetig differenzierbar.\\ $f$ heißt \underline{Diffeomorphismus}, falls $f$ bijektiv ist und die Umkehrabbildung $f^{-1}: V \to U$ stetig differenzierbar ist.
  345. \end{enumerate}
  346. \end{bem}
  347. \end{document}