Aktuelles PDF gibt's auch hier: https://flavigny.de/lecture/pdf/analysis2 zum bequemeren Lesen.
Nevar pievienot vairāk kā 25 tēmas Tēmai ir jāsākas ar burtu vai ciparu, tā var saturēt domu zīmes ('-') un var būt līdz 35 simboliem gara.

322 rindas
21KB

  1. \documentclass{lecture}
  2. \begin{document}
  3. \newcommand{\pdv}[2]{\frac{\partial #1}{\partial #2}}
  4. \newcommand{\dv}[2]{\frac{\d #1}{\d #2}}
  5. \def\mathunderline#1#2{\color{#1}\underline{{\color{black}#2}}\color{black}}
  6. \section{Extremwertaufgaben}
  7. \begin{definition}[lokales Maximum/Minimum]
  8. Sei $D \subset \R^n$ offen, $f\colon D\to \R$. Ein Punkt $x\in D$ heißt lokales \underline{Minimum(Maximum)} von $f$, falls eine Umgebung $K_\delta(x)\subset \R^n$ existiert mit \[f(x)\leq f(y),\; \forall y\in K_\delta(x)\cap D\] ($f(x)\geq f(y),\; \forall y\in K_\delta(x)\cap D$). Falls \[f(x) < f(y), \forall y \in K_\delta(x)\cap D\setminus\{x\}\] ($f(x) > f(y)$), dann heißt $x$ \underline{striktes} lokales Minimum (Maximum).
  9. \end{definition}
  10. \begin{satz}[Notwendige Bedingung für lokales Extremum (Min oder Max)]
  11. Sei $D\subset \R^n$ offen, $f\colon D\to \R$ stetig differenzierbar und $x\in D$ ein lokales Extremum von $f$. Dann gilt : $\nabla f(x) = 0$.
  12. \end{satz}
  13. \begin{proof}
  14. Für $i = 1,\dots,n$, betrachte $g_i(t)\coloneqq f(x + te_i)$. Da $D$ offen ist, sind alle $g_i$ auf einem Intervall $(-\delta, \delta), \delta > 0$ wohldefiniert und differenzierbar. $g_i(t)$ hat in $t = 0$ ein lokales Minimum/Maximum , also gilt $\forall i = 1, \dots, n$ \[\dv{g_i(t)}{t}\bigg|_{t=0} = 0.\]
  15. Aufgrund der totalen Differenzierbarkeit von $f$ folgt
  16. \[ 0 = \dv{g_i(t)}{t}\bigg|_{t=0} \oldstackrel{\text{Kettenregel}}{=} \sum_{j = 1}^{n}\pdv{f(x)}{x_j} \cdot \delta_{ij} = \pdv{f(x)}{x_i} \qquad \forall i = 1\dots, n
  17. \]
  18. \end{proof}
  19. \begin{bem}
  20. Die Umkehrung ist falsch, z.B. $f(x) = x^3,\; f\colon \R \to \R$, hat in $x=0$ $\nabla f(x) = 0$, aber $x = 0$ ist kein Max/Min von $f(x) = x^3$.\\
  21. $f\colon \R^2 \to \R,\; f(x_1, x_2) = x_1x_2$ hat in $x = \begin{pmatrix}
  22. 0\\0
  23. \end{pmatrix} \nabla f(x) = 0$, aber $x = 0$ ist kein Max/Min von $f$.
  24. \end{bem}
  25. \begin{satz}[Hinreichende Bedingung für lokales Extremum]\
  26. Sei $D\subset \R^n$ offen, $f\in C^2(D,\R)$ und $x\in D$ mit $\nabla f(x) = 0$. Dann gilt:
  27. \begin{enumerate}
  28. \item $H_f(x)$ positiv definit $\implies x$ striktes lokales Minimum von $f$.
  29. \item $H_f(x)$ negativ definit $\implies x$ striktes lokales Maximum von $f$.
  30. \item $H_f(x)$ indefinit $\implies x$ kein lokales Extremum.
  31. \end{enumerate}
  32. \end{satz}
  33. \begin{proof}
  34. Nach Taylor gilt lokal um $x$:
  35. \[f(x+h) = f(x) + (\nabla f(x), h)_2 + \frac{1}{2}(H_f(x)h, h)_2 + \omega_2(x,h)\] mit $\frac{\omega_2(x,h)}{\norm{h}^2} \oldstackrel{h \to 0}{\to} 0$
  36. \begin{enumerate}
  37. \item Sei $H_f(x)$ positiv definit. Betrachte $\min_{\norm{h}=1} (H_f(x)h, h)_2$. Die Menge $\{h\in \R^n\mid\norm{h} = 1\}$ ist kompakt $\implies (H_f(x)h, h)_2$. nimmt ihr Minimum auf $\{h\in \R^n\mid \norm{h} =1\}$ als stetige Funktion an. $\implies \alpha \coloneqq \min_{\norm{h} = 1} (H_f(x)h, h)_2 > 0$, da $H_f(x)$ positiv definit ist. Sei $h\in \R^n\setminus\{0\}$ beliebig. Dann gilt
  38. \[(H_f(x)h, h)_2 = \norm{h}^2 \underbrace{(H_f(x)\cdot \frac{h}{\norm h}, \frac{h}{\norm h})_2}_{\geq \alpha}\geq \alpha \norm h^2 > 0\]
  39. Wähle $\delta > 0$ klein, sodass $\forall \norm h < \delta$ gilt $|\omega_2(x,h)| \leq \frac{\alpha}{4}\norm h^2$ (weil $\omega_2(x,h) = o(\norm h^2)$). Damit gilt $\forall h, \norm h < \delta$
  40. \[f(x+h) = f(x) + (\underbrace{\nabla f(x)}_{=0}, h)_2 + \frac{1}{2}(H_f(x)h, h)_2 + \omega_2(x,h) \geq f(x) + \frac{\alpha}{2}\norm h^2 - \frac{\alpha}{4}\norm h^2 > f(x)\]
  41. $\implies x$ striktes lokales Minimum von $f$.
  42. \item Ersetze $f$ durch $-f$, dann 1)
  43. \item $\exists h \in \R^n$ mit $(H_f(x)h, h)_2 = \alpha > 0$, sodass
  44. \[
  45. f(x + th) \oldstackrel{\text{Taylor}}{=} f(x) + \frac{1}{2}t^2\cdot \alpha + \omega_2 (x , th) = f(x) + t^2\left(\frac{\alpha}{2}+ \underbrace{\frac{\omega_2(x,th)}{t^2}}_{\oldstackrel{t\to 0}{\to}0}\right) \oldstackrel{\text{für } 0 < t << 1}{>} f(x)
  46. \]
  47. Außerdem $\exists \eta \in \R^n$ mit $(H_f(x)\eta, \eta)_2 = \beta < 0$. Analog $\implies f(x + t\eta) \leq f(x) + \beta\frac{t^2}{4}< f(x)$ für $0 < t << 1$. $\implies f(x)$ kein Maximum/Minimum.
  48. \end{enumerate}
  49. \end{proof}
  50. \begin{bsp}
  51. \begin{enumerate}
  52. \item $f(x,y) \coloneqq x^2 + 2y^2 \implies \nabla f(x,y) = \begin{pmatrix}
  53. 2x\\4y
  54. \end{pmatrix} = 0$ für $\begin{pmatrix}
  55. x\\y
  56. \end{pmatrix} = \begin{pmatrix}
  57. 0\\0
  58. \end{pmatrix}$.
  59. $H_f(x,y) = \begin{pmatrix}
  60. 2 & 0\\ 0 & 4
  61. \end{pmatrix}$ positiv definit. $\implies \begin{pmatrix}
  62. x\\y
  63. \end{pmatrix} = 0$ striktes lokales Minimum (sogar global).
  64. \begin{tabular}{cll}
  65. $f(x)\leq f(y)$ &$\forall y\in D$ & globales Minimum\\
  66. $f(x) < f(y)$ &$\forall y\in D\setminus\{x\}$ &striktes globales Minimum
  67. \end{tabular}
  68. \item $f_1(x,y) \coloneqq x^2 + y^4,\; f_2(x,y) \coloneqq x^2,\; f_2(x,y)\coloneqq x^2 + y^3$
  69. Es gilt
  70. \[
  71. \nabla f_i(0) = 0\in \R^2,\; H_{f_i}(0) = \begin{pmatrix}
  72. 2 & 0\\
  73. 0 & 0
  74. \end{pmatrix}
  75. \forall i =1,2,3
  76. \]
  77. Die Hesse-Matrix ist positiv semidefinit. Es gilt
  78. \begin{tabular}{lcl}
  79. für $f_1$:& Punkt 0 ist ein& \underline{striktes} lokales Maximum,\\
  80. ür $f_2$:& Punkt 0 ist ein& \underline{lokales Minimum}, aber \underline{nicht strikt},\\
  81. für $f_3$:& Punkt 0 ist ein& Sattelpunkt.
  82. \end{tabular}
  83. \end{enumerate}
  84. \begin{figure}
  85. \begin{tikzpicture}[scale=0.8]
  86. \begin{axis}
  87. [
  88. domain=-1:1,
  89. samples=20,
  90. grid = major
  91. ]
  92. \addplot3 [surf] {x^2 + 2*y^2};
  93. \end{axis}
  94. \end{tikzpicture}
  95. \begin{tikzpicture}[scale=0.8]
  96. \begin{axis}
  97. [
  98. domain=-1:1,
  99. samples=20,
  100. grid = major
  101. ]
  102. \addplot3 [surf] {x^2 - y^2};
  103. \end{axis}
  104. \end{tikzpicture}
  105. \caption{Links: $f(x,y) = x^2 +2y^2$ ist ein Paraboloid, Rechts: $f(x,y) = x^2-y^2$ ist eine Sattelfläche}
  106. \end{figure}
  107. \end{bsp}
  108. \section{Implizite Funktionen und Umkehrabbildung.}
  109. Frage: \underline{Umkehrabbildung:} Auflösen von $x = g(y)$, d.h.
  110. \begin{equation}
  111. \left\{\begin{array}{rl}
  112. x_1&=g_1(y_1,\dots,y_n)\\
  113. \vdots&\\
  114. x_n&=g_n(y_1,\dots,y_n)\\
  115. \end{array}\right\} \Leftrightarrow
  116. \left\{\begin{array}{rl}
  117. 0&=x_1-g_1(y_1,\dots,y_n)\\
  118. \vdots&\\
  119. 0&=x_n-g_n(y_1,\dots,y_n)\\
  120. \end{array}\right\}\tag{*}\label{star}
  121. \end{equation}
  122. $n$ Gleichungen, $n$ Unbekannte $y_1,\dots, y_n$.
  123. Gesucht: Abb $f$ mit $y = f(x)$ ($f=g^{-1})$, s.d. $(x,f(x))$ Gleichung \eqref{star} löst (lokal um $(x_0,y_0=f(x_0))$).
  124. \paragraph{Implizite Funktion} $m$ Gleichungen, $m$ Unbekannte $y_1,\dots, y_m$.
  125. \begin{equation}
  126. \left.\begin{array}{rl}
  127. 0&=F_1(x_1,\dots,x_n,y_1,\dots,y_m)\\
  128. \vdots&\\
  129. 0&=F_m(x_1,\dots, x_n,y_1,\dots,y_m)
  130. \end{array}\right\}\tag{**}\label{doublestar}
  131. \end{equation}
  132. $0 = F(x,y)$ Auflösen nach $y$, d.h.
  133. Gesucht: Abbildung $f$, s.d. $y = f(x)$ mit $(x,f(x))$ löst \eqref{doublestar} (lokal um eine Lösung $(x_0,y_0):F(x_0,y_0) = 0$)
  134. \begin{bsp}
  135. $m=1,\;n=1,\; F(x,y) = x^2 + y^2-1$
  136. \begin{minipage}[c]{0.35\textwidth}
  137. \begin{tikzpicture}[scale=0.8]
  138. \draw[->] (0,-1.5) -- node[right,pos=.9] {$(x_0,y_0)$} (0,1.5);
  139. \draw[->] (-1.5,0) -- node[below,pos=1.3] {$F(x,y) = 0$} (1.5,0);
  140. \draw (0,0) circle (1cm);
  141. \draw[fill] (0,1) circle (2pt);
  142. \draw[fill=red,draw=red] (0,0) circle (2pt);
  143. \node[color=red] at (.3,0) {)};
  144. \node[color=red] at (-.3,0) {(};
  145. \draw[fill=blue,draw=blue] (1,0) circle (2pt);
  146. \node[color=blue] at (1.3,0) {)};
  147. \node[color=blue] at (.7,0) {(};
  148. \end{tikzpicture}
  149. \end{minipage}%
  150. \begin{minipage}[c]{0.65\textwidth}
  151. An der Stelle $\mathunderline{red}{x_0 = 0,\; y_0 = 1}$ gilt $F(0,1)=0$,\\ also
  152. $F(x,y) = 0 \Leftrightarrow y^2 = 1-x^2$.
  153. \[\implies \mathunderline{red}{f(x)\coloneqq \sqrt{1-x^2}}\text{ für } |x| < 1\] $\mathunderline{red}{\text{ erfüllt }F(x,f(x)) = 0},\; |x| < 1$.
  154. \end{minipage}
  155. Für $\mathunderline{blue}{x_0 =1,\; y_0 = 0}$ hingegen gibt es keine Umgebung von $x_0 = 1$, sodass \[\mathunderline{blue}{\exists f\colon U(x_0) \to \R\text{ mit }F(x,f(x)) = 0}.\]
  156. \end{bsp}
  157. \begin{satz}[Satz über implizite Funktionen]
  158. Sei $D^x \subset \R^n$ offen, $D^y \subset \R^m$ offen, $F^1 \in C^1 (D^x\times D^y,\R^m)$ (stetig differenzierbar) und $(\hat{x}, \hat{y})\in D^x\times D^y$ mit $F(\hat x, \hat y) = 0$. Die $m\times m$ Matrix
  159. \[
  160. D_yF(x,y) =\begin{pmatrix}
  161. \pdv{F_1}{y_1} &\dots &\pdv{F_1}{y_m}\\
  162. \vdots & & \vdots\\
  163. \pdv{F_m}{y_1}&\dots&\pdv{F_m}{y_m}
  164. \end{pmatrix}
  165. \]
  166. sei im Punkt $(\hat x, \hat y)$ invertierbar. Dann gilt:
  167. \begin{enumerate}
  168. \item $\exists$ offene Umgebungen $U(\hat x) \subset D^x,\; U(\hat y)\subset D^y$ um $\hat x$ und $\hat y$ und $\exists$ eine stetige Funktion $f\colon U(\hat x) \to U(\hat y)$, s.d.
  169. \[F(x,f(x)) = 0\quad\forall x\in U(\hat x)\]
  170. \item $f$ ist eindeutig bestimmt, d.h. $F(x,y) = 0$ für $(x,y) \in U(\hat x)\times U(\hat y)\Leftrightarrow y = f(x)$
  171. \item $f$ ist in $\hat x$ stetig differenzierbar und $J_f(\hat x) = D_xf(\hat x)\in \R^{m \times n}$ ist \[D_xf(\hat x) = -(D_yF(\hat x, \hat y))^{-1}D_xF(\hat x, \hat y).\]
  172. \end{enumerate}
  173. \end{satz}
  174. \begin{proof}
  175. \begin{enumerate}
  176. \item O.B.d.A. sei $(\hat x, \hat y) = (0,0)$ (sonst betrachte $F(x,y) - F(\hat x, \hat y)$). Die Matrix $J_y \coloneqq D_yF(0,0)$ ist regulär. Definiere $G\colon D^x\times D^y \to \R^m,\; G(x,y) \coloneqq y - J^{-1}_yF(x,y)$. $G$ ist stetig differenzierbar und erfüllt: $G(0,0) = 0$ und $F(x,y) = 0 \Leftrightarrow G(x,y) = y$. Jacobi-Matrix von $G(x,y)$ bzgl. $y$:
  177. \[D_yG(x,y) = \mathbb{I} - J_y^{-1} D_yF(x,y) \text{ und insb. } D_yG(0,0) = \mathbb{I} - J_y^{-1}J_y = 0.\]
  178. $F$ stetig differenzierbar $\implies D_yG(x,y)$ stetig $\implies \exists K_r^x(0) \times K_r^y(0) \subset D^x \times D^y$ mit Radius $r$, sodass $\norm{D_yG(x,y)}_2\leq \frac{1}{2},\; (x,y)\in K_r^x(0)\times K_r^y(0)$. $G(0,0) = 0\implies \exists K_s^x(0)\subset K_r^x(0)$ mit Radius $0< s\le r$ sodass
  179. \[\norm{G(x,0)}_2 \le \frac{1}{2} r,\; x\in K_s^x(0)\]
  180. Ziel: Konstruiere $f\colon K_s^x(0)\to K_r^y(0)$ stetig mit $G(x,f(x)) = f(x)\; (\Leftrightarrow F(x,f(x)) = 0)$. Betrachte Fixpunktgleichung
  181. \[G(x,y) = y,\; x\in K_s^x(0).\]
  182. Für $(x,y_1),\; (x,y_2)\in K_s^x(0)\times K_r^y(0)$ gilt
  183. \[\norm{G(x,y_1) - G(x,y_2)}_2 \oldstackrel{\text{MWS}}{\le} \sup_{(x,y)\in K_s^x(0)\times K_r^y(0)}\norm{D_yG(x,y)}_2 \cdot \norm{y_1-y_2}_2 \le \frac{1}{2}\norm{y_1-y_2}_2.\]
  184. Sei $y\in \overline{K_r^y(0)}$
  185. \[\norm{G(x,y)}_2 \le \norm{G(x,y)-G(x,0)}_2 + \norm{G(x,0)}_2 \le \frac{1}{2}\norm{y}_2 + \frac{1}{2}r\le r\]
  186. d.h. $G(x,\cdot)$ ist eine Selbstabbildung der abgeschlossenen Kugel $\overline{K_r^y(0)}$.
  187. Außerdem, $\norm{G(x,y_1) -G(x,y_2)}_2 \le \frac{1}{2}\norm{y_1-y_2}\implies G(x,\cdot)$ ist eine Kontraktion mit Lipschitz-Konstante $L=\frac{1}{2}$. Aus dem Banachschen Fixpunktsatz %add reference?
  188. folgt $\forall x \in K_s^x(0) \exists!$ ein Fixpunkt $y(x)\in K_r^y(0)$ von $G(x,\cdot)$:
  189. \[y(x) = \lim\limits_{k\to \infty} y^{(k)}(x),\; y^{(k)}(x)=G(x,y^{(k-1)}(x)),\; k\in \N\] mit Startpunkt $y^{(0)}(x)\coloneqq 0$.
  190. Es gilt die Fehlerabschätzung $\forall x \in K_s^x(0)$:
  191. \[\norm{y(x)-y^{(k)}(x)}_2 \le 2^{-k}\norm{y^{1}(x)-y^{(0)}(x)}_2 = 2^{-k}\norm{G(x,0)-0}_2 \le 2^{-k} \frac{1}{2}r\]
  192. Für $k\in \N$ gilt \[y^{(k)}(x) = G(x,y^{(k-1)}(x)) = y^{(k-1)}(x)-J_y^{-1}\underbrace{F(x,y^{(k-1)}(x))}_{\text{stetig}}\]
  193. Induktiv folgt $y^{(k)}(x)$ stetig in $x\in K_2^x(0)$. Definiere $f(x)=y(x),\; f\colon K_s^x(0) \to K_r^y(0)$ und nach Konstruktion gilt
  194. \[G(x,f(x)) = f(x),\quad x\in K_s^x(0).\]
  195. Aus der Abschätzung $\norm{y(x)-y^{(k)}(x)}\leq 2^{-k-1}\cdot r,\; x\in K_s^x(0)$ folgt, dass $y^{(k)}(x)\oldstackrel{k\to \infty}{\to y(x)}$ gleichmäßig auf $K_s^x(0)$ konvergiert $\implies y(x)$ stetig.
  196. $\implies$ 1. Behauptung für $(\hat x, \hat y) = (0,0)$ mit $U(\hat x)\coloneqq K_s^x(0)$ und $U(\hat y)\coloneqq K_r^y(0)$.
  197. \item Die Eindeutigkeit von $y = f(x)$ folgt nun aus dem Banachschen Fixpunktsatz. Für $x\in K_s(\hat x)$ ist der Fixpunkt der Gleichung $G(x,y) = y$ eindeutig bestimmt.
  198. \item Da $F(x,y)$ in $(0,0)$ differenzierbar ist, gilt nach Definition der Differenzierbarkeit
  199. \[
  200. F(x,y) = \underbrace{F(0,0)}_{=0} + D_xF(0,0)\cdot x + \underbrace{D_yF(0,0)}_{=J_y}\cdot y + \omega(x,y),
  201. \]
  202. wobei $\omega \colon K_s^x(0)\times K_r^y(0) \to \R^m$ die Eigenschaft $\norm{\omega(x,y)}_2 = o(\norm{(x,y)}_2)$ besitzt. Aus dem Beweis von 1. wissen wir, dass $F(x,f(x)) = 0$ für $x\in K_s^x(0)$ gilt. Einsetzen ergibt
  203. \begin{align*}
  204. 0 &= F(x,f(x)) = D_xF(0,0) \cdot x + J_y \cdot f(x) + \omega(x, f(x))\\
  205. f(x) &= -J_y^{-1}\cdot D_xF(0,0) \cdot x - \underbrace{J_y^{-1} \cdot \omega(x,f(x))}_{\eqqcolon \psi(x)}\\
  206. &= -J_y^{-1} D_xF(0,0) x + \psi(x)
  207. \end{align*}
  208. Reminder: Def. Differenzierbarkeit: $f(0 +x) = \underbrace{f(0)}_{=0} + Df(x) \cdot x + \psi(x)$ mit $\psi(x) = o(\norm{x}_2)$
  209. Es genügt also zu zeigen, dass $\psi(x) = o(\norm{x}_2)$, d.h. $\lim\limits_{x\to 0} \frac{\psi(x)}{\norm{x}_2} = 0$. Wir nutzen $\omega(x,y) = o(\norm{(x,y)}_2)$, d.h. \[\frac{\norm{\omega(x,y)}_2}{\norm{(x,y)}_2} \oldstackrel{\norm{(x,y)_2}\to 0}{\to} 0\]
  210. d.h. $\forall \epsilon > 0 \exists \delta_1 \in (0,s),\; \delta_2\in (0,r)$ sodass $\forall x$ mit $\norm{x}_2\le \delta_1$ und $\forall y$ mit $\norm{y}_2 \le \delta_2$ gilt
  211. \[
  212. \norm{\omega(x,y)}_2 \le \epsilon \norm{(x,y)}_2 \le \epsilon(\norm{x}_2 + \norm{y}_2)
  213. \]
  214. Da $f$ überdies auch stetig ist (siehe Beweis 1.), gibt es ein $\delta \in (0,\delta_1)$ sodass $\forall \norm{x}_2 \le \delta$ gilt $\norm{f(x)}_2\le \delta_2$. Daraus schließen wir für $x$ mit $\norm{x}_2 \le \delta$:
  215. \[
  216. \norm{\omega(x,f(x))}_2 \le \epsilon(\norm{x}_2 + \norm{f(x)}_2)
  217. \]
  218. Dies können wir nun auf $f(x)$ anwenden.
  219. \begin{salign*}
  220. f(x) &= -J_y^{-1} D_xF(0,0)\cdot x + \Psi(x)
  221. \intertext{Es gilt $\psi(x) = -J_y^{-1}\omega(x,f(x))$}
  222. \norm{f(x)} &\le \underbrace{\norm{J_y^{-1} D_xF(0,0)}_2}_{\eqqcolon c_1} \cdot \norm{x}_2 + \underbrace{\norm{J_y^{-1}}_2}_{\eqqcolon c_2} \cdot \norm{\omega(x,f(x))}_2\\
  223. &\le c_1 \norm{x}_2 + c_2 \norm{\omega(x,f(x))}_2
  224. \intertext{Setzen wir nun $\epsilon = \frac{1}{2c_1}$, so erhalten wir für genügend kleines $x$}
  225. &\le c_1\norm{x}_2 + c_2\cdot \frac{1}{2c_1}(\norm{x}_2 + \norm{f(x)}_2)\\
  226. &= \left(c_1 + \frac{1}{2}\right) \norm{x}_2 + \frac{1}{2}\norm{f(x)}_2\\
  227. \implies \frac{1}{2}\norm{f(x)}_2 &\le \left(c_1+ \frac{1}{2}\right)\norm{x}_2
  228. \end{salign*}
  229. Zusammen erhalten wir also:
  230. \begin{salign*}
  231. \norm{\psi(x)}_2 &\le \norm{J_y^{-1}}_2 \cdot \norm{\omega(x,f(x))}_2
  232. \intertext{Für $\norm{x}_2 \le \delta$ gilt}
  233. &\le c_1 \cdot \epsilon(\norm{x}_2 + (2c_1 +1)\norm{x}_2)\\
  234. &\le \epsilon \cdot \norm{x}_2
  235. \intertext{Daraus schließen wir}
  236. \frac{\norm{\psi(x)}_2}{\norm{x}_2} &\le \epsilon c_3
  237. \intertext{Da $\epsilon$ beliebig ist, folgt}
  238. \frac{\norm{\psi(x)}_2}{\norm{x}_2} &\stackrel{x \to 0}{\to} 0\\
  239. \implies \frac{\psi(x)}{\norm{x}_2} &\stackrel{x \to 0}{\to} 0
  240. \end{salign*}
  241. Daraus folgt nun schließlich für das Differential von $f$ in $x = 0$
  242. \[D_xf(0) = -J_y^{-1} D_xF(0,0)\]
  243. Weiter müssen wir noch zeigen, dass $D_xf(x)$ in $K_s^x(0) \subset K_s^x(0)$ existiert und stetig ist in $x = 0$. Da $D_yF(x,y)$ stetig in $(0,0)$ ist, gibt es ein $\delta > 0$, sodass $\forall (x,y) \in K_s^x(0) \times K_\delta^y(0) \subset K_s^x(0)\times K_r^y(0)$ gilt
  244. \[
  245. \norm{D_yF(x,y) - D_yF(0,0)}_2 < \frac{1}{\norm{D_yF(0,0)^{-1}}_2}
  246. \]
  247. Nach dem Störungssatz %add reference
  248. ist also $D_yF(x,y)$ regulär, also $\det D_yF(x,y) \neq 0$. Die Elemente von $D_yF(x,y)^{-1}$ sind nach der Cramerschen Regel stetige Funktionen der Elemente von $D_yF(x,y)$.
  249. Daher ist \[(D_yF(x,y))^{-1}D_xF(x,y)\] als Produkt stetiger Funktionen stetig und nach Definition der Stetigkeit gilt
  250. \[
  251. \norm{(D_yF(x,y))^{-1}D_xF(x,y) - (D_yF(0,0))^{-1}D_xF(0,0)} \oldstackrel{\norm{(x,y)}_2 \to 0}{\to} 0
  252. \]
  253. Analog wie oben folgern wir
  254. \[f(x+h)-f(x) = -(D_yF(x,f(x)))^{-1} D_xF(x,f(x)) \cdot h + \omega(x,h),\qquad \omega(x,h) = o(\norm{h}_2)\]
  255. Die Ableitung $D_xf(x) = -(D_yF(x,f(x)))^{-1} D_xF(x,f(x))$ von $f$ ist stetig in $x = 0$.
  256. \end{enumerate}
  257. \end{proof}
  258. \begin{bsp}
  259. $F(x,y) \coloneqq x^2 + y^2 -1$. Dann ist $D_yF(x,y) = 2y$. Nach dem Satz über implizite Funktionen folgt,dass $F(x,y) = 0$ in einer Umgebung von $(\hat x, \hat y)$ mit $\hat x^2 + \hat y^2 -1 = 0,\; \hat y \neq 0$ (d.h. $\hat x \neq \pm 1$) eindeutig durch $y = \sqrt{1-x^2}$ oder $y = -\sqrt{1-x^2}$ nach $y$ auflösbar ist.
  260. \end{bsp}
  261. \begin{bem}[Implizites Differenzieren]
  262. SIF und $F(x,y) = 0 \Leftrightarrow y=f(x),\; F(x,f(x)) = 0$.
  263. Kettenregel: $0 = F(x,f(x))$.
  264. \[
  265. 0 = \dv{F}{x}(x,f(x)) = \left(\pdv{F}{x} + \pdv{F}{y} \cdot \pdv{f}{x}\right) \implies \pdv{f}{x} = -\left(\pdv{F}{y}\right)^{-1}\pdv{F}{x}
  266. \]
  267. Die zweiten Ableitungen erhält man durch implizites Differenzieren von $\dv{F(x,f(x))}{x} = 0$.
  268. \end{bem}
  269. \begin{bsp}
  270. $F\colon \R^2 \to \R,\; F(x,f(x)) = 0$
  271. \begin{align*}
  272. 0 &=\pdv{F}{x} + \pdv{F}{y}f'&&\text{1. Ableitung}\\
  273. 0 &= \dv{}{x}\left(\pdv{F}{x} + \pdv{F}{y}f'\right) &&\text{2. Ableitung}\\
  274. 0 &= \pdv{^2F}{x^2} + \pdv{^2F}{y\partial x}f' + \left(\pdv{^2F}{x\partial y} + \pdv{^2F}{y^2}f'\right)f' + \pdv{F}{y}f''\\
  275. 0 &= \pdv{^2F}{x^2} + 2\pdv{^2F}{y\partial x}f' + \pdv{^2F}{y^2}{f'}^2 + \pdv{F}{y}f''\\
  276. f'' &= -\left(\pdv{F}{y}\right)^{-1}\left(\pdv{^2F}{x^2} + 2\pdv{^2F}{y\partial x}f' + \pdv{^2F}{y^2}{f'}^2\right)
  277. \end{align*}
  278. \end{bsp}
  279. \vspace*{-1cm}
  280. \subsection{Umkehrabbildungen}
  281. Fragestellung: Sei $f \colon D\subset \R^n \to \R^n$. Existiert die Umkehrabbildung $f^{-1}: B_f \to \R^n$?
  282. \begin{definition}
  283. Sei $D\subset \R^n$ offen. Eine Abbildung $f\colon D\to \R^n$ heißt regulär in $\hat x\in D$, wenn $\exists K_\delta(\hat x) \subset D$, sodass $f$ in $K_\delta(\hat x)$ stetig differenzierbar und die Jacobimatrix $J_f(\hat x)$ regulär ist. $f$ heißt regulär in $D$, wenn $f$ in jedem Punkt $\hat x \in D$ regulär ist.
  284. \end{definition}
  285. \begin{satz}[Umkehrabbildung]\label{umkehrfunktion}
  286. Sei $D\subset \R^n$ offen und $f\colon D\to \R^n$ regulär in $\hat x\in D$. Dann $\exists$ eine offene Umgebung $V(\hat x) \subset D$ von $\hat x$ derart, dass $U(\hat y) \coloneqq f(V(\hat x))$ eine offene Umgebung von $\hat y = f(\hat x) $ ist und $f\colon V(\hat x) \to U(\hat y)$ bijektiv. Weiter gilt: Die Umkehrabbildung $f^{-1}: U(\hat y) \to V(\hat x)$ ist regulär in $\hat y$ und
  287. \[J_{f^{-1}}(\hat y) = (J_f(\hat x))^{-1},\; \det J_{f^{-1}}(\hat y) = \frac{1}{\det J_f(\hat x)}\]
  288. \end{satz}
  289. \begin{proof}
  290. Sei $\hat x \in D$ und $\hat y \coloneqq f(\hat x)\in f(D)$.
  291. Betrachte $F \colon \R^n \times D \to \R^n, F(y,x) = y-f(x)$. Für $(\hat x, \hat y)$ gilt $F(\hat y, \hat x) = 0$. Die Jacobimatrix $D_xF(y,x) = -J_f(x)$ ist regulär in $\hat x$. Mit Vertauschung von $x$ und $y$ folgt aus dem Satz über implizite Funktionen, dass Umgebungen $U(\hat y)$, $U(\hat x)$ und genau eine stetig differenzierbare Abbildung $g:U(\hat y) \to U(\hat x)$ existieren, sodass $\forall y \in U(\hat y)$
  292. \[
  293. 0 = F(y,g(y)) = y-f(g(y)), \implies \exists! x = g(y)\in U(\hat x) \text{ mit } y= f(x)
  294. \]
  295. Setze dann \[V(\hat x) \coloneqq U(\hat x) \cap f^{-1}(U(\hat y)) = \{ x\in U(\hat x)\mid f(x) \in U(\hat)y\}.\]
  296. Da $U(\hat x)$ und $f^{-1}(U(\hat y))$ offen sind, ist auch $V(\hat x)$ offen. Daher ist $f\colon V(\hat x)\to U(\hat y)$ bijektiv und die Umkehrabbildung $f^{-1}\colon U(\hat y) \to V(\hat x)$ ist gerade $g$.
  297. \begin{align*}
  298. J_{f\circ f^{-1}}(\cdot) = J_{\mathrm{id}}(\cdot) &= \mathbb{I}
  299. \intertext{Mit der Kettenregel folgt}
  300. J_f(\hat x) \cdot J_{f^{-1}}(f(\hat x)) = \mathbb{I}\\
  301. \implies J_{f^{-1}}(f(\hat x)) = J_f(\hat x)^{-1}
  302. \end{align*}
  303. \end{proof}
  304. \begin{korollar}
  305. Sei $f\colon D\to \R^n,\; D\subset R^n$ regulär und $O \subset D$ offen. Dann ist $f(O)$ offen.
  306. \end{korollar}
  307. \begin{proof}
  308. Sei $O \subset D$ offen und $y\in f(O)$ beliebig mit $y = f(x),\; x\in O$. Nach Satz \ref{umkehrfunktion} existieren $\forall y$ Umgebungen $K_r(y)\subset f(O)$ und $K_s(x)\subset O$ sodass $K_r(y)\subset f(K_s(x))\implies f(O)$ offen.
  309. \end{proof}
  310. \begin{bem}
  311. \begin{enumerate}
  312. \item Satz \ref{umkehrfunktion} garantiert nur die lokale Umkehrbarkeit von $f$.
  313. \item Es seien $U, V$ offene Mengen in $\R^n$ und $f\colon U\to V$ stetig differenzierbar.\\ $f$ heißt \underline{Diffeomorphismus}, falls $f$ bijektiv ist und die Umkehrabbildung $f^{-1}: V \to U$ stetig differenzierbar ist.
  314. \end{enumerate}
  315. \end{bem}
  316. \end{document}