\documentclass{lecture} \begin{document} \newcommand{\pdv}[2]{\frac{\partial #1}{\partial #2}} \newcommand{\dv}[2]{\frac{\mathrm{d} #1}{\mathrm{d} #2}} \def\mathunderline#1#2{\color{#1}\underline{{\color{black}#2}}\color{black}} \section{Extremwertaufgaben} \begin{definition}[lokales Maximum/Minimum] Sei $D \subset \R^n$ offen, $f\colon D\to \R$. Ein Punkt $x\in D$ heißt lokales \underline{Minimum (Maximum)} von $f$, falls eine Umgebung $K_\delta(x)\subset \R^n$ existiert mit \[f(x)\leq f(y),\; \forall y\in K_\delta(x)\cap D\] ($f(x)\geq f(y),\; \forall y\in K_\delta(x)\cap D$). Falls \[f(x) < f(y), \forall y \in K_\delta(x)\cap D\setminus\{x\}\] ($f(x) > f(y)$), dann heißt $x$ \underline{striktes} lokales Minimum (Maximum). \end{definition} \begin{satz}[Notwendige Bedingung für lokales Extremum (Min oder Max)] \label{satz:notwendig-extremum} Sei $D\subset \R^n$ offen, $f\colon D\to \R$ stetig differenzierbar und $x\in D$ ein lokales Extremum von $f$. Dann gilt : $\nabla f(x) = 0$. \end{satz} \begin{proof} Für $i = 1,\dots,n$, betrachte $g_i(t)\coloneqq f(x + te_i)$. Da $D$ offen ist, sind alle $g_i$ auf einem Intervall $(-\delta, \delta), \delta > 0$ wohldefiniert und differenzierbar. $g_i(t)$ hat in $t = 0$ ein lokales Minimum/Maximum , also gilt $\forall i = 1, \dots, n$ \[\dv{g_i(t)}{t}\bigg|_{t=0} = 0.\] Aufgrund der totalen Differenzierbarkeit von $f$ folgt \[ 0 = \dv{g_i(t)}{t}\bigg|_{t=0} \oldstackrel{\text{Kettenregel}}{=} \sum_{j = 1}^{n}\pdv{f(x)}{x_j} \cdot \delta_{ij} = \pdv{f(x)}{x_i} \qquad \forall i = 1\dots, n \] \end{proof} \begin{bem} Die Umkehrung ist falsch, z.B. $f(x) = x^3,\; f\colon \R \to \R$, hat in $x=0$ $\nabla f(x) = 0$, aber $x = 0$ ist kein Max/Min von $f(x) = x^3$.\\ $f\colon \R^2 \to \R,\; f(x_1, x_2) = x_1x_2$ hat in $x = \begin{pmatrix} 0\\0 \end{pmatrix} \nabla f(x) = 0$, aber $x = 0$ ist kein Max/Min von $f$. \end{bem} \begin{satz}[Hinreichende Bedingung für lokales Extremum]\ Sei $D\subset \R^n$ offen, $f\in C^2(D,\R)$ und $x\in D$ mit $\nabla f(x) = 0$. Dann gilt: \begin{enumerate} \item $H_f(x)$ positiv definit $\implies x$ striktes lokales Minimum von $f$. \item $H_f(x)$ negativ definit $\implies x$ striktes lokales Maximum von $f$. \item $H_f(x)$ indefinit $\implies x$ kein lokales Extremum. \end{enumerate} \end{satz} \begin{proof} Nach Taylor gilt lokal um $x$: \[f(x+h) = f(x) + (\nabla f(x), h)_2 + \frac{1}{2}(H_f(x)h, h)_2 + \omega_2(x,h)\] mit $\frac{\omega_2(x,h)}{\norm{h}^2} \oldstackrel{h \to 0}{\to} 0$ \begin{enumerate} \item Sei $H_f(x)$ positiv definit. Betrachte $\min_{\norm{h}=1} (H_f(x)h, h)_2$. Die Menge $\{h\in \R^n\mid\norm{h} = 1\}$ ist kompakt $\implies (H_f(x)h, h)_2$ nimmt ihr Minimum auf $\{h\in \R^n\mid \norm{h} =1\}$ als stetige Funktion an. $\implies \alpha \coloneqq \min_{\norm{h} = 1} (H_f(x)h, h)_2 > 0$, da $H_f(x)$ positiv definit ist. Sei $h\in \R^n\setminus\{0\}$ beliebig. Dann gilt \[(H_f(x)h, h)_2 = \norm{h}^2 \underbrace{\left(H_f(x)\cdot \frac{h}{\norm h}, \frac{h}{\norm h}\right)_2}_{\geq \alpha}\geq \alpha \norm h^2 > 0\] Wähle $\delta > 0$ klein, sodass $\forall \norm h < \delta$ gilt $|\omega_2(x,h)| \leq \frac{\alpha}{4}\norm h^2$ (weil $\omega_2(x,h) = o(\norm h^2)$). Damit gilt $\forall h, \norm h < \delta$ \[f(x+h) = f(x) + (\underbrace{\nabla f(x)}_{=0}, h)_2 + \frac{1}{2}(H_f(x)h, h)_2 + \omega_2(x,h) \geq f(x) + \frac{\alpha}{2}\norm h^2 - \frac{\alpha}{4}\norm h^2 > f(x)\] $\implies x$ striktes lokales Minimum von $f$. \item Ersetze $f$ durch $-f$, dann 1) \item $\exists h \in \R^n$ mit $(H_f(x)h, h)_2 = \alpha > 0$, sodass \[ f(x + th) \oldstackrel{\text{Taylor}}{=} f(x) + \frac{1}{2}t^2\cdot \alpha + \omega_2 (x , th) = f(x) + t^2\left(\frac{\alpha}{2}+ \underbrace{\frac{\omega_2(x,th)}{t^2}}_{\oldstackrel{t\to 0}{\longrightarrow}0}\right) \oldstackrel{\text{für } 0 < t \ll 1}{>} f(x) \] Außerdem $\exists \eta \in \R^n$ mit $(H_f(x)\eta, \eta)_2 = \beta < 0$. Analog $\implies f(x + t\eta) \leq f(x) + \beta\frac{t^2}{4}< f(x)$ für $0 < t \ll 1$. $\implies f(x)$ kein Maximum/Minimum. \end{enumerate} \end{proof} \begin{bsp} \begin{enumerate} \item $f(x,y) \coloneqq x^2 + 2y^2 \implies \nabla f(x,y) = \begin{pmatrix} 2x\\4y \end{pmatrix} = 0$ für $\begin{pmatrix} x\\y \end{pmatrix} = \begin{pmatrix} 0\\0 \end{pmatrix}$. $H_f(x,y) = \begin{pmatrix} 2 & 0\\ 0 & 4 \end{pmatrix}$ positiv definit. $\implies \begin{pmatrix} x\\y \end{pmatrix} = 0$ striktes lokales Minimum (sogar global). \begin{tabular}{cll} $f(x)\leq f(y)$ &$\forall y\in D$ & globales Minimum\\ $f(x) < f(y)$ &$\forall y\in D\setminus\{x\}$ &striktes globales Minimum \end{tabular} \item $f(x,y) \coloneqq x^2 - y^2 \implies \nabla f(x,y) = \begin{pmatrix} 2x\\-2y \end{pmatrix} = 0$ für $\begin{pmatrix} x\\y \end{pmatrix} = \begin{pmatrix} 0\\0 \end{pmatrix}$. $H_f(x,y) = \begin{pmatrix} 2 & 0\\ 0 & -2 \end{pmatrix}$ indefinit. $\implies 0 \in \R^2$ kein lokales Extremum. \item $f_1(x,y) \coloneqq x^2 + y^4,\; f_2(x,y) \coloneqq x^2,\; f_3(x,y)\coloneqq x^2 + y^3$ Es gilt \[ \nabla f_i(0) = 0\in \R^2,\; H_{f_i}(0) = \begin{pmatrix} 2 & 0\\ 0 & 0 \end{pmatrix} \forall i =1,2,3 \] Die Hesse-Matrix ist positiv semidefinit. Es gilt \begin{tabular}{lcl} für $f_1$:& Punkt 0 ist ein& \underline{striktes} lokales Maximum,\\ für $f_2$:& Punkt 0 ist ein& \underline{lokales Minimum}, aber \underline{nicht strikt},\\ für $f_3$:& Punkt 0 ist ein& Sattelpunkt. \end{tabular} \end{enumerate} \begin{figure} \begin{tikzpicture}[scale=0.8] \begin{axis} [ domain=-1:1, samples=20, grid = major ] \addplot3 [surf] {x^2 + 2*y^2}; \end{axis} \end{tikzpicture} \begin{tikzpicture}[scale=0.8] \begin{axis} [ domain=-1:1, samples=20, grid = major ] \addplot3 [surf] {x^2 - y^2}; \end{axis} \end{tikzpicture} \caption{Links: $f(x,y) = x^2 +2y^2$ ist ein Paraboloid, Rechts: $f(x,y) = x^2-y^2$ ist eine Sattelfläche} \end{figure} \end{bsp} \section{Implizite Funktionen und Umkehrabbildung.} Frage: \underline{Umkehrabbildung:} Auflösen von $x = g(y)$, d.h. \begin{equation} \left\{\begin{array}{rl} x_1&=g_1(y_1,\dots,y_n)\\ \vdots&\\ x_n&=g_n(y_1,\dots,y_n)\\ \end{array}\right\} \Leftrightarrow \left\{\begin{array}{rl} 0&=x_1-g_1(y_1,\dots,y_n)\\ \vdots&\\ 0&=x_n-g_n(y_1,\dots,y_n)\\ \end{array}\right\}\tag{*}\label{star} \end{equation} $n$ Gleichungen, $n$ Unbekannte $y_1,\dots, y_n$. Gesucht: Abbildung $f$ mit $y = f(x)$ ($f=g^{-1})$, s.d. $(x,f(x))$ Gleichung \eqref{star} löst (lokal um $(x_0,y_0=f(x_0))$). \paragraph{Implizite Funktion} $m$ Gleichungen, $m$ Unbekannte $y_1,\dots, y_m$. \begin{equation} \left.\begin{array}{rl} 0&=F_1(x_1,\dots,x_n,y_1,\dots,y_m)\\ \vdots&\\ 0&=F_m(x_1,\dots, x_n,y_1,\dots,y_m) \end{array}\right\}\tag{**}\label{doublestar} \end{equation} $0 = F(x,y)$ Auflösen nach $y$, d.h. Gesucht: Abbildung $f$, s.d. $y = f(x)$ mit $(x,f(x))$ löst \eqref{doublestar} (lokal um eine Lösung $(x_0,y_0):F(x_0,y_0) = 0$) \begin{bsp} $m=1,\;n=1,\; F(x,y) = x^2 + y^2-1$ \begin{minipage}[c]{0.35\textwidth} \begin{tikzpicture}[scale=0.8] \draw[->] (0,-1.5) -- node[right,pos=.9] {} (0,1.5); \draw[->] (-1.5,0) -- node[below,pos=1.3] {$F(x,y) = 0$} (1.5,0); \draw (0,0) circle (1cm); \draw[fill=red,draw=red] (0,1) circle (2pt); \node[color=red] at (.3,1) {)}; \node[color=red] at (-.3,1) {(}; \draw[fill=blue,draw=blue] (1,0) circle (2pt); \node[color=blue] at (1.3,0) {)}; \node[color=blue] at (.7,0) {(}; \end{tikzpicture} \end{minipage}% \begin{minipage}[c]{0.65\textwidth} An der Stelle $\mathunderline{red}{x_0 = 0,\; y_0 = 1}$ gilt $F(0,1)=0$,\\ also $F(x,y) = 0 \Leftrightarrow y^2 = 1-x^2$. \[\implies \mathunderline{red}{f(x)\coloneqq \sqrt{1-x^2}}\text{ für } |x| < 1\] $\mathunderline{red}{\text{ erfüllt }F(x,f(x)) = 0},\; |x| < 1$. \end{minipage} Für $\mathunderline{blue}{x_0 =1,\; y_0 = 0}$ hingegen gibt es keine Umgebung von $x_0 = 1$, sodass \[\mathunderline{blue}{\exists f\colon U(x_0) \to \R\text{ mit }F(x,f(x)) = 0}.\] \end{bsp} \begin{satz}[Satz über implizite Funktionen] \label{satz:sif} Sei $D^x \subset \R^n$ offen, $D^y \subset \R^m$ offen, $F \in C^1 (D^x\times D^y,\R^m)$ (stetig differenzierbar) und $(\hat{x}, \hat{y})\in D^x\times D^y$ mit $F(\hat x, \hat y) = 0$. Die $m\times m$ Matrix \[ D_yF(x,y) =\begin{pmatrix} \pdv{F_1}{y_1} &\dots &\pdv{F_1}{y_m}\\ \vdots & \ddots & \vdots\\ \pdv{F_m}{y_1}&\dots&\pdv{F_m}{y_m} \end{pmatrix} \] sei im Punkt $(\hat x, \hat y)$ invertierbar. Dann gilt: \begin{enumerate} \item $\exists$ offene Umgebungen $U(\hat x) \subset D^x,\; U(\hat y)\subset D^y$ um $\hat x$ und $\hat y$ und $\exists$ eine stetige Funktion $f\colon U(\hat x) \to U(\hat y)$, s.d. \[F(x,f(x)) = 0\quad\forall x\in U(\hat x)\] \item $f$ ist eindeutig bestimmt, d.h. $F(x,y) = 0$ für $(x,y) \in U(\hat x)\times U(\hat y)\Leftrightarrow y = f(x)$ \item $f$ ist in $\hat x$ stetig differenzierbar und $J_f(\hat x) = D_xf(\hat x)\in \R^{m \times n}$ ist \[D_xf(\hat x) = -(D_yF(\hat x, \hat y))^{-1}D_xF(\hat x, \hat y).\] \end{enumerate} \end{satz} \begin{proof} \begin{enumerate} \item O.B.d.A. sei $(\hat x, \hat y) = (0,0)$ (sonst betrachte $F(x,y) - F(\hat x, \hat y)$). Die Matrix $J_y \coloneqq D_yF(0,0)$ ist regulär. Definiere $G\colon D^x\times D^y \to \R^m,\; G(x,y) \coloneqq y - J^{-1}_yF(x,y)$. $G$ ist stetig differenzierbar und erfüllt: $G(0,0) = 0$ und $F(x,y) = 0 \Leftrightarrow G(x,y) = y$. Jacobi-Matrix von $G(x,y)$ bzgl. $y$: \[D_yG(x,y) = \mathbb{I} - J_y^{-1} D_yF(x,y) \text{ und insb. } D_yG(0,0) = \mathbb{I} - J_y^{-1}J_y = 0.\] $F$ stetig differenzierbar $\implies D_yG(x,y)$ stetig $\implies \exists K_r^x(0) \times K_r^y(0) \subset D^x \times D^y$ mit Radius $r$, sodass $\norm{D_yG(x,y)}_2\leq \frac{1}{2},\; (x,y)\in K_r^x(0)\times K_r^y(0)$. $G(0,0) = 0\implies \exists K_s^x(0)\subset K_r^x(0)$ mit Radius $0< s\le r$ sodass \[\norm{G(x,0)}_2 \le \frac{1}{2} r,\; x\in K_s^x(0)\] Ziel: Konstruiere $f\colon K_s^x(0)\to K_r^y(0)$ stetig mit $G(x,f(x)) = f(x)\; (\Leftrightarrow F(x,f(x)) = 0)$. Betrachte Fixpunktgleichung \[G(x,y) = y,\; x\in K_s^x(0).\] Für $(x,y_1),\; (x,y_2)\in K_s^x(0)\times K_r^y(0)$ gilt \[\norm{G(x,y_1) - G(x,y_2)}_2 \oldstackrel{\text{MWS}}{\le} \sup_{(x,y)\in K_s^x(0)\times K_r^y(0)}\norm{D_yG(x,y)}_2 \cdot \norm{y_1-y_2}_2 \le \frac{1}{2}\norm{y_1-y_2}_2.\] Sei $y\in \overline{K_r^y(0)}$ \[\norm{G(x,y)}_2 \le \norm{G(x,y)-G(x,0)}_2 + \norm{G(x,0)}_2 \le \frac{1}{2}\norm{y}_2 + \frac{1}{2}r\le r\] d.h. $G(x,\cdot)$ ist eine Selbstabbildung der abgeschlossenen Kugel $\overline{K_r^y(0)}$. Außerdem, $\norm{G(x,y_1) -G(x,y_2)}_2 \le \frac{1}{2}\norm{y_1-y_2}\implies G(x,\cdot)$ ist eine Kontraktion mit Lipschitz-Konstante $L=\frac{1}{2}$. Aus dem Banachschen Fixpunktsatz (\ref{satz:banach-fix}) folgt $\forall x \in K_s^x(0) \exists!$ ein Fixpunkt $y(x)\in K_r^y(0)$ von $G(x,\cdot)$: \[y(x) = \lim\limits_{k\to \infty} y^{(k)}(x),\; y^{(k)}(x)=G(x,y^{(k-1)}(x)),\; k\in \N\] mit Startpunkt $y^{(0)}(x)\coloneqq 0$. Es gilt die Fehlerabschätzung $\forall x \in K_s^x(0)$: \[\norm{y(x)-y^{(k)}(x)}_2 \le 2^{-k}\norm{y^{1}(x)-y^{(0)}(x)}_2 = 2^{-k}\norm{G(x,0)-0}_2 \le 2^{-k} \frac{1}{2}r\] Für $k\in \N$ gilt \[y^{(k)}(x) = G(x,y^{(k-1)}(x)) = y^{(k-1)}(x)-J_y^{-1}\underbrace{F(x,y^{(k-1)}(x))}_{\text{stetig}}\] Induktiv folgt $y^{(k)}(x)$ stetig in $x\in K_2^x(0)$. Definiere $f(x)=y(x),\; f\colon K_s^x(0) \to K_r^y(0)$ und nach Konstruktion gilt \[G(x,f(x)) = f(x),\quad x\in K_s^x(0).\] Aus der Abschätzung $\norm{y(x)-y^{(k)}(x)}\leq 2^{-k-1}\cdot r,\; x\in K_s^x(0)$ folgt, dass $y^{(k)}(x)\oldstackrel{k\to \infty}{\longrightarrow} y(x)$ gleichmäßig auf $K_s^x(0)$ konvergiert $\implies y(x)$ stetig. $\implies$ 1. Behauptung für $(\hat x, \hat y) = (0,0)$ mit $U(\hat x)\coloneqq K_s^x(0)$ und $U(\hat y)\coloneqq K_r^y(0)$. \item Die Eindeutigkeit von $y = f(x)$ folgt nun aus dem Banachschen Fixpunktsatz. Für $x\in K_s(\hat x)$ ist der Fixpunkt der Gleichung $G(x,y) = y$ eindeutig bestimmt. \item Da $F(x,y)$ in $(0,0)$ differenzierbar ist, gilt nach Definition der Differenzierbarkeit \[ F(x,y) = \underbrace{F(0,0)}_{=0} + D_xF(0,0)\cdot x + \underbrace{D_yF(0,0)}_{=J_y}\cdot y + \omega(x,y), \] wobei $\omega \colon K_s^x(0)\times K_r^y(0) \to \R^m$ die Eigenschaft $\norm{\omega(x,y)}_2 = o(\norm{(x,y)}_2)$ besitzt. Aus dem Beweis von 1. wissen wir, dass $F(x,f(x)) = 0$ für $x\in K_s^x(0)$ gilt. Einsetzen ergibt \begin{align*} 0 &= F(x,f(x)) = D_xF(0,0) \cdot x + J_y \cdot f(x) + \omega(x, f(x))\\ f(x) &= -J_y^{-1}\cdot D_xF(0,0) \cdot x \underbrace{ - J_y^{-1} \cdot \omega(x,f(x))}_{\eqqcolon \psi(x)}\\ &= -J_y^{-1} D_xF(0,0) x + \psi(x) \end{align*} Reminder: Def. Differenzierbarkeit: $f(0 +x) = \underbrace{f(0)}_{=0} + Df(x) \cdot x + \psi(x)$ mit $\psi(x) = o(\norm{x}_2)$ Es genügt also zu zeigen, dass $\psi(x) = o(\norm{x}_2)$, d.h. $\lim\limits_{x\to 0} \frac{\psi(x)}{\norm{x}_2} = 0$. Wir nutzen $\omega(x,y) = o(\norm{(x,y)}_2)$, d.h. \[\frac{\norm{\omega(x,y)}_2}{\norm{(x,y)}_2} \xrightarrow{\norm{(x,y)_2}\to 0} 0 \] d.h. $\forall \epsilon > 0 \ \exists \delta_1 \in (0,s),\; \delta_2\in (0,r)$ sodass $\forall x$ mit $\norm{x}_2\le \delta_1$ und $\forall y$ mit $\norm{y}_2 \le \delta_2$ gilt \[ \norm{\omega(x,y)}_2 \le \epsilon \norm{(x,y)}_2 \le \epsilon(\norm{x}_2 + \norm{y}_2) \] Da $f$ überdies auch stetig ist (siehe Beweis 1.), gibt es ein $\delta \in (0,\delta_1)$ sodass $\forall \norm{x}_2 \le \delta$ gilt $\norm{f(x)}_2\le \delta_2$. Daraus schließen wir für $x$ mit $\norm{x}_2 \le \delta$: \[ \norm{\omega(x,f(x))}_2 \le \epsilon(\norm{x}_2 + \norm{f(x)}_2) \] Dies können wir nun auf $f(x)$ anwenden. \begin{salign*} f(x) &= -J_y^{-1} D_xF(0,0)\cdot x + \psi(x) \intertext{Es gilt $\psi(x) = -J_y^{-1}\omega(x,f(x))$} \norm{f(x)} &\le \underbrace{\norm{J_y^{-1} D_xF(0,0)}_2}_{\eqqcolon c_1} \cdot \norm{x}_2 + \underbrace{\norm{J_y^{-1}}_2}_{\eqqcolon c_2} \cdot \norm{\omega(x,f(x))}_2\\ &\le c_1 \norm{x}_2 + c_2 \norm{\omega(x,f(x))}_2 \intertext{Setzen wir nun $\epsilon = \frac{1}{2c_2}$, so erhalten wir für genügend kleines $x$} &\le c_1\norm{x}_2 + c_2\cdot \frac{1}{2c_2}(\norm{x}_2 + \norm{f(x)}_2)\\ &= \left(c_1 + \frac{1}{2}\right) \norm{x}_2 + \frac{1}{2}\norm{f(x)}_2\\ \implies \frac{1}{2}\norm{f(x)}_2 &\le \left(c_1+ \frac{1}{2}\right)\norm{x}_2 \end{salign*} Zusammen erhalten wir also: \begin{salign*} \norm{\psi(x)}_2 &\le \norm{J_y^{-1}}_2 \cdot \norm{\omega(x,f(x))}_2 \intertext{Für $\norm{x}_2 \le \delta$ gilt} &\le c_2 \cdot \epsilon(\norm{x}_2 + (2c_1 +1)\norm{x}_2)\\ &\le \epsilon \cdot c_3 \cdot \norm{x}_2 \intertext{Daraus schließen wir} \frac{\norm{\psi(x)}_2}{\norm{x}_2} &\le \epsilon \cdot c_3 \intertext{Da $\epsilon$ beliebig ist, folgt} \frac{\norm{\psi(x)}_2}{\norm{x}_2} &\stackrel{x \to 0}{\to} 0\\ \implies \frac{\psi(x)}{\norm{x}_2} &\stackrel{x \to 0}{\to} 0 \end{salign*} Daraus folgt nun schließlich für das Differential von $f$ in $x = 0$ \[D_xf(0) = -J_y^{-1} D_xF(0,0)\] Weiter müssen wir noch zeigen, dass $D_xf(x)$ in $K_\delta^x(0) \subset K_s^x(0)$ existiert und stetig ist in $x = 0$. Da $D_yF(x,y)$ stetig in $(0,0)$ ist, gibt es ein $\delta > 0$, sodass $\forall (x,y) \in K_s^x(0) \times K_\delta^y(0) \subset K_s^x(0)\times K_r^y(0)$ gilt \[ \norm{D_yF(0,0) - D_yF(x,y)}_2 < \frac{1}{\norm{D_yF(0,0)^{-1}}_2} \] Nach dem Störungssatz (\ref{kor:stoerung}) ist also $D_yF(x,y)$ regulär, also $\det D_yF(x,y) \neq 0$. Die Elemente von $D_yF(x,y)^{-1}$ sind nach der Cramerschen Regel stetige Funktionen der Elemente von $D_yF(x,y)$. Daher ist \[(D_yF(x,y))^{-1}D_xF(x,y)\] als Produkt stetiger Funktionen stetig und nach Definition der Stetigkeit gilt \[ \norm{(D_yF(x,y))^{-1}D_xF(x,y) - (D_yF(0,0))^{-1}D_xF(0,0)} \xrightarrow{\norm{(x,y)}_2 \to 0} 0 \] Analog wie oben folgern wir \[f(x+h)-f(x) = -(D_yF(x,f(x)))^{-1} D_xF(x,f(x)) \cdot h + \omega(x,h),\quad \omega(x,h) = o(\norm{h}_2)\] Die Ableitung $D_xf(x) = -(D_yF(x,f(x)))^{-1} D_xF(x,f(x))$ von $f$ ist stetig in $x = 0$. \end{enumerate} \end{proof} \begin{bsp} $F(x,y) \coloneqq x^2 + y^2 -1$. Dann ist $D_yF(x,y) = 2y$. Nach dem Satz über implizite Funktionen folgt, dass $F(x,y) = 0$ in einer Umgebung von $(\hat x, \hat y)$ mit $\hat x^2 + \hat y^2 -1 = 0,\; \hat y \neq 0$ (d.h. $\hat x \neq \pm 1$) eindeutig durch $y = \sqrt{1-x^2}$ oder $y = -\sqrt{1-x^2}$ nach $y$ auflösbar ist. \end{bsp} \begin{bem}[Implizites Differenzieren] SIF und $F(x,y) = 0 \Leftrightarrow y=f(x),\; F(x,f(x)) = 0$. Kettenregel: $0 = F(x,f(x))$. \[ 0 = \dv{F}{x}(x,f(x)) = \left(\pdv{F}{x} + \pdv{F}{y} \cdot \pdv{f}{x}\right) \implies \pdv{f}{x} = -\left(\pdv{F}{y}\right)^{-1}\pdv{F}{x} \] Die zweiten Ableitungen erhält man durch implizites Differenzieren von $\dv{F(x,f(x))}{x} = 0$. \end{bem} \begin{bsp} $F\colon \R^2 \to \R,\; F(x,f(x)) = 0$ \begin{align*} 0 &=\pdv{F}{x} + \pdv{F}{y}f'&&\text{1. Ableitung}\\ 0 &= \dv{}{x}\left(\pdv{F}{x} + \pdv{F}{y}f'\right) &&\text{2. Ableitung}\\ 0 &= \pdv{^2F}{x^2} + \pdv{^2F}{y\partial x}f' + \left(\pdv{^2F}{x\partial y} + \pdv{^2F}{y^2}f'\right)f' + \pdv{F}{y}f''\\ 0 &= \pdv{^2F}{x^2} + 2\pdv{^2F}{y\partial x}f' + \pdv{^2F}{y^2}{f'}^2 + \pdv{F}{y}f''\\ f'' &= -\left(\pdv{F}{y}\right)^{-1}\left(\pdv{^2F}{x^2} + 2\pdv{^2F}{y\partial x}f' + \pdv{^2F}{y^2}{f'}^2\right) \end{align*} \end{bsp} \subsection{Umkehrabbildungen} Fragestellung: Sei $f \colon D\subset \R^n \to \R^n$. Existiert die Umkehrabbildung $f^{-1}: B_f \to \R^n$? \begin{definition} Sei $D\subset \R^n$ offen. Eine Abbildung $f\colon D\to \R^n$ heißt \underline{regulär} in $\hat x\in D$, wenn $\exists K_\delta(\hat x) \subset D$, sodass $f$ in $K_\delta(\hat x)$ stetig differenzierbar und die Jacobimatrix $J_f(\hat x)$ regulär ist. $f$ heißt regulär in $D$, wenn $f$ in jedem Punkt $\hat x \in D$ regulär ist. \end{definition} \begin{satz}[Umkehrabbildung]\label{umkehrfunktion} Sei $D\subset \R^n$ offen und $f\colon D\to \R^n$ regulär in $\hat x\in D$. Dann $\exists$ eine offene Umgebung $V(\hat x) \subset D$ von $\hat x$ derart, dass $U(\hat y) \coloneqq f(V(\hat x))$ eine offene Umgebung von $\hat y = f(\hat x) $ ist und $f\colon V(\hat x) \to U(\hat y)$ bijektiv. Weiter gilt: Die Umkehrabbildung $f^{-1}: U(\hat y) \to V(\hat x)$ ist regulär in $\hat y$ und \[J_{f^{-1}}(\hat y) = (J_f(\hat x))^{-1},\; \det J_{f^{-1}}(\hat y) = \frac{1}{\det J_f(\hat x)}\] \end{satz} \begin{proof} Sei $\hat x \in D$ und $\hat y \coloneqq f(\hat x)\in f(D)$. \begin{figure} \centering \begin{tikzpicture} \coordinate (x) at (-.5,-.5); \coordinate (y) at (5.5,-.5); \draw[color = black] (0,0) circle (2cm); \node at (0,1.5) {$D$}; \draw[thick, color = red] (x) circle (1cm); \draw[color = blue, fill = blue!20!white] (-.5,-.5) circle (.7cm); \node[color = red] at (1,0) {$U(\hat x)$}; \draw[->] (2,0) -- node[pos = 0.6, above] {$f$} (4,0); \draw[color = black] (6,0) circle (2cm); \node at (6,1.5) {$f(D)$}; \draw[thick, color = red, fill = blue!20!white] (y) circle (1cm); \node[color = red] at (7,0) {$U(\hat y)$}; \node[color = blue] at (-.6,-.2) {$V(\hat x)$}; \node [fill=black,inner sep=1pt,circle,label=-45:$\hat x$] at (x) {}; \node [fill=black,inner sep=1pt,circle,label=0:$\hat y$] at (y) {}; \end{tikzpicture} \end{figure} Betrachte $F \colon \R^n \times D \to \R^n, F(y,x) = y-f(x)$. Für $(\hat x, \hat y)$ gilt $F(\hat y, \hat x) = 0$. Die Jacobimatrix $D_xF(y,x) = -J_f(x)$ ist regulär in $\hat x$. Mit Vertauschung von $x$ und $y$ folgt aus dem Satz über implizite Funktionen, dass Umgebungen $U(\hat y)$, $U(\hat x)$ und genau eine stetig differenzierbare Abbildung $g:U(\hat y) \to U(\hat x)$ existieren, sodass $\forall y \in U(\hat y)$ \[ 0 = F(y,g(y)) = y-f(g(y)), \implies \exists! x = g(y)\in U(\hat x) \text{ mit } y= f(x) \] Setze dann \[V(\hat x) \coloneqq U(\hat x) \cap f^{-1}(U(\hat y)) = \{ x\in U(\hat x)\mid f(x) \in U(\hat y)\}.\] Da $U(\hat x)$ und $f^{-1}(U(\hat y))$ offen sind, ist auch $V(\hat x)$ offen. Daher ist $f\colon V(\hat x)\to U(\hat y)$ bijektiv und die Umkehrabbildung $f^{-1}\colon U(\hat y) \to V(\hat x)$ ist gerade $g$. \begin{align*} J_{f\circ f^{-1}}(\cdot) = J_{\mathrm{id}}(\cdot) &= \mathbb{I} \intertext{Mit der Kettenregel folgt} J_f(\hat x) \cdot J_{f^{-1}}(f(\hat x)) = \mathbb{I}\\ \implies J_{f^{-1}}(f(\hat x)) = J_f(\hat x)^{-1} \end{align*} \end{proof} \begin{korollar} Sei $D\subset \R^n,\; f\colon D\to \R^n$ regulär und $O \subset D$ offen. Dann ist $f(O)$ offen. \end{korollar} \begin{proof} Sei $O \subset D$ offen und $y\in f(O)$ beliebig mit $y = f(x),\; x\in O$. Nach Satz \ref{umkehrfunktion} existieren $\forall y$ Umgebungen $K_r(y)\subset f(O)$ und $K_s(x)\subset O$ sodass $K_r(y)\subset f(K_s(x))\implies f(O)$ offen. \end{proof} \begin{bem} \begin{enumerate} \item Satz \ref{umkehrfunktion} garantiert nur die lokale Umkehrbarkeit von $f$. \item Es seien $U, V$ offene Mengen in $\R^n$ und $f\colon U\to V$ stetig differenzierbar.\\ $f$ heißt \underline{Diffeomorphismus}, falls $f$ bijektiv ist und die Umkehrabbildung $f^{-1}: V \to U$ stetig differenzierbar ist. \end{enumerate} \end{bem} \end{document}