diff --git a/ana10.pdf b/ana10.pdf index ea312a8..98005e1 100644 Binary files a/ana10.pdf and b/ana10.pdf differ diff --git a/ana12.pdf b/ana12.pdf index 7068a1d..98d7013 100644 Binary files a/ana12.pdf and b/ana12.pdf differ diff --git a/ana12.tex b/ana12.tex index c4f8eea..7d84191 100644 --- a/ana12.tex +++ b/ana12.tex @@ -1,7 +1,7 @@ \documentclass{lecture} \begin{document} \newcommand{\pdv}[2]{\frac{\partial #1}{\partial #2}} -\newcommand{\dv}[2]{\frac{\d #1}{\d #2}} +\newcommand{\dv}[2]{\frac{\mathrm{d} #1}{\mathrm{d} #2}} \section{Totale Differenzierbarkeit} Erinnerung (Analysis 1) $f \colon D \to \R,\; D \subset \R$, ist genau dann in $x\in D$ differenzierbar, falls $f$ in $x$ ,,gut`` linear approximierbar ist, d.h. $\exists a\in \R$ mit $f(x + h) = f(x) + a\cdot h + w(h)$ wobei $\lim\limits_{h\to 0} \frac{w(h)}{|h|} = 0 \ (f'(x) = a)$. diff --git a/ana14.pdf b/ana14.pdf index bb7dbab..44141b1 100644 Binary files a/ana14.pdf and b/ana14.pdf differ diff --git a/ana14.tex b/ana14.tex index 26a5a18..9a33d69 100644 --- a/ana14.tex +++ b/ana14.tex @@ -1,20 +1,20 @@ \documentclass{lecture} \begin{document} \newcommand{\pdv}[2]{\frac{\partial #1}{\partial #2}} -\newcommand{\dv}[2]{\frac{\d #1}{\d #2}} +\newcommand{\dv}[2]{\frac{\mathrm{d} #1}{\mathrm{d} #2}} \def\mathunderline#1#2{\color{#1}\underline{{\color{black}#2}}\color{black}} \section{Extremwertaufgaben} \begin{definition}[lokales Maximum/Minimum] - Sei $D \subset \R^n$ offen, $f\colon D\to \R$. Ein Punkt $x\in D$ heißt lokales \underline{Minimum(Maximum)} von $f$, falls eine Umgebung $K_\delta(x)\subset \R^n$ existiert mit \[f(x)\leq f(y),\; \forall y\in K_\delta(x)\cap D\] ($f(x)\geq f(y),\; \forall y\in K_\delta(x)\cap D$). Falls \[f(x) < f(y), \forall y \in K_\delta(x)\cap D\setminus\{x\}\] ($f(x) > f(y)$), dann heißt $x$ \underline{striktes} lokales Minimum (Maximum). + Sei $D \subset \R^n$ offen, $f\colon D\to \R$. Ein Punkt $x\in D$ heißt lokales \underline{Minimum (Maximum)} von $f$, falls eine Umgebung $K_\delta(x)\subset \R^n$ existiert mit \[f(x)\leq f(y),\; \forall y\in K_\delta(x)\cap D\] ($f(x)\geq f(y),\; \forall y\in K_\delta(x)\cap D$). Falls \[f(x) < f(y), \forall y \in K_\delta(x)\cap D\setminus\{x\}\] ($f(x) > f(y)$), dann heißt $x$ \underline{striktes} lokales Minimum (Maximum). \end{definition} \begin{satz}[Notwendige Bedingung für lokales Extremum (Min oder Max)] Sei $D\subset \R^n$ offen, $f\colon D\to \R$ stetig differenzierbar und $x\in D$ ein lokales Extremum von $f$. Dann gilt : $\nabla f(x) = 0$. \end{satz} \begin{proof} - Für $i = 1,\dots,n$, betrachte $g_i(t)\coloneqq f(x + te_i)$. Da $D$ offen sind alle $g_i$ auf einem Intervall $(-\delta, \delta)$ definiert für ein $\delta > 0$, und differenzierbar. $g_i(t)$ hat in $t = 0$ ein lokales Minimum/Maximum $\implies \dv{g_i(t)}{t}\bigg|_{t=0} = 0 \forall i = 1, \dots, n$. + Für $i = 1,\dots,n$, betrachte $g_i(t)\coloneqq f(x + te_i)$. Da $D$ offen sind alle $g_i$ auf einem Intervall $(-\delta, \delta)$ definiert für ein $\delta > 0$, und differenzierbar. $g_i(t)$ hat in $t = 0$ ein lokales Minimum/Maximum $\implies \dv{g_i(t)}{t}\bigg|_{t=0} = 0 \quad \forall i = 1, \dots, n$. $f$ total differenzierbar - \[\implies 0 = \dv{g_i(t)}{t}\bigg|_{t=0} \oldstackrel{\text{Kettenregel}}{=} \sum_{j = 1}^{n}\pdv{f(x)}{x_j} \cdot \delta_{ij} = \pdv{f(x)}{x_i} \forall i = 1\dots, n + \[\implies 0 = \dv{g_i(t)}{t}\bigg|_{t=0} \oldstackrel{\text{Kettenregel}}{=} \sum_{j = 1}^{n}\pdv{f(x)}{x_j} \cdot \delta_{ij} = \pdv{f(x)}{x_i} \quad \forall i = 1,\dots, n \] \end{proof} \begin{bem} @@ -35,17 +35,17 @@ Sei $D\subset \R^n$ offen, $f\colon D\to \R$ stetig differenzierbar und $x\in D$ Nach Taylor gilt lokal um $x$: \[f(x+h) = f(x) + (\nabla f(x), h)_2 + \frac{1}{2}(H_f(x)h, h)_2 + \omega_2(x,h)\] mit $\frac{\omega_2(x,h)}{\norm{h}^2} \oldstackrel{h \to 0}{\to} 0$ \begin{enumerate} - \item Sei $H_f(x)$ positiv definit. Betrachte $\min_{\norm{h}=1} (H_f(x)h, h)_2$. Die Menge $\{h\in \R^n\mid\norm{h} = 1\}$ ist kompakt $\implies (H_f(x)h, h)_2$. nimmt ihr Minimum auf $\{h\in \R^n\mid \norm{h} =1\}$ als stetige Funktion an. $\implies \alpha \coloneqq \min_{\norm{h} = 1} (H_f(x)h, h)_2 > 0$, da $H_f(x)$ positiv definit ist. Sei $h\in \R^n\setminus\{0\}$ beliebig. Dann gilt - \[(H_f(x)h, h)_2 = \norm{h}^2 \underbrace{(H_f(x)\cdot \frac{h}{\norm h}, \frac{h}{\norm h})_2}_{\geq \alpha}\geq \alpha \norm h^2 > 0\] + \item Sei $H_f(x)$ positiv definit. Betrachte $\min_{\norm{h}=1} (H_f(x)h, h)_2$. Die Menge $\{h\in \R^n\mid\norm{h} = 1\}$ ist kompakt $\implies (H_f(x)h, h)_2$ nimmt ihr Minimum auf $\{h\in \R^n\mid \norm{h} =1\}$ als stetige Funktion an. $\implies \alpha \coloneqq \min_{\norm{h} = 1} (H_f(x)h, h)_2 > 0$, da $H_f(x)$ positiv definit ist. Sei $h\in \R^n\setminus\{0\}$ beliebig. Dann gilt + \[(H_f(x)h, h)_2 = \norm{h}^2 \underbrace{\left(H_f(x)\cdot \frac{h}{\norm h}, \frac{h}{\norm h}\right)_2}_{\geq \alpha}\geq \alpha \norm h^2 > 0\] Wähle $\delta > 0$ klein, sodass $\forall \norm h < \delta$ gilt $|\omega_2(x,h)| \leq \frac{\alpha}{4}\norm h^2$ (weil $\omega_2(x,h) = o(\norm h^2)$). Damit gilt $\forall h, \norm h < \delta$ \[f(x+h) = f(x) + (\underbrace{\nabla f(x)}_{=0}, h)_2 + \frac{1}{2}(H_f(x)h, h)_2 + \omega_2(x,h) \geq f(x) + \frac{\alpha}{2}\norm h^2 - \frac{\alpha}{4}\norm h^2 > f(x)\] $\implies x$ striktes lokales Minimum von $f$. \item Ersetze $f$ durch $-f$, dann 1) \item $\exists h \in \R^n$ mit $(H_f(x)h, h)_2 = \alpha > 0$, sodass \[ - f(x + th) \oldstackrel{\text{Taylor}}{=} f(x) + \frac{1}{2}t^2\cdot \alpha + \omega_2 (x , th) = f(x) + t^2\left(\frac{\alpha}{2}+ \underbrace{\frac{\omega_2(x,th)}{t^2}}_{\oldstackrel{t\to 0}{\to}0}\right) \oldstackrel{\text{für } 0 < t << 1}{>} f(x) + f(x + th) \oldstackrel{\text{Taylor}}{=} f(x) + \frac{1}{2}t^2\cdot \alpha + \omega_2 (x , th) = f(x) + t^2\left(\frac{\alpha}{2}+ \underbrace{\frac{\omega_2(x,th)}{t^2}}_{\oldstackrel{t\to 0}{\longrightarrow}0}\right) \oldstackrel{\text{für } 0 < t \ll 1}{>} f(x) \] - Außerdem $\exists \eta \in \R^n$ mit $(H_f(x)\eta, \eta)_2 = \beta < 0$. Analog $\implies f(x + t\eta) \leq f(x) + \beta\frac{t^2}{4}< f(x)$ für $0 < t << 1$. $\implies f(x)$ kein Maximum/Minimum. + Außerdem $\exists \eta \in \R^n$ mit $(H_f(x)\eta, \eta)_2 = \beta < 0$. Analog $\implies f(x + t\eta) \leq f(x) + \beta\frac{t^2}{4}< f(x)$ für $0 < t \ll 1$. $\implies f(x)$ kein Maximum/Minimum. \end{enumerate} \end{proof} \begin{bsp} @@ -66,7 +66,17 @@ Sei $D\subset \R^n$ offen, $f\colon D\to \R$ stetig differenzierbar und $x\in D$ $f(x)\leq f(y)$ &$\forall y\in D$ & globales Minimum\\ $f(x) < f(y)$ &$\forall y\in D\setminus\{x\}$ &striktes globales Minimum \end{tabular} - \item $f_1(x,y) \coloneqq x^2 + y^4,\; f_2(x,y) \coloneqq x^2,\; f_2(x,y)\coloneqq x^2 + y^3$ + \item $f(x,y) \coloneqq x^2 - y^2 \implies \nabla f(x,y) = \begin{pmatrix} + 2x\\-2y + \end{pmatrix} = 0$ für $\begin{pmatrix} + x\\y + \end{pmatrix} = \begin{pmatrix} + 0\\0 + \end{pmatrix}$. + $H_f(x,y) = \begin{pmatrix} + 2 & 0\\ 0 & -2 + \end{pmatrix}$ indefinit. $\implies 0 \in \R^2$ kein lokales Extremum. + \item $f_1(x,y) \coloneqq x^2 + y^4,\; f_2(x,y) \coloneqq x^2,\; f_3(x,y)\coloneqq x^2 + y^3$ Es gilt \[ \nabla f_i(0) = 0\in \R^2,\; H_{f_i}(0) = \begin{pmatrix} @@ -79,7 +89,7 @@ Sei $D\subset \R^n$ offen, $f\colon D\to \R$ stetig differenzierbar und $x\in D$ \begin{tabular}{lcl} für $f_1$:& Punkt 0 ist ein& \underline{striktes} lokales Maximum,\\ - ür $f_2$:& Punkt 0 ist ein& \underline{lokales Minimum}, aber \underline{nicht strikt},\\ + für $f_2$:& Punkt 0 ist ein& \underline{lokales Minimum}, aber \underline{nicht strikt},\\ für $f_3$:& Punkt 0 ist ein& Sattelpunkt. \end{tabular} \end{enumerate} @@ -122,7 +132,7 @@ Frage: \underline{Umkehrabbildung:} Auflösen von $x = g(y)$, d.h. \end{array}\right\}\tag{*}\label{star} \end{equation} $n$ Gleichungen, $n$ Unbekannte $y_1,\dots, y_n$. -Gesucht: Abb $f$ mit $y = f(x)$ ($f=g^{-1})$, s.d. $(x,f(x))$ Gleichung \eqref{star} löst (lokal um $(x_0,y_0=f(x_0))$). +Gesucht: Abbildung $f$ mit $y = f(x)$ ($f=g^{-1})$, s.d. $(x,f(x))$ Gleichung \eqref{star} löst (lokal um $(x_0,y_0=f(x_0))$). \paragraph{Implizite Funktion} $m$ Gleichungen, $m$ Unbekannte $y_1,\dots, y_m$. \begin{equation} @@ -164,7 +174,7 @@ Für $\mathunderline{blue}{x_0 =1,\; y_0 = 0}$ hingegen gibt es keine Umgebung v \[ D_yF(x,y) =\begin{pmatrix} \pdv{F_1}{y_1} &\dots &\pdv{F_1}{y_m}\\ - \vdots & & \vdots\\ + \vdots & \ddots & \vdots\\ \pdv{F_m}{y_1}&\dots&\pdv{F_m}{y_m} \end{pmatrix} \] @@ -198,7 +208,7 @@ Für $\mathunderline{blue}{x_0 =1,\; y_0 = 0}$ hingegen gibt es keine Umgebung v Für $k\in \N$ gilt \[y^{(k)}(x) = G(x,y^{(k-1)}(x)) = y^{(k-1)}(x)-J_y^{-1}\underbrace{F(x,y^{(k-1)}(x))}_{\text{stetig}}\] Induktiv folgt $y^{(k)}(x)$ stetig in $x\in K_2^x(0)$. Definiere $f(x)=y(x),\; f\colon K_s^x(0) \to K_r^y(0)$ und nach Konstruktion gilt \[G(x,f(x)) = f(x),\quad x\in K_s^x(0).\] - Aus der Abschätzung $\norm{y(x)-y^{(k)}(x)}\leq 2^{-k-1}\cdot r,\; x\in K_s^x(0)$ folgt, dass $y^{(k)}(x)\oldstackrel{k\to \infty}{\to y(x)}$ gleichmäßig auf $K_s^x(0)$ konvergiert $\implies y(x)$ stetig. + Aus der Abschätzung $\norm{y(x)-y^{(k)}(x)}\leq 2^{-k-1}\cdot r,\; x\in K_s^x(0)$ folgt, dass $y^{(k)}(x)\oldstackrel{k\to \infty}{\longrightarrow} y(x)$ gleichmäßig auf $K_s^x(0)$ konvergiert $\implies y(x)$ stetig. $\implies$ 1. Behauptung für $(\hat x, \hat y) = (0,0)$ mit $U(\hat x)\coloneqq K_s^x(0)$ und $U(\hat y)\coloneqq K_r^y(0)$. \item Die Eindeutigkeit von $y = f(x)$ folgt nun aus dem Banachschen Fixpunktsatz. Für $x\in K_s(\hat x)$ ist der Fixpunkt der Gleichung $G(x,y) = y$ eindeutig bestimmt. \end{enumerate}