JosuaKugler 5 роки тому
джерело
коміт
7ef8cdf485
7 змінених файлів з 122 додано та 6 видалено
  1. BIN
      ana14.pdf
  2. +120
    -4
      ana14.tex
  3. BIN
      ana6.pdf
  4. +1
    -1
      ana6.tex
  5. BIN
      ana7.pdf
  6. +1
    -1
      ana7.tex
  7. BIN
      analysisII.pdf

+ 120
- 4
ana14.tex Переглянути файл

@@ -12,9 +12,9 @@
Sei $D\subset \R^n$ offen, $f\colon D\to \R$ stetig differenzierbar und $x\in D$ ein lokales Extremum von $f$. Dann gilt : $\nabla f(x) = 0$.
\end{satz}
\begin{proof}
Für $i = 1,\dots,n$, betrachte $g_i(t)\coloneqq f(x + te_i)$. Da $D$ offen sind alle $g_i$ auf einem Intervall $(-\delta, \delta)$ definiert für ein $\delta > 0$, und differenzierbar. $g_i(t)$ hat in $t = 0$ ein lokales Minimum/Maximum $\implies \dv{g_i(t)}{t}\bigg|_{t=0} = 0 \forall i = 1, \dots, n$.
$f$ total differenzierbar
\[\implies 0 = \dv{g_i(t)}{t}\bigg|_{t=0} \oldstackrel{\text{Kettenregel}}{=} \sum_{j = 1}^{n}\pdv{f(x)}{x_j} \cdot \delta_{ij} = \pdv{f(x)}{x_i} \forall i = 1\dots, n
Für $i = 1,\dots,n$, betrachte $g_i(t)\coloneqq f(x + te_i)$. Da $D$ offen ist, sind alle $g_i$ auf einem Intervall $(-\delta, \delta), \delta > 0$ wohldefiniert und differenzierbar. $g_i(t)$ hat in $t = 0$ ein lokales Minimum/Maximum , also gilt $\forall i = 1, \dots, n$ \[\dv{g_i(t)}{t}\bigg|_{t=0} = 0.\]
Aufgrund der totalen Differenzierbarkeit von $f$ folgt
\[ 0 = \dv{g_i(t)}{t}\bigg|_{t=0} \oldstackrel{\text{Kettenregel}}{=} \sum_{j = 1}^{n}\pdv{f(x)}{x_j} \cdot \delta_{ij} = \pdv{f(x)}{x_i} \qquad \forall i = 1\dots, n
\]
\end{proof}
\begin{bem}
@@ -188,7 +188,7 @@ Für $\mathunderline{blue}{x_0 =1,\; y_0 = 0}$ hingegen gibt es keine Umgebung v
\[\norm{G(x,y_1) - G(x,y_2)}_2 \oldstackrel{\text{MWS}}{\le} \sup_{(x,y)\in K_s^x(0)\times K_r^y(0)}\norm{D_yG(x,y)}_2 \cdot \norm{y_1-y_2}_2 \le \frac{1}{2}\norm{y_1-y_2}_2.\]
Sei $y\in \overline{K_r^y(0)}$
\[\norm{G(x,y)}_2 \le \norm{G(x,y)-G(x,0)}_2 + \norm{G(x,0)}_2 \le \frac{1}{2}\norm{y}_2 + \frac{1}{2}r\le r\]
d.h. $G(x,\cdot)$ ist eine Selbstabbildung der abgeschlossenen Kugler $\overline{K_r^y(0)}$.
d.h. $G(x,\cdot)$ ist eine Selbstabbildung der abgeschlossenen Kugel $\overline{K_r^y(0)}$.
Außerdem, $\norm{G(x,y_1) -G(x,y_2)}_2 \le \frac{1}{2}\norm{y_1-y_2}\implies G(x,\cdot)$ ist eine Kontraktion mit Lipschitz-Konstante $L=\frac{1}{2}$. Aus dem Banachschen Fixpunktsatz %add reference?
folgt $\forall x \in K_s^x(0) \exists!$ ein Fixpunkt $y(x)\in K_r^y(0)$ von $G(x,\cdot)$:
@@ -201,6 +201,122 @@ Für $\mathunderline{blue}{x_0 =1,\; y_0 = 0}$ hingegen gibt es keine Umgebung v
Aus der Abschätzung $\norm{y(x)-y^{(k)}(x)}\leq 2^{-k-1}\cdot r,\; x\in K_s^x(0)$ folgt, dass $y^{(k)}(x)\oldstackrel{k\to \infty}{\to y(x)}$ gleichmäßig auf $K_s^x(0)$ konvergiert $\implies y(x)$ stetig.
$\implies$ 1. Behauptung für $(\hat x, \hat y) = (0,0)$ mit $U(\hat x)\coloneqq K_s^x(0)$ und $U(\hat y)\coloneqq K_r^y(0)$.
\item Die Eindeutigkeit von $y = f(x)$ folgt nun aus dem Banachschen Fixpunktsatz. Für $x\in K_s(\hat x)$ ist der Fixpunkt der Gleichung $G(x,y) = y$ eindeutig bestimmt.
\item Da $F(x,y)$ in $(0,0)$ differenzierbar ist, gilt nach Definition der Differenzierbarkeit
\[
F(x,y) = \underbrace{F(0,0)}_{=0} + D_xF(0,0)\cdot x + \underbrace{D_yF(0,0)}_{=J_y}\cdot y + \omega(x,y),
\]
wobei $\omega \colon K_s^x(0)\times K_r^y(0) \to \R^m$ die Eigenschaft $\norm{\omega(x,y)}_2 = o(\norm{(x,y)}_2)$ besitzt. Aus dem Beweis von 1. wissen wir, dass $F(x,f(x)) = 0$ für $x\in K_s^x(0)$ gilt. Einsetzen ergibt
\begin{align*}
0 &= F(x,f(x)) = D_xF(0,0) \cdot x + J_y \cdot f(x) + \omega(x, f(x))\\
f(x) &= -J_y^{-1}\cdot D_xF(0,0) \cdot x - \underbrace{J_y^{-1} \cdot \omega(x,f(x))}_{\eqqcolon \psi(x)}\\
&= -J_y^{-1} D_xF(0,0) x + \psi(x)
\end{align*}
Reminder: Def. Differenzierbarkeit: $f(0 +x) = \underbrace{f(0)}_{=0} + Df(x) \cdot x + \psi(x)$ mit $\psi(x) = o(\norm{x}_2)$
Es genügt also zu zeigen, dass $\psi(x) = o(\norm{x}_2)$, d.h. $\lim\limits_{x\to 0} \frac{\psi(x)}{\norm{x}_2} = 0$. Wir nutzen $\omega(x,y) = o(\norm{(x,y)}_2)$, d.h. \[\frac{\norm{\omega(x,y)}_2}{\norm{(x,y)}_2} \oldstackrel{\norm{(x,y)_2}\to 0}{\to} 0\]
d.h. $\forall \epsilon > 0 \exists \delta_1 \in (0,s),\; \delta_2\in (0,r)$ sodass $\forall x$ mit $\norm{x}_2\le \delta_1$ und $\forall y$ mit $\norm{y}_2 \le \delta_2$ gilt
\[
\norm{\omega(x,y)}_2 \le \epsilon \norm{(x,y)}_2 \le \epsilon(\norm{x}_2 + \norm{y}_2)
\]
Da $f$ überdies auch stetig ist (siehe Beweis 1.), gibt es ein $\delta \in (0,\delta_1)$ sodass $\forall \norm{x}_2 \le \delta$ gilt $\norm{f(x)}_2\le \delta_2$. Daraus schließen wir für $x$ mit $\norm{x}_2 \le \delta$:
\[
\norm{\omega(x,f(x))}_2 \le \epsilon(\norm{x}_2 + \norm{f(x)}_2)
\]
Dies können wir nun auf $f(x)$ anwenden.
\begin{salign*}
f(x) &= -J_y^{-1} D_xF(0,0)\cdot x + \Psi(x)
\intertext{Es gilt $\psi(x) = -J_y^{-1}\omega(x,f(x))$}
\norm{f(x)} &\le \underbrace{\norm{J_y^{-1} D_xF(0,0)}_2}_{\eqqcolon c_1} \cdot \norm{x}_2 + \underbrace{\norm{J_y^{-1}}_2}_{\eqqcolon c_2} \cdot \norm{\omega(x,f(x))}_2\\
&\le c_1 \norm{x}_2 + c_2 \norm{\omega(x,f(x))}_2
\intertext{Setzen wir nun $\epsilon = \frac{1}{2c_1}$, so erhalten wir für genügend kleines $x$}
&\le c_1\norm{x}_2 + c_2\cdot \frac{1}{2c_1}(\norm{x}_2 + \norm{f(x)}_2)\\
&= \left(c_1 + \frac{1}{2}\right) \norm{x}_2 + \frac{1}{2}\norm{f(x)}_2\\
\implies \frac{1}{2}\norm{f(x)}_2 &\le \left(c_1+ \frac{1}{2}\right)\norm{x}_2
\end{salign*}
Zusammen erhalten wir also:
\begin{salign*}
\norm{\psi(x)}_2 &\le \norm{J_y^{-1}}_2 \cdot \norm{\omega(x,f(x))}_2
\intertext{Für $\norm{x}_2 \le \delta$ gilt}
&\le c_1 \cdot \epsilon(\norm{x}_2 + (2c_1 +1)\norm{x}_2)\\
&\le \epsilon \cdot \norm{x}_2
\intertext{Daraus schließen wir}
\frac{\norm{\psi(x)}_2}{\norm{x}_2} &\le \epsilon c_3
\intertext{Da $\epsilon$ beliebig ist, folgt}
\frac{\norm{\psi(x)}_2}{\norm{x}_2} &\stackrel{x \to 0}{\to} 0\\
\implies \frac{\psi(x)}{\norm{x}_2} &\stackrel{x \to 0}{\to} 0
\end{salign*}
Daraus folgt nun schließlich für das Differential von $f$ in $x = 0$
\[D_xf(0) = -J_y^{-1} D_xF(0,0)\]
Weiter müssen wir noch zeigen, dass $D_xf(x)$ in $K_s^x(0) \subset K_s^x(0)$ existiert und stetig ist in $x = 0$. Da $D_yF(x,y)$ stetig in $(0,0)$ ist, gibt es ein $\delta > 0$, sodass $\forall (x,y) \in K_s^x(0) \times K_\delta^y(0) \subset K_s^x(0)\times K_r^y(0)$ gilt
\[
\norm{D_yF(x,y) - D_yF(0,0)}_2 < \frac{1}{\norm{D_yF(0,0)^{-1}}_2}
\]
Nach dem Störungssatz %add reference
ist also $D_yF(x,y)$ regulär, also $\det D_yF(x,y) \neq 0$. Die Elemente von $D_yF(x,y)^{-1}$ sind nach der Cramerschen Regel stetige Funktionen der Elemente von $D_yF(x,y)$.
Daher ist \[(D_yF(x,y))^{-1}D_xF(x,y)\] als Produkt stetiger Funktionen stetig und nach Definition der Stetigkeit gilt
\[
\norm{(D_yF(x,y))^{-1}D_xF(x,y) - (D_yF(0,0))^{-1}D_xF(0,0)} \oldstackrel{\norm{(x,y)}_2 \to 0}{\to} 0
\]
Analog wie oben folgern wir
\[f(x+h)-f(x) = -(D_yF(x,f(x)))^{-1} D_xF(x,f(x)) \cdot h + \omega(x,h),\qquad \omega(x,h) = o(\norm{h}_2)\]
Die Ableitung $D_xf(x) = -(D_yF(x,f(x)))^{-1} D_xF(x,f(x))$ von $f$ ist stetig in $x = 0$.
\end{enumerate}
\end{proof}
\begin{bsp}
$F(x,y) \coloneqq x^2 + y^2 -1$. Dann ist $D_yF(x,y) = 2y$. Nach dem Satz über implizite Funktionen folgt,dass $F(x,y) = 0$ in einer Umgebung von $(\hat x, \hat y)$ mit $\hat x^2 + \hat y^2 -1 = 0,\; \hat y \neq 0$ (d.h. $\hat x \neq \pm 1$) eindeutig durch $y = \sqrt{1-x^2}$ oder $y = -\sqrt{1-x^2}$ nach $y$ auflösbar ist.
\end{bsp}
\begin{bem}[Implizites Differenzieren]
SIF und $F(x,y) = 0 \Leftrightarrow y=f(x),\; F(x,f(x)) = 0$.
Kettenregel: $0 = F(x,f(x))$.
\[
0 = \dv{F}{x}(x,f(x)) = \left(\pdv{F}{x} + \pdv{F}{y} \cdot \pdv{f}{x}\right) \implies \pdv{f}{x} = -\left(\pdv{F}{y}\right)^{-1}\pdv{F}{x}
\]
Die zweiten Ableitungen erhält man durch implizites Differenzieren von $\dv{F(x,f(x))}{x} = 0$.
\end{bem}
\begin{bsp}
$F\colon \R^2 \to \R,\; F(x,f(x)) = 0$
\begin{align*}
0 &=\pdv{F}{x} + \pdv{F}{y}f'&&\text{1. Ableitung}\\
0 &= \dv{}{x}\left(\pdv{F}{x} + \pdv{F}{y}f'\right) &&\text{2. Ableitung}\\
0 &= \pdv{^2F}{x^2} + \pdv{^2F}{y\partial x}f' + \left(\pdv{^2F}{x\partial y} + \pdv{^2F}{y^2}f'\right)f' + \pdv{F}{y}f''\\
0 &= \pdv{^2F}{x^2} + 2\pdv{^2F}{y\partial x}f' + \pdv{^2F}{y^2}{f'}^2 + \pdv{F}{y}f''\\
f'' &= -\left(\pdv{F}{y}\right)^{-1}\left(\pdv{^2F}{x^2} + 2\pdv{^2F}{y\partial x}f' + \pdv{^2F}{y^2}{f'}^2\right)
\end{align*}
\end{bsp}
\vspace*{-1cm}
\subsection{Umkehrabbildungen}
Fragestellung: Sei $f \colon D\subset \R^n \to \R^n$. Existiert die Umkehrabbildung $f^{-1}: B_f \to \R^n$?
\begin{definition}
Sei $D\subset \R^n$ offen. Eine Abbildung $f\colon D\to \R^n$ heißt regulär in $\hat x\in D$, wenn $\exists K_\delta(\hat x) \subset D$, sodass $f$ in $K_\delta(\hat x)$ stetig differenzierbar und die Jacobimatrix $J_f(\hat x)$ regulär ist. $f$ heißt regulär in $D$, wenn $f$ in jedem Punkt $\hat x \in D$ regulär ist.
\end{definition}
\begin{satz}[Umkehrabbildung]\label{umkehrfunktion}
Sei $D\subset \R^n$ offen und $f\colon D\to \R^n$ regulär in $\hat x\in D$. Dann $\exists$ eine offene Umgebung $V(\hat x) \subset D$ von $\hat x$ derart, dass $U(\hat y) \coloneqq f(V(\hat x))$ eine offene Umgebung von $\hat y = f(\hat x) $ ist und $f\colon V(\hat x) \to U(\hat y)$ bijektiv. Weiter gilt: Die Umkehrabbildung $f^{-1}: U(\hat y) \to V(\hat x)$ ist regulär in $\hat y$ und
\[J_{f^{-1}}(\hat y) = (J_f(\hat x))^{-1},\; \det J_{f^{-1}}(\hat y) = \frac{1}{\det J_f(\hat x)}\]
\end{satz}
\begin{proof}
Sei $\hat x \in D$ und $\hat y \coloneqq f(\hat x)\in f(D)$.
Betrachte $F \colon \R^n \times D \to \R^n, F(y,x) = y-f(x)$. Für $(\hat x, \hat y)$ gilt $F(\hat y, \hat x) = 0$. Die Jacobimatrix $D_xF(y,x) = -J_f(x)$ ist regulär in $\hat x$. Mit Vertauschung von $x$ und $y$ folgt aus dem Satz über implizite Funktionen, dass Umgebungen $U(\hat y)$, $U(\hat x)$ und genau eine stetig differenzierbare Abbildung $g:U(\hat y) \to U(\hat x)$ existieren, sodass $\forall y \in U(\hat y)$
\[
0 = F(y,g(y)) = y-f(g(y)), \implies \exists! x = g(y)\in U(\hat x) \text{ mit } y= f(x)
\]
Setze dann \[V(\hat x) \coloneqq U(\hat x) \cap f^{-1}(U(\hat y)) = \{ x\in U(\hat x)\mid f(x) \in U(\hat)y\}.\]
Da $U(\hat x)$ und $f^{-1}(U(\hat y))$ offen sind, ist auch $V(\hat x)$ offen. Daher ist $f\colon V(\hat x)\to U(\hat y)$ bijektiv und die Umkehrabbildung $f^{-1}\colon U(\hat y) \to V(\hat x)$ ist gerade $g$.
\begin{align*}
J_{f\circ f^{-1}}(\cdot) = J_{\mathrm{id}}(\cdot) &= \mathbb{I}
\intertext{Mit der Kettenregel folgt}
J_f(\hat x) \cdot J_{f^{-1}}(f(\hat x)) = \mathbb{I}\\
\implies J_{f^{-1}}(f(\hat x)) = J_f(\hat x)^{-1}
\end{align*}
\end{proof}
\begin{korollar}
Sei $f\colon D\to \R^n,\; D\subset R^n$ regulär und $O \subset D$ offen. Dann ist $f(O)$ offen.
\end{korollar}
\begin{proof}
Sei $O \subset D$ offen und $y\in f(O)$ beliebig mit $y = f(x),\; x\in O$. Nach Satz \ref{umkehrfunktion} existieren $\forall y$ Umgebungen $K_r(y)\subset f(O)$ und $K_s(x)\subset O$ sodass $K_r(y)\subset f(K_s(x))\implies f(O)$ offen.
\end{proof}
\begin{bem}
\begin{enumerate}
\item Satz \ref{umkehrfunktion} garantiert nur die lokale Umkehrbarkeit von $f$.
\item Es seien $U, V$ offene Mengen in $\R^n$ und $f\colon U\to V$ stetig differenzierbar.\\ $f$ heißt \underline{Diffeomorphismus}, falls $f$ bijektiv ist und die Umkehrabbildung $f^{-1}: V \to U$ stetig differenzierbar ist.
\end{enumerate}
\end{bem}
\end{document}


+ 1
- 1
ana6.tex Переглянути файл

@@ -75,7 +75,7 @@ Wichtige Ungleichungen

\begin{lemma}[Ungleichung von Young]
Seien $p,q \in \R, p>1, \ q<\infty, \ \frac{1}{p} + \frac{1}{q} = 1$. Dann gilt
$$|x\cdot y| \leq \frac{|x|^p}{p} + \frac{|y|^q}{q} \quad x,x \in \R$$
$$|x\cdot y| \leq \frac{|x|^p}{p} + \frac{|y|^q}{q} \quad x,y \in \R$$
\end{lemma}

\begin{proof}



+ 1
- 1
ana7.tex Переглянути файл

@@ -136,7 +136,7 @@ Weitere Begriffe und Eigenschaften
\label{lemma:spektralnorm}
Sei $A \in \K^{n\times n}$. Dann ist $\bar{A}^TA \in \K^{n\times n}$ hermitesch und positiv semidefinit. Für die Spektralnorm gilt
$$\norm{A}_2 = \max \left\{\sqrt{|\lambda|}, \lambda \in \sigma(\bar{A}^TA)\right\}$$
Sei $A$ hermitesch, bzw. symmetrisch, dann gilt $\norm{A}_2 = \max\{\sqrt{|\lambda|}, \lambda\in \sigma(A)\}$
Sei $A$ hermitesch, bzw. symmetrisch, dann gilt $\norm{A}_2 = \max\{|\lambda|, \lambda\in \sigma(A)\}$
\end{lemma}

\begin{proof}


BIN
analysisII.pdf Переглянути файл


Завантаження…
Відмінити
Зберегти