瀏覽代碼

merge and new corrections

master
salagne 5 年之前
父節點
當前提交
7c428ae040
共有 11 個文件被更改,包括 125 次插入7 次删除
  1. 二進制
      ana10.pdf
  2. +1
    -0
      ana10.tex
  3. 二進制
      ana14.pdf
  4. +121
    -5
      ana14.tex
  5. 二進制
      ana6.pdf
  6. +1
    -1
      ana6.tex
  7. 二進制
      ana7.pdf
  8. +1
    -1
      ana7.tex
  9. 二進制
      ana8.pdf
  10. +1
    -0
      ana8.tex
  11. 二進制
      analysisII.pdf

二進制
ana10.pdf 查看文件


+ 1
- 0
ana10.tex 查看文件

@@ -42,6 +42,7 @@ Frage: Unter welchen Bedingungen konvergiert die Fixpunktiteration?
\end{definition}

\begin{satz}[Banachscher Fixpunktsatz]
\label{satz:banach-fix}
Sei $g\colon D \subseteq \mathbb{K}^{n} \to \mathbb{K}^{n}$ eine Funktion mit den Eigenschaften
\begin{enumerate}[1)]
\item $g(M) = M$ für ein $M \subseteq D$, $M$ abgeschlossen


二進制
ana14.pdf 查看文件


+ 121
- 5
ana14.tex 查看文件

@@ -12,9 +12,9 @@
Sei $D\subset \R^n$ offen, $f\colon D\to \R$ stetig differenzierbar und $x\in D$ ein lokales Extremum von $f$. Dann gilt : $\nabla f(x) = 0$.
\end{satz}
\begin{proof}
Für $i = 1,\dots,n$, betrachte $g_i(t)\coloneqq f(x + te_i)$. Da $D$ offen sind alle $g_i$ auf einem Intervall $(-\delta, \delta)$ definiert für ein $\delta > 0$, und differenzierbar. $g_i(t)$ hat in $t = 0$ ein lokales Minimum/Maximum $\implies \dv{g_i(t)}{t}\bigg|_{t=0} = 0 \quad \forall i = 1, \dots, n$.
$f$ total differenzierbar
\[\implies 0 = \dv{g_i(t)}{t}\bigg|_{t=0} \oldstackrel{\text{Kettenregel}}{=} \sum_{j = 1}^{n}\pdv{f(x)}{x_j} \cdot \delta_{ij} = \pdv{f(x)}{x_i} \quad \forall i = 1,\dots, n
Für $i = 1,\dots,n$, betrachte $g_i(t)\coloneqq f(x + te_i)$. Da $D$ offen ist, sind alle $g_i$ auf einem Intervall $(-\delta, \delta), \delta > 0$ wohldefiniert und differenzierbar. $g_i(t)$ hat in $t = 0$ ein lokales Minimum/Maximum , also gilt $\forall i = 1, \dots, n$ \[\dv{g_i(t)}{t}\bigg|_{t=0} = 0.\]
Aufgrund der totalen Differenzierbarkeit von $f$ folgt
\[ 0 = \dv{g_i(t)}{t}\bigg|_{t=0} \oldstackrel{\text{Kettenregel}}{=} \sum_{j = 1}^{n}\pdv{f(x)}{x_j} \cdot \delta_{ij} = \pdv{f(x)}{x_i} \qquad \forall i = 1\dots, n
\]
\end{proof}
\begin{bem}
@@ -198,9 +198,9 @@ Für $\mathunderline{blue}{x_0 =1,\; y_0 = 0}$ hingegen gibt es keine Umgebung v
\[\norm{G(x,y_1) - G(x,y_2)}_2 \oldstackrel{\text{MWS}}{\le} \sup_{(x,y)\in K_s^x(0)\times K_r^y(0)}\norm{D_yG(x,y)}_2 \cdot \norm{y_1-y_2}_2 \le \frac{1}{2}\norm{y_1-y_2}_2.\]
Sei $y\in \overline{K_r^y(0)}$
\[\norm{G(x,y)}_2 \le \norm{G(x,y)-G(x,0)}_2 + \norm{G(x,0)}_2 \le \frac{1}{2}\norm{y}_2 + \frac{1}{2}r\le r\]
d.h. $G(x,\cdot)$ ist eine Selbstabbildung der abgeschlossenen Kugler $\overline{K_r^y(0)}$.
d.h. $G(x,\cdot)$ ist eine Selbstabbildung der abgeschlossenen Kugel $\overline{K_r^y(0)}$.
Außerdem, $\norm{G(x,y_1) -G(x,y_2)}_2 \le \frac{1}{2}\norm{y_1-y_2}\implies G(x,\cdot)$ ist eine Kontraktion mit Lipschitz-Konstante $L=\frac{1}{2}$. Aus dem Banachschen Fixpunktsatz %add reference?
Außerdem, $\norm{G(x,y_1) -G(x,y_2)}_2 \le \frac{1}{2}\norm{y_1-y_2}\implies G(x,\cdot)$ ist eine Kontraktion mit Lipschitz-Konstante $L=\frac{1}{2}$. Aus dem Banachschen Fixpunktsatz (\ref{satz:banach-fix})
folgt $\forall x \in K_s^x(0) \exists!$ ein Fixpunkt $y(x)\in K_r^y(0)$ von $G(x,\cdot)$:
\[y(x) = \lim\limits_{k\to \infty} y^{(k)}(x),\; y^{(k)}(x)=G(x,y^{(k-1)}(x)),\; k\in \N\] mit Startpunkt $y^{(0)}(x)\coloneqq 0$.
Es gilt die Fehlerabschätzung $\forall x \in K_s^x(0)$:
@@ -211,6 +211,122 @@ Für $\mathunderline{blue}{x_0 =1,\; y_0 = 0}$ hingegen gibt es keine Umgebung v
Aus der Abschätzung $\norm{y(x)-y^{(k)}(x)}\leq 2^{-k-1}\cdot r,\; x\in K_s^x(0)$ folgt, dass $y^{(k)}(x)\oldstackrel{k\to \infty}{\longrightarrow} y(x)$ gleichmäßig auf $K_s^x(0)$ konvergiert $\implies y(x)$ stetig.
$\implies$ 1. Behauptung für $(\hat x, \hat y) = (0,0)$ mit $U(\hat x)\coloneqq K_s^x(0)$ und $U(\hat y)\coloneqq K_r^y(0)$.
\item Die Eindeutigkeit von $y = f(x)$ folgt nun aus dem Banachschen Fixpunktsatz. Für $x\in K_s(\hat x)$ ist der Fixpunkt der Gleichung $G(x,y) = y$ eindeutig bestimmt.
\item Da $F(x,y)$ in $(0,0)$ differenzierbar ist, gilt nach Definition der Differenzierbarkeit
\[
F(x,y) = \underbrace{F(0,0)}_{=0} + D_xF(0,0)\cdot x + \underbrace{D_yF(0,0)}_{=J_y}\cdot y + \omega(x,y),
\]
wobei $\omega \colon K_s^x(0)\times K_r^y(0) \to \R^m$ die Eigenschaft $\norm{\omega(x,y)}_2 = o(\norm{(x,y)}_2)$ besitzt. Aus dem Beweis von 1. wissen wir, dass $F(x,f(x)) = 0$ für $x\in K_s^x(0)$ gilt. Einsetzen ergibt
\begin{align*}
0 &= F(x,f(x)) = D_xF(0,0) \cdot x + J_y \cdot f(x) + \omega(x, f(x))\\
f(x) &= -J_y^{-1}\cdot D_xF(0,0) \cdot x \underbrace{ - J_y^{-1} \cdot \omega(x,f(x))}_{\eqqcolon \psi(x)}\\
&= -J_y^{-1} D_xF(0,0) x + \psi(x)
\end{align*}
Reminder: Def. Differenzierbarkeit: $f(0 +x) = \underbrace{f(0)}_{=0} + Df(x) \cdot x + \psi(x)$ mit $\psi(x) = o(\norm{x}_2)$
Es genügt also zu zeigen, dass $\psi(x) = o(\norm{x}_2)$, d.h. $\lim\limits_{x\to 0} \frac{\psi(x)}{\norm{x}_2} = 0$. Wir nutzen $\omega(x,y) = o(\norm{(x,y)}_2)$, d.h. \[\frac{\norm{\omega(x,y)}_2}{\norm{(x,y)}_2} \xrightarrow{\norm{(x,y)_2}\to 0} 0 \]
d.h. $\forall \epsilon > 0 \ \exists \delta_1 \in (0,s),\; \delta_2\in (0,r)$ sodass $\forall x$ mit $\norm{x}_2\le \delta_1$ und $\forall y$ mit $\norm{y}_2 \le \delta_2$ gilt
\[
\norm{\omega(x,y)}_2 \le \epsilon \norm{(x,y)}_2 \le \epsilon(\norm{x}_2 + \norm{y}_2)
\]
Da $f$ überdies auch stetig ist (siehe Beweis 1.), gibt es ein $\delta \in (0,\delta_1)$ sodass $\forall \norm{x}_2 \le \delta$ gilt $\norm{f(x)}_2\le \delta_2$. Daraus schließen wir für $x$ mit $\norm{x}_2 \le \delta$:
\[
\norm{\omega(x,f(x))}_2 \le \epsilon(\norm{x}_2 + \norm{f(x)}_2)
\]
Dies können wir nun auf $f(x)$ anwenden.
\begin{salign*}
f(x) &= -J_y^{-1} D_xF(0,0)\cdot x + \psi(x)
\intertext{Es gilt $\psi(x) = -J_y^{-1}\omega(x,f(x))$}
\norm{f(x)} &\le \underbrace{\norm{J_y^{-1} D_xF(0,0)}_2}_{\eqqcolon c_1} \cdot \norm{x}_2 + \underbrace{\norm{J_y^{-1}}_2}_{\eqqcolon c_2} \cdot \norm{\omega(x,f(x))}_2\\
&\le c_1 \norm{x}_2 + c_2 \norm{\omega(x,f(x))}_2
\intertext{Setzen wir nun $\epsilon = \frac{1}{2c_2}$, so erhalten wir für genügend kleines $x$}
&\le c_1\norm{x}_2 + c_2\cdot \frac{1}{2c_2}(\norm{x}_2 + \norm{f(x)}_2)\\
&= \left(c_1 + \frac{1}{2}\right) \norm{x}_2 + \frac{1}{2}\norm{f(x)}_2\\
\implies \frac{1}{2}\norm{f(x)}_2 &\le \left(c_1+ \frac{1}{2}\right)\norm{x}_2
\end{salign*}
Zusammen erhalten wir also:
\begin{salign*}
\norm{\psi(x)}_2 &\le \norm{J_y^{-1}}_2 \cdot \norm{\omega(x,f(x))}_2
\intertext{Für $\norm{x}_2 \le \delta$ gilt}
&\le c_2 \cdot \epsilon(\norm{x}_2 + (2c_1 +1)\norm{x}_2)\\
&\le \epsilon \cdot c_3 \cdot \norm{x}_2
\intertext{Daraus schließen wir}
\frac{\norm{\psi(x)}_2}{\norm{x}_2} &\le \epsilon \cdot c_3
\intertext{Da $\epsilon$ beliebig ist, folgt}
\frac{\norm{\psi(x)}_2}{\norm{x}_2} &\stackrel{x \to 0}{\to} 0\\
\implies \frac{\psi(x)}{\norm{x}_2} &\stackrel{x \to 0}{\to} 0
\end{salign*}
Daraus folgt nun schließlich für das Differential von $f$ in $x = 0$
\[D_xf(0) = -J_y^{-1} D_xF(0,0)\]
Weiter müssen wir noch zeigen, dass $D_xf(x)$ in $K_\delta^x(0) \subset K_s^x(0)$ existiert und stetig ist in $x = 0$. Da $D_yF(x,y)$ stetig in $(0,0)$ ist, gibt es ein $\delta > 0$, sodass $\forall (x,y) \in K_s^x(0) \times K_\delta^y(0) \subset K_s^x(0)\times K_r^y(0)$ gilt
\[
\norm{D_yF(0,0) - D_yF(x,y)}_2 < \frac{1}{\norm{D_yF(0,0)^{-1}}_2}
\]
Nach dem Störungssatz (\ref{kor:stoerung})
ist also $D_yF(x,y)$ regulär, also $\det D_yF(x,y) \neq 0$. Die Elemente von $D_yF(x,y)^{-1}$ sind nach der Cramerschen Regel stetige Funktionen der Elemente von $D_yF(x,y)$.
Daher ist \[(D_yF(x,y))^{-1}D_xF(x,y)\] als Produkt stetiger Funktionen stetig und nach Definition der Stetigkeit gilt
\[
\norm{(D_yF(x,y))^{-1}D_xF(x,y) - (D_yF(0,0))^{-1}D_xF(0,0)} \xrightarrow{\norm{(x,y)}_2 \to 0} 0
\]
Analog wie oben folgern wir
\[f(x+h)-f(x) = -(D_yF(x,f(x)))^{-1} D_xF(x,f(x)) \cdot h + \omega(x,h),\quad \omega(x,h) = o(\norm{h}_2)\]
Die Ableitung $D_xf(x) = -(D_yF(x,f(x)))^{-1} D_xF(x,f(x))$ von $f$ ist stetig in $x = 0$.
\end{enumerate}
\end{proof}
\begin{bsp}
$F(x,y) \coloneqq x^2 + y^2 -1$. Dann ist $D_yF(x,y) = 2y$. Nach dem Satz über implizite Funktionen folgt, dass $F(x,y) = 0$ in einer Umgebung von $(\hat x, \hat y)$ mit $\hat x^2 + \hat y^2 -1 = 0,\; \hat y \neq 0$ (d.h. $\hat x \neq \pm 1$) eindeutig durch $y = \sqrt{1-x^2}$ oder $y = -\sqrt{1-x^2}$ nach $y$ auflösbar ist.
\end{bsp}
\begin{bem}[Implizites Differenzieren]
SIF und $F(x,y) = 0 \Leftrightarrow y=f(x),\; F(x,f(x)) = 0$.
Kettenregel: $0 = F(x,f(x))$.
\[
0 = \dv{F}{x}(x,f(x)) = \left(\pdv{F}{x} + \pdv{F}{y} \cdot \pdv{f}{x}\right) \implies \pdv{f}{x} = -\left(\pdv{F}{y}\right)^{-1}\pdv{F}{x}
\]
Die zweiten Ableitungen erhält man durch implizites Differenzieren von $\dv{F(x,f(x))}{x} = 0$.
\end{bem}
\begin{bsp}
$F\colon \R^2 \to \R,\; F(x,f(x)) = 0$
\begin{align*}
0 &=\pdv{F}{x} + \pdv{F}{y}f'&&\text{1. Ableitung}\\
0 &= \dv{}{x}\left(\pdv{F}{x} + \pdv{F}{y}f'\right) &&\text{2. Ableitung}\\
0 &= \pdv{^2F}{x^2} + \pdv{^2F}{y\partial x}f' + \left(\pdv{^2F}{x\partial y} + \pdv{^2F}{y^2}f'\right)f' + \pdv{F}{y}f''\\
0 &= \pdv{^2F}{x^2} + 2\pdv{^2F}{y\partial x}f' + \pdv{^2F}{y^2}{f'}^2 + \pdv{F}{y}f''\\
f'' &= -\left(\pdv{F}{y}\right)^{-1}\left(\pdv{^2F}{x^2} + 2\pdv{^2F}{y\partial x}f' + \pdv{^2F}{y^2}{f'}^2\right)
\end{align*}
\end{bsp}
\vspace*{-1cm}
\subsection{Umkehrabbildungen}
Fragestellung: Sei $f \colon D\subset \R^n \to \R^n$. Existiert die Umkehrabbildung $f^{-1}: B_f \to \R^n$?
\begin{definition}
Sei $D\subset \R^n$ offen. Eine Abbildung $f\colon D\to \R^n$ heißt \underline{regulär} in $\hat x\in D$, wenn $\exists K_\delta(\hat x) \subset D$, sodass $f$ in $K_\delta(\hat x)$ stetig differenzierbar und die Jacobimatrix $J_f(\hat x)$ regulär ist. $f$ heißt regulär in $D$, wenn $f$ in jedem Punkt $\hat x \in D$ regulär ist.
\end{definition}
\begin{satz}[Umkehrabbildung]\label{umkehrfunktion}
Sei $D\subset \R^n$ offen und $f\colon D\to \R^n$ regulär in $\hat x\in D$. Dann $\exists$ eine offene Umgebung $V(\hat x) \subset D$ von $\hat x$ derart, dass $U(\hat y) \coloneqq f(V(\hat x))$ eine offene Umgebung von $\hat y = f(\hat x) $ ist und $f\colon V(\hat x) \to U(\hat y)$ bijektiv. Weiter gilt: Die Umkehrabbildung $f^{-1}: U(\hat y) \to V(\hat x)$ ist regulär in $\hat y$ und
\[J_{f^{-1}}(\hat y) = (J_f(\hat x))^{-1},\; \det J_{f^{-1}}(\hat y) = \frac{1}{\det J_f(\hat x)}\]
\end{satz}
\begin{proof}
Sei $\hat x \in D$ und $\hat y \coloneqq f(\hat x)\in f(D)$.
Betrachte $F \colon \R^n \times D \to \R^n, F(y,x) = y-f(x)$. Für $(\hat x, \hat y)$ gilt $F(\hat y, \hat x) = 0$. Die Jacobimatrix $D_xF(y,x) = -J_f(x)$ ist regulär in $\hat x$. Mit Vertauschung von $x$ und $y$ folgt aus dem Satz über implizite Funktionen, dass Umgebungen $U(\hat y)$, $U(\hat x)$ und genau eine stetig differenzierbare Abbildung $g:U(\hat y) \to U(\hat x)$ existieren, sodass $\forall y \in U(\hat y)$
\[
0 = F(y,g(y)) = y-f(g(y)), \implies \exists! x = g(y)\in U(\hat x) \text{ mit } y= f(x)
\]
Setze dann \[V(\hat x) \coloneqq U(\hat x) \cap f^{-1}(U(\hat y)) = \{ x\in U(\hat x)\mid f(x) \in U(\hat y)\}.\]
Da $U(\hat x)$ und $f^{-1}(U(\hat y))$ offen sind, ist auch $V(\hat x)$ offen. Daher ist $f\colon V(\hat x)\to U(\hat y)$ bijektiv und die Umkehrabbildung $f^{-1}\colon U(\hat y) \to V(\hat x)$ ist gerade $g$.
\begin{align*}
J_{f\circ f^{-1}}(\cdot) = J_{\mathrm{id}}(\cdot) &= \mathbb{I}
\intertext{Mit der Kettenregel folgt}
J_f(\hat x) \cdot J_{f^{-1}}(f(\hat x)) = \mathbb{I}\\
\implies J_{f^{-1}}(f(\hat x)) = J_f(\hat x)^{-1}
\end{align*}
\end{proof}
\begin{korollar}
Sei $D\subset \R^n,\; f\colon D\to \R^n$ regulär und $O \subset D$ offen. Dann ist $f(O)$ offen.
\end{korollar}
\begin{proof}
Sei $O \subset D$ offen und $y\in f(O)$ beliebig mit $y = f(x),\; x\in O$. Nach Satz \ref{umkehrfunktion} existieren $\forall y$ Umgebungen $K_r(y)\subset f(O)$ und $K_s(x)\subset O$ sodass $K_r(y)\subset f(K_s(x))\implies f(O)$ offen.
\end{proof}
\begin{bem}
\begin{enumerate}
\item Satz \ref{umkehrfunktion} garantiert nur die lokale Umkehrbarkeit von $f$.
\item Es seien $U, V$ offene Mengen in $\R^n$ und $f\colon U\to V$ stetig differenzierbar.\\ $f$ heißt \underline{Diffeomorphismus}, falls $f$ bijektiv ist und die Umkehrabbildung $f^{-1}: V \to U$ stetig differenzierbar ist.
\end{enumerate}
\end{bem}
\end{document}

二進制
ana6.pdf 查看文件


+ 1
- 1
ana6.tex 查看文件

@@ -75,7 +75,7 @@ Wichtige Ungleichungen

\begin{lemma}[Ungleichung von Young]
Seien $p,q \in \R, p>1, \ q<\infty, \ \frac{1}{p} + \frac{1}{q} = 1$. Dann gilt
$$|x\cdot y| \leq \frac{|x|^p}{p} + \frac{|y|^q}{q} \quad x,x \in \R$$
$$|x\cdot y| \leq \frac{|x|^p}{p} + \frac{|y|^q}{q} \quad x,y \in \R$$
\end{lemma}

\begin{proof}


二進制
ana7.pdf 查看文件


+ 1
- 1
ana7.tex 查看文件

@@ -136,7 +136,7 @@ Weitere Begriffe und Eigenschaften
\label{lemma:spektralnorm}
Sei $A \in \K^{n\times n}$. Dann ist $\bar{A}^TA \in \K^{n\times n}$ hermitesch und positiv semidefinit. Für die Spektralnorm gilt
$$\norm{A}_2 = \max \left\{\sqrt{|\lambda|}, \lambda \in \sigma(\bar{A}^TA)\right\}$$
Sei $A$ hermitesch, bzw. symmetrisch, dann gilt $\norm{A}_2 = \max\{\sqrt{|\lambda|}, \lambda\in \sigma(A)\}$
Sei $A$ hermitesch, bzw. symmetrisch, dann gilt $\norm{A}_2 = \max\{|\lambda|, \lambda\in \sigma(A)\}$
\end{lemma}

\begin{proof}


二進制
ana8.pdf 查看文件


+ 1
- 0
ana8.tex 查看文件

@@ -38,6 +38,7 @@
\end{proof}

\begin{korollar}
\label{kor:stoerung}
Sei $A \in \mathbb{K}^{n \times n}$ regulär und
$\tilde A \in \mathbb{K}^{n \times n}$ s.d. $\Vert A - \tilde A\Vert < \frac{1}{\Vert A^{-1} \Vert}$. Dann
ist $\tilde A$ regulär.


二進制
analysisII.pdf 查看文件


Loading…
取消
儲存