瀏覽代碼

add new week of lectures

master
flavis 5 年之前
父節點
當前提交
cf66c85a19
共有 6 個檔案被更改,包括 402 行新增0 行删除
  1. 二進制
      ana10.pdf
  2. +183
    -0
      ana10.tex
  3. 二進制
      ana11.pdf
  4. +217
    -0
      ana11.tex
  5. 二進制
      analysisII.pdf
  6. +2
    -0
      analysisII.tex

二進制
ana10.pdf 查看文件


+ 183
- 0
ana10.tex 查看文件

@@ -0,0 +1,183 @@
\documentclass{lecture}

\begin{document}

\subsection{Lineare und nichtlineare Gleichungssysteme}

Motivation: Es sei ein quadratisches Gleichungssystem der Form
\begin{alignat*}{2}
&f_1(x_1, \ldots, x_n) &=\;& b_1 \\
&\; \vdots &&\vdots \\
&f_n(x_1, \ldots, x_n) &=\;& b_n
,\end{alignat*}
eine Vektorform $f(x) = b$ und ein $b \in \mathbb{K}^{n}$ gegeben, s.d.
\[
f= \begin{pmatrix} f_1 \\ \vdots \\ f_n \end{pmatrix} \colon D \subseteq \mathbb{K}^{n} \to \mathbb{K}^{n}
.\]
Ziel: $x = f^{-1}(b)$ finden als Grenzwert einer Folge $\left( x^{(k)} \right)_{k \in \N}$.

Ansatz: Definiere $g(x) := x - \sigma (f(x) - b)$ für ein $\sigma \in \mathbb{K} \setminus \{0\} $
und suche \underline{Fixpunkt} von $g\colon D \to \mathbb{K}^{n}$ $(x = g(x))$.

Fixpunktiteration: Startwert $x^{(0)}$. Iterationsschritt
\[
x^{(k)} = g(x^{(k-1)}), \quad k \in \N
.\]
Falls $f$ stetig, dann ist auch $g$ stetig. Damit folgt, falls $x^{(k)} \xrightarrow{k \to \infty} x$, dann
$g\left( x^{(k-1}) \right) \xrightarrow{k \to \infty} g(x)$. Damit folgt
\[
\underbrace{x^{(k)}}_{\xrightarrow{k \to \infty} x}
= \underbrace{g\left( x^{(k-1}) \right)}_{\xrightarrow{k \to \infty} g(x)}
.\] Für $k \to \infty$, folgt also $x = g(x)$, also ist $x$ Fixpunkt. Damit folgt
$x = g(x) = x - \sigma (f(x) - b) \implies f(x) = b$.

Frage: Unter welchen Bedingungen konvergiert die Fixpunktiteration?

\begin{definition}[Lipschitz-Stetigkeit]
Eine Funktion $f\colon D \subseteq \mathbb{K}^{n} \to \mathbb{K}^{n}$ heißt\\
\underline{Lipschitz-stetig}, wenn eine Konstante $L < \infty$ existiert, s.d.
\[
\Vert g(x) - g(y) \Vert \le L \Vert x - y \Vert, \qquad \forall x, y \in D
.\] Falls $L < 1$ heißt $g$ Kontraktion (bezügl. Norm $\Vert \cdot \Vert$).
\end{definition}

\begin{satz}[Banachscher Fixpunktsatz]
Sei $g\colon D \subseteq \mathbb{K}^{n} \to \mathbb{K}^{n}$ eine Funktion mit den Eigenschaften
\begin{enumerate}[1)]
\item $g(M) = M$ für ein $M \subseteq D$, $M$ abgeschlossen
\item $g$ ist Kontraktion auf $M$, d.h. $\exists L < 1$, s.d.
$\Vert g(x) - g(y) \Vert \le L \Vert x - y \Vert$, $\forall x, y \in M$.
\end{enumerate}
Dann gilt
\begin{enumerate}[(i)]
\item Es existiert genau ein Fixpunkt $x^{*} \in M$ von $g$.
\item $\forall x^{(0)} \in M$ ist die Iterationsfolge $x^{(k)} = g\left( x^{(k-1)} \right)$ wohldefiniert
$(x^{(k)} \in M)$ und $x^{(k)} \xrightarrow{k \to \infty} x^{*}$.
\item Es gilt die Abschätzung:
\[
\Vert x^{(k)} - x^{*} \Vert \le \frac{L^{k}}{1 - L} \Vert x^{(1)} - x^{(0)} \Vert
.\]
\end{enumerate}
\end{satz}

\begin{proof}
\begin{enumerate}[(i)]
\item Seien $x, x' \in M$ zwei Fixpunkte. Dann
\begin{align*}
\Vert x - x' \Vert = \Vert g(x) - g(x') \Vert \le L \Vert x - x'\Vert
.\end{align*}
Damit folgt
\begin{align*}
\underbrace{(1 - L)}_{> 0} \underbrace{\Vert x - x' \Vert}_{\ge 0} \le 0
\implies \Vert x - x'\Vert = 0 \implies x = x'
.\end{align*}
\item $g(M) = M \implies x^{(k)} = g\left( x^{(k-1)} \right)$, $k \in \N$ ist wohldefiniert,
d.h. $x^{(k)} \in M$, $\forall k \in \N$, falls $x^{(0)} \in M$.

Z.z.: $x^{(k)}$ konvergiert mit $\displaystyle \lim_{k \to \infty} x^{(k)} \in M$, also
g.z.z.: $\left( x^{(k)} \right)_{k \in \N}$ ist Cauchy-Folge.
\begin{leftright}
\begin{salign*}
\Vert x^{(k+1)} - x^{(k)} \Vert &= \left\Vert g(x^{(k)}) - g(x^{(k-1)}) \right\Vert \\
&\le L \Vert x^{(k)} - x^{(k-1)} \Vert \\
&= L \left\Vert g(x^{(k-1)}) - g(x^{(k-2)}) \right\Vert \\
&\le L \cdot L \cdot \Vert x^{(k-1)} - x^{(k-2)} \Vert\\
&\le \underbrace{L \cdot \ldots \cdot L}_{k}
\Vert x^{(1)} - x^{(0)} \Vert \\
&= L^{k} \Vert x^{(1)} - x^{(0)} \Vert
\intertext{Seien $k, m$ beliebig. Dann gilt
$\forall \epsilon > 0$}
\Vert x^{(k+m)} - x^{(k)} \Vert &= \Vert x^{(k+m)} - x^{(k+m-1)} + x^{(k+m-1)} - \ldots x^{(k+1)} - x^{(k)} \Vert \\
&\le \Vert x^{(k+m)} - x^{(k+m+1)} \Vert
+ \ldots + \Vert x^{(k+1)} - x^{(k)} \Vert \\
&= L^{m-1} \Vert x^{(k+1)} - x^{(k)} \Vert
+ L^{m-2} \Vert x^{k+1} - x^{k} \Vert
+ \ldots + \Vert x^{(k+1)} - x^{(k)} \Vert \\
&= (L^{m-1} + L^{m-2} + \ldots + 1) \Vert x^{(k+1)} - x^{(k)} \Vert \\
&= \frac{1 - L^{m}}{1 - L} \Vert x^{(k+1)} - x^{(k)} \Vert \\
&\le \frac{1 - L^{m}}{1 - L} L^{k} \Vert x^{(1)} - x^{(0)} \Vert \\
&\le \frac{L^{k}}{1-L} \Vert x^{(1)} - x^{(0)} \Vert \\
&\stackrel{L < 1}{<}\epsilon \qquad \text{ für } k \text{ groß genug}
.\end{salign*}
\end{leftright}
Also ist $\left( x^{(k)} \right)_{k \in \N}$ eine Cauchy-Folge in $M$ und es existiert
ein $x^{*} \in M$, s.d. $\left( x^{(k)} \right)_{k \in \N}$ gegen
$x^{*}$ konvergiert. $x^{*}$ ist ein Fixpunkt von $g$, weil
\[
x^{*} = \lim_{k \to \infty} x^{(k)} = \lim_{k \to \infty} g\left( x^{(k-1)} \right)
\qquad \stackrel{g \text{ stetig}}{=} \qquad
g\left( \lim_{k \to \infty} x^{(k-1)} \right) = g(x^{*})
.\]
\item Für festes $k \in \N$ gilt
\begin{align*}
\Vert \underbrace{x^{(k+m)}}_{\xrightarrow{m \to \infty} x^{*}} - x^{(k)} \Vert \le \frac{L^{k}}{1-L} \Vert x^{(1)} - x^{(0)} \Vert \implies \Vert x^{*} - x^{(k)} \Vert \le \frac{L^{k}}{1 -L}
\Vert x^{(1)} - x^{(0)} \Vert
.\end{align*}
\end{enumerate}
\end{proof}

\begin{bem}
Für den Beweis ist wichtig, dass der grundlegende Raum vollständig ist, d.h. dass alle
Cauchy-Folgen in diesem Raum konvergieren.
\end{bem}

\begin{bem}[Anwendung: Lineare Gleichungssysteme]
$A = \left( a_{ij} \right)_{i,j = 1}^{n} \in \mathbb{K}^{n \times n}$ regulär und $b = (b_i)_{i = 1}^{n} \in \mathbb{K}^{n}$. Da $A$ regulär, hat das LGS $Ax = b$ genau
eine Lösung $x^{*} = A^{-1}b$. Sei $g(x) := x - \sigma (Ax - b)$ mit
$\sigma \in \mathbb{K} \setminus \{0\} $.

Fixpunktiteration $x^{(k)} = x^{(k-1)} - \sigma (Ax^{(k-1}) - b)$, $k \in \N$ konvergiert, wenn
$g$ kontraktiv ist. Zum Beispiel in $\ell_2$:
\begin{align*}
\Vert g(x) - g(y) \Vert_2 &= \Vert x - \sigma(Ax - b) - y + \sigma(Ay -b)\Vert_2 \\
&= \Vert x - y - \sigma A(x-y) \Vert_2 \\
&= \Vert (\mathbb{I} - \sigma A)(x-y) \Vert_2 \\
&\le \Vert \mathbb{I} - \sigma A \Vert_2 \Vert x - y \Vert_2
,\end{align*} d.h. $g$ kontraktiv, falls $\vert \mathbb{I} - \sigma A \Vert_2 < 1$.

Frage: Wahl von $\sigma$? Wähle $\sigma = \Vert A \Vert_{\infty}^{-1} = \frac{1}{\Vert A \Vert_{\infty}}$, falls $A$ hermitesch und positiv definit (= ,,Richardson Iteration``). Zu überprüfen
$\left\Vert \mathbb{I} - \frac{A}{\Vert A \Vert_{\infty}} \right\Vert_2 < 1$.
Da $A$ positiv definit und hermitesch, sind alle Eigenwerte $\lambda > 0$. Es gilt
$\forall $ EW: $0 < \lambda \le \Vert A \Vert_{\infty}$. Für EW von $\mathbb{I} - \frac{A}{\Vert A\Vert_{\infty}} $ gilt $\mu = 1 - \frac{\lambda}{\Vert A \Vert_{\infty}}$, $\lambda$ Eigenwert von $A$. Also
$0 \le \underbrace{1 - \frac{\lambda}{\Vert A \Vert_{\infty}}}_{= \mu} < 1$, also
$\underbrace{\Big\Vert \underbrace{\mathbb{I} - \frac{A}{\Vert A \Vert_{\infty}}}_{\text{hermitesch}} \Big\Vert_2}_{\text{Spektralnorm}} < 1$. Falls $A$ hermitesch und positiv definit, ist also
die Richardson Iteration konvergent.
\end{bem}

\begin{definition}[Starke Monotonie]
Eine Funktion $f\colon D \subseteq \R^{n} \to \R^{n}$ heißt stark monoton, wenn
eine Konstante $m > 0$ existiert, s.d. $\forall x, y \in D$ gilt
\[
(f(x) - f(y), x-y)_2 \ge m \Vert x - y \Vert_2^2
.\]
\end{definition}

\begin{bem}[Anwendung: Nichtlineare Gleichungssysteme]
Sei $f\colon D \subseteq \R^{n} \to \R^{n}$ Lipschitz stetig mit $L$ und stark monoton mit $m > 0$.
Betrachte $f(x) = b$, $g(x) := x - \theta (f(x) - b)$.

Frage: Wahl von $\theta$, s.d. $\forall x ^{(0)} \in D$ die Fixpunktiteration konvergiert?
Es ist
\begin{align*}
\Vert g(x) - g(y) \Vert_2^2 &= \Vert x - \theta (f(x) - b) - y + \theta (f(y) - b) \Vert_2^2 \\
&= \Vert x - y - \theta (f(x) - f(y)\Vert_2^2 \\
&= \Vert x - y \Vert_2^2 - 2 \theta (x-y, f(x) - f(y))_2
+ \theta^2 \Vert f(x) - f(y) \Vert_2^2 \\
&\le \Vert x - y \Vert_2^2 - 2 \theta m \Vert x - y \Vert_2^2
+ \theta^2 L^2 \Vert x- y \Vert_2^2 \\
&= (1 - 2\theta m + \theta^2 L^2) \Vert x - y \Vert_2^2
.\end{align*}
Die Fixpunktiteration konvergiert, falls $1 - 2 \theta m + \theta^2L^2 < 1$, d.h.
für $\theta \in \left( 0, \frac{2m}{L^2} \right) $. Dann existiert
ein $\displaystyle x^{*} = \lim_{k \to \infty} x^{(k)}$ mit $g(x^{*}) = x^{*}$. Ist
$x^{*}$ eindeutig? Seien $x, x'$ zwei Lösungen. Dann ist
\begin{salign*}
0 &= (\underbrace{f(x) - b + b -f(x')}_{= 0}, x - x')_2 \\
&= (f(x) - f(x'), x-x')_2 \\
&\stackrel{f\text{ stark monoton}}{\ge} m \Vert x - x' \Vert_2^2 \\
&> 0
.\end{salign*}
Also $x = x'$, damit ist $x^{*}$ eindeutig.
\end{bem}

\end{document}

二進制
ana11.pdf 查看文件


+ 217
- 0
ana11.tex 查看文件

@@ -0,0 +1,217 @@
\documentclass{lecture}

\begin{document}

\chapter{Differenzierbare Funktionen in \texorpdfstring{$\R^{n}$}{R\unichar{"207F}}}

Betrachte die Abbildung $f \colon D \subseteq \R^{n} \to \R^{n}$. Die Stetigkeitsdefinition von $f$ entspricht
der Stetigkeit von $f$ in $\R$. Aber: Differenzierbarkeit einer Funktion $g\colon I \subseteq \R \to \R$,
\[
g'(x_0) := \lim_{h \to 0} \frac{f(x_0 + h) - f(x_0)}{h}
.\] Für $h \in \R^{n}$ \underline{nicht sinnvoll}.

\section{Partielle Differenzierbarkeit}

\begin{definition}[Partielle Ableitung]
Sei $D \subseteq \R^{n}$ offen und $f\colon D \to \R$.
\begin{itemize}
\item $f$ heißt
im Punkt $x \in D$ partiell differenzierbar nach $i$-ter Koordinatenrichtung, falls der
Grenwert
\[
\partial_i f(x) := \lim_{h \to 0} \frac{f\left( x + h \cdot e^{(i)} \right) - f(x)}{h}
.\] existiert mit $e^{(i)} := $ $i$-te Spalte der $n \times n$ Einheitsmatrix.
Schreibweise auch $\frac{\partial f}{\partial x_i}(x)$ oder $\frac{\partial f(x)}{\partial x_i}$.
\item $f$ heißt partiell differenzierbar in $x \in D$, falls $\partial_i f(x)$ für alle $1 \le i \le n$
existieren.
\item Sind $\partial_i f(x)$ $\forall i$ stetig, dann heißt $f$ stetig partiell differenzierbar.
\item Falls $f \colon D \subseteq \R^{n} \to \R^{m}$, dann heißt $f$ (stetig) partiell differenzierbar,
falls alle Komponentenfunktionen $f_j$ $(1 \le j \le m)$ (stetig) partiell differenzierbar
in $x \in D$ sind, d.h. wenn $\partial_i f_j(x)$ $\forall i=1,\ldots,n$, $j = 1,\ldots,m$ existieren.
\end{itemize}
\end{definition}

\begin{bem}[Interpretation als gewöhnliche Ableitung]
Sei $f(x) = f(x_1, \ldots, x_n)$. Definiere $\tilde{f}(\xi) = f(x_1, \ldots, x_{i-1}, \xi, x_{i+1}, \ldots, x_n)$, d.h. $x_1, \ldots, x_{i-1}, x_{i+1}, \ldots, x_n$ fest. Dann ist
\[
\partial_i f(x) = \frac{\d{\tilde{f}(\xi)}}{\d\xi}
.\]
D.h. für partielle Ableitungen
gelten analoge Regeln, wie für die gewöhnliche Ableitung, insbesondere Produktregel, Quotientenregel
und auch Kettenregel.
\end{bem}

\begin{bsp}
Die Funktion
\[
r(x) := \Vert x \Vert_2 = \sqrt{\sum_{i=1}^{n} x_i^2}
.\] ist in $D = \R^{n} \setminus \{0\} $ stetig partiell differenzierbar mit den partiellen
Ableitungen
\begin{align*}
\partial_i r (x_1, \ldots, x_i, \ldots, x_n)
\quad \qquad \stackrel{\text{gew. Kettenregel}}{=} \quad \qquad
\frac{1}{2} \frac{1}{\sqrt{\sum_{i=1}^{n} x_i^2} } 2x_i
= \frac{x_i}{\Vert x \Vert_2}
.\end{align*}
Sei $F\colon \R_+ \to \R$ beliebige differenzierbare Funktion. Dann ist $f(x) = F(r(x))$ auf
$\R^{n} \setminus \{0\} $ definiert und partiell differenzierbar.
\begin{align*}
\partial_i f(x) = \frac{\d F(r(x))}{\d y} \partial_i r(x) = F'(r(x)) \frac{x_i}{\Vert x\Vert_{2}}
= F'(r(x)) \frac{x_i}{r(x)}
.\end{align*}
\end{bsp}

\begin{bem}
Für $n =1$ gilt: $f$ differenzierbar $\implies$ $f$ stetig. Für $n > 1$ und $f$ partiell
differenzierbar, folgt i.A. nicht, dass $f$ stetig ist.
\end{bem}

\begin{satz}
Sei $D \subseteq \R^{n}$ offen und $f\colon D \to \R$. Für $x \in D$ gelte: $\exists K_r(x) \subseteq D$,
s.d. die partiellen Ableitungen $\partial_i f(y)$, $i = 1, \ldots, n$ beschränkt sind $\forall y \in K_r(x)$,
d.h.
\[
\sup_{x \in K_r(x)} | \partial_i f(y) | \le M, \quad i = 1, \ldots, n
.\] Dann gilt $f$ stetig in Punkt $x$.
\end{satz}

\begin{proof}
Sei $n = 2$ und $y = (y_1, y_2) \in K_r(x)$. Es ist
\begin{salign*}
f(y_1, y_2) - f(x_1, x_2) &= f(y_1, y_2) - f(x_1, y_2) + f(x_1, y_2) - f(x_1, x_2)
\intertext{Mit $y_2$ fest, folgt mit dem Mittelwertsatz der Differentialrechnung:
$\exists \xi = \xi(y_2)$ zwischen $y_1$ und $x_1$, also}
f(y_1, y_2) - f(x_1, y_2) &\stackrel{\text{MWS}}{=} \partial_1 f(\xi, y_2) (y_1 - x_1)
\intertext{Analog für $x_1$ fest und $\zeta(x_1)$ zwischen $y_2$ und $x_2$}
f(x_1, y_2) - f(x_1, x_2) &\stackrel{\text{MWS}}{=} \partial_2 f(x_1, \zeta) (y_2 - x_2)
\intertext{Dann folgt}
|f(y) - f(y)| &\le \underbrace{|\partial_1 f(\xi, y_2)|}_{\le M} |y_1 - x_1|
+ \underbrace{|\partial_2 f(x_2, \zeta)|}_{\le M} |y_2 - x_2| \\
&\le M (|y_1 - x_1| + |y_2 - x_2|) \\
&= M \Vert y - x \Vert_1
.\end{salign*}
Sei $\epsilon \in (0, r]$ beliebig, dann gilt für $\delta := \frac{\epsilon}{M}$
\[
\Vert y -x \Vert_1 \le \delta \implies | f(y) - f(y) | \le \epsilon
.\] Also $f$ stetig in $x$ und wegen $|f(y) - f(x)| \le M \Vert y - x \Vert_1$ sogar Lipschitz-stetig.
Für $n > 2$ analog.
\end{proof}

\begin{definition}
Sei $f\colon D \subseteq \R^{n} \to \R$ partiell differenzierbar mit $\partial_i f \colon D \to \R$.
\begin{itemize}
\item Falls $\partial_i f$ partiell differenzierbar sind, dann heißt $f$ zweimal
partiell differenzierbar mit den partiellen Ableitungen zweiter Ordnung
\[
\partial_i \partial_j f(x) := \frac{\partial^2 f(x)}{\partial x_i \partial x_j}
:= \frac{\partial}{\partial x_i} \left( \frac{\partial f(x)}{\partial x_j} \right)
.\]
\item $f$ heißt $k$-mal stetig partiell differenzierbar, falls alle partiellen Ableitungen
$k$-ter Ordnung von $f$ existieren und stetig sind.
\end{itemize}
\end{definition}

\begin{bem}
Im Allgemeinen ist $\partial_i \partial_j f(x) \neq \partial_j \partial_i f(x)$!
\end{bem}

\begin{satz}[Vertauschbarkeit der Differentiationsreihenfolge]
Sei $D \subseteq \R^{n}$ offen und $f\colon D \to \R$ zweimal stetig differenzierbar in
einer Umgebung $K_r(x) \subseteq D$ eines Punktes $x \in D$. Dann gilt
\[
\partial_i \partial_j f(x) = \partial_j \partial_i f(x), \qquad \forall i,j=1,\ldots,n
.\] Allgemein: Für eine $k$-mal stetig partiell differenzierbare Funktion ist die Reihenfolge
der partiellen Ableitungen vertauschbar.
\end{satz}

\begin{proof}
\begin{enumerate}[1)]
\item Sei $n = 2$ und
\[
A := \underbrace{f(x_1 + h_1, x_2 + h_2) - f(x_1 + h_1, x_2)}_{= \varphi(x_1 + h_1)}
- \underbrace{f(x_1, x_2 + h_2) + f(x_1, x_2)}_{= \varphi(x_1)}
.\] Definiere $\varphi(x) := f(x, x_2 + h_2) - f(x, x_2)$. Dann ist
$A = \varphi(x_1 + h_1) - \varphi(x_1)$. Mit dem MWS bezügl. $x_1$ folgt
\begin{salign*}
\varphi(x_1 + h_1) - \varphi(x_1) &= \varphi'(x_1 + \theta_1) \cdot h_1, \quad \theta_1 \in (0, h_1)
\intertext{Für $\varphi'$ gilt}
\varphi'(x_1) &= \partial_1 f(x_1, x_2 + h_2) - \partial_1 f(x_1, x_2) \\
&\stackrel{\text{MWS bezügl. } x_2}{=}
\partial_2 (\partial_1 f(x_1, x_2 + \theta_1')) \cdot h_2, \quad \theta_1' \in (0, h_2)
\intertext{Dann folgt}
\varphi'(x_1 + \theta_1) &= \partial_2 (\partial_1 f(x_1 + \theta_1, x_2 + \theta_1')) h_2
.\end{salign*}
Und damit ist
\begin{salign*}
A &= \varphi'(x_1 + \theta_1) h_1 = \partial_2 (\partial_1 f(x_1 + \theta_1, x_2 + \theta_1'))
\cdot h_1 \cdot h_2
\intertext{Analog definiere $\psi(x) := f(x_1 + h_1, x) - f(x_1, x)$, dann}
A &= \psi(x_2 + h_2) - \psi(x_2) \\
&\stackrel{\text{wie oben}}{=} h_2 \psi'(x_2 + \theta_2) \\
&= h_1 \cdot h_2 \partial_
(\partial_2 f(x_1 + \partial_2, x_2 + \partial_2')), \quad \theta_2 \in (0, h_1),
\theta_2' \in (0, h_2)
.\end{salign*}
Also folgt
\[
\partial_2 \partial_1 f(x_1 + \theta_1, x_2 + \theta_1') = \frac{A}{h_1 \cdot h_2}
= \partial_1 \partial_2 f(x_1 + \theta_2, x_2 + \theta_2')
.\]
Die partiellen Ableitungen $\partial_2 \partial_1 f$ und
$\partial_1 \partial_2 f$ sind stetig in $K_r(x)$, also gilt
für $h_1, h_2 \to 0$, d.h. $x_1 + \theta_1 \to x_1, x_2 + \theta_1' \to x_2, \ldots$
\begin{salign*}
\partial_2 \partial_1 f(x_1 + \theta_1, x_2 + \theta_1') &\xrightarrow{h_1, h_2 \to 0}
\partial_2 \partial_1 f(x) \\
\partial_1 \partial_2 f(x_1 + \theta_2, x_2 + \theta_2')
&\xrightarrow{h_1, h_2 \to 0} \partial_1 \partial_2 f(x)
.\end{salign*}
Also $\partial_1 \partial_2 f(x) = \partial_2 \partial_1 f(x)$. Für $n > 2$ analog.
\item Sei $f$ k-mal stetig differenzierbar. Dann folgt durch Induktion nach $k$
\[
\partial_1 \ldots \partial_k f(x) = \partial_{i_1} \ldots \partial_{i_k} f(x)
.\] für jede Permutation ($i_1, \ldots, i_k)$ von $(1 \ldots k)$.
\end{enumerate}
\end{proof}

\begin{definition}[Begriffe der Vektoranalysis]
\begin{itemize}
\item \underline{Gradient}: Sei $D \subseteq \R^{n}$ offen und $f\colon D \to \R$ eine partiell
differenzierbare Funktion. Der Vektor
\[
\text{grad} f(x) := \nabla f(x) := \begin{pmatrix} \partial_1 f(x) \\ \vdots \\ \partial_n f(x) \end{pmatrix} \in \R^{n}
\] heißt der Gradient von $f$ in $x \in D$.
\item \underline{Hesse-Matrix}: Sei $D \subseteq \R^{n}$ offen, $f\colon D \to \R$
eine zweimal partiell differenzierbare Funktion. Die Matrix
\[
H_f(x) := \nabla^2 f(x) := (\partial_i \partial_j f(x))_{i,j=1}^{n} \in \R^{n \times n}
.\] heißt Hesse-Matrix von $f$ im Punkt $x \in D$.
\item \underline{Jacobi-Matrix}: Sei $D \subseteq \R^{n}$ offen, $f\colon D \to \R^{m}$
eine partiell differenzierbare Vektorfunktion. Die Matrix
\[
J_f(x) := \begin{pmatrix} \partial_1 f_1 & \ldots &\partial_n f_1 \\
\vdots & & \vdots \\
\partial_1 f_m & \ldots & \partial_n f_m
\end{pmatrix} \in \R^{m \times n}
.\] heißt Funktionalmatrix oder auch Jacobimatrix von $f$ in $x \in D$.

Schreibweise: $J_f(x) = f'(x) = \left( \nabla f(x) \right)^{T}$.
\end{itemize}
\end{definition}

\begin{bsp}
$r(x) = \Vert x \Vert_2$.
\[
\nabla r(x) = \begin{pmatrix} \vdots \\ \partial_i r(x) \\ \vdots \end{pmatrix}
= \begin{pmatrix} \vdots \\ \frac{x_i}{r(x)} \\ \vdots \end{pmatrix} \in \R^{n}
.\] Für die Hesse-Matrix $\nabla ^2 r(x) = \left( \partial_j \frac{x_i}{r(x)} \right)_{i,j=1}^{n}$ folgt
\[
\partial_j \left( \frac{x_i}{r(x)}\right)
= \begin{cases}
\frac{r(x) - x_i \frac{x_i}{r(x)}}{r(x)^2} = \frac{1}{r(x)} - \frac{x_i^2}{r(x)^2} & i = j \\
- \frac{x_i \frac{x_j}{r(x)}}{r(x)^2} = - \frac{x_i x_j}{r(x)^{3}} & i \neq j
\end{cases}
.\] Diese Hesse-Matrix ist die Jacobi-Matrix der Vektorfunktion $v(x) = \frac{x}{r(x)} = \begin{pmatrix} \vdots \\ \frac{x_i}{r(x)} \\ \vdots \end{pmatrix} $.
\end{bsp}

\end{document}

二進制
analysisII.pdf 查看文件


+ 2
- 0
analysisII.tex 查看文件

@@ -25,5 +25,7 @@
\input{ana7.tex}
\input{ana8.tex}
\input{ana9.tex}
\input{ana10.tex}
\input{ana11.tex}

\end{document}

Loading…
取消
儲存