\documentclass{lecture} \begin{document} \newcommand{\pdv}[2]{\frac{\partial #1}{\partial #2}} \newcommand{\dv}[2]{\frac{\d #1}{\d #2}} \section{Mittelwertsatz} \begin{bem} Reminder: \begin{enumerate}[(1)] \item Ist $f: [a,b] \to \R$ differenzierbar, dann gilt (HDI): \begin{salign*} f(x+h) - f(x) = \int_{0}^{1} \dv{}{s} f(x+sh) \d{s} &\stackrel{\text{Kettenregel}}{=} \int_{0}^{1} f'(x+sh) \cdot h \d{s} \\ &= \left( \int_{0}^{1} f'(x+sh) \d{s} \right) \cdot h. \end{salign*} \item Mittelwertsatz der Differentialrechnung: $\exists \tau \in (0,1)$ sodass: \begin{salign*} f(x+h) - f(x) = f'(x+ \tau h) \cdot h. \end{salign*} \item Sei $A = \left(a_{i,j} \right)_{i,j = 1}^{m,n} : [a,b] \to \R^{m \times n}$. Dann sei: \begin{salign*} \int_{a}^{b} A(s) \d{s} \coloneqq \left( \int_{a}^{b} a_{i,j}(s) \d{s} \right)_{i,j=1}^{m,n} \end{salign*} \end{enumerate} \end{bem} \begin{satz}[Mittelwertsatz] Seien $D \subset \R^{n}$ offen, $f: D \to \R$ stetig differenzierbar, sei $x \in D$ und $h \in \R^{n}$ sodass $x + sh \in D$, für $s \in [0,1]$. Dann gilt: \begin{salign*} f(x+h) - f(x) = \left( \int_{0}^{1} \nabla f(x+sh) \d{s}, h \right)_{2} = \left( \int_{0}^{1} \nabla f(x+sh) \d{s}\right)^{T} \cdot h. \end{salign*} Sei $f: D \to \R^{m}$ stetig differenzierbar, mit Jacobi-Matrix $J_{f}(x)$, dann gilt: \begin{salign*} f(x+h) - f(x) = \left( \int_{0}^{1} J_{f}(x + sh) \d{s} \right) h. \end{salign*} \label{satz:mittelwertsatz} \end{satz} \begin{proof} Sei $f: D \to \R^{m}$. Sei $g_{j}\colon [0,1] \to \R, \ g_{j}(s) \coloneqq f_{j}(x+sh)$. Dann gilt: \begin{salign*} f_{j}(x+h) - f_{j}(x) = g_{j}(1) - g_{j}(0) & \overset{\text{HDI}}{=} \int_{0}^{1} g_{j}'(s) \d{s} \overset{\text{Kettenregel}}{=} \int_{0}^{1} \sum_{i=1}^{n} \pdv{f_j}{x_{i}}(x+sh) \cdot h_{i} \d{s}. \end{salign*} Ist $m = 1$, so gilt: \begin{salign*} f(x+h) - f(x) &= \int_{0}^{1} \sum_{i=1}^{n} \pdv{f}{x_{i}}(x+sh) \d{s} \cdot h_{i} = \sum_{i=1}^{n} \left( \int_{0}^{1} \pdv{f}{x_{i}}(x+sh) \d{s} \right) \cdot h_{i} \\ &= \left( \int_{0}^{1} \nabla f(x+sh) \d{s}, h\right)_{2} \end{salign*} Ist $m \geq 2$, so gilt analog zu oben: \begin{salign*} f(x+h) - f(x) = \left( \int_{0}^{1} J_{f}(x+sh) \d{s} \right) \cdot h. \end{salign*} \end{proof} \begin{bem} Für $m = 1$, d.h. $f: \R^{n} \supset D \to \R$ gilt sogar für ein bestimmtes $\tau \in (0,1)$: \begin{salign*} f(x+h) - f(x) = \int_{0}^{1} \left( \nabla^{T} f(x+sh) \cdot h \right)\d{s} = \nabla^{T} f(x+\tau h) \cdot h. \end{salign*} Für $m \geq 2$ im Allgemeinen aber nicht (da $\tau \in [0,1]$ nicht für alle Komponenten gleich gewählt werden kann): \begin{salign*} f(x+h) - f(x) \neq J_{f}(x + \tau h) \cdot h. \end{salign*} \end{bem} \begin{lemma} \label{lemma:dreieck-integrale} Seien $v: [a,b] \to \R^{n}$ und $A: [a,b] \to \R^{m \times n}$ stetig. Dann gilt: \begin{salign*} \norm{\int_{a}^{b} v(s) \d{s} }_{2} \leq \int_{a}^{b} \norm{v(s)}_{2} \d{s}, && \norm{\int_{a}^{b} A(s) \d{s} }_{2} \leq \int_{a}^{b} \norm{A(s)}_{2} \d{s} \end{salign*} \end{lemma} \begin{proof} Sei $u \in \R^{n}$, $u = \int_{a}^{b} v(s) \d{s} = \begin{pmatrix} \int_{a}^{b} v_{1}(s) \d{s} \\ \vdots \\ \int_{a}^{b} v_{n}(s) \d{s} \end{pmatrix}$ und $K = \norm{u}_{2}$. Dann gilt: \begin{salign*} K^{2} &\stackrel{\ell_{2} \text{Norm}}{=} \left(u,u\right)_{2} = \left( \int_{a}^{b} v(s) \d{s}, u\right)_{2} = \int_{a}^{b} \left(v(s), u\right)_{2} \d{s} \\ &\stackrel{\text{CSU}}{\leq} \int_{a}^{b} \norm{v(s)}_{2} \cdot \norm{u}_{2} \d{s} = K \cdot \int_{a}^{b} \norm{v(s)}_{2} \d{s} \\ \hfill \\ \implies \ & K = \norm{\int_{a}^{b} v(s) \d{s} }_{2} \leq \int_{a}^{b} \norm{v(s)}_{2} \d{s}. \end{salign*} Der Beweis für $A(s)$ folgt ganz analog mit $u = \int_{a}^{b} A(s) \d{s} \in \R^{m \times n}$. \end{proof} \begin{definition} $D \subset \mathbb{K}^{n}$ heißt \underline{konvex}, genau dann wenn: für alle $x,x' \in D$ und für alle $\lambda \in [0,1]$ gilt $\lambda \cdot x + (1-\lambda)x' \in D$. \\ Geometrisch: Für zwei Punkte in $D$ liegt die Verbindungsstrecke der beiden Punkte stets ganz in $D$. \end{definition} \begin{korollar} Seien $D \subset \R^{n}$ offen, $f: D \to \R^{m}$ stetig differenzierbar. Sei $x \in D$ und $\varepsilon > 0$ sodass $K_{\varepsilon}(x) \subset D$. Dann gilt: \begin{salign*} \norm{f(y) - f(x)}_{2} \leq M \cdot \norm{y-x}_{2} \ \ \ \ \ \forall y \in K_{\varepsilon} \end{salign*} mit $M \coloneqq \sup_{z \in K_{\varepsilon}(x)} \norm{J_{f}(z)}_{2}$, das heißt $f$ ist lokal Lipschitz-stetig. \\ Sei $D$ konvex, dann gilt \begin{salign*} \norm{f(y) - f(x)}_{2} \leq M \cdot \norm{y-x}_{2} \ \ \ \ \ \forall x,y \in D \end{salign*} mit $M \coloneqq \sup_{z \in D} \norm{J_{f}(z)}_{2}$, das heißt $f$ ist auf $D$ Lipschitz-stetig. \end{korollar} \begin{proof} Aus Lemma \ref{lemma:dreieck-integrale} folgt: \begin{salign*} \norm{\int_{0}^{1} J_{f}(x+sh) h \d{s} }_{2} &\leq \int_{0}^{1} \norm{J_{f}(x+sh) h}_{2} \d{s} \\ & \leq \int_{0}^{1} \norm{J_{f}(x+sh)}_{2} \norm{h}_{2} \d{s} \\ &\leq \sup_{0 0$ mit $K_{\delta}(x) \subset D$. Nach Taylor-Formel existiert für alle $h \in \R^{n}$ mit $\norm{h} < \delta$ ein $\theta \in [0,1]$ sodass \begin{salign*} f(x+h) &= \sum_{\vert \alpha \vert \leq r} \frac{\partial^{\alpha}f(x)}{\alpha!}h^{\alpha} + \sum_{\vert \alpha \vert = r+1} \frac{\partial^{\alpha}f(x+\theta h)}{\alpha!}h^{\alpha} \\ &= \sum_{\vert \alpha \vert \leq r+1} \frac{\partial^{\alpha}f(x)}{\alpha!}h^{\alpha} + \underbrace{\sum_{\vert \alpha \vert = r+1} \frac{\partial^{\alpha}f(x+\theta h)-\partial^{\alpha}f(x)}{\alpha!}h^{\alpha}}_{\eqqcolon \, \omega_{r+1}(x,h)} \end{salign*} Nun gilt noch zu zeigen, dass: $\frac{\omega_{r+1}(x,h)}{\norm{h}^{r+1}} \oldstackrel{h \to 0}{\longrightarrow} 0$. \\ Es gilt: \begin{salign*} \vert h^{\alpha} \vert = \vert h_{1}^{\alpha_{1}} \vert \dotsm \vert h_{n}^{\alpha_{n}} \vert \leq \norm{h}^{\alpha_{1}} \dotsm \norm{h}^{\alpha_{n}} = \norm{h}^{\vert \alpha \vert}. \end{salign*} Womit wir abschätzen können: \begin{salign*} \frac{\vert \omega_{r+1}(x,h) \vert}{\norm{h}^{r+1}} &= \frac{1}{\norm{h}^{r+1}} \sum_{\vert \alpha \vert = r+1} \frac{1}{\alpha !} \vert \partial^{\alpha}f(x+\theta h)-\partial^{\alpha}f(x) \vert \cdot \vert h_{1}^{\alpha_{1}} \vert \dotsm \vert h_{n}^{\alpha_{n}} \vert \\ &= \frac{\vert h^{r+1} \vert}{\norm{h}^{r+1}}\sum_{\vert \alpha \vert = r+1} \frac{1}{\alpha !} \vert \partial^{\alpha}f(x+\theta h)-\partial^{\alpha}f(x) \vert \\ &\stackrel{\vert h^{r+1} \vert \leq \norm{h}^{r+1}}{\leq} \sum_{\vert \alpha \vert = r+1} \frac{1}{\alpha !} \underbrace{\vert \partial^{\alpha}f(x+\theta h)-\partial^{\alpha}f(x) \vert}_{\oldstackrel{h \to 0}{\longrightarrow} 0, \ \text{weil alle} \ \partial^{\alpha}f \text{ stetig sind}} \oldstackrel{h \to 0}{\longrightarrow} 0. \end{salign*} \end{proof} \begin{korollar} Seien $D \subset \R^{n}$ offen, $f \in C^{2}(D,\R)$. Dann gilt für alle $x \in D$ und $h \in \R^{n}$, sodass $x+th \in D$ (für alle $t \in [0,1]$): \begin{salign*} f(x+h) = f(x) + \left( \nabla f(x), h \right)_{2} + \frac{1}{2} \left( H_{f}(x)h, h\right)_{2} + \omega_{2}(x,h), && \text{mit} \ \frac{\omega_{2}(x,h)}{\norm{h}^{2}} \oldstackrel{h \to 0}{\longrightarrow} 0. \end{salign*} Dabei ist $H_{f}(x)$ die Hesse-Matrix von $f$. Das heißt das Taylor-Polynom 2. Ordnung ist eine quadratische Approximation von $f$. Für $f \in C^{1}(D,\R)$ gilt: \begin{salign*} f(x+h) = f(x) + \left( \nabla f(x), h \right)_{2} + \omega_{1}(x,h), && \text{mit} \ \frac{\omega_{1}(x,h)}{\norm{h}} \oldstackrel{h \to 0}{\longrightarrow} 0. \end{salign*} Das heißt das Taylor-Polynom 1. Ordnung ist eine lineare Approximation von $f$. \end{korollar} \begin{proof} Folgt aus \ref{kor::taylor-omega-form} mir $r+1=2$ bzw. $r+1 = 1$ sowie: \begin{salign*} \sum_{\vert \alpha \vert = 0} \frac{\partial^{\alpha}f(x)}{\alpha!} h^{\alpha} &= f(x), \\ \sum_{\vert \alpha \vert = 1} \frac{\partial^{\alpha}f(x)}{\alpha!} h^{\alpha} &= \frac{1}{1!} \cdot \sum_{i=1}^{n} \pdv{f(x)}{x_{i}} \cdot h_{i} = \left( \nabla f(x), h \right)_{2}, \\ \sum_{\vert \alpha \vert = 2} \frac{\partial^{\alpha}f(x)}{\alpha!} h^{\alpha} &= \frac{1}{2!} \sum_{i,j=1}^{n} \frac{\partial^{2} f(x)}{\partial x_{i} \partial x_{j}} h_{i} \cdot h_{j} = \frac{1}{2} \left( H_{f}(x)h, h\right)_{2}. \end{salign*} \end{proof} \begin{definition} Seien $D \subset \R^{n}$ offen und $f\colon D \to \R$ beliebig oft partiell differenzierbar, $x \in D$. Dann heißt die \underline{Taylor-Reihe von $f$ in $x$}: $$ T_{\infty}^{f}(x+h) = \sum_{\vert \alpha \vert = 0}^{\infty} \frac{\partial^{\alpha}f(x)}{\alpha!}h^{\alpha}.$$ \end{definition} \begin{korollar} Seien $D \subset \R^{n}$ offen und $f\colon D \to \R$ eine beliebig oft differenzierbare Funktion. Dann gilt $$ T_{r}^{f}(x+h) = \sum_{\vert \alpha \vert = 0}^{r} \frac{\partial^{\alpha}f(x)}{\alpha!}h^{\alpha} \oldstackrel{r \to \infty}{\longrightarrow} f(x+h),$$ wenn \begin{equation} \label{eqq::taylor-rest-gegen-null} R_{r+1}^{f}(x,h) \oldstackrel{r \to \infty}{\longrightarrow} 0, \ \ \ \ \ x \in D. \end{equation} Eine hinreichende Bedingung für (\ref{eqq::taylor-rest-gegen-null}) ist $$\sup_{\vert \alpha \vert \geq 0} \ \sup_{x \in D} \vert \partial^{\alpha} f(x) \vert \leq M_{f} < \infty,$$ das heißt alle partiellen Ableitungen von $f$ sind gleichmäßig beschränkt. \end{korollar} \begin{proof} Siehe Skript Ana2 Rolf Rannacher, Seite 74, Übungsaufgabe 3.23. \end{proof} \begin{bem} Die Taylor Reihe von $f$ konvergiert gegen $f$, wenn die Funktion $f$ durch eine Potenzreihe beschrieben wird (also wenn $f$ analytisch ist). \end{bem} \end{document}