|
- \documentclass[uebung]{../../../lecture}
-
- \title{Analysis II: Übungsblatt 8}
- \author{Leon Burgard, Christian Merten}
-
- \begin{document}
-
- \punkte
-
- \begin{aufgabe}[]
- \begin{enumerate}[(a)]
- \item Beh.: Für $x = (x_1, \ldots, x_n)^{T} \in \R^{n}$, $n \ge 1$, $\nu \in \N_0$ gilt
- \[
- (x_1 + \ldots + x_n)^{\nu} = \nu! \sum_{|\alpha|=\nu} \frac{x^{\alpha}}{\alpha!}
- .\]
- \begin{proof}
- Induktion über $n$. I.A.: $n = 1$ trivial.
-
- Sei $n \in \N$ beliebig und Beh. gezeigt für $n-1$. Dann gilt für $x \in \R^{n}$ und
- $\nu \in \N_0$ mit $\tilde{x} = (x_2, \ldots, x_n)^{T} \in \R^{n-1}$:
- \begin{salign*}
- (x_1 + x_2 \ldots + x_n)^{\nu} &= (x_1 + (x_2 + \ldots + x_n))^{\nu} \\
- &\stackrel{\text{Bin. Formel}}{=}
- \sum_{k=0}^{\nu} \binom{\nu}{k} x_1^{k} (x_2 + \ldots + x_n)^{\nu - k} \\
- &\stackrel{\text{I.V.}}{=} \sum_{k=0}^{\nu} x_1^{k}
- (\nu - k)! \sum_{|\alpha|=\nu-k} \frac{\tilde{x}^{\alpha}}{\alpha!} \\
- &= \sum_{k=0}^{\nu} \frac{\nu!}{(\nu-k)!} (\nu-k)! \sum_{|\alpha| = \nu-k}
- \frac{\tilde{x}^{\alpha}x_1^{k}}{\alpha! k!} \\
- &= \nu! \sum_{k=0}^{\nu} \sum_{|\alpha|=\nu-k} \frac{\tilde{x}^{\alpha} x_1^{k}}{\alpha! k!} \\
- &= \nu! \sum_{|\alpha|=\nu} \frac{x^{\alpha}}{\alpha!}
- .\end{salign*}
- \end{proof}
- \item Beh.: Es ist mit $h = (h_1, h_2, h_3)^{T} \in \R^{3}$:
- \[
- T_{2}^{f}(\hat{x} + h) = -e\left(-h_1 - h_2 -h_3 + \frac{1}{2} h_2^2 + h_1 h_2 + h_1h_3\right)
- .\]
- \begin{proof}
- Mit $\hat{x} = (-1, -1, 0)^{T}$ folgt
- der Gradient von $f$ bei $\hat{x}$ direkt
- \begin{align*}
- \nabla f(x) = \begin{pmatrix} e^{-x_2} - x_3e^{-x_1} \\ -x_1e^{-x_2} \\ e^{-x_1} \end{pmatrix} \implies \nabla f(\hat{x}) = \begin{pmatrix} e \\ e \\ e \end{pmatrix}
- .\end{align*}
- Die Hessematrix von $f$ ist gegeben als
- \begin{align*}
- H_f(x) = \begin{pmatrix}
- x_3 e^{-x_1} & -e^{-x_2} & -e^{-x_1} \\
- -e^{-x_2} & x_1 e^{-x_2} & 0 \\
- -e^{-x_1} & 0 & 0
- \end{pmatrix}
- \implies
- H_f(\hat{x}) = \begin{pmatrix} 0 & -e & -e \\
- -e & -e & 0 \\
- -e & 0 & 0
- \end{pmatrix}
- .\end{align*}
- Damit folgt direkt
- \begin{salign*}
- T_2^{f}(\hat{x} + h) &= f(\hat{x}) + (\nabla f(\hat{x}), h)_2 + \frac{1}{2} (H_f(\hat{x})h, h)_2 \\
- &= -e + eh_1 + eh_2 + eh_3 - \frac{1}{2} eh_2^2 - eh_1h_2 - eh_1h_3 \\
- &= -e \left(-h_1 - h_2-h_3 + \frac{1}{2}h_2^2 + h_1h_2 + h_1 h_3\right)
- .\end{salign*}
- \end{proof}
- \end{enumerate}
- \end{aufgabe}
-
- \begin{aufgabe}[]
- Beh.: $f\colon \R^2 \to \R$, $f(x,y) = (4x^2 + y^2) \exp(-x^2 - 4y^2)$ hat zwei strikte lokale Maxima
- bei $P_1 = (1, 0)^{T}$ und $P_2 = (-1, 0)^{T}$ und ein striktes lokales Minimum bei $P_3 = (0,0)^{T}$.
- \begin{proof}
- Der Gradient ergibt sich als
- \begin{align*}
- \nabla f(x,y) = \begin{pmatrix} 8x - 8x^{3} - 2y^2x \\ 2y - 32x^2y - 8y^{3} \end{pmatrix}
- \exp(-x^2 - 4y^2)
- .\end{align*}
- Daraus folgen die notwendigen Bedingungen
- \begin{align}
- 8x - 8x^{3} - 2y^2x &= 0 \\
- 2y - 32x^2y - 8y^{3} &= 0
- .\end{align}
- Aus (1) folgt
- \[
- 8x - 8x^{3} - 2y^2x = x(8 -8x^2 - 2y^2) = 0 \implies x = 0 \lor x^2 = 1 - \frac{1}{4}y^2
- .\] Für $x = 0$ folgt aus (2):
- \begin{align*}
- 2y - 8y^{3} \implies y (2 - 8y^2) \implies y = 0 \lor 2 = 8y^2 \implies y = 0 \lor y = \pm \frac{1}{2}
- .\end{align*}
- Damit folgen $P_3 = (0,0)^{T}$, $P_4 = \left( 0, \frac{1}{2} \right)^{T} $ und $P_5 = \left( 0, -\frac{1}{2} \right)^{T} $.
-
- Für $x = 1 - \frac{1}{4}y^2$ folgt aus (2):
- \begin{align*}
- 2y - 32\left( 1 - \frac{1}{4}y^2 \right) y - 8y^{3} = 0 \implies y - 16y = 0 \implies y = 0
- .\end{align*}
- Damit folgt für $x$ mit $x = 1 - \frac{1}{4} y^2$: $x = \pm 1$. Also $P_1 = (1, 0)^{T}$ und
- $P_2 = (-1, 0)^{T}$.
-
- Die Hessematrix von $f$ folgt direkt als
- \begin{align*}
- H_f(x) = \exp(-x^2 - 4y^2)
- \begin{pmatrix}
- 16 x^{4} + 4y^2x^2 - 40x^2 - 2y^2+8 & -68xy + 64x^{3}y + 16xy^{3} \\
- -68xy + 64 x^{3}y + 16xy^{3} & 2 - 32x^2 - 40y^2 + 256 x^2y^2 + 64y^{4}
- \end{pmatrix}
- .\end{align*}
- Dann folgt durch Ablesen der Eigenwerte
- \begin{align*}
- H_f(P_1) &= H_f(1,0) = \frac{1}{e}\begin{pmatrix} -16 & 0\\ 0 & -30 \end{pmatrix} \quad
- \text{negativ definit} \implies P_1 \text{ striktes lokales Min.} \\
- H_f(P_2) &= H_f(-1,0) = \frac{1}{e}\begin{pmatrix} -16 & 0\\ 0 & -30 \end{pmatrix} \quad
- \text{negativ definit} \implies P_2 \text{ striktes lokales Min.} \\
- H_f(P_3) &= H_f(0,0) = \begin{pmatrix} 8 & 0 \\ 0 & 2 \end{pmatrix} \quad
- \text{positiv definit} \implies P_3 \text{ striktes lokales Max.} \\
- H_f(P_4) &= H_f\left( 0, \frac{1}{2} \right) = \frac{1}{e}\begin{pmatrix} 7 \frac{1}{2} & 0 \\ 0 & -4 \end{pmatrix} \quad
- \text{indefinit} \implies P_4 \text{ kein lokales Extremum} \\
- H_f(P_5) &= H_f\left( 0, - \frac{1}{2} \right) = \frac{1}{e}\begin{pmatrix} 7 \frac{1}{2} & 0 \\ 0 & -4 \end{pmatrix} \quad
- \text{indefinit} \implies P_5 \text{ kein lokales Extremum}
- .\end{align*}
- Das zeigt die Behauptung.
- \end{proof}
- \end{aufgabe}
-
- \begin{aufgabe}[]
- Beh.: Das Gleichungssystem
- \begin{align*}
- y_1 + \sin(y_1 y_2) &= y_1x_1 + 1 + \frac{\pi}{2} \\
- \cos(y_1) &= x_2 + y_2
- .\end{align*}
- ist in einer Umgebung von $(x_1^{0}, x_2^{0}, y_1^{0}, y_2^{0})^{T} = (0, -1, \frac{\pi}{2}, 1)^{T} \in \R^{4}$ durch differenzierbare Funktionen $g_i \colon \R^2 \to \R$ mit
- \begin{align*}
- y_1 &= g_1(x_1, x_2) \\
- y_2 &= g_2(x_1, x_2) \\
- \end{align*}
- eindeutig aufgelöst werden kann.
- \begin{proof}
- Das Gleichungssystem ist darstellbar als
- \begin{align*}
- \begin{cases}
- y_1 + \sin(y_1 y_2) &= y_1x_1 + 1 + \frac{\pi}{2} \\
- \cos(y_1) &= x_2 + y_2
- \end{cases}
- \implies
- \begin{cases}
- 0 = y_1 + \sin(y_1 y_2) - y_1 x_1 - 1 - \frac{\pi}{2} \\
- 0 = \cos(y_1) - x_2 - y_2
- \end{cases}
- .\end{align*}
- Mit $x = (x_1, x_2)^{T}$ und $y = (y_1, y_2)^{T}$ definiere
- \[
- F(x,y) \coloneqq \begin{pmatrix}
- y_1 + \sin(y_1 y_2) - y_1 x_1 - 1 - \frac{\pi}{2} \\
- \cos(y_1) - x_2 - y_2
- \end{pmatrix}
- .\]
- Damit folgt
- \[
- D_yF(x,y) = \begin{pmatrix} 1 + y_2 \cos(y_1 y_2) -x_1 & y_1 \cos(y_1 y_2) \\
- - \sin(y_1) & -1 \end{pmatrix} \quad
- D_xF(x,y) = \begin{pmatrix} -y_1 & 0 \\ 0 & -1 \end{pmatrix}
- .\] und
- \[
- D_yF(x^{0}, y^{0}) = \begin{pmatrix} 1 & 0 \\ -1 & -1 \end{pmatrix}
- \quad
- D_xF(x^{0}, y^{0}) = \begin{pmatrix} - \frac{\pi}{2} & 0 \\ 0 & -1 \end{pmatrix}
- .\] Es ist
- \[
- \begin{pmatrix} 1 & 0 \\ -1 & -1 \end{pmatrix}
- \begin{pmatrix} 1 & 0 \\ -1 & -1 \end{pmatrix}
- =
- \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}
- .\] Also $D_yF(x^{0}, y^{0})^{-1} = D_yF(x^{0}, y^{0})$. Weiter ist
- $F(x,y)$ stetig partiell differenzierbar, da alle partiellen Ableitungen stetig sind.
- Außerdem gilt $F(x^{0}, y^{0}) = 0$.
-
- Damit folgt mit dem SIF: Es ex. eine eindeutige diff'bare Funktion $g\colon \R^2 \to \R^2$, für
- die in einer Umgebung von $(x^{0}, y^{0})$ gilt:
- \[
- F(x, g(x)) = 0 \implies y = g(x)
- ,\] also das Gleichungssystem eindeutig auflöst.
- Die Komponentenfunktionen $g_1$ und $g_2$ von $g$ zeigen die Behauptung.
- \end{proof}
- Beh.: $J_g(0, -1) = \begin{pmatrix} \frac{\pi}{2} & 0 \\ -\frac{\pi}{2} & -1 \end{pmatrix} $.
- \begin{proof}
- Es ist mit dem SIF:
- \begin{align*}
- J_g(0, -1) = J_g(x^{0}) = D_xg(x^{0}) &= - (D_yF(x^{0}, y^{0}))^{-1} D_xF(x^{0}, y^{0}) \\
- &= - \begin{pmatrix} 1 & 0 \\ -1 & -1 \end{pmatrix} \begin{pmatrix} - \frac{\pi}{2} & 0 \\ 0 & -1 \end{pmatrix} \\
- &= \begin{pmatrix} \frac{\pi}{2} & 0 \\ - \frac{\pi}{2} & -1 \end{pmatrix}
- .\end{align*}
- \end{proof}
- \end{aufgabe}
-
- \begin{aufgabe}
- Beh.: Die Gleichung
- \[
- \ln(3 \epsilon + x) = \epsilon^2 x
- .\] ist in einer Umgebung von $(\epsilon_0, x_0)^{T} = (0,1)^{T}$ eindeutig nach $x$ durch eine
- Abbildung $x = g(\epsilon)$ auflösbar.
- \begin{proof}
- Definiere
- \[
- F(\epsilon, x) = \epsilon^2x - \ln(3 \epsilon + x)
- .\] Es gilt $F(\epsilon_0, x_0) = F(0,1) = -\ln(1) = 0$. Außerdem ist
- \begin{align*}
- D_xF(\epsilon, x) &= \frac{\partial F}{\partial x} = \epsilon^2 - \frac{1}{3 \epsilon + x} \\
- D_xF(\epsilon_0, x_0) &= -1 \implies (D_xF(\epsilon_0, x_0))^{-1} = -1
- .\end{align*}
- Damit ex. nach dem SIF eine eindeutige Funktion $g$, die die gegebene Gleichung nach $x$ auflöst.
- \end{proof}
- Beh.: Das Taylor-Polynom 2. Ordnung von $g$ im Punkt $\epsilon_0 = 0$ ist gegeben als
- \[
- T_2^{g}(\epsilon_0 + h) = 1 - 3h + 16h^2
- .\]
- \begin{proof}
- Es ist für $F$ aus der ersten Behauptung
- \begin{align*}
- \nabla F(\epsilon, x) =
- \begin{pmatrix}
- 2 \epsilon x - \frac{3}{3 \epsilon + x} \\
- \epsilon^2 - \frac{1}{3 \epsilon + x}
- \end{pmatrix}
- \quad
- H_F(\epsilon, x) =
- \begin{pmatrix}
- 2 x + \frac{9}{(3 \epsilon + x)^2} &
- 2 \epsilon - \frac{3}{(3 \epsilon +x)^2} \\
- 2 \epsilon - \frac{3}{(3 \epsilon +x)^2} &
- \frac{1}{(3\epsilon + x)^2}
- \end{pmatrix}
- .\end{align*}
- Ausgewertet an $(\epsilon_0, x_0) = (0, 1)$ folgt
- \begin{align*}
- \nabla F(\epsilon_0, x_0) =
- \begin{pmatrix}
- -3 \\ -1
- \end{pmatrix}
- \quad
- H_F(\epsilon_0, x_0) =
- \begin{pmatrix}
- 11 & -3 \\
- -3 & 1
- \end{pmatrix}
- .\end{align*}
- Durch implizites Differenzieren folgt
- \[
- g'(\epsilon_0) = - \left( \frac{\partial F}{\partial x}(\epsilon_0, x_0) \right)^{-1}
- \frac{\partial F}{\partial \epsilon}(\epsilon_0, x_0) = - (-1) \cdot (-3) = -3
- .\] Es gilt mit $F(\epsilon, g(\epsilon)) = 0$ und $x = g(\epsilon)$:
- \[
- 0 = \frac{\d F}{\d x}(\epsilon, g(\epsilon)) = \left( \frac{\partial F}{\partial \epsilon} + \frac{\partial F}{\partial x} \cdot \frac{\partial F}{\partial \epsilon} \right)
- .\] Angewendet auf $\frac{\d F(\epsilon, g(\epsilon)}{\d x} = 0$ ergibt
- \begin{align*}
- 0 &= \frac{\d}{\d x} \left( \frac{\partial F}{\partial \epsilon} + \frac{\partial F}{\partial x} f' \right) \\
- 0 &= \frac{\partial^2}{\partial \epsilon^2} + \frac{\partial^2F}{\partial x \partial \epsilon}
- g'
- + \left( \frac{\partial^2 F}{\partial \epsilon \partial x} + \frac{\partial^2 F}{\partial x^2}f' \right) f' + \frac{\partial F}{ \partial x} f''
- .\end{align*}
- Damit folgt
- \begin{align*}
- g''(\epsilon_0) &= - \left( \frac{\partial F}{\partial x}(\epsilon_0, x_0) \right)^{-1}
- \left( \frac{\partial^2 F}{\partial x^2} + 2 \frac{\partial^2 F}{\partial y \partial x}g'
- + \frac{\partial^2 F}{\partial x^2} f'^2\right)\Big|_{(\epsilon,x) = (\epsilon_0, x_0)} \\
- &= - (-1) (11 + 2 (-3) (-3) + 1 \cdot 9) \\
- &= 32
- .\end{align*}
- Es ist $F(\epsilon_0, x_0) = 0 \implies x_0 = g(\epsilon_0) \implies g(\epsilon_0) = 1$. Damit folgt
- \[
- T_2^{g}(\epsilon_0 + h) = 1 - 3h + \frac{1}{2} \cdot 32 h^2 = 1 - 3h + 16h^2
- .\]
- \end{proof}
- \end{aufgabe}
-
- \begin{aufgabe}
- Sei $f\colon \R^{3} \to \R$ stetig diff'bar und in einem Punkt $x^{0} = (x_1^{0}, x_2^{0}, x_3^{0})^{T} \in \R^{3}$ gelte
- \[
- \prod_{i=1}^{3} \frac{\partial f}{\partial x_i}(x^{0}) \neq 0
- .\] Weiter seien $g_i\colon \R^2 \to \R$ eine lokale Auflösung der Gleichung
- \[
- f(x_1, x_2, x_3) = f(x^{0})
- \] nach $x_i$, $i = 1,2,3$.
- Beh.: Es gilt
- \[
- \frac{\partial g_1}{\partial x_2}(x_2^{0}, x_3^{0}) \cdot
- \frac{\partial g_2}{\partial x_3}(x_1^{0}, x_3^{0}) \cdot
- \frac{\partial g_3}{\partial x_1}(x_1^{0}, x_2^{0}) = -1
- .\]
- \begin{proof}
- Es gilt $\frac{\partial f}{\partial x_1}, \frac{\partial f}{\partial x_2}, \frac{\partial f}{\partial x_3} \neq 0$. Definiere
- \[
- F(x_1, x_2, x_3) \coloneqq f(x_1, x_2, x_3) - f(x^{0})
- .\] $F$ stetig diff'bar, da $f$ stetig diff'bar und $D_xF(x) = D_xf(x)$. Es gilt außerdem
- \[
- f(x_1, x_2, x_3) = f(x^{0}) \iff F(x_1, x_2, x_3) = 0
- .\] Also sind $g_i$ auch Auflösungen von $F$ nach $x_i$. Für diese gilt nach SIF:
- \[
- D_{x_1 x_2} g_3(x_1^{0}, x_2^{0}) = - (D_{x_3}F(x_0))^{-1} D_{x_1, x_2}F(x^{0})
- .\] analog für $g_1$ und $g_2$. Damit folgt
- \begin{align*}
- \frac{\partial g_1}{\partial x_2}(x_2^{0}, x_3^{0}) &= - \left( \frac{\partial f(x^{0})}{\partial x_1} \right)^{-1}
- \frac{\partial f(x^{0})}{\partial x_2} \\
- \frac{\partial g_2}{\partial x_3}(x_1^{0}, x_3^{0}) &= - \left( \frac{\partial f(x^{0})}{\partial x_2} \right)^{-1}
- \frac{\partial f(x^{0})}{\partial x_3} \\
- \frac{\partial g_3}{\partial x_1} (x_1^{0}, x_2^{0}) &=
- - \left( \frac{\partial f(x^{0})}{\partial x_3} \right)^{-1} \frac{\partial f(x_0)}{\partial x_1}
- .\end{align*}
- Insgesamt folgt damit
- \begin{align*}
- &\frac{\partial g_1}{\partial x_2}(x_2^{0}, x_3^{0}) \cdot
- \frac{\partial g_2}{\partial x_3}(x_1^{0}, x_3^{0}) \cdot
- \frac{\partial g_3}{\partial x_1} (x_1^{0}, x_2^{0}) \\ =& -
- \left( \frac{\partial f(x^{0})}{\partial x_1} \right)^{-1} \frac{\partial f(x^{0})}{\partial x_2}
- \cdot \left( \frac{\partial f(x^{0})}{\partial x_2} \right)^{-1} \frac{\partial f(x^{0})}{\partial x_3}
- \cdot \left( \frac{\partial f(x^{0})}{\partial x_3} \right)^{-1} \frac{\partial f(x_0)}{\partial x_1} \\
- =& -1
- .\end{align*}
- \end{proof}
- \end{aufgabe}
-
- \end{document}
|