|
- \documentclass[uebung]{../../../lecture}
-
- \title{Einführung in die Numerik: Übungsblatt 8}
- \author{Leon Burgard, Christian Merten}
-
- \begin{document}
-
- \punkte
-
- \begin{aufgabe}
- Sei $A \in \R^{n \times n}$ symmetrisch und positiv definit. Betrachte
- \[
- F\colon \R^{n} \to \R, \quad F(x) = \frac{1}{2} (Ax,x)_2 - (b,x)_2
- .\]
- \begin{enumerate}[1.]
- \item Beh.: $\nabla F(x) = Ax - b$.
- \begin{proof}
- Es ist
- \begin{salign*}
- F(x) &= \frac{1}{2} \sum_{i,j=1}^{n} a_{ij}x_j x_i - \sum_{i=1}^{n} b_i x_i
- \intertext{Da $A$ symmetrisch, gilt $a_{ij} = a_{ji}$. Damit folgt}
- \frac{\partial F}{\partial x_i} &= \frac{1}{2} \left(2 \sum_{j=1, i\neq j}^{n} a_{ij}x_j
- + 2 a_{ii} x_i \right) - b_i \\
- &= \sum_{j=1}^{n} a_{ij} x_j - b_i \\
- &= (Ax)_i - b_i
- \intertext{Also folgt}
- \nabla F(x) &= Ax - b
- .\end{salign*}
- \end{proof}
- \item Beh.: $x^{*}$ löst $Ax = b$ g.d. wenn $x^{*}$ das eindeutige Minimum von $F$ ist.
- \begin{proof}
- ,,$\implies$``: Sei $x^{*}$ Lösung von $Ax = b$. Dann ist
- $\nabla F(x^{*}) = Ax^{*} -b = b - b = 0$. Außerdem gilt da $A$ symmetrisch
- \[
- H_f(x) = \left( \frac{\partial^2F}{\partial x_i \partial x_j} \right)_{i,j=1}^{n} = A^{T} = A
- .\] Da $A$ positiv definit, ist $x^{*}$ Minimum von $F$. Da $A$ symmetrisch
- und positiv definit, ist $A$ regulär, also hat $\nabla F(x)$ keine weiteren Nullstellen.
- $x^{*}$ ist also eindeutiges Minimum.
-
- ,,$\impliedby$``: Sei $x^{*}$ Minimum von $F$. Dann gilt $\nabla F(x^{*}) = 0$, also
- $Ax^{*} - b = 0$, d.h. $Ax^{*} = b$.
- \end{proof}
- \item Seien $x, p \in \R^{n}$ mit $p \neq 0$. Beh.: $g(\alpha) = F(x + \alpha p)$ nimmt
- bei
- \[
- \alpha = \frac{(p, b-Ax)_2}{(p,Ap)_2}
- \] sein Minimum an.
- \begin{proof}
- Es ist
- \[
- g'(\alpha) = (\nabla F(x + \alpha p), p)_2 = (Ax, p)_2 + \alpha (Ap, p)_2 - (b,p)_2
- .\] Eingesetzt ergibt sich
- \begin{salign*}
- g'\left( \frac{(p, b-Ax)_2}{(p,Ap)_2} \right) &=
- (Ax,p)_2 + (p,b-Ax)_2 - (b,p)_2 \\
- &= (Ax - b, p)_2 + (b - Ax, p)_2 \\
- &= (0,p)_2 \\
- &= 0
- .\end{salign*}
- Weiter gilt da $A$ positiv definit und $p \neq 0$:
- \[
- g''(\alpha) = (Ap, p)_2 > 0
- .\] Also ist $\alpha$ Minimum von $g$.
- \end{proof}
- \end{enumerate}
- \end{aufgabe}
-
- \begin{aufgabe}
- Sei $\R \ni a \neq 0$ und
- \[
- f(x) = x^2 - a
- .\]
- \begin{enumerate}[1.]
- \item
- \begin{enumerate}[(a)]
- \item $g_R'(x) = 1 - \frac{2x}{a} \implies 0 = 1 - \frac{2x}{a} \implies x = \frac{a}{2}$,
- $g_R''(x) = - \frac{2}{a} < 0$. Also ist $x = \frac{a}{2}$ Maximum und
- einziges Extremum von $g_R$,
- inbes. auf $[0, a]$. Weiter ist $g\left( \frac{a}{2} \right) = \frac{a}{4} + 1$.
-
- Wegen $g(0) = 1 = g(a)$ folgt $g([0,a]) = [1, 1 + \frac{a}{4}]$.
- \item Für $a > $, $\sigma = \frac{1}{a}$ und $0 < x,y < a$ gilt
- \begin{salign*}
- |g(x) - g(y)| &= | x - \frac{x^2}{a} + 1 - (y - \frac{y^2}{a} + 1)| \\
- &= |x-y + \frac{1}{a}(y^2 - x^2)| \\
- &= |x-y - \frac{1}{a}(x-y)(y+x)| \\
- &= |x-y| |1 - \underbrace{\frac{1}{a}(y+x)}_{< 2a}| \\
- &< |x-y| |-1| \\
- &= |x-y|
- .\end{salign*}
- \item Aus (b) folgt
- \[
- q \coloneqq |1 - \frac{1}{a} (\underbrace{x^{k+1} + x^{k}}_{\to 2\sqrt{a}}) |
- \xrightarrow{x^{k} \to \sqrt{a}} 1 - \frac{2 \sqrt{a} }{a}
- .\]
- \end{enumerate}
- \item Sei nun
- \[
- g_N(x) = x - \frac{x^2 - a}{2x}
- .\]
- Sei $z \in \R$ beliebig. Dann ex. mit Taylor ein $\eta_x$ zwischen $x$ und $z$ und
- ein $\eta_y$ zwischen $y$ und $z$, s.d.
- \begin{salign*}
- g_N(x) &= g_N'(z)(x - z) + \underbrace{g_N''(\eta_x)(x - z)^2}_{\text{Restglied}} \\
- g_N(y) &= g_N'(z)(y - z) + \underbrace{g_N''(\eta_y)(y - z)^2}_{\text{Restglied}} \\
- \intertext{Damit folgt}
- g_N(y) - g_N(y) &= g_N'(z)(y-y) + g_N''(\eta_y)(y - z)^2 + g_N''(\eta_y)(y - z)^2
- .\end{salign*}
- Es gilt weiter
- \begin{align*}
- g_N'(x) &= 1 - \frac{4x^2 - 2x^2 + 2a}{4x^2} = 1 - \frac{x^2 + a}{2x^2} = \frac{1}{2} - \frac{a}{2x^2} \\
- g_N''(x) &= \frac{a}{x^{3}}
- .\end{align*}
- Mit $z = \frac{x+y}{2}$ folgt
- \begin{salign*}
- |g(x) - g(y)| &= \left| \left( \frac{1}{2} - \frac{2a}{(x+y)^2} \right) (x-y) + \frac{a(x-y)^2}{4} \left( \frac{1}{\eta_x^{3}} + \frac{1}{\eta_{y}^{3}} \right) \right| \\
- &= |x - y| \left| \frac{1}{2} - \frac{2a}{(x+y)^2} + \frac{a|x-y|}{4} \left( \frac{1}{\eta_{x}^{3}} + \frac{1}{\eta_y^{3}} \right) \right|
- .\end{salign*}
- Z.z.: $\exists \epsilon > 0$, s.d. für $|x - \sqrt{a}|, |y - \sqrt{a}| < \epsilon$, $\left| \frac{1}{2} - \frac{2a}{(x+y)^2} + \frac{a|x-y|}{4} \left( \frac{1}{\eta_{x}^{3}} + \frac{1}{\eta_y^{3}} \right) \right| < 1$ gilt.
-
- Für $x \to \sqrt{a} $ und $y \to \sqrt{a}$ folgt $\eta_x \to \sqrt{a} $ und $\eta_y \to \sqrt{a} $.
- Damit folgt
- \begin{salign*}
- \left| \frac{1}{2} - \frac{2a}{\underbrace{(x+y)^2}_{\to 4 \sqrt{a} }} + \frac{a\overbrace{|x-y|}^{\to 0}}{4}
- \underbrace{\left( \frac{1}{\eta_{x}^{3}} + \frac{1}{\eta_y^{3}} \right)}_{\to \frac{1}{2 \sqrt{a}^{3}}} \right| \longrightarrow 0
- .\end{salign*}
- Also für $\epsilon$ klein genug, folgt $|g(x) - g(y)| < |x-y|$ für
- $|x - \sqrt{a}|, |y - \sqrt{a}| < \epsilon$.
-
- \item Es gilt für $0 < x^{k} \neq \sqrt{a}$:
- \[
- x^{k+1} = g_N(x^{k}) = x^{k} - \frac{(x^{k})^2 - a}{2x^{k}}
- .\]
- Es gilt damit
- \begin{alignat*}{3}
- &&0 &< (\underbrace{x^{k})^{2} - a}_{\neq 0})^2
- = (x^{k})^{4} - 2(x^{k})^2 a + a^2 \\
- &\implies& 4 (x^{k})^2 a &< (x^{k})^{4} + 2(x^{k})^2a + a^2 \\
- &\implies& 2 x^{k} \sqrt{a} &< (x^{k})^2 + a
- = 2 (x^{k})^2 - (x^{k})^2 + a\\
- &\implies& \sqrt{a} &< x^{k} - \frac{(x^{k})^2 - a}{2x^{k}}
- = x^{k+1} \qquad (*)
- .\end{alignat*}
- Für $x^{k} > \sqrt{a} $ gilt zudem
- \begin{align*}
- x^{k+1} &= x^{k} - \underbrace{\frac{(x^{k})^2 - a}{2 x^{k}}}_{> 0} \\
- &< x^{k}
- .\end{align*}
-
- Damit folgt für $x^{k} > \sqrt{a} $ konvergiert $x^{k+1}$ monoton gegen $\sqrt{a} $. Falls
- $x^{k} < \sqrt{a} $, dann ist wegen ($*$) $x^{k+1} > \sqrt{a} $. Dann tritt wieder der erste
- Fall ein und es liegt ebenfalls Konvergenz vor.
- \end{enumerate}
- \end{aufgabe}
-
- \begin{aufgabe}
- Sei $f\colon \R^{n} \to \R^{n}$. Betrachte
- \[
- F(x) = \Vert f(x) \Vert_2^2
- \] und
- \[
- H(\alpha) = \Vert f(x^{k}) + \alpha J_f(x^{k})p^{k}\Vert_2^2
- .\] Es gilt
- \begin{align*}
- H'(\alpha) &= 2 \left[ f(x^{k}) + \alpha J_f(x^{k})p^{k} \right]^{T} J_f(x^{k})p^{k} \\
- &= 2 \left[ (fx^{k}, J_f(x^{k})p^{k})_2 + \alpha (J_f(x^{k}) p^{k}, J_f(x^{k}) p^{k})_2 \right]
- \intertext{$\alpha_{opt}$ eingesetzt ergibt}
- H'(\alpha_{opt}) &= 2 \left[ (f(x^{k}, J_f(x^{k})p^{k})_2 - (f(x^{k}), J_f(x^{k}) p^{k})_2 \right] \\
- &= 0
- \intertext{Weiter ist wegen $p^{k} \neq 0$}
- H''(\alpha) &= (J_f(x^{k})p^{k}, J_f(x^{k})p^{k})_2 \\
- &> 0
- .\end{align*}
- Also hat $H$ bei $\alpha_{opt}$ ein Minimum.
-
- Iterationen:
- \begin{enumerate}[1.]
- \item Relaxation:
- \[
- x^{k+1} = x^{k} + \alpha_{opt} f(x^{k})
- .\]
- \item Gradientenverfahren: Es gilt
- \[
- \frac{\partial F}{\partial x_j} = \sum_{i=1}^{n} 2 f_i(x) \frac{\partial f_i}{\partial x_j}
- = 2 \left( f(x), (J_f(x))_{j-\text{te Spalte}} \right)_2
- \implies \nabla F = 2 J_f(x^{k})^{T} f(x^{k})
- .\] Damit folgt
- \[
- x^{k+1} = x^{k} - 2 \alpha_{opt} J_f(x^{k})^{T} f(x^{k})
- .\]
- \item Newton-Verfahren:
- \[
- x^{k+1} = x^{k} + \alpha_{opt} J_f^{-1}(x^{k}) f(x^{k})
- .\]
- \end{enumerate}
- \end{aufgabe}
-
- \newpage
- \begin{aufgabe}
- Siehe \textit{prog\_nonlinear\_solvers\_methods.cc} und \textit{prog\_nonlinear\_solvers\_fractal.cc}.
-
- Nullstellen mit Newtonverfahren sie Programmcode.
- Gewählte Parameter für Relaxationsverfahren:
- Startpunkt $(2,1)^{T}$, $\sigma = 0.35$.
- Damit konvergiert das Verfahren in $49$ Iterationsschritten mit einer Abweichung von
- $\Vert f(x_i) \Vert_2 < 10^{-15}$.
- \begin{figure}[h!]
- \includegraphics[width=.5\textwidth]{raster_changed.pdf}
- \includegraphics[width=.5\textwidth]{4-root-polynomial.pdf}
- \caption{Links: Verändertes Raster, Rechts: Polynom $x^{4} - 3x^{3} + 5x + 3$}
- \end{figure}
- \end{aufgabe}
-
- \end{document}
|