|
- \documentclass{lecture}
-
- \begin{document}
-
- \section{Extremalaufgaben mit Nebenbedingungen}
-
- Problemstellung: ,,Restringierte`` Optimierungsaufgabe mit Gleichungsnebenbedingungen.
-
- Sei $f\colon D \to \R$ und $g\colon D \to \R^{k}$, $D \subseteq \R^{n}$.
- Wir suchen einen Punkt $\hat{x} \in D$, s.d. $\hat{x} \in S \coloneqq \{ x \in D \mid g(x) = 0\} $ und
- $\exists U(\hat{x})$ s.d. $f(\hat{x}) \le f(x)$, $\forall x \in U(\hat{x}) \cap S$. \\
- Dann heißt $\hat{x}$ lokales Minimum unter Nebenbedingung $g(x) = 0$. Analog: lokales Maximum unter
- Nebenbedingung $\hat{x} \in S$, s.d. $\exists U(\hat{x})$ mit $f(\hat{x}) \ge f(x)$
- $\forall x \in U(\hat{x}) \cap S$.
-
- \begin{satz}[Multiplikatorregel von Lagrange: Notwendige Bed. 1. Ordnung für lokales Minimum unter
- Nebenbedingungen]
- \label{satz:lagrange-mult}
- Sei $D \subseteq \R^{n}$ offen, $f\colon D \to \R$ und $g\colon D \to \R^{k}$ partiell stetig
- differenzierbar. Sei $\hat{x} \in D$ ein Extremum unter der Nebenbedingung
- $g(x) = 0$ und die Gradienten $\nabla g_1(\hat{x}), \ldots, \nabla g_k(\hat{x})$
- seien linear unabhängig in $\R^{n}$. Dann gilt
- \[
- \exists \hat{\lambda} = \begin{pmatrix} \hat{\lambda}_1 \\ \vdots \\ \hat{\lambda}_k \end{pmatrix}
- \in \R^{k} \text{ mit }
- \sum_{i=1}^{k} \hat{\lambda}_i \nabla g_i(\hat{x}) = \nabla f(\hat{x})
- (\iff \nabla g(\hat{x}) \hat{\lambda} = \nabla f(\hat{x}))
- .\]
- Die Zahlen $\hat{\lambda}_1, \ldots, \hat{\lambda}_k$ heißen \underline{Lagrange-Multiplikatoren}.
- \end{satz}
-
- \begin{proof}
- Nach Voraussetzungen gilt
- \[
- \frac{\partial g_i(\hat{x})}{\partial x} =
- \underbrace{\left( \frac{\partial g_i(\hat{x})}{\partial x_1}\ldots \frac{\partial g_i(\hat{x})}{\partial x_n} \right)}_{i = 1\ldots k, \text{linear unabhängige Vektoren}}
- .\] Also hat $\frac{\partial g}{\partial x}(\hat{x}) \in \R^{k \times n}$ Rang $k$.
- O.B.d.A. die ersten $k$ Spalten von $\frac{\partial g}{\partial x}(\hat{x})$ bilden
- eine quadratische invertierbare Matrix.
- Dann lassen sich $x$ und $\frac{\partial g}{\partial x}(\hat{x})$ aufspalten:
- \[
- x = \begin{pmatrix} y \\ z \end{pmatrix}
- \quad
- \underbrace{\frac{\partial g}{\partial x}(\hat{x})}_{\in \R^{k \times n}}
- =
- \Big( \underbrace{\frac{\partial g}{\partial y}(\hat{x})}_{\in \R^{k \times k}} ;
- \underbrace{\frac{\partial g}{\partial z}(\hat{x})}_{\in \R^{k \times (n-k)}} \Big)
- .\] mit $y \in \R^{k}$, $z \in \R^{n-k}$ und
- $\frac{\partial g}{\partial y}(\hat{x}) \in \R^{k \times k}$ regulär.
-
- Setze $\hat{x} = \begin{pmatrix} \hat{y} \\ \hat{z} \end{pmatrix}$.
- Wende nun Satz \ref{satz:sif} auf $g(x) = g(y,z) = 0$ an. Dann existieren
- Umgebungen $U(\hat{z}) \subseteq \R^{n-k} $, $U(\hat{y}) \subseteq \R^{k}$ und
- eine eindeutige Abbildung
- \begin{align*}
- \varphi\colon U(\hat{z}) &\to U(\hat{y}) \\
- z &\mapsto \varphi(z) = y
- , \end{align*} s.d. $\varphi$ folgende Eigenschaften erfüllt
- \begin{enumerate}[(1)]
- \item $g(\varphi(z), z) = 0$ $\forall z \in U(\hat{z})$
- \item $\hat{y} = \varphi(\hat{z})$
- \item $\varphi \in C^{1}\left( U(\hat{z}), \R^{k} \right) $ stetig differenzierbar.
- \item $\underbrace{\varphi'(\hat{x})}_{D_x\varphi(\hat{x})} =
- - \left(\frac{\partial g}{\partial y}(\hat{x})\right)^{-1} \cdot
- \left( \frac{\partial g}{\partial z}(\hat{x}) \right)$
- \end{enumerate}
- Betrachte $\tilde{f}(z) = f(\varphi(z), z)$, $\tilde{f}(z) \colon U(\hat{z}) \to \R$. Da
- $\hat{x}$ Extremum von $f(x)$ unter $g(x) = 0$, ist $\hat{z}$ lokales Extremum von $\tilde{f}(z)$ in
- $U(\hat{z})$. Mit \ref{satz:notwendig-extremum} folgt also $\forall i = 1 \ldots n-l$:
- \begin{salign*}
- 0 &= \frac{\partial \tilde{f}(\hat{z})}{\partial z_i} \\
- &\stackrel[\tilde{f} = f(\varphi(z), z)]{\text{Kettenregel}}{=} \frac{\partial f(\hat{x})}{\partial y}
- \cdot \frac{\partial \varphi(\hat{z})}{z_i} + \frac{\partial f(\hat{x}) }{z_i}
- \intertext{Damit folgt}
- 0 &= \frac{\partial f(\hat{x})}{\partial y} \cdot \frac{\partial \varphi(\hat{z})}{\partial z}
- + \frac{\partial f(\hat{x})}{\partial z} \qquad (*)
- \intertext{Definiere}
- \hat{\lambda}^{T} &= \underbrace{\frac{\partial f(\hat{x})}{\partial y}}_{\left(\frac{\partial f}{\partial y_1} \ldots \frac{\partial f}{\partial y_k}\right)}
- \cdot \left( \frac{\partial g}{\partial y}(\hat{x}) \right)^{-1}
- \intertext{Damit folgt}
- \frac{\partial f(\hat{x})}{\partial y} &= \hat{\lambda}^{T} \left( \frac{\partial g}{\partial y}(\hat{x}) \right)
- .\end{salign*}
- Mit $(*)$ folgt
- \begin{salign*}
- \frac{\partial f(\hat{x})}{\partial y} \left( -
- \left( \frac{\partial g(\hat{x})}{\partial y} \right)^{-1}
- \frac{\partial g(\hat{x})}{\partial z}\right)
- + \frac{\partial f(\hat{x})}{\partial z}
- = - \hat{\lambda}^{T} \frac{\partial g(\hat{x})}{\partial z} + \frac{\partial f(\hat{x})}{\partial z} = 0
- .\end{salign*}
- Insgesamt folgt
- \begin{align*}
- \begin{rcases}
- \frac{\partial f(\hat{x})}{\partial y} = \hat{\lambda}^{T} \frac{\partial g}{\partial y}(\hat{x}) \\
- \frac{\partial f(\hat{x})}{\partial z} = \hat{\lambda}^{T} \frac{\partial g}{\partial z}(\hat{x})
- \end{rcases}
- \implies
- \frac{\partial f(\hat{x})}{\partial x} = \hat{\lambda}^{T} \frac{\partial g(\hat{x})}{\partial x}
- .\end{align*}
- \end{proof}
-
- \begin{bem}[Interpretation von Satz \ref{satz:lagrange-mult}]
- Definiere Lagrange-Funktion
- \[
- \mathcal{L}(x, \lambda) \coloneqq f(x) - \lambda^{T}g(x), \quad (x, \lambda) \in D \times \R^{k}
- .\] Falls $\hat{x}$ lokales Minimum von $f$ unter Nebenbedingung $g(x) = 0$ und
- $\text{Rg}\left( \frac{\partial g(\hat{x})}{\partial x}\right) = k$. Dann ex.
- genau ein $\hat{\lambda} \in \R^{k}$ s.d. $(\hat{x}, \hat{\lambda})$ ein stationärer Punkt
- der Lagrange Funktion ist:
- \begin{align*}
- \nabla_x \mathcal{L}(\hat{x}, \hat{\lambda}) &= \nabla f(\hat{x}) - \nabla g(\hat{x}) \hat{\lambda} = 0 \\
- \nabla_\lambda \mathcal{L}(\hat{x}, \hat{\lambda}) &= g(\hat{x}) = 0
- .\end{align*}
- \end{bem}
-
- \begin{bsp}[Anwendung von \ref{satz:lagrange-mult}]
- Sei $A = (a_{ij})_{i,j=1}^{n} \in \R^{n \times n}$ eine symmetrische Matrix. Dann betrachte
- \[
- f(x) \coloneqq (x, Ax)_2 = \sum_{i,j=1}^{n} a_{ij}x_ix_j
- .\] Bestimme Extrema von $f(x)$ unter Nebenbedingungen $\Vert x \Vert = 1$.
-
- Definiere $g(x) = \Vert x \Vert_2^2 - 1$ und $S \coloneqq \{ x \in \R^{n} \mid g(x) = 0\} $. Dann
- gilt für $x \in S$: $\nabla g(x) = 2x \neq 0$, da $\Vert x \Vert_2^2 = 1$. Für
- $f(x) = \sum_{i=1}^{n} \sum_{j=1}^{n} a_{ij}x_ix_j$ gilt für $k = 1 \ldots n$:
- \begin{salign*}
- \frac{\partial f}{\partial x_k} &= \sum_{i=1}^{n} \sum_{j=1}^{n} a_{ij}\delta_{ik}x_j
- + \sum_{i=1}^{n} \sum_{j=1}^{n} a_{ij}x_i \delta_{jk} \\
- &= \sum_{j=1}^{n} a_{kj} x_j + \sum_{i=1}^{n} a_{ik} x_i \\
- &\stackrel{a_{ij} = a_{ji}}{=} 2 \sum_{i=1}^{n} a_{ki}x_i
- \intertext{Also folgt}
- \nabla f(x) &= 2 A x
- .\end{salign*}
- Existiert ein $\hat{x}$? Da $S$ kompakt und $f$ stetig, nimmt $f$ (auf $S$) ein
- Maximum und Minimum an. Nach Satz \ref{satz:lagrange-mult} ex. ein $\hat{\lambda} \in \R$, s.d.
- \begin{alignat*}{3}
- &&\quad \nabla f(\hat{x}) &= \hat{\lambda} \nabla g(\hat{x}) \\
- &\implies& 2 A \hat{x} &= \hat{\lambda} 2 \hat{x} \\
- &\implies& A \hat{x} &= \hat{\lambda} \hat{x}
- .\end{alignat*}
- Also ist $\hat{\lambda}$ Eigenwert von $A$ zum Eigenvektor $\hat{x}$. Damit folgt
- \[
- f(\hat{x}) = (\hat{x}, A \hat{x})_2 = (\hat{x}, \hat{\lambda}\hat{x})_2
- = \hat{\lambda} \underbrace{\Vert \hat{x} \Vert_2^2}_{= 1} = \hat{\lambda}
- .\] Das bedeutet, dass
- \[
- \inf \{(x, Ax)_2 \mid \Vert x \Vert_2 = 1\} = f(\hat{x}) = \hat{\lambda} = \lambda_{\text{min}}
- .\] Also folgt
- \begin{align*}
- \lambda_{\text{min}} &= \min_{\Vert x \Vert_2 = 1} \underbrace{x^{T} Ax}_{(x,Ax)_2}
- = \min_{x \in \R^{n} \setminus \{0\} } \underbrace{\frac{x^{T}Ax}{\Vert x \Vert_{2}^2}}
- _{\text{Rayley-Quotient}} \\
- \lambda_{\text{max}} &= \max_{x \in \R^{n} \setminus \{0\} } \frac{x^{T}Ax}{\Vert x \Vert_2^2}
- .\end{align*}
- $\lambda_{\text{min}}$ bzw. $\lambda_{\text{max}}$ sind der kleinste bzw. größte Eigenwert von $A$.
- \end{bsp}
-
- \end{document}
|