Aktuelles PDF gibt's auch hier: https://flavigny.de/lecture/pdf/analysis2 zum bequemeren Lesen.
You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

158 lines
8.4KB

  1. \documentclass{lecture}
  2. \begin{document}
  3. \section{Extremalaufgaben mit Nebenbedingungen}
  4. Problemstellung: ,,Restringierte`` Optimierungsaufgabe mit Gleichungsnebenbedingungen.
  5. Sei $f\colon D \to \R$ und $g\colon D \to \R^{k}$, $D \subseteq \R^{n}$.
  6. Wir suchen einen Punkt $\hat{x} \in D$, s.d. $\hat{x} \in S \coloneqq \{ x \in D \mid g(x) = 0\} $ und
  7. $\exists U(\hat{x})$ s.d. $f(\hat{x}) \le f(x)$, $\forall x \in U(\hat{x}) \cap S$. \\
  8. Dann heißt $\hat{x}$ lokales Minimum unter Nebenbedingung $g(x) = 0$. Analog: lokales Maximum unter
  9. Nebenbedingung $\hat{x} \in S$, s.d. $\exists U(\hat{x})$ mit $f(\hat{x}) \ge f(x)$
  10. $\forall x \in U(\hat{x}) \cap S$.
  11. \begin{satz}[Multiplikatorregel von Lagrange: Notwendige Bed. 1. Ordnung für lokales Minimum unter
  12. Nebenbedingungen]
  13. \label{satz:lagrange-mult}
  14. Sei $D \subseteq \R^{n}$ offen, $f\colon D \to \R$ und $g\colon D \to \R^{k}$ partiell stetig
  15. differenzierbar. Sei $\hat{x} \in D$ ein Extremum unter der Nebenbedingung
  16. $g(x) = 0$ und die Gradienten $\nabla g_1(\hat{x}), \ldots, \nabla g_k(\hat{x})$
  17. seien linear unabhängig in $\R^{n}$. Dann gilt
  18. \[
  19. \exists \hat{\lambda} = \begin{pmatrix} \hat{\lambda}_1 \\ \vdots \\ \hat{\lambda}_k \end{pmatrix}
  20. \in \R^{k} \text{ mit }
  21. \sum_{i=1}^{k} \hat{\lambda}_i \nabla g_i(\hat{x}) = \nabla f(\hat{x})
  22. (\iff \nabla g(\hat{x}) \hat{\lambda} = \nabla f(\hat{x}))
  23. .\]
  24. Die Zahlen $\hat{\lambda}_1, \ldots, \hat{\lambda}_k$ heißen \underline{Lagrange-Multiplikatoren}.
  25. \end{satz}
  26. \begin{proof}
  27. Nach Voraussetzungen gilt
  28. \[
  29. \frac{\partial g_i(\hat{x})}{\partial x} =
  30. \underbrace{\left( \frac{\partial g_i(\hat{x})}{\partial x_1}\ldots \frac{\partial g_i(\hat{x})}{\partial x_n} \right)}_{i = 1\ldots k, \text{linear unabhängige Vektoren}}
  31. .\] Also hat $\frac{\partial g}{\partial x}(\hat{x}) \in \R^{k \times n}$ Rang $k$.
  32. O.B.d.A. die ersten $k$ Spalten von $\frac{\partial g}{\partial x}(\hat{x})$ bilden
  33. eine quadratische invertierbare Matrix.
  34. Dann lassen sich $x$ und $\frac{\partial g}{\partial x}(\hat{x})$ aufspalten:
  35. \[
  36. x = \begin{pmatrix} y \\ z \end{pmatrix}
  37. \quad
  38. \underbrace{\frac{\partial g}{\partial x}(\hat{x})}_{\in \R^{k \times n}}
  39. =
  40. \Big( \underbrace{\frac{\partial g}{\partial y}(\hat{x})}_{\in \R^{k \times k}} ;
  41. \underbrace{\frac{\partial g}{\partial z}(\hat{x})}_{\in \R^{k \times (n-k)}} \Big)
  42. .\] mit $y \in \R^{k}$, $z \in \R^{n-k}$ und
  43. $\frac{\partial g}{\partial y}(\hat{x}) \in \R^{k \times k}$ regulär.
  44. Setze $\hat{x} = \begin{pmatrix} \hat{y} \\ \hat{z} \end{pmatrix}$.
  45. Wende nun Satz \ref{satz:sif} auf $g(x) = g(y,z) = 0$ an. Dann existieren
  46. Umgebungen $U(\hat{z}) \subseteq \R^{n-k} $, $U(\hat{y}) \subseteq \R^{k}$ und
  47. eine eindeutige Abbildung
  48. \begin{align*}
  49. \varphi\colon U(\hat{z}) &\to U(\hat{y}) \\
  50. z &\mapsto \varphi(z) = y
  51. , \end{align*} s.d. $\varphi$ folgende Eigenschaften erfüllt sind
  52. \begin{enumerate}[(1)]
  53. \item $g(\varphi(z), z) = 0$ $\forall z \in U(\hat{z})$
  54. \item $\hat{y} = \varphi(\hat{z})$
  55. \item $\varphi \in C^{1}\left( U(\hat{z}), \R^{k} \right) $ stetig differenzierbar.
  56. \item $\underbrace{\varphi'(\hat{x})}_{D_x\varphi(\hat{x})} =
  57. - \left(\frac{\partial g}{\partial y}(\hat{x})\right)^{-1} \cdot
  58. \left( \frac{\partial g}{\partial z}(\hat{x}) \right)$
  59. \end{enumerate}
  60. Betrachte $\tilde{f}(z) = f(\varphi(z), z)$, $\tilde{f}(z) \colon U(\hat{z}) \to \R$. Da
  61. $\hat{x}$ Extremum von $f(x)$ unter $g(x) = 0$, ist $\hat{z}$ lokales Extremum von $\tilde{f}(z)$ in
  62. $U(\hat{z})$. Mit \ref{satz:notwendig-extremum} folgt also $\forall i = 1 \ldots n-l$:
  63. \begin{salign*}
  64. 0 &= \frac{\partial \tilde{f}(\hat{z})}{\partial z_i} \\
  65. &\stackrel[\tilde{f} = f(\varphi(z), z)]{\text{Kettenregel}}{=} \frac{\partial f(\hat{x})}{\partial y}
  66. \cdot \frac{\partial \varphi(\hat{z})}{z_i} + \frac{\partial f(\hat{x}) }{z_i}
  67. \intertext{Damit folgt}
  68. 0 &= \frac{\partial f(\hat{x})}{\partial y} \cdot \frac{\partial \varphi(\hat{z})}{\partial z}
  69. + \frac{\partial f(\hat{x})}{\partial z} \qquad (*)
  70. \intertext{Definiere}
  71. \hat{\lambda}^{T} &= \underbrace{\frac{\partial f(\hat{x})}{\partial y}}_{\left(\frac{\partial f}{\partial y_1} \ldots \frac{\partial f}{\partial y_k}\right)}
  72. \cdot \left( \frac{\partial g}{\partial y}(\hat{x}) \right)^{-1}
  73. \intertext{Damit folgt}
  74. \frac{\partial f(\hat{x})}{\partial y} &= \hat{\lambda}^{T} \left( \frac{\partial g}{\partial y}(\hat{x}) \right)
  75. .\end{salign*}
  76. Mit $(*)$ folgt
  77. \begin{salign*}
  78. \frac{\partial f(\hat{x})}{\partial y} \left( -
  79. \left( \frac{\partial g(\hat{x})}{\partial y} \right)^{-1}
  80. \frac{\partial g(\hat{x})}{\partial z}\right)
  81. + \frac{\partial f(\hat{x})}{\partial z}
  82. = - \hat{\lambda}^{T} \frac{\partial g(\hat{x})}{\partial z} + \frac{\partial f(\hat{x})}{\partial z} = 0
  83. .\end{salign*}
  84. Insgesamt folgt
  85. \begin{align*}
  86. \begin{rcases}
  87. \frac{\partial f(\hat{x})}{\partial y} = \hat{\lambda}^{T} \frac{\partial g}{\partial y}(\hat{x}) \\
  88. \frac{\partial f(\hat{x})}{\partial z} = \hat{\lambda}^{T} \frac{\partial g}{\partial z}(\hat{x})
  89. \end{rcases}
  90. \implies
  91. \frac{\partial f(\hat{x})}{\partial x} = \hat{\lambda}^{T} \frac{\partial g(\hat{x})}{\partial x}
  92. .\end{align*}
  93. \end{proof}
  94. \begin{bem}[Interpretation von Satz \ref{satz:lagrange-mult}]
  95. Definiere Lagrange-Funktion
  96. \[
  97. \mathcal{L}(x, \lambda) \coloneqq f(x) - \lambda^{T}g(x), \quad (x, \lambda) \in D \times \R^{k}
  98. .\] Falls $\hat{x}$ lokales Minimum von $f$ unter Nebenbedingung $g(x) = 0$ und
  99. $\text{Rg}\left( \frac{\partial g(\hat{x})}{\partial x}\right) = k$. Dann ex.
  100. genau ein $\hat{\lambda} \in \R^{k}$ s.d. $(\hat{x}, \hat{\lambda})$ ein stationärer Punkt
  101. der Lagrange Funktion ist:
  102. \begin{align*}
  103. \nabla_x \mathcal{L}(\hat{x}, \hat{\lambda}) &= \nabla f(\hat{x}) - \nabla g(\hat{x}) \hat{\lambda} = 0 \\
  104. \nabla_\lambda \mathcal{L}(\hat{x}, \hat{\lambda}) &= g(\hat{x}) = 0
  105. .\end{align*}
  106. \end{bem}
  107. \begin{bsp}[Anwendung von \ref{satz:lagrange-mult}]
  108. Sei $A = (a_{ij})_{i,j=1}^{n} \in \R^{n \times n}$ eine symmetrische Matrix. Dann betrachte
  109. \[
  110. f(x) \coloneqq (x, Ax)_2 = \sum_{i,j=1}^{n} a_{ij}x_ix_j
  111. .\] Bestimme Extrema von $f(x)$ unter Nebenbedingungen $\Vert x \Vert = 1$.
  112. Definiere $g(x) = \Vert x \Vert_2^2 - 1$ und $S \coloneqq \{ x \in \R^{n} \mid g(x) = 0\} $. Dann
  113. gilt für $x \in S$: $\nabla g(x) = 2x \neq 0$, da $\Vert x \Vert_2^2 = 1$. Für
  114. $f(x) = \sum_{i=1}^{n} \sum_{j=1}^{n} a_{ij}x_ix_j$ gilt für $k = 1 \ldots n$:
  115. \begin{salign*}
  116. \frac{\partial f}{\partial x_k} &= \sum_{i=1}^{n} \sum_{j=1}^{n} a_{ij}\delta_{ik}x_j
  117. + \sum_{i=1}^{n} \sum_{j=1}^{n} a_{ij}x_i \delta_{jk} \\
  118. &= \sum_{j=1}^{n} a_{kj} x_j + \sum_{i=1}^{n} a_{ik} x_i \\
  119. &\stackrel{a_{ij} = a_{ji}}{=} 2 \sum_{i=1}^{n} a_{ki}x_i
  120. \intertext{Also folgt}
  121. \nabla f(x) &= 2 A x
  122. .\end{salign*}
  123. Existiert ein $\hat{x}$? Da $S$ kompakt und $f$ stetig, nimmt $f$ (auf $S$) ein
  124. Maximum und Minimum an. Nach Satz \ref{satz:lagrange-mult} ex. ein $\hat{\lambda} \in \R$, s.d.
  125. \begin{alignat*}{3}
  126. &&\quad \nabla f(\hat{x}) &= \hat{\lambda} \nabla g(\hat{x}) \\
  127. &\implies& 2 A \hat{x} &= \hat{\lambda} 2 \hat{x} \\
  128. &\implies& A \hat{x} &= \hat{\lambda} \hat{x}
  129. .\end{alignat*}
  130. Also ist $\hat{\lambda}$ Eigenwert von $A$ zum Eigenvektor $\hat{x}$. Damit folgt
  131. \[
  132. f(\hat{x}) = (\hat{x}, A \hat{x})_2 = (\hat{x}, \hat{\lambda}\hat{x})_2
  133. = \hat{\lambda} \underbrace{\Vert \hat{x} \Vert_2^2}_{= 1} = \hat{\lambda}
  134. .\] Das bedeutet, dass
  135. \[
  136. \inf \{(x, Ax)_2 \mid \Vert x \Vert_2 = 1\} = f(\hat{x}) = \hat{\lambda} = \lambda_{\text{min}}
  137. .\] Also folgt
  138. \begin{align*}
  139. \lambda_{\text{min}} &= \min_{\Vert x \Vert_2 = 1} \underbrace{x^{T} Ax}_{(x,Ax)_2}
  140. = \min_{x \in \R^{n} \setminus \{0\} } \underbrace{\frac{x^{T}Ax}{\Vert x \Vert_{2}^2}}
  141. _{\text{Rayley-Quotient}} \\
  142. \lambda_{\text{max}} &= \max_{x \in \R^{n} \setminus \{0\} } \frac{x^{T}Ax}{\Vert x \Vert_2^2}
  143. .\end{align*}
  144. $\lambda_{\text{min}}$ bzw. $\lambda_{\text{max}}$ sind der kleinste bzw. größte Eigenwert von $A$.
  145. \end{bsp}
  146. \end{document}