\documentclass{lecture} \begin{document} \section{Globale Stabilität} \begin{definition}[Exponentielle Stabilität] Sei $y(t)$ die globale Lösung einer AWA. $y(t)$ heißt \underline{exponentiell stabil}, falls Konstanten $\delta, \alpha, A > 0$ existieren, sodass $\forall t_{*} \geq t_{0}$ und $\forall w_{*} \in \R^{n}$ mit $\norm{w_{*}} < \delta$ die gestörte AWA \[ v'(t) = f\left(t,v(t)\right), \ \ \ t \geq t_{*}, \ \ \ v(t_{*}) = y(t_{*}) + w_{*} \] eine globale Lösung $v(t)$ hat, für welche gilt: \[ \norm{v(t) -y(t)} \leq Ae^{-\alpha (t-t_{*})} \norm{w_{*}}, \ \ \ t \geq t_{*}. \] \end{definition} \begin{definition}[Monotone AWA] Die Funktion $f(t,x)$ heißt \underline{stark monoton} falls ein $\lambda > 0$ existiert, sodass für alle $(t,x), (t,y) \in D$ gilt: \[ -\left( f(t,x) - f(t,y), x-y \right) \geq \lambda \norm{x-y}^{2} \] \end{definition} \begin{satz}[Globaler Stabilitätssatz] Sei $f(t,x)$ einer AWA stetig, lokal Lipschitz-stetig bezüglich $x$ und stark monoton. Dann sind alle Lösungen der AWA global und exponentiell stabil, mit $\delta$ beliebig und $\alpha = A = 1$. \\ Zusatz: Gilt $\sup_{t \geq t_{0}} \norm{f(t,0)} < \infty$, dann sind alle Lösungen gleichmäßig beschränkt. \label{satz:global-stabil} \end{satz} \begin{proof} \begin{enumerate}[1)] \item Die Lösungen der AWA \[ y'(t) = f(t,y(t)), \ \ \ t \geq t_{0}, \ \ \ y(t_{0}) = y_{0}, \] und der gestörten AWA \[ v'(t) = f(t,v(t)), \ \ \ t \geq t_{*} \geq t_{0}, \ \ \ v(t_{*}) = y(t_{*}) + w_{*} \] existieren global und sind eindeutig. \\ Da $f$ Lipschitz-stetig ist gilt: \begin{salign*} \norm{f(t,x)} \leq \norm{f(t,x) - f(t,0)} + \norm{f(t,0)} \leq L\norm{x} + \norm{f(t,0)}. \end{salign*} Für die Lösung $y(t)$ gilt: \begin{salign*} y(t) &= y_{0} + \int_{t_{0}}^{t} f(s,y(s)) \d{s} \intertext{und damit} \norm{y(t)} &\leq \norm{y_{0}} + \int_{t_{0}}^{t} \norm{f(s,y(s))} \d{s} \\ &\leq \norm{y_{0}} + \int_{t_{0}}^{t} L \norm{y(s)} \d{s} + \int_{t_{0}}^{t} \norm{f(s,0)} \d{s} \intertext{$\norm{f(s,0)}$ stetig auf $[t,t_{0}]$, also gleichmäßig beschränkt, d.h. es existiert ein $M_{t} > 0$ sodass für alle $s \in [t_{0},t]$ gilt $\norm{f(s,0)} \leq M_{t}$ und damit:} &\leq L \int_{t_{0}}^{t} \norm{y(s)} \d{s} + \norm{y_{0}} + M_{t}\left| t-t_{0}\right| \end{salign*} Mit dem Lemma von Gronwall für $w(t) = \norm{y(t)}$ folgt: \[ \norm{y(t)} \leq e^{L(t-t_{0})} \left( \norm{y_{0}} + M_{t}\left| t-t_{0}\right| \right). \] Somit liefern der Satz von Peano und der Fortsetzungssatz, dass $y(t)$ auf dem maximalen Existenzintervall $I_{\max} = [t_{0},t_{\max})$ existiert, wobei entweder $t_{\max} = \infty$ gilt, oder $t_{\max} < \infty$ mit $\max_{[t_{0},t]} \norm{y(t)} \oldstackrel{t \to \infty}{\longrightarrow} \infty $. \\ Wir führen $t_{\max} < \infty$ mit $\max_{[t_{0},t]} \norm{y(t)} \oldstackrel{t \to \infty}{\longrightarrow} \infty $ zum Widerspruch. Bereits gezeigt wurde, dass gilt: \begin{salign*} \norm{y(t)} &\leq e^{L(t-t_{0})}\left( \norm{y_{0}} + M_{t}\left| t-t_{0} \right| \right) \leq e^{L(t_{\max}-t_{0})} \left( \norm{y_{0}} + M_{t_{\max}}\left| t_{\max} -t_{0} \right| \right) \end{salign*} Also ist $\norm{y(t)}$ beschränkt für $t \to t_{\max}$. Dies ist ein Widerspruch, also gilt bereits $t_{\max} = \infty$. Damit existiert $y(t)$ für $t \in [t_{0},\infty)$. \item $y(t)$ ist exponentiell stabil. Dafür gilt es zu zeigen, dass für $t\geq t_{*}$: \[ \norm{v(t) - y(t)} \leq e^{-\lambda(t-t_{*})}\norm{w_{*}}. \] Sei $w(t) \coloneqq v(t) - y(t)$. Dann gilt: \begin{align*} &\frac{\d{}}{\d{t}} \norm{w(t)}^{2} = 2\left(w'(t),w(t)\right)= 2 \left(f(t,v(t))-f(t,y(t)), v(t) - y(t) \right) \intertext{und da $f$ stark monoton ist, folgt:} &\frac{\d{}}{\d{t}} \norm{w(t)}^{2} \leq -2\lambda \norm{w(t)}^{2} \ \ \ \ \ \implies \ \ \ \ \ \frac{\d{}}{\d{t}} \norm{w(t)}^{2} +2\lambda \norm{w(t)}^{2} \leq 0. \end{align*} Ferner gilt: \begin{align*} \frac{\d{}}{\d{t}} \left(e^{2\lambda (t-t_{*})} \norm{w(t)}^{2}\right) = \underbrace{e^{2\lambda (t-t_{*})}}_{> 0} \underbrace{\left( \frac{\d{}}{\d{t}}\norm{w(t)}^{2} + 2\lambda\norm{w(t)}^{2} \right)}_{\leq 0} \leq 0 \end{align*} Woraus wir folgern: \begin{salign*} & \int_{t_{*}}^{t} \frac{\d{}}{\d{s}} \left( e^{2\lambda(s-t_{*})}\norm{w(s)}^{2} \right) \d{s} = e^{2\lambda(t-t_{*})}\norm{w(t)}^{2} - \norm{w(t_{*})}^{2} \leq 0 \\ \implies \ & \norm{w(t)}^{2} \leq e^{-2\lambda(t-t_{*})}\norm{w(t_{*})}^{2} \\ \implies \ & \norm{w(t)} \ \leq e^{-\lambda(t-t_{*})}\norm{w(t_{*})} \\ \implies \ & \norm{v(t) - y(t)} \leq e^{-\lambda(t-t_{*})}\norm{w_{*}}. \end{salign*} \item $y(t)$ ist gleichmäßig beschränkt falls $\sup_{t \geq t_{0}} \norm{f(t,0)} < \infty$. Denn: \\ Es gilt: \[ y'(t) = f(t,y(t)) \ \ \ \ \ \implies \ \ \ \ \ y'(t) - f(t,y(t)) + f(t,0) = f(t,0). \] Indem wir das Skalarprodukt mit $y(t)$ bilden, erhalten wir daraus: \[ \left(y(t), y'(t)\right) - \left(f(t,y(t)) - f(t,0), y(t) - 0\right) = \left(f(t,0),y(t)\right). \] Außerdem gilt \[ \left(y(t), y'(t)\right) = \frac{1}{2}\frac{\d{}}{\d{t}} \norm{y(t)}^{2} \] und aufgrund der Monotonie: \[ \left(f(t,y(t)) - f(t,0), y(t)\right) \leq -\lambda\norm{y(t)}^{2}. \] Somit können wir folgern: \begin{salign*} \frac{1}{2} \cdot \frac{\d{}}{\d{t}} \norm{y(t)}^{2} + \lambda \norm{y(t)}^{2} &\leq \frac{1}{2} \cdot \frac{\d{}}{\d{t}} \norm{y(t)}^{2} - \left( f(t,y(t)) - f(t,0), y(t)\right)\\ &= \left(f(t,0), y(t)\right) \oldstackrel{\text{CSU}}{\leq} \norm{f(t,0)}\cdot \norm{y(t)} \\ &\stackrel{2ab \le a^2 + b^2}{\le} \frac{1}{2\lambda} \norm{f(t,0)}^{2} + \frac{\lambda}{2} \norm{y(t)}^{2} \end{salign*} woraus folgt \begin{salign*} & \frac{1}{2} \cdot \frac{\d{}}{\d{t}} \norm{y(t)}^{2} + \lambda \norm{y(t)}^{2} - \frac{\lambda}{2} \norm{y(t)}^{2} \leq \frac{1}{2\lambda} \norm{f(t,0)}^{2} \\ \implies \ \ & \frac{\d{}}{\d{t}} \norm{y(t)}^{2} + \lambda \norm{y(t)}^{2} \leq \frac{1}{\lambda} \norm{f(t,0)}^{2}. \end{salign*} Multiplikation mit $e^{\lambda(t-t_{0})}$ liefert: \begin{salign*} \frac{\d{}}{\d{t}} \left( e^{\lambda(t-t_{0})}\norm{y(t)}^{2}\right) = e^{\lambda(t-t_{0})} \left( \frac{\d{}}{\d{t}} \norm{y(t)}^{2} + \lambda \norm{y(t)}^{2} \right) \leq \frac{1}{\lambda} e^{\lambda(t-t_{0})}\norm{f(t,0)}^{2} \end{salign*} woraus folgt: \begin{salign*} \int_{t_{0}}^{t} \frac{\d{}}{\d{s}} \left( e^{\lambda(s-t_{0})}\norm{y(s)}^{2}\right) \d{s} = e^{\lambda(t-t_{0})}\norm{y(t)}^{2} - \norm{y(t_{0})}^{2} \leq \frac{1}{\lambda} \int_{t_{0}}^{t} e^{\lambda(s-t_{0})}\norm{f(s,0)}^{2}\d{s} \end{salign*} und ferner sogar \begin{salign*} \norm{y(t)}^{2} &\leq e^{-\lambda(t-t_{0})}\norm{y_{0}}^{2} + \frac{1}{\lambda} e^{-\lambda(t-t_{0})}\int_{t_{0}}^{t} e^{\lambda(s-t_{0})}\norm{f(s,0)}^{2}\d{s} \\ &\leq e^{-\lambda(t-t_{0})}\norm{y_{0}}^{2} +\frac{1}{\lambda} \max_{s \in [t_{0},t]} \norm{f(s,0)}^{2}e^{-\lambda(t-t_{0})}\int_{t_{0}}^{t} e^{\lambda(s-t_{0})} \d{s}. \end{salign*} Wir halten fest: \begin{salign*} e^{-\lambda(t-t_{0})}\int_{t_{0}}^{t} e^{\lambda(s-t_{0})} \d{s} = e^{-\lambda(t-t_{0})}\left( \frac{1}{\lambda}e^{\lambda(t-t_{0})} -\frac{1}{\lambda}\right) \leq \frac{1}{\lambda}. \end{salign*} Somit können wir schließen: \begin{salign*} \norm{y(t)}^{2} \leq e^{-\lambda(t-t_{0})}\norm{y_{0}}^{2} + \frac{1}{\lambda^{2}} \max_{s \in [t_{0},t]} \norm{f(s,0)}^{2} \end{salign*} \end{enumerate} \end{proof} \section{Lineare Systeme von Differentialgleichungen} \begin{definition}[Lineare AWA] Sei $A(\cdot) \colon I \to \R^{n \times n}$ eine Matrixfunktion, sowie $b(\cdot) \colon I \to \R^{n}$ eine Vektorfunktion. Dann ist eine lineare AWA der Form: \begin{salign*} y'(t) &= A(t)y(t) + b(t), \ \ \ t\geq t_{0} \\ y(t_{0}) &= y_{0}. \end{salign*} \end{definition} \begin{satz}[Lösung einer linearen AWA] Seien $A \colon [t_{0}, \infty) \to \R^{n \times n}$, $b \colon [t_{0}, \infty) \to \R^{n}$ stetig. Dann gilt: \begin{enumerate}[1)] \item Die lineare AWA besitzt eine eindeutige globale Lösung $y \colon [t_{0},\infty) \to \R^{n}$. \item Falls $A(\cdot)$ gleichmäßig negativ definit auf $[t_{0},\infty)$ ist und $b(\cdot)$ beschränkt ist, dann ist $y(t)$ beschränkt und exponentiell stabil. \end{enumerate} \label{satz:lineare-awa} \end{satz} \begin{proof} \begin{enumerate}[1)] \item Der Satz von Peano liefert die Existenz eines $T >0$ sodass eine lokale Lösung $y \colon [t_{0},t_{0}+T] \to \R^{n}$ der linearen AWA existieren, für welche gilt ($t \in [t_{0},t_{0}+\infty]$): \begin{salign*} & y(t) = y_{0} + \int_{t_{0}}^{t} \left( A(s)y(s) + b(s)\right) \d{s} \\ \implies \ \ & \norm{y(t)} \leq \norm{y_{0}} + \int_{t_{0}}^{t} \left( \norm{A(s)}\cdot\norm{y(s)} + \norm{b(s)}\right) \d{s}. \end{salign*} Das Lemma von Gronwall für $w(t) = \norm{y(t)}$ liefert für $t \in [t_{0},t_{0}+T]$: \begin{salign*} \norm{y(t)} \leq \exp\left( \int_{t_{0}}^{t} \norm{A(s)} \d{s}\right)\left(\norm{y_{0}} + \int_{t_{0}}^{t}\norm{b(s)} \d{s} \right) \end{salign*} Also ist $\norm{y(t)}$ beschränkt durch ein $C(T, A(\cdot), b(\cdot)) > 0$. Nach Fortsetzungssatz ist der Graph von $y(t)$ fortsetzbar bis an den Rand von $D$. Damit existiert $y(t)$ für alle $t \geq t_{0}$. \\ $f(t,x)$ ist Lipschitz-stetig bezüglich $x$. Denn: \begin{salign*} \norm{f(t,x) - f(t,y)} & = \norm{A(t)(x-y)} \leq \norm{A(t)}\cdot\norm{x-y}. \end{salign*} Damit folgt die Eindeutigkeitsaussage aus dem Satz von Picard-Lindelöf. \item Sei $A(t)$ negativ definit, dann existiert ein $\lambda > 0$ sodass: \begin{salign*} -\left(f(t,x) - f(t,y),(x-y)\right) = - \left(A(t)(x-y), (x-y)\right) \geq \lambda \norm{x-y}^{2}. \end{salign*} Sei $b(t)$ beschränkt, dann gilt $\sup_{t \in [t_{0},\infty)} \norm{f(t,0)} = \sup_{t \in [t_{0},\infty)} \norm{b(t)} < \infty$. Damit folgt nach Satz \ref{satz:global-stabil}, dass $y(t)$ beschränkt und exponentiell stabil ist. \end{enumerate} \end{proof} \begin{satz}[Homogene lineare Systeme] Ein homogenes lineares System von DGLn ist der Form \begin{equation} y'(t) = A(t)y(t). \label{eqq:homog-lin-syst} \end{equation} \begin{enumerate}[1)] \item Die Menge der Lösungen bildet einen Vektorraum $H$. \item Sei $\{y_{0}^{1},\dots,y_{0}^{n}\}$ eine Basis des $\R^{n}$. Seien $\{y^{1},\dots,y^{n}\}$ die Lösungen von AWA: \[ (y^{i})' = A(t)y^{i}, \ \ \ y^{i}(t_{0}) = y_{0}^{i}, \ \ \ i\in \{1,\dots,n\} \] Dann ist $\{y^{1},\dots,y^{n}\}$ eine Basis von $H$ und es gilt $\dim(H) = n$. \item Sei $\{y^{1},\dots,y^{n}\}$ eine Basis des Lösungsraums $H$, dann ist $\{y^{1}(t),\dots,y^{n}(t)\}$ für $\forall t \geq t_{0}$ eine Basis des $\R^{n}$. \end{enumerate} \end{satz} \begin{proof} \begin{enumerate}[1)] \item Sei $H$ die Menge der Lösungen von (\ref{eqq:homog-lin-syst}). $H$ ist ein $\R$-VR, denn: \begin{itemize} \item Nullfunktion erfüllt $0'(t) = A(t)0(t)$, also $0 \in H$. \item Seien $\alpha, \beta \in \R$, $u,v \in H$, dann gilt: \[ (\alpha u + \beta v)' = \alpha u' + \beta v' = \alpha A(t)u(t) + \beta A(t)v(t) = A(t)\left(\alpha u + \beta v\right). \] Also $\left(\alpha u + \beta v\right) \in H$. \end{itemize} \item Sei $\{y_{0}^{1},\dots,y_{0}^{n}\}$ eine Basis des $\R^{n}$. Seien $\{y^{1},\dots,y^{n}\}$ die eindeutigen Lösungen der AWAn (nach Satz \ref{satz:lineare-awa}). Seien $\alpha_{i} \in \R$, $i \in \{1,\dots,n\}$ sodass für $t \geq t_{0}$ gilt: \[ \sum_{i=1}^{n} \alpha_{i} y^{i}(t) = 0. \] Für $t = t_{0}$ gilt dann $\sum_{i=1}^{n} \alpha_{i} y_{0}^{i} = 0$, da die $y_{0}^{i}$ linear unabhängig sind, folgt $\alpha_{i} = 0$ für alle $i \in \{1,\dots,n\}$. Daraus folgt, dass die $y^{i}(t)$ ($i \in \{1,\dots,n\}$) linear unabhängig sind, also bereits, dass die $y^{i}$ ($i \in \{1,\dots,n\}$) linear unabhängig sind. \\ Da es höchstens $n$ linear unabhängige Anfangswerte gibt, sind nicht mehr als $n$ Funktionen aus $H$ linear abhängig, also $\dim(H) = n$. \item Analog zu 2). \end{enumerate} \end{proof} \begin{definition} Eine Basis $\{\varphi^{1},\dots,\varphi^{n}\}$ des Lösungsraums $H$ von $y'(t) = A(t)y(t)$ zu den Anfangswerten $\varphi^{i}(t_{0}) = e^{i}$ ($e^i$ Standardbasisvektor) heißt \underline{Fundamentalsystem} des linearen Systems von DGLn. \\ Die Matrix $\phi = \left[\varphi^{1},\dots,\varphi^{n} \right] $ der Spaltenvektoren $\varphi^{i}$ heißt \underline{Fundamentalmatrix} des linearen Systems von DGLn. \\ Diese Matrix ist regulär und löst die AWA (komponentenweise): \[ \phi'(t) = A(t)\phi(t), \ \ \ \ t \geq t_{0}, \ \ \ \ \phi(t_{0}) = \mathbb{I}. \] \end{definition} \begin{satz}[Inhomogene lineare Systeme] Ein inhomogenes lineare System von DGLn ist der Form \[ y'(t) = A(t)y(t) + b(t). \] Seien $A \colon [t_{0},\infty) \to \R^{n \times n}$, $b \colon [t_{0},\infty) \to \R^{n}$ stetig. Dann gilt: \begin{enumerate}[1)] \item Für konstantes $c \in \R^{n}$ ist \[ y_{b}(t) \coloneqq \phi(t) \left( \int_{t_{0}}^{t} \phi^{-1}(s)b(s) \d{s} + c \right) \] eine partikuläre Lösung des inhomogenen linearen Systems. \item Alle Lösungen der inhomogenen Gleichung haben die Form: \[ y(t) = y_{b}(t) + v(t), \] wobei $v \in H$ (Lösungsraum des assoziierten homogenen Systems). \item Gilt $c = y_{0}$, dann gilt $y_{b}(t_{0}) = y_{0}$. \end{enumerate} \end{satz} \begin{proof} \begin{enumerate}[1)] \item Sei $\psi \coloneqq \int_{t_{0}}^{t} \phi^{-1}(s)b(s) \d{s} + c$. Dann gilt für $t\geq t_{0}$: $\psi' = \phi^{-1}(t)b(t)$. Für $y_{b} = \phi\psi$ gilt dann: \[ y_{b}' = \phi'\psi + \phi\psi' = A\phi\psi + \phi\phi^{-1}b = Ay_{b} + b. \] Also ist $y_{b}$ eine Lösung des inhomogenen Systems und gilt $c=y_{0}$, dann löst $y_{b}$ die AWA $y' = Ay + b$, $y(t_{0}) = y_{0}$. Daraus folgt 1) und 3). \item Sei $y$ eine zweite Lösung des inhomogenen Systems. Für $w=y-y_{b}$ gilt dann: \[ w' = y' - y_{b}' = Ay + b - (Ay_{b} + b) = A(y-y_{b}) = Aw. \] Also bereits $w \in H$. \end{enumerate} \end{proof} \begin{bem} \begin{enumerate}[(1)] \item Die Lösung $y_{b}(t) = \phi(t) \left( \int_{t_{0}}^{t} \phi^{-1}(s)b(s) \d{s} + y_{0} \right)$ entspricht genau der Lösung \[ y(t) = \exp\left( \int_{t_{0}}^{t} a(s) \d{s} \right) \left(y_{0} + \int_{t_{0}}^{t} \exp\left( -\int_{t_{0}}^{t} a(s) \d{s} \right)b(\tau) \d{\tau} \right) \] der skalaren linearen AWA $y'(t) = a(t)y(t) + b(t)$ ($t \geq t_{0}$) (Variation der Konstanten). \item Für lineare DGL mit konstanten Koeffizienten \[ y'(t) = Ay(t), \ \ \ \ \ A \in \R^{n\times n} \] gibt es eine Lösungstheorie, die auf algebraische Argumente zurückgreift. \end{enumerate} \end{bem} \section{Randwertaufgaben} \begin{bem} Wir betrachten nun sogenannte Randwertaufgaben/Randwertprobleme der Form: $f\colon I \times \R^{n} \to \R^{n}$, $r \colon \R^{n} \times \R^{n} \to \R^{n}$ \begin{salign*} & y'(t) = f(t,y(t)), && t \in I = [a,b] \\ & r(y(a),y(b)) = 0 \end{salign*} Gesucht ist eine stetig differenzierbare Lösung $y \colon I \to \R^{n}$ die beide Bedingungen erfüllt. Die zweite Bedingung lässt sich verallgemeinern zu einer Mehrpunkt RWA: \[ r\left( y(t_{1}),\dots,y(t_{k}) \right) = 0. \] \end{bem} \begin{bsp} Wann existieren solche Lösungen? Wir betrachten folgendes Beispiel: \[ y'' + y = 0 \] für $t \in [0,\pi]$. Dies ist äquivalent zu folgenden System: \begin{salign*} y_{1} = y,\ y_{2} = y', && \begin{cases} y_{1}' = y_{2} \\ y_{2}' = -y_{1} \end{cases}. \end{salign*} Dieses Problem hat die allgemeine Lösung \[ y(t) = c_{1}\sin(t) + c_{2}\cos(t). \] \begin{enumerate}[1)] \item Für $y(0) = y(\pi)$, $y'(0)=y'(\pi)$. $r = \begin{pmatrix} y_{1}(0)-y_{1}(\pi) \\ y_{2}(0)-y_{2}(\pi) \end{pmatrix} = 0$ ist die Lösung des RWA $y(t) \equiv 0$, $t \in [0,\pi]$ eindeutig. \item Für $y(0) = 0$, $y(\pi) = 0$, $r = \begin{pmatrix} y_{1}(0) \\ y_{1}(\pi) \end{pmatrix} = 0$ hat das RWA unendlich viele Lösungen $y(t) = c_{1}\sin(t)$ ($t \in [0,t]$). \item Für $y(0) = 0$, $y(\pi) = 1$, $r = \begin{pmatrix} y_{1}(0) \\ y_{1}(\pi) -1 \end{pmatrix} = 0$ hat das RWA keine Lösung. \end{enumerate} \end{bsp} \begin{definition}[Allgemeine inhomogene lineare RWA] Seien $B_{a}, B_{b} \in \R^{n\times n}$, $g \in \R^{n}$ sowie $A \colon I \to \R^{n\times n}$, $f \colon I \to \R^{n}$ stetig. Dann ist eine allgemeine inhomogene lineare RWA der Form: \begin{salign*} & y'(t) = A(t)y(t) + f(t), && t\in I \\ & B_{a}y(a) + B_{b}y(b) = g. \end{salign*} \end{definition} \begin{bem} Eine Lösung des inhomogenen DGL-System ist von der Form: \[ y(t,s) = \varphi^{0}(t) + \sum_{i=1}^{n} s_{i}\varphi^{i}(t) = \varphi^{0}(t) + \phi(t)s. \] Hier löst $\varphi^{0}$ die AWA: \[ (\varphi^{0})'(t) = A(t)\varphi^{0}(t) + f(t), \ \ \ \ t \geq a, \ \varphi^{0}(a) = 0. \] $\varphi^{i}$ ($i \in \{1,\dots,n\}$) lösen die AWA: \[ (\varphi^{i})'(t) = A(t)\varphi^{i}(t), \ \ \ \ t \geq a, \ \varphi^{i}(a) = e^{i}. \] $\varphi^{0}, \varphi^{i}$ ($i \in \{1,\dots,n\}$) sind eindeutige Lösungen, außerdem: \[ \phi(t) = \left[\varphi^{1}(t),\dots,\varphi^{n}(t) \right]. \] Offenbar löst $y(t,s)$ die DGL: \begin{salign*} y'(t,s) = (\varphi^{0})'(t) + \sum_{i=1}^{n} s_{i}(\varphi^{i})'(t) = A(t)\underbrace{\left(\varphi^{0}(t) + \sum_{i=1}^{n} s_{i}\varphi^{i}(t) \right)}_{y(t,s)} + f(t), \ \ \ t \geq t_{0}. \end{salign*} Wie muss $s \in \R^{n}$ gewählt werden? Ziel: $s \in \R^{n}$ so zu bestimmen, sodass gilt: \[ B_{a}y(a,s) + B_{b}y(b,s) = g. \] Dies lässt sich umformen zu: \[ B_{a}(\underbrace{\varphi^{0}(a)}_{=0} + \underbrace{\phi(a)}_{=\mathbb{I}}s) + B_{b}(\varphi^{0}(b) + \phi(b)s) = g. \] Also: \[ \left( B_{a} + B_{b}\phi(b) \right)s = g - B_{b}\varphi^{0}(b). \] \end{bem} \begin{satz}[Existenzsatz für lineare RWA] Die lineare RWA besitzt eine eindeutige Lösung $y(t)$ für beliebige $f(t)$ und $g$ genau dann, wenn $B_{a} + B_{b}\phi(b) \in \R^{n\times n}$ regulär ist, bzw. die assoziierte homogene RWA nur die triviale Lösung $y \equiv 0$ hat. \end{satz} \begin{proof} \glqq $\Leftarrow$\grqq: Ist $B_{a} + B_{b}\phi(b) \in \R^{n\times n}$ regulär, so ist das System \[ \left( B_{a} + B_{b}\phi(b) \right)s = g - B_{b}\varphi^{0}(b) \] eindeutig lösbar für $s \in \R^{n}$ und somit löst $y(t,s)$ die RWA. \\ \glqq $\Rightarrow$\grqq: Die Lösung der RWA kann man darstellen als \[ y(t) = \varphi^{0}(t) + \phi(t)s, \ \ \ s \in \R^{n}, \] weil die Funktionen $\{ \varphi^{1},\dots,\varphi^{n}\}$ eine Basis des Lösungsraum des assoziierten homogenen DGL bilden. \\ Für homogene RWA gilt $g - B_{b}\varphi^{0}(b) = 0$ und die Gleichung für $s$ lautet \[ \left( B_{a} +B_{b}\phi(b)\right)s = 0 \] Daraus folgen alle Behauptungen. \end{proof} \begin{bem} Die Lösung einer linearen RWA ist im Kern die Lösung eines LGS. \end{bem} Nun betrachten wir die nichtlineare RWA \[ y' = f(t,y), \ \ \ t \in [a,b], \ \ \ \ \ r(y(a),y(b)) = 0. \] Frage: falls die nichtlineare RWA eine Lösung $y(t)$ besitzt, ist diese lokal eindeutig? \\ Also existiert eine Umgebung $U_{R}(y) = \{ v \in C[a,b] \ | \ \norm{y-v}_{\infty} < R\}$, sodass keine andere Lösung $\tilde{y} \neq y$ existiert? \\ Wir führen die Notationen \begin{salign*} f_{x}'(t,x) &= \left( \frac{\partial f_{i}(t,x)}{\partial x_{j}} \right)_{i,j=1}^{n} \\ r_{x}'(x,y) &= \left( \frac{\partial r_{i}(x,y)}{\partial x_{j}} \right)_{i,j=1}^{n} \\ r_{y}'(x,y) &= \left( \frac{\partial r_{i}(x,y)}{\partial y_{j}} \right)_{i,j=1}^{n} \end{salign*} für die Jacobi-Matrizen von $f(t,\cdot)$, $r(\cdot,\cdot)$ ein. \begin{satz}[Lokale Eindeutigkeit] Eine Lösung $y$ von nichtlinearen RWA ist lokal eindeutig genau dann, wenn die lineare RWA \begin{salign*} & v'(t) = f_{x}'(t,y(t))v(t), \ \ \ \ \ \ t \in I, \\ & r_{x}'(y(a),y(b))\cdot v(a) + r_{y}'(y(a),y(b))\cdot v(b) = 0 \end{salign*} nur die triviale Lösung $v \equiv 0$ besitzt. \end{satz} \begin{proof} Siehe Skript von Rolf Rannacher Seite 128. \end{proof} \end{document}