\documentclass[uebung]{../../../lecture} \title{Wtheo 0: Übungsblatt 8} \author{Josua Kugler, Christian Merten} \newcommand{\E}{\mathbb{E}} \usepackage[]{mathrsfs} \newcommand{\cov}{\mathbb{C}\text{ov}} \newcommand{\var}{\mathbb{V}\text{ar}} \begin{document} \punkte[29] \begin{aufgabe}[] \begin{enumerate}[(i)] \item Es ist $|X_n| \in \mathcal{A}^{+}$, damit folgt \[ \E\left(\sum_{n \in \N} |X_n|\right) = \sum_{n \in \N} \E(|X_n|) < \infty .\] Damit folgt mit 20.13. $\mathbb{P}\left( \sum_{n \in \N} |X_n| = \infty \right) = 0$ und damit \[ \mathbb{P}\left( \sum_{n \in \N} |X_n| < \infty \right) = 1 .\] \item Es ist analog zu (i) \[ \E\left( \left| \sum_{n \in \N} X_n \right| \right) \le \E\left( \sum_{n \in \N} |X_n| \right) = \sum_{n \in \N} \E(|X_n|) < \infty .\] Also $\sum_{n \in \N} X_n \mathscr{L}_1$ und $\sum_{n \in \N} |X_n| \in \mathscr{L}_1$. \item Setze $S_n \coloneqq \sum_{k=1}^{n} X_k$. Es gilt $\lim_{n \to \infty} S_n = \sum_{n \in \N} X_k \in \overline{\mathcal{A}}$ und \[ |S_n| = \left| \sum_{k=1}^{n} X_k \right| \le \sum_{k=1}^{n} |X_k| \le \sum_{n \in \N} |X_n| \in \mathscr{L}_1 .\] Insbesondere folgt $\sup_{n \in \N} |X_n| \le \sum_{n \in \N} |X_n| \in \mathscr{L}_1$. Wegen Monotonie der Erwartung \[ \E(|S_n|) \le \E\left( \sum_{k \in \N} |X_k| \right) = \sum_{k \in \N} \E(|X_k|) < \infty .\] Also ist $S_n \in \mathscr{L}_1$ für $n \in \N$. Damit folgt mit dominierter Konvergenz im letzten Schritt: \begin{salign*} \sum_{n \in \N} \E(X_n) &= \lim_{n \to \infty} \sum_{k=1}^{n} \E(X_n) \\ &\stackrel{\text{Linearität}}{=} \lim_{n \to \infty} \E\left( \sum_{k=1}^{n} X_n \right) \\ &= \lim_{n \to \infty} \E(S_n) \\ &= \E\left( \sum_{n \in \N} X_n \right) .\end{salign*} \end{enumerate} \end{aufgabe} \stepcounter{aufgabe} \begin{aufgabe} \begin{enumerate}[(a)] \item Es ist \begin{salign*} & \quad\qquad\var(X) = \E\left[ (X - \E(X))^2 \right] = 0 \\ \stackrel{(X- \E(X))^2 \in \overline{\mathcal{A}}^{+}}{\iff}& 1 = \mathbb{P}\left( (X - \E(X))^2 = 0 \right) = \mathbb{P}\left( X - \E(X) = 0 \right) = \mathbb{P}( X = \E(X)) .\end{salign*} \item \begin{itemize} \item Es gilt nach Definition \begin{salign*} \cov(X,Y) &= \E \left[ (X - \E(X))(Y - \E(Y)) \right] \\ &= \E \left[ (Y - \E(Y)) (X - \E(X)) \right] \\ &= \cov(Y,X) .\end{salign*} \item Mit Linearität der Erwartung folgt direkt \begin{salign*} \cov(aX + bY, Z) &= \E\left[ (aX + bY - \E(aX + bY)(Z - \E(Z)) \right] \\ &= \E\left[ (a(X - \E(X)) + b(Y - \E(Y)))(Z - \E(Z)) \right] \\ &= a\E[ (X - \E(X))(Z - \E(Z)) ] + b \E[(Y - \E(Y))(Z - \E(Z))] \\ &= a \cov(X, Z) + b \cov(Y, Z) .\end{salign*} \item Mit Monotonie der Erwartung im letzten Schritt folgt \begin{salign*} \cov(X, X) = \E[(X - \E(X))(X - \E(X))] = \E[\underbrace{(X - \E(X))^2}_{\ge 0}] \ge 0 .\end{salign*} \item Es gilt $\E(a) = a$, also \begin{salign*} \cov(a, X) = \E\left[ (a - \E(a))(X - \E(X)) \right] = \E(0) = 0 .\end{salign*} \end{itemize} \item \begin{itemize} \item Mit der Linearität der Kovarianz und der letzten Eigenschaft in (b) folgt sofort \begin{salign*} \var(aX + b) &= \cov(aX + b, aX + b) \\ &\stackrel{\text{linear}}{=} a \cov(X, aX + b) + \underbrace{\cov(b, aX + b)}_{= 0 \text{ (b.4)}} \\ &\stackrel{\text{linear}}{=} a^2 \cov(X, X) + \underbrace{\cov(X, b)}_{= 0\text{ (b.4)}} \\ &= a^2\var(X) .\end{salign*} \item Mit Linearität und Symmetrie folgt \begin{salign*} \var(X + Y) &= \cov(X + Y, X + Y) \\ &= \cov(X, X) + \cov(X, Y) + \cov(Y, X) + \cov(Y, Y) \\ &= \var(X) + \var(Y) + 2 \cov(X, Y) .\end{salign*} \end{itemize} \end{enumerate} \end{aufgabe} \end{document}