|
- \documentclass[uebung]{lecture}
-
- \title{Wtheo 0: Übungsblatt 8}
- \author{Josua Kugler, Christian Merten}
- \newcommand{\E}{\mathbb{E}}
- \renewcommand{\P}{\mathbbm{P}}
- \usepackage[]{mathrsfs}
- \newcommand{\cov}{\mathbb{C}\text{ov}}
- \newcommand{\var}{\mathbb{V}\text{ar}}
-
- \begin{document}
-
- \punkte[29]
-
- \begin{aufgabe}[]
- \begin{enumerate}[(i)]
- \item Es ist $|X_n| \in \mathcal{A}^{+}$, damit folgt
- \[
- \E\left(\sum_{n \in \N} |X_n|\right) = \sum_{n \in \N} \E(|X_n|) < \infty
- .\] Damit folgt mit 20.13. $\mathbb{P}\left( \sum_{n \in \N} |X_n| = \infty \right) = 0$ und
- damit
- \[
- \mathbb{P}\left( \sum_{n \in \N} |X_n| < \infty \right) = 1
- .\]
- \item Es ist analog zu (i)
- \[
- \E\left( \left| \sum_{n \in \N} X_n \right| \right)
- \le \E\left( \sum_{n \in \N} |X_n| \right)
- = \sum_{n \in \N} \E(|X_n|) < \infty
- .\] Also $\sum_{n \in \N} X_n \mathscr{L}_1$ und $\sum_{n \in \N} |X_n| \in \mathscr{L}_1$.
- \item Setze $S_n \coloneqq \sum_{k=1}^{n} X_k$. Es gilt
- $\lim_{n \to \infty} S_n = \sum_{n \in \N} X_k \in \overline{\mathcal{A}}$ und
- \[
- |S_n| = \left| \sum_{k=1}^{n} X_k \right| \le \sum_{k=1}^{n} |X_k|
- \le \sum_{n \in \N} |X_n| \in \mathscr{L}_1
- .\] Insbesondere folgt $\sup_{n \in \N} |X_n| \le \sum_{n \in \N} |X_n| \in \mathscr{L}_1$.
-
- Wegen Monotonie der Erwartung
- \[
- \E(|S_n|) \le \E\left( \sum_{k \in \N} |X_k| \right)
- = \sum_{k \in \N} \E(|X_k|) < \infty
- .\]
- Also ist $S_n \in \mathscr{L}_1$ für $n \in \N$. Damit folgt mit dominierter Konvergenz im letzten
- Schritt:
- \begin{salign*}
- \sum_{n \in \N} \E(X_n)
- &= \lim_{n \to \infty} \sum_{k=1}^{n} \E(X_n) \\
- &\stackrel{\text{Linearität}}{=} \lim_{n \to \infty} \E\left( \sum_{k=1}^{n} X_n \right) \\
- &= \lim_{n \to \infty} \E(S_n) \\
- &= \E\left( \sum_{n \in \N} X_n \right)
- .\end{salign*}
- \end{enumerate}
- \end{aufgabe}
-
- \begin{aufgabe}
- \begin{enumerate}[(a)]
- \item Es gilt
- \begin{align*}
- \int_0^\infty \P(X > y) \d{y} &= \int_0^\infty \int_y^\infty \mathbbm{f}^X(x) \d{x} \d{y}\\
- &= \int_0^\infty \int_0^\infty \mathbbm{f}^X(x)\mathbbm{1}_{x>y} \d{x} \d{y}\\
- \intertext{Fubini}
- &= \int_0^\infty \int_0^\infty \mathbbm{f}^X(x)\mathbbm{1}_{x>y} \d{y} \d{x}\\
- &= \int_0^\infty \int_0^x \mathbbm{f}^X(x) \d{y} \d{x}\\
- &= \int_0^\infty x\mathbbm{f}^X(x) \d{x}\\
- &= \int_\Omega X(\omega) \mathbbm{f}(\omega) \d{\omega}\\
- &= \E(X)
- \end{align*}
- \item Es gilt
- \begin{align*}
- \E(X) &= \int_0^\infty \P(X > y) \d{y}\\
- &= \int_0^\infty \int_y^\infty \mathbbm{f}^X(\omega) \d{\omega}\d{y}\\
- &= \int_0^\infty \int_y^\infty \lambda e^{-\lambda x} \d{x} \d{y}\\
- &= \int_0^\infty e^{-\lambda y} \d{y}\\
- &= \frac{1}{\lambda}
- \end{align*}
- \item Es gilt
- \begin{align*}
- \E(X) &= \sum_{n = 1}^{\infty} \P(X \geq n)\\
- &= \sum_{n = 1}^{\infty} \sum_{k = n}^{\infty} \mathbbm{p}^X(k) \\
- &= \sum_{n = 1}^{\infty} \sum_{k = n}^{\infty} (1-p)^{k - 1}p\\
- &= \sum_{n = 1}^{\infty} p(1-p)^{n-1}\sum_{k = 0}^{\infty} (1-p)^k
- \intertext{geometrische Reihe}
- &= \sum_{n = 1}^{\infty} p(1-p)^{n-1} \frac{1}{1-(1-p)}\\
- &= \sum_{n = 1}^{\infty} (1-p)^{n-1}\\
- \intertext{geometrische Reihe}
- &= \frac{1}{1 - (1-p)}\\
- &= \frac{1}{p}
- \end{align*}
- \end{enumerate}
- \end{aufgabe}
-
- \begin{aufgabe}
- \begin{enumerate}[(a)]
- \item Es ist
- \begin{salign*}
- & \quad\qquad\var(X) = \E\left[ (X - \E(X))^2 \right] = 0 \\
- \stackrel{(X- \E(X))^2 \in \overline{\mathcal{A}}^{+}}{\iff}&
- 1 = \mathbb{P}\left( (X - \E(X))^2 = 0 \right) = \mathbb{P}\left( X - \E(X) = 0 \right)
- = \mathbb{P}( X = \E(X))
- .\end{salign*}
- \item
- \begin{itemize}
- \item Es gilt nach Definition
- \begin{salign*}
- \cov(X,Y) &= \E \left[ (X - \E(X))(Y - \E(Y)) \right] \\
- &= \E \left[ (Y - \E(Y)) (X - \E(X)) \right] \\
- &= \cov(Y,X)
- .\end{salign*}
- \item Mit Linearität der Erwartung folgt direkt
- \begin{salign*}
- \cov(aX + bY, Z) &= \E\left[ (aX + bY - \E(aX + bY)(Z - \E(Z)) \right] \\
- &= \E\left[ (a(X - \E(X)) + b(Y - \E(Y)))(Z - \E(Z)) \right] \\
- &= a\E[ (X - \E(X))(Z - \E(Z)) ] + b \E[(Y - \E(Y))(Z - \E(Z))] \\
- &= a \cov(X, Z) + b \cov(Y, Z)
- .\end{salign*}
- \item Mit Monotonie der Erwartung im letzten Schritt folgt
- \begin{salign*}
- \cov(X, X) = \E[(X - \E(X))(X - \E(X))] = \E[\underbrace{(X - \E(X))^2}_{\ge 0}] \ge 0
- .\end{salign*}
- \item Es gilt $\E(a) = a$, also
- \begin{salign*}
- \cov(a, X) = \E\left[ (a - \E(a))(X - \E(X)) \right] = \E(0) = 0
- .\end{salign*}
- \end{itemize}
- \item
- \begin{itemize}
- \item Mit der Linearität der Kovarianz und der letzten Eigenschaft in (b) folgt sofort
- \begin{salign*}
- \var(aX + b) &= \cov(aX + b, aX + b) \\
- &\stackrel{\text{linear}}{=} a \cov(X, aX + b) + \underbrace{\cov(b, aX + b)}_{= 0 \text{ (b.4)}} \\
- &\stackrel{\text{linear}}{=} a^2 \cov(X, X) + \underbrace{\cov(X, b)}_{= 0\text{ (b.4)}} \\
- &= a^2\var(X)
- .\end{salign*}
- \item Mit Linearität und Symmetrie folgt
- \begin{salign*}
- \var(X + Y) &= \cov(X + Y, X + Y) \\
- &= \cov(X, X) + \cov(X, Y) + \cov(Y, X) + \cov(Y, Y) \\
- &= \var(X) + \var(Y) + 2 \cov(X, Y)
- .\end{salign*}
- \end{itemize}
- \end{enumerate}
- \end{aufgabe}
-
- \begin{aufgabe}
- \begin{enumerate}[(a)]
- \item Wir definieren den Wahrscheinlichkeitsraum $\Omega = \{(i_1, \dots, i_n)|i_j \in \{1,\dots, m\}\}$ als die Menge aller $n$-Tupel mit Werten zwischen 1 und $m$, wobei das $j$-te Element eines Tupels angibt, welche Ente der $j$-te Jäger gewählt hat. Dann enthält das Ereignis
- \begin{align*}
- A_i \coloneqq \{(i_1, \dots, i_n)\in \Omega, i\neq i_l \forall l \in \{1,\dots, n\}\}
- \end{align*}
- alle Elementarereignisse, in denen die $i$-te Ente nicht getroffen wird.
- Die Zufallsvariable $X_i \colon \Omega \to \{0,1\}, \omega \mapsto \mathbbm{1}_{A_i}$ gibt an, ob die $i$-te Ente überlebt (1) oder nicht (0). Dann ist durch $X \coloneqq \sum_{i = 1}^{m} X_i$ gerade die Anzahl der überlebenden Enten gegeben.
- Es gilt aufgrund der Linearität des Erwartungswerts
- \begin{align*}
- \E(X) &= \E\left(\sum_{i = 1}^{m} X_i\right)\\
- &= \sum_{i = 1}^{m} \E(X_i)\\
- &= \sum_{i = 1}^{m} \E(\mathbb{1}_{A_i})\\
- &= \sum_{i = 1}^{m} \P(A_i)\\
- &= \sum_{i = 1}^{m} \frac{\# A_i}{\# \Omega}\\
- &= \sum_{i = 1}^{m} \frac{(m-1)^n}{m^n}\\
- &= m \cdot \left(\frac{m-1}{m}\right)^n
- \end{align*}
- \item Wir bestimmen zunächst
- \begin{align*}
- \E(X_iX_j) &= \E(\mathbbm{1}_{A_i} \cdot \mathbbm{1}_{A_j})\\
- &= \E(\mathbbm{1}_{A_i \cap A_j})\\
- &= \P(A_i \cap A_j)\\
- \intertext{Für $i = j$ gilt $\P(A_i \cap A_j) = \P(A_i) = m\left(\frac{m-1}{m}\right)^n$. Sei also $i\neq j$}
- &= \frac{\# A_i \cap A_j}{\# \Omega}\\
- &= \left(\frac{m-2}{m}\right)^2
- \end{align*}
- Es gilt daher
- \begin{align*}
- \var(X) &= \E(X^2) - \E(X)^2\\
- &= \E\left(\sum_{i = 1}^{m} X_i \sum_{j = 1}^{m} X_j\right)- \E(X)^2\\
- &= \E\left(\sum_{i, j = 1}^m X_iX_j\right)- \E(X)^2\\
- &= \sum_{i,j = 1}^{m} \E(X_iX_j)- \E(X)^2\\
- &= \sum_{i = 1}^{m} \E(X_iX_i) + \sum_{i \neq j, 1\leq i, j \leq m} \E(X_iX_j)- \E(X)^2\\
- &= m \cdot \left(\frac{m-1}{m}\right)^n + (m^2 - m) \left(\frac{m-2}{m}\right)^2 - m^2 \cdot \left(\frac{m-1}{m}\right)^{2n}
- \end{align*}
- \item Für $n = m = 50$ gilt $7^{-2}\var(X) \approx 0.0996$ und $\E(X) \approx 18.2$. Für $m_1 = 11, m_2 = 26$ erhalten wir
- \begin{align*}
- \P(X \in [m_1, m_2]) &\geq \P(|X - \E(X)| \leq 7)\\
- &= 1 - \P(|X - \E(X)| > 7)\\
- \intertext{Ungleichung von Tschebycheff}
- &\geq 1 - 7^{-2}\var(X)\\
- &\geq 1 - 0.0996\\
- &\geq 0.9
- \end{align*}
- \end{enumerate}
- \end{aufgabe}
-
- \end{document}
|