選択できるのは25トピックまでです。 トピックは、先頭が英数字で、英数字とダッシュ('-')を使用した35文字以内のものにしてください。

190 行
12KB

  1. \documentclass[uebung]{lecture}
  2. \title{Wtheo 0: Übungsblatt 2}
  3. \author{Josua Kugler, Christian Merten}
  4. \usepackage[]{bbm}
  5. %sorry für die vielen Commands xD
  6. \newcommand{\A}{\mathcal{A}}
  7. \newcommand{\B}{\mathcal{B}}
  8. \newcommand{\D}{\mathcal{D}}
  9. \newcommand{\E}{\mathcal{E}}
  10. \newcommand{\X}{\mathcal{X}}
  11. \newcommand{\F}{\mathbb{F}}
  12. \newcommand{\IP}{\mathbb{P}}
  13. \begin{document}
  14. \def\headheight{13pt}
  15. \punkte[5]
  16. \begin{aufgabe}
  17. \begin{enumerate}[(a)]
  18. \item Beh.: $\mathcal{D}$ ist ein Dynkinsystem.
  19. \begin{proof}
  20. \begin{enumerate}[(i)]
  21. \item $\Omega \in \mathcal{D}$, denn $|\Omega| = 2n$ gerade.
  22. \item Sei $A \in \mathcal{D}$. Dann ist $|A| = 2k$ für ein $k \in \N_0$ mit
  23. $k \le 2n$. Da $\Omega$ endlich folgt
  24. \[
  25. |A^{c}| = |\Omega| - |A| = 2n - 2k = 2(n-k)
  26. .\] Also $A^{c} \in \mathcal{D}$.
  27. \item Sei $A_i \in \mathcal{D}$ $\forall i \in \N$ mit $A_i \cap A_j = \emptyset$
  28. für $i\neq j$. Dann ex. für $i \in \N$ ein $k_i \in \N_0$ mit
  29. $|A_i| = 2 k_i$. Damit folgt, da die $A_i$ disjunkt sind
  30. \[
  31. \left| \bigcupdot_{i \in \N} A_i \right|
  32. = \sum_{i \in \N} |A_i| = \sum_{i \in \N} 2 k_i
  33. = 2 \underbrace{\sum_{i \in \N} k_i}_{\in \N_0}
  34. .\]
  35. Also $\bigcup_{i \in \N} A_i \in \mathcal{D}$.
  36. \end{enumerate}
  37. \end{proof}
  38. \item Beh.: Für $n \ge 2$ ist $\mathcal{D}$ keine $\sigma$-Algebra.
  39. \begin{proof}
  40. Sei $n \ge 2$. Dann ist $|\Omega| \ge 4$. Seien dann $\omega_1, \omega_2, \omega_3 \in \Omega$
  41. paarweise
  42. verschieden. Dann ist
  43. \[
  44. \underbrace{\{\omega_1, \omega_2 \}}_{\in \mathcal{D}}
  45. \cap
  46. \underbrace{\{\omega_2, \omega_3\}}_{\in \mathcal{D}}
  47. = \{w_2\} \not\in \mathcal{D}
  48. .\] Also $\mathcal{D}$ nicht $\cap $-stabil, also keine $\sigma$-Algebra.
  49. \end{proof}
  50. \end{enumerate}
  51. \end{aufgabe}
  52. \begin{aufgabe}
  53. \begin{enumerate}[(a)]
  54. \item \textbf{Zu zeigen:} $\IP_1 = \IP_2$.
  55. \begin{proof}
  56. Schritt 2 und Schritt 3 sind bereits erledigt. Daher betrachten wir die Menge $\D = \{A\in \A| \IP_1(A) = \IP_2(A)\}$.
  57. \begin{enumerate}[(i)]
  58. \item Da $\E$ ein Erzeuger von $\A$ ist, muss $\Omega \in \E$ liegen, somit gilt $\IP_1(\Omega) = \IP_2(\Omega)$ und daraus folgt $\Omega \in \D$.
  59. \item Sei $E \in \D$. Dann gilt $\IP_1(E^c) = \IP_1(\Omega \setminus E) = \IP_1(\Omega) - \IP_1(\Omega \cap E) = 1 - \IP_1(E) = 1 - \IP_2(E)$. Mithilfe analoger Umformungsschritte auf der rechten Seite erhält man $\IP_1(E^c) = \IP_2(E^c)$ und damit $E^c \in \D$. $\D$ ist also komplementstabil
  60. \item Sei $\forall n \in \N\colon E_n \in \D$. Dann gilt
  61. \[
  62. \IP_1\left(\biguplus_{n\in \N} E_n\right) = \sum_{n \in \N} \IP_1(E_n) = \sum_{n \in \N} \IP_2(E_n) = \IP_2\left(\biguplus_{n\in \N} E_n\right).
  63. \]
  64. Somit ist auch $\biguplus_{n\in \N}E_n \in \D$.
  65. \end{enumerate}
  66. $\D$ ist also ein Dynkin-System. Da $\E$ schnittstabil ist, gilt $\E \subset \D$. Insbesondere folgt unter Benutzung des $\pi-\lambda-$Satzes \[\A = \sigma(\E) = \delta(\E) \subset \D,\] da $\D$ ja ein Dynkin-System ist, das $\E$ enthält. Wegen $\D \subset \A$ erhalten wir die sofort $\A = \D$. Somit gilt $\IP_1(A) = \IP_2(A) \forall A \in \A$.
  67. \end{proof}
  68. \item \textbf{Behauptung:} $\sigma(\E) = 2^\Omega$. Außerdem sind die Wahrscheinlichkeitsmaße $\IP_1,\IP_2$ eindeutig gegeben durch
  69. \[
  70. \IP_1(\{x\}) = 0.25 \forall x \in \Omega
  71. \]
  72. \[
  73. \IP_2(\{a\}) = \IP_2(\{c\}) = 0.2,\quad \IP_2(\{b\}) = \IP_2(\{d\}) = 0.3
  74. \] und stimmen auf $\E$ überein, nicht aber auf $2^\Omega$.
  75. \begin{proof}
  76. Eine $\sigma$-Algebra enthält stets $\Omega$ und ist stabil bezüglich Schnitt, Vereinigung und Komplement. Daher liegen $\Omega = \{a,b,c,d\},\; \{a\} = A \setminus C,\; \{b\} = A\cap C,\; c = C \setminus A$ und $\{d\} = \Omega \setminus (A \cup C)$ in $\sigma(\E)$. Aus den Mengen $\{a\}, \{b\},\{c\},\{d\}$ erhält man durch disjunkte Vereinigung jede Teilmenge $E \in 2^\Omega$. Daraus folgt auf der einen Seite $\sigma(\E) = \Omega$. Auf der anderen Seite folgt auch, dass $\IP_1$ und $\IP_2$ durch die Werte auf diesen vier einelementigen Mengen bereits eindeutig bestimmt sind, da jeder beliebige Wert als disjunkte Vereinigung aus den Mengen und damit als Summe aus den Werten von $\IP_i$ konstruiert werden kann.
  77. Offensichtlich ist $\IP_1(\{a\}) \neq \IP_2(\{a\})$. Daher stimmen die beiden Maße auf $2^\Omega$ nicht überein. Es gilt aber $\IP_1(A) = \IP_1(\{a\}\uplus \{b\}) = \IP_1(\{a\}) + \IP_1(\{b\}) = 0.5 = \IP_2(\{a\}) + \IP_2(\{b\}) = \IP_2(A)$ und $\IP_1(B) = \IP_1(\{b\}\uplus \{c\}) = \IP_1(\{b\}) + \IP_1(\{c\}) = 0.5 = \IP_2(\{b\}) + \IP_2(\{c\}) = \IP_2(B)$.
  78. \end{proof}
  79. Offensichtlich ist $\E$ einfach nicht schnittstabil, da $A \cap C = \{b\}\notin \E$. Also lässt sich auch der Maßeindeutigkeitssatz nicht anwenden.
  80. \end{enumerate}
  81. \end{aufgabe}
  82. \begin{aufgabe}[]
  83. \begin{enumerate}[(a)]
  84. \item Beh.: $\sum_{\omega \in \Omega} \mathbbm{p}(\omega) = 1$
  85. \begin{proof}
  86. \begin{enumerate}[(i)]
  87. \item Z.z.: $\binom{\alpha + k -1}{k} = (-1)^{k} \binom{-\alpha}{k}$
  88. $\forall \alpha \in \N, k \in \N_0$.
  89. Seien $\alpha \in \N, k \in \N_0$. Dann folgt
  90. \begin{salign*}
  91. \binom{\alpha + k -1}{k} &= \frac{(\alpha + k -1)!}{k!(\alpha -1)!} \\
  92. &= \frac{(\alpha + k-1)\cdots (\alpha +1) \alpha }{k!} \\
  93. &= (-1)^{k}\frac{(-\alpha -(k-1) \cdot \ldots \cdot (-\alpha -1)(-\alpha)}{k!} \\
  94. &= (-1)^{k}\frac{(-\alpha)(-\alpha-1)\cdot \ldots\cdot (-\alpha-(k-1))}{k!} \\
  95. &= (-1)^{k} \binom{-\alpha}{k}
  96. .\end{salign*}
  97. \item Z.z.: $(1+x)^{\alpha} = \sum_{k=0}^{\infty} \binom{\alpha}{k} x^{k}$
  98. $\forall \alpha \in \Z, x \in (-1,1)$.
  99. Seien $\alpha \in \Z$, $x \in (-1,1)$. Dann betrachte
  100. \begin{salign*}
  101. f\colon (-1,1) &\to \R \\
  102. x&\mapsto (1+x)^{\alpha}
  103. .\end{salign*}
  104. Dann ist $f^{(k)}(0) = \prod_{j=0}^{k-1} (\alpha-j) $. Damit folgt als Taylorpolynom
  105. für $f$ im Entwicklungspunkt $x_0 = 0$:
  106. \begin{salign*}
  107. T_n(x, 0) &= \sum_{k=0}^{n} \frac{f^{(k)}(0)}{k!} (x-0)^{k} \\
  108. &= \sum_{k=0}^{n} \frac{\prod_{j=0}^{k-1} (\alpha-j) }{k!} x^{k} \\
  109. &= \sum_{k=0}^{n} \binom{\alpha}{k} x^{k}
  110. .\end{salign*}
  111. Mit $a_k \coloneqq \binom{\alpha}{k} x^{k}$ folgt
  112. \begin{salign*}
  113. \left| \frac{a_{k+1}}{a_k} \right| &= \left| \frac{\frac{\prod_{j=0}^{k} (\alpha-j) }{(k+1)!} x^{k+1}}{\frac{\prod_{j=0}^{k-1} (\alpha-j) }{k!}x^{k}} \right| \\
  114. &= \left| \frac{\alpha-k}{k+1} \right| |x| \\
  115. &\xrightarrow{k \to \infty} |x| < 1
  116. .\end{salign*}
  117. $T_n$ ist also konvergent $\forall x \in (-1,1)$:
  118. \[
  119. T_n(x, 0) \xrightarrow{n \to \infty} f(x) = (1+x)^{\alpha}
  120. .\]
  121. \item Damit folgt nun für $r \in \N$ und $p \in (0,1)$:
  122. \begin{salign*}
  123. \sum_{\omega \in \N_0} \mathbbm{p}(\omega)
  124. &= \sum_{\omega \in \N_0} \binom{\omega + r -1}{\omega} p^{r} (1-p)^{\omega} \\
  125. &= p^{r} \sum_{\omega \in \N_0} \binom{\omega + r -1}{\omega} (1-p)^{\omega} \\
  126. &\stackrel{\text{(i)}}{=} p^{r} \sum_{\omega \in \N_0} (-1)^{\omega}
  127. \binom{-r}{\omega}(1-p)^{\omega} \\
  128. &= p^{r} \sum_{\omega \in \N_0} \binom{-r}{\omega} (p-1)^{\omega} \\
  129. &\stackrel{\text{(ii)}}{=}
  130. p^{r}(1+p-1)^{-r} \\
  131. &= p^{r} p^{-r} \\
  132. &= 1
  133. .\end{salign*}
  134. \end{enumerate}
  135. \end{proof}
  136. Mit Hilfe dieser Zähldichte kann modelliert werden, dass eine Münze bei $\omega + r$ Würfen
  137. genau im $\omega + r$-ten Wurf $r$ mal Kopf gezeigt hat.
  138. \item Es soll nach dem 30. Zug genau zum 6. Mal gewonnen werden, d.h. $r=6$, damit
  139. \[
  140. \omega +r = 30 \implies \omega = 24
  141. .\] Mit $p=0.2$ und der (a) folgt
  142. \[
  143. \mathbb{P}(\{\omega\}) = \binom{24 + 6 -1}{24} 0.2^{6}(1-0.2)^{24} \approx 0.625
  144. .\]
  145. \end{enumerate}
  146. \end{aufgabe}
  147. \begin{aufgabe}
  148. \begin{enumerate}[(a)]
  149. \item Es gilt
  150. \begin{align*}
  151. \scriptstyle{\IP}_{\text{Hyp}_{(N, M, n)}}(\omega) &= \frac{\binom{N-M}{n-\omega}\binom{M}{\omega}}{\binom{N}{n}}\\
  152. &= \frac{\frac{(N-M)!}{(N-M-(n-\omega))! \cdot (n-\omega)!} \cdot \frac{M!}{(M-\omega)! \cdot \omega!}}{\frac{N!}{(N-n)!\cdot n!}}\\
  153. &= \frac{n!}{(n-\omega)!\cdot \omega!} \cdot \frac{M!}{(M-\omega)!} \cdot \frac{(N-n)!}{N!} \cdot \frac{(N-M)!}{(N-M-(n - \omega))!}\\
  154. &= \binom{n}{\omega} \cdot \frac{M^\omega \cdot \prod_{i=1}^\omega (1 - \frac{i}{M})}{N^\omega \cdot \prod_{i = 1}^\omega (1 - \frac{i}{N})} \cdot \frac{(N-M)^{n - \omega - 1} \prod_{i = 1}^{n - \omega - 1}\left(1 - \frac{i}{N-M}\right)}{N ^{n-1 - \omega} \prod_{i = \omega}^{n - 1} (1 - \frac{i}{N})}
  155. \intertext{Bilden wir nun den Grenzwert $\lim\limits_{N, M \to \infty}$, so erhalten wir}
  156. &= \lim\limits_{N, M \to \infty} \binom{n}{\omega} \cdot \left(\frac{M}{N}\right)^\omega \cdot \left(\frac{N- M }{N}\right)^{n - \omega - 1}
  157. \intertext{Wegen $M/N \to p$ erhalten wir daraus}\\
  158. &= \binom{n}{\omega} \cdot \left(p\right)^\omega \cdot \left(1-p\right)^{n - \omega - 1}\\
  159. &= \scriptstyle{\IP}_{\text{Bin}_{(n, p)}}(\omega)
  160. \end{align*}
  161. \item Die Situation kann durch eine hypergeometrische Verteilung $\text{Hyp}_{(N, M , n)}$ mit $N = 1000, M = 200, n = 10$ modelliert werden. Daher erhalten wir als exaktes Ergebnis
  162. \[
  163. \scriptstyle{\IP}_{\text{Hyp}_{(1000, 200, 10)}}(2) = \frac{\binom{800}{8}\binom{200}{2}}{\binom{1000}{10}} \approx 0.304
  164. \] und für die Näherung durch $\text{Bin}_{(10,0.2)}$ ergibt sich
  165. \[
  166. \scriptstyle{\IP}_{\text{Bin}_{(10, 0.2)}}(2) = \binom{10}{2} (0.2)^2 (0.8)^2 \approx 0.302.
  167. \]
  168. \item Die Zähldichte entspricht genau einer Binomialverteilung $\text{Bin}_{(n, p)}$ mit $n = 100$ und $p = 0.01$. Es gilt nun für das eindeutig bestimmte Wahrscheinlichkeitsmaß
  169. \[
  170. \IP(\{x | 2 \leq x \leq 100\}) = \IP(\{1,\dots, 100\} \setminus \{0,1\}) = 1 - \scriptstyle{\IP}_{\text{Bin}_{(100, 0.01)}}(0) - \scriptstyle{\IP}_{\text{Bin}_{(100, 0.01)}}(1).
  171. \]
  172. Wegen $\scriptstyle{\IP}_{\text{Bin}_{(100, 0.01)}}(0) = \binom{100}{0} \cdot 0.01^0 \cdot 0.99^100 \approx 0.366$ und $\scriptstyle{\IP}_{\text{Bin}_{(100, 0.01)}}(1) = \binom{100}{1} \cdot 0.01^1 \cdot 0.99^99 = 0.370$
  173. erhalten wir damit als exakte Wahrscheinlichkeit $\IP(\{x | 2 \leq x \leq 100\}) \approx 1 - 0.366 - 0.370 = 0.264$.
  174. Wir nähern nun die Binomialverteilung durch eine Poisson-Verteilung. Wegen $p \cdot n = 0.01 \cdot 100 = 1$ wählen wir $\lambda = 1$ und erhalten $\scriptstyle{\IP}_{\text{Bin}_{(100, 0.01)}}(0) \approx \scriptstyle{\IP}_{\text{Poi}_1}(0) = e^{-1}\frac{1^0}{0!} = \frac{1}{e}$ und $\scriptstyle{\IP}_{\text{Bin}_{(100, 0.01)}}(1) \approx \scriptstyle{\IP}_{\text{Poi}_1}(1) = e^{-1}\frac{1^1}{1!} = \frac{1}{e}$. Für die genäherte Wahrscheinlichkeit ergibt sich damit $\IP(\{x | 2 \leq x \leq 100\}) \approx 1 - \frac{2}{e} = 0.264$.
  175. \end{enumerate}
  176. \end{aufgabe}
  177. \end{document}