25'ten fazla konu seçemezsiniz Konular bir harf veya rakamla başlamalı, kısa çizgiler ('-') içerebilir ve en fazla 35 karakter uzunluğunda olabilir.

157 satır
9.8KB

  1. \documentclass[uebung]{lecture}
  2. \title{Wtheo 0: Übungsblatt 6}
  3. \author{Josua Kugler, Christian Merten}
  4. \renewcommand{\P}{\mathbb{P}}
  5. \usepackage{stmaryrd}
  6. \begin{document}
  7. \punkte[21]
  8. \begin{aufgabe}
  9. \begin{enumerate}[(a)]
  10. \item Beh.: $\mathbb{P}(\cdot \mid B)$ ist Wahrscheinlichkeitsmaß auf $(\Omega, \mathcal{A})$.
  11. \begin{proof}
  12. \begin{enumerate}[(i)]
  13. \item Es ist für $A \in \mathcal{A}$:
  14. $\mathbb{P}(A | B) = \frac{\mathbb{P}(A|B)}{\mathbb{P}(B)} \ge 0$,
  15. da $\mathbb{P}$ W'maß.
  16. \item $\mathbb{P}(\Omega | B) = \frac{\mathbb{P}(\Omega \cap B)}{\mathbb{P}(B)}
  17. = \frac{\mathbb{P}(B)}{\mathbb{P}(B)} = 1$.
  18. \item Seien $A_i \in \mathcal{A}$ mit $A_i$ paarweise disjunkt. Dann folgt
  19. \begin{salign*}
  20. \mathbb{P}\left( \bigcupdot_{i \in \N} A_i \right)
  21. &= \frac{\mathbb{P}\left( \left( \bigcupdot_{i \in \N} A_i \right) \cap B \right) }{\mathbb{P}(B)} \\
  22. &= \frac{\mathbb{P}\left( \bigcupdot_{i \in \N} (A_i \cap B) \right) }{\mathbb{P}(B)} \\
  23. &= \sum_{i \in \N} \frac{\mathbb{P}(A_i \cap B)}{\mathbb{P}(B)} \\
  24. &= \sum_{i \in \N} \mathbb{P}(A_i|B)
  25. ,\end{salign*}
  26. wobei im 3. Schritt die $\sigma$-Additivität von $\mathbb{P}$ ausgenutzt wurde.
  27. \end{enumerate}
  28. \end{proof}
  29. \item Es ist beispielsweise mit
  30. $A = \emptyset\colon \mathbb{P}(\emptyset | \Omega) = \frac{\mathbb{P}(\emptyset \cap \Omega)}{\mathbb{P}(\Omega)} = \frac{0}{1} = 0 \neq 1$.
  31. \end{enumerate}
  32. \end{aufgabe}
  33. \begin{aufgabe}
  34. Ist $X$ ein Ereignis, so bezeichne $\overline{X}$ das Gegenereignis zu $X$.
  35. Wir definieren $R, V$ und $S$ wie im Hinweis. Nach Aufgabenstellung gilt $\P(R) = \frac{1}{2},\P(V|R) = \frac{2}{3}$ und $\P(V|\overline R) = \frac{2}{3}$. Sei $A$ das Ereignis, dass Regen vorhergesagt wird.
  36. $A$ tritt genau dann ein, wenn es regnet und die Wettervorhersage recht hat oder wenn es nicht regnet und die Wettervorhersage falsch liegt. Es gilt daher
  37. $A = R \cap V \cup \overline R \cap \overline V$ und nach den De Morganschen Regeln
  38. \[
  39. \overline{A} = \overline{R \cap V} \cap \overline{\overline{R} \cap \overline{V}} = (\overline{R} \cup \overline{V}) \cap (R \cup V) = \overline{R} \cap V \cup \overline{V} \cap R
  40. \]
  41. Weiter gilt $\P(S|A) = 1$ und $\P(S|\overline A) = \frac{1}{3}$.
  42. %Die Wahrscheinlichkeit, dass Mr. Pickwick einen Schirm mitnimmt, obwohl kein Regen vorhergesagt wurde, ist unabhängig davon, ob es dann tatsächlich regnet oder nicht stets $\frac{1}{3}$.
  43. %Daher sind die Ereignisse $S \cap \overline{A}$ und $R$ stochastisch unabhängig.
  44. Da Mr. Pickwick nicht weiß, ob es regnen wird oder nicht, gilt sogar $\P(S|A\cap R) = \P(S|A\cap \overline R) = 1 $ und $\P(S|\overline A \cap R) = \P(S| \overline A \cap \overline R)$.
  45. Daraus erhalten wir
  46. \begin{align*}
  47. 1 = \P(S|A\cap R) = \frac{\P(S \cap A \cap R)}{\P(A \cap R)} &\implies \P(S \cap A \cap R) = \P(A \cap R),\\
  48. 1 = \P(S|A\cap \overline R) = \frac{\P(S \cap A \cap \overline R)}{\P(A \cap \overline R)} &\implies \P(S \cap A \cap \overline R) = \P(A \cap \overline R),\\
  49. \frac{1}{3} = \P(S|\overline A\cap R) = \frac{\P(S \cap \overline A \cap R)}{\P(\overline A \cap R)} &\implies \P(S \cap \overline A \cap R) = \frac{1}{3}\P(\overline A \cap R),\\
  50. \frac{1}{3} = \P(S|\overline A\cap \overline R) = \frac{\P(S \cap \overline A \cap \overline R)}{\P(\overline A \cap \overline R)} &\implies \P(S \cap \overline A \cap \overline R) = \frac{1}{3}\P(\overline A \cap \overline R),\\
  51. \end{align*}
  52. Zudem gilt
  53. \begin{align*}
  54. \frac{2}{3} = \P(V | R) = \frac{\P(V \cap R)}{\P(R)} = 2 P(V\cap R) &\implies P(V\cap R) = \frac{1}{3}\\
  55. \frac{2}{3} = \P(V | \overline R) = \frac{\P(V \cap \overline R)}{\P(\overline R)} = 2 P(V\cap \overline R) &\implies P(V\cap \overline R) = \frac{1}{3}\\
  56. \end{align*}
  57. Daraus erhalten wir wegen $\P(X \cap Y + \P(X \cap \overline{Y}) = \P(X)$ sofort
  58. \begin{align*}
  59. \P(\overline V\cap R) &= \P(R) - \P(V\cap R) = \frac{1}{2} - \frac{1}{3} = \frac{1}{6}\\
  60. \P(\overline{V} \cap \overline{R}) &= \P(\overline{R}) - \P(V \cap \overline{R}) = \frac{1}{2} - \frac{1}{3} = \frac{1}{6}
  61. \end{align*}
  62. \begin{enumerate}[(a)]
  63. \item Gesucht ist $\P(\overline{S}|R)$.
  64. Wir berechnen zunächst
  65. \begin{align*}
  66. \P(S \cap R) &= \P(S \cap R \cap A) + \P(S \cap R\cap \overline{A})\\
  67. &= \P(S\cap A \cap R) + \P(S \cap \overline{A} \cap R)\\
  68. &= \P(A \cap R) + \frac{1}{3} \P(\overline{A} \cap R)\\
  69. &= \P((R \cap V \cup \overline R \cap \overline V) \cap R) + \frac{1}{3}\P((\overline{R} \cap V \cup \overline{V} \cap R) \cap R)\\
  70. &= \P(R\cap V) + \frac{1}{3} \P(R \cap \overline{V})\\
  71. &= \frac{1}{3} + \frac{1}{3} \frac{1}{6} = \frac{7}{18}
  72. \end{align*}
  73. Es gilt daher
  74. \begin{align*}
  75. \P(\overline{S}|R) &= \frac{\P(\overline{S}\cap R)}{\P(R)}\\
  76. &= 2 \cdot (\P(R) - \P(S \cap R))\\
  77. &= 1 - 2 \P(S \cap R)\\
  78. &= 1 - 2 \frac{7}{18} = \frac{18}{18} - \frac{14}{18} = \frac{2}{9}
  79. \end{align*}
  80. \item Gesucht ist $\P(S| \overline{R})$.
  81. Wir berechnen zunächst
  82. \begin{align*}
  83. \P(S \cap \overline R) &= \P(S \cap \overline R \cap A) + \P(S \cap \overline R\cap \overline{A})\\
  84. &= \P(S\cap A \cap \overline R) + \P(S \cap \overline{A} \cap \overline R)\\
  85. &= \P(A \cap \overline R) + \frac{1}{3} \P(\overline{A} \cap \overline R)\\
  86. &= \P((R \cap V \cup \overline R \cap \overline V) \cap \overline R) + \frac{1}{3}\P((\overline{R} \cap V \cup \overline{V} \cap R) \cap \overline R)\\
  87. &= \P(\overline R\cap \overline V) + \frac{1}{3} \P(\overline R \cap V)\\
  88. &= \frac{1}{6} + \frac{1}{3} \frac{1}{3} = \frac{5}{18}
  89. \end{align*}
  90. Es gilt daher
  91. \begin{align*}
  92. \P(S|\overline R) &= \frac{\P(S\cap \overline R)}{\P(\overline{R})}\\
  93. &= 2 \cdot \P(S \cap \overline R)\\
  94. &= 2 \frac{5}{18} = \frac{10}{18} = \frac{5}{9}
  95. \end{align*}
  96. \end{enumerate}
  97. \end{aufgabe}
  98. \begin{aufgabe}
  99. \begin{enumerate}[(a)]
  100. \item Sei $A \in \mathcal{A}$. Dann ist $\mathbb{P}(\Omega \cap A) = \mathbb{P}(A) = 1 \cdot \mathbb{P}(A) = \mathbb{P}(\Omega) \mathbb{P}(A)$. Außerdem
  101. gilt $\mathbb{P}(\emptyset \cap A) = \mathbb{P}(\emptyset) = 0 = 0 \cdot \mathbb{P}(A) =
  102. \mathbb{P}(\emptyset) \mathbb{P}(A)$.
  103. \item Seien $A, B, C$ gemeinsam stochastisch unabhängig. Dann ist
  104. $\mathbb{P}((A \cap B) \cap C) = \mathbb{P}(A \cap B \cap C)
  105. = \mathbb{P}(A) \mathbb{P}(B) \mathbb{P}(C) = \mathbb{P}(A \cap B) \mathbb{P}(C)$.
  106. Außerdem gilt
  107. $\mathbb{P}((A \cup B) \cap C) = \mathbb{P}((A \cap B) \cup (B \cap C))
  108. = \mathbb{P}(A \cap C) + \mathbb{P}(B \cap C) - \mathbb{P}(A \cap C) \cap (B \cap C)
  109. = \mathbb{P}(A)\mathbb{P}(C) + \mathbb{P}(B) \mathbb{P}(C) - \mathbb{P}(A \cap B \cap C)
  110. = \mathbb{P}(C) (\mathbb{P}(A) + \mathbb{P}(B) - \mathbb{P}(A \cap B))
  111. = \mathbb{P}(C) \mathbb{P}(A \cup B)$.
  112. \item Da der Würfel Laplace verteilt angenommen ist, folgt direkt
  113. $\mathbb{P}(A) = \frac{1}{2}$ und $\mathbb{P}(B) = \frac{1}{2}$. Da
  114. die Summe der Augenzahlen genau dann gerade ist, wenn einer der Würfe eine gerade
  115. und einer der Würfe eine ungerade Zahl ergibt, folgt $\mathbb{P}(C) = \frac{1}{2}$.
  116. Dabei gilt $\mathbb{P}(A \cap B \cap C) = 0$, da die Summe der Augenzahlen gerade ist, falls
  117. beide Würfe gerade Augenzahlen ergeben.
  118. Die Ereignisse $A, B, C$ sind paarweise unabhängig, denn
  119. \begin{salign*}
  120. \mathbb{P}(A \cap C) &= \mathbb{P}(\text{,,1. Wurf gerade, 2. ungerade''}) = \frac{1}{4}
  121. = \mathbb{P}(A) \mathbb{P}(C) \\
  122. \mathbb{P}(A \cap B) &= \mathbb{P}(\text{,,1. und 2. Wurf gerade''})
  123. = \frac{1}{4} = \mathbb{P}(A) \mathbb{P}(B) \\
  124. \mathbb{P}(B \cap C) &= \mathbb{P}(\text{,,1. Wurf ungerade, 2. gerade''})
  125. = \frac{1}{4} = \mathbb{P}(B) \mathbb{P}(C)
  126. .\end{salign*}
  127. Aber $\mathbb{P}(A \cap B \cap C) = 0 \neq \frac{1}{8} = \mathbb{P}(A) \mathbb{P}(B) \mathbb{P}(C)$
  128. \end{enumerate}
  129. \end{aufgabe}
  130. \begin{aufgabe}
  131. Sei $N$ die Anzahl der (nicht notwendigerweise verschiedenen) Zeichen in Goethes Faust und $M$ die Menge der verschiedenen Zeichen in Goethes Faust.
  132. Sei $\Omega = M^\N$.
  133. Sei dann
  134. \[
  135. A_{n} \coloneqq \{\omega \in \Omega \colon \forall i \in \llbracket n, n+N-1 \rrbracket \colon \omega_i = G_{i-n}\},
  136. \]
  137. wobei $G_i$ das $i$-te Zeichen von Goethes Faust bezeichne.
  138. Die Ereignisse $(A_{kN})_{k\in \N}$ sind dann offensichtlich stochastisch unabhängig (analog zu Beispiel 14.8(b)) und es gilt
  139. $\P(A_i) = \frac{1}{(\# M)^N}$, also insbesondere
  140. \[
  141. \sum_{k\in \N} \P(A_{kN}) = \sum_{k\in \N} \frac{1}{(\# M)^N} = \infty.
  142. \]
  143. Nach dem Lemma von Borel-Cantelli gilt daher $\P(\limsup\limits_{k \to \infty} A_{kN}) = 1$. $(A_{kN})_{k \in \N}$ ist eine Teilfolge von $(A_n)_{n\in \N}$, also gilt auch $\P(\limsup\limits_{n \to \infty} A_n) = 1$.
  144. Die Menge $\limsup\limits_{n \to \infty} A_n$ enthält gerade die $\omega \in \Omega$, die in unendlich vielen $A_n$ enthalten sind, also genau die Zeichenfolgen, in denen der Affe unendlich oft Goethes Faust tippt. Eines dieser Ereignisse tritt mit Wahrscheinlichkeit 1 ein.
  145. \end{aufgabe}
  146. \end{document}