You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

149 line
9.3KB

  1. \documentclass[uebung]{lecture}
  2. \title{Wtheo 0: Übungsblatt 6}
  3. \author{Josua Kugler, Christian Merten}
  4. \renewcommand{\P}{\mathbb{P}}
  5. \begin{document}
  6. \punkte[21]
  7. \begin{aufgabe}
  8. \begin{enumerate}[(a)]
  9. \item Beh.: $\mathbb{P}(\cdot \mid B)$ ist Wahrscheinlichkeitsmaß auf $(\Omega, \mathcal{A})$.
  10. \begin{proof}
  11. \begin{enumerate}[(i)]
  12. \item Es ist für $A \in \mathcal{A}$:
  13. $\mathbb{P}(A | B) = \frac{\mathbb{P}(A|B)}{\mathbb{P}(B)} \ge 0$,
  14. da $\mathbb{P}$ W'maß.
  15. \item $\mathbb{P}(\Omega | B) = \frac{\mathbb{P}(\Omega \cap B)}{\mathbb{P}(B)}
  16. = \frac{\mathbb{P}(B)}{\mathbb{P}(B)} = 1$.
  17. \item Seien $A_i \in \mathcal{A}$ mit $A_i$ paarweise disjunkt. Dann folgt
  18. \begin{salign*}
  19. \mathbb{P}\left( \bigcupdot_{i \in \N} A_i \right)
  20. &= \frac{\mathbb{P}\left( \left( \bigcupdot_{i \in \N} A_i \right) \cap B \right) }{\mathbb{P}(B)} \\
  21. &= \frac{\mathbb{P}\left( \bigcupdot_{i \in \N} (A_i \cap B) \right) }{\mathbb{P}(B)} \\
  22. &= \sum_{i \in \N} \frac{\mathbb{P}(A_i \cap B)}{\mathbb{P}(B)} \\
  23. &= \sum_{i \in \N} \mathbb{P}(A_i|B)
  24. ,\end{salign*}
  25. wobei im 3. Schritt die $\sigma$-Additivität von $\mathbb{P}$ ausgenutzt wurde.
  26. \end{enumerate}
  27. \end{proof}
  28. \item Es ist beispielsweise mit
  29. $A = \emptyset\colon \mathbb{P}(\emptyset | \Omega) = \frac{\mathbb{P}(\emptyset \cap \Omega)}{\mathbb{P}(\Omega)} = \frac{0}{1} = 0 \neq 1$.
  30. \end{enumerate}
  31. \end{aufgabe}
  32. \begin{aufgabe}
  33. Ist $X$ ein Ereignis, so bezeichne $\overline{X}$ das Gegenereignis zu $X$.
  34. Wir definieren $R, V$ und $S$ wie im Hinweis. Nach Aufgabenstellung gilt $\P(R) = \frac{1}{2},\P(V|R) = \frac{2}{3}$ und $\P(V|\overline R) = \frac{2}{3}$. Sei $A$ das Ereignis, dass Regen vorhergesagt wird.
  35. $A$ tritt genau dann ein, wenn es regnet und die Wettervorhersage recht hat oder wenn es nicht regnet und die Wettervorhersage falsch liegt. Es gilt daher
  36. $A = R \cap V \cup \overline R \cap \overline V$ und nach den De Morganschen Regeln
  37. \[
  38. \overline{A} = \overline{R \cap V} \cap \overline{\overline{R} \cap \overline{V}} = (\overline{R} \cup \overline{V}) \cap (R \cup V) = \overline{R} \cap V \cup \overline{V} \cap R
  39. \]
  40. Weiter gilt $\P(S|A) = 1$ und $\P(S|\overline A) = \frac{1}{3}$.
  41. %Die Wahrscheinlichkeit, dass Mr. Pickwick einen Schirm mitnimmt, obwohl kein Regen vorhergesagt wurde, ist unabhängig davon, ob es dann tatsächlich regnet oder nicht stets $\frac{1}{3}$.
  42. %Daher sind die Ereignisse $S \cap \overline{A}$ und $R$ stochastisch unabhängig.
  43. Da Mr. Pickwick nicht weiß, ob es regnen wird oder nicht, gilt sogar $\P(S|A\cap R) = \P(S|A\cap \overline R) = 1 $ und $\P(S|\overline A \cap R) = \P(S| \overline A \cap \overline R)$.
  44. Daraus erhalten wir
  45. \begin{align*}
  46. 1 = \P(S|A\cap R) = \frac{\P(S \cap A \cap R)}{\P(A \cap R)} &\implies \P(S \cap A \cap R) = \P(A \cap R),\\
  47. 1 = \P(S|A\cap \overline R) = \frac{\P(S \cap A \cap \overline R)}{\P(A \cap \overline R)} &\implies \P(S \cap A \cap \overline R) = \P(A \cap \overline R),\\
  48. \frac{1}{3} = \P(S|\overline A\cap R) = \frac{\P(S \cap \overline A \cap R)}{\P(\overline A \cap R)} &\implies \P(S \cap \overline A \cap R) = \frac{1}{3}\P(\overline A \cap R),\\
  49. \frac{1}{3} = \P(S|\overline A\cap \overline R) = \frac{\P(S \cap \overline A \cap \overline R)}{\P(\overline A \cap \overline R)} &\implies \P(S \cap \overline A \cap \overline R) = \frac{1}{3}\P(\overline A \cap \overline R),\\
  50. \end{align*}
  51. Zudem gilt
  52. \begin{align*}
  53. \frac{2}{3} = \P(V | R) = \frac{\P(V \cap R)}{\P(R)} = 2 P(V\cap R) &\implies P(V\cap R) = \frac{1}{3}\\
  54. \frac{2}{3} = \P(V | \overline R) = \frac{\P(V \cap \overline R)}{\P(\overline R)} = 2 P(V\cap \overline R) &\implies P(V\cap \overline R) = \frac{1}{3}\\
  55. \end{align*}
  56. Daraus erhalten wir wegen $\P(X \cap Y + \P(X \cap \overline{Y}) = \P(X)$ sofort
  57. \begin{align*}
  58. \P(\overline V\cap R) &= \P(R) - \P(V\cap R) = \frac{1}{2} - \frac{1}{3} = \frac{1}{6}\\
  59. \P(\overline{V} \cap \overline{R}) &= \P(\overline{R}) - \P(V \cap \overline{R}) = \frac{1}{2} - \frac{1}{3} = \frac{1}{6}
  60. \end{align*}
  61. \begin{enumerate}[(a)]
  62. \item Gesucht ist $\P(\overline{S}|R)$.
  63. Wir berechnen zunächst
  64. \begin{align*}
  65. \P(S \cap R) &= \P(S \cap R \cap A) + \P(S \cap R\cap \overline{A})\\
  66. &= \P(S\cap A \cap R) + \P(S \cap \overline{A} \cap R)\\
  67. &= \P(A \cap R) + \frac{1}{3} \P(\overline{A} \cap R)\\
  68. &= \P((R \cap V \cup \overline R \cap \overline V) \cap R) + \frac{1}{3}\P((\overline{R} \cap V \cup \overline{V} \cap R) \cap R)\\
  69. &= \P(R\cap V) + \frac{1}{3} \P(R \cap \overline{V})\\
  70. &= \frac{1}{3} + \frac{1}{3} \frac{1}{6} = \frac{7}{18}
  71. \end{align*}
  72. Es gilt daher
  73. \begin{align*}
  74. \P(\overline{S}|R) &= \frac{\P(\overline{S}\cap R)}{\P(R)}\\
  75. &= 2 \cdot (\P(R) - \P(S \cap R))\\
  76. &= 1 - 2 \P(S \cap R)\\
  77. &= 1 - 2 \frac{7}{18} = \frac{18}{18} - \frac{14}{18} = \frac{2}{9}
  78. \end{align*}
  79. \item Gesucht ist $\P(S| \overline{R})$.
  80. Wir berechnen zunächst
  81. \begin{align*}
  82. \P(S \cap \overline R) &= \P(S \cap \overline R \cap A) + \P(S \cap \overline R\cap \overline{A})\\
  83. &= \P(S\cap A \cap \overline R) + \P(S \cap \overline{A} \cap \overline R)\\
  84. &= \P(A \cap \overline R) + \frac{1}{3} \P(\overline{A} \cap \overline R)\\
  85. &= \P((R \cap V \cup \overline R \cap \overline V) \cap \overline R) + \frac{1}{3}\P((\overline{R} \cap V \cup \overline{V} \cap R) \cap \overline R)\\
  86. &= \P(\overline R\cap \overline V) + \frac{1}{3} \P(\overline R \cap V)\\
  87. &= \frac{1}{6} + \frac{1}{3} \frac{1}{3} = \frac{5}{18}
  88. \end{align*}
  89. Es gilt daher
  90. \begin{align*}
  91. \P(S|\overline R) &= \frac{\P(S\cap \overline R)}{\P(\overline{R})}\\
  92. &= 2 \cdot \P(S \cap \overline R)\\
  93. &= 2 \frac{5}{18} = \frac{10}{18} = \frac{5}{9}
  94. \end{align*}
  95. \end{enumerate}
  96. \end{aufgabe}
  97. \begin{aufgabe}
  98. \begin{enumerate}[(a)]
  99. \item Sei $A \in \mathcal{A}$. Dann ist $\mathbb{P}(\Omega \cap A) = \mathbb{P}(A) = 1 \cdot \mathbb{P}(A) = \mathbb{P}(\Omega) \mathbb{P}(A)$. Außerdem
  100. gilt $\mathbb{P}(\emptyset \cap A) = \mathbb{P}(\emptyset) = 0 = 0 \cdot \mathbb{P}(A) =
  101. \mathbb{P}(\emptyset) \mathbb{P}(A)$.
  102. \item Seien $A, B, C$ gemeinsam stochastisch unabhängig. Dann ist
  103. $\mathbb{P}((A \cap B) \cap C) = \mathbb{P}(A \cap B \cap C)
  104. = \mathbb{P}(A) \mathbb{P}(B) \mathbb{P}(C) = \mathbb{P}(A \cap B) \mathbb{P}(C)$.
  105. Außerdem gilt
  106. $\mathbb{P}((A \cup B) \cap C) = \mathbb{P}((A \cap B) \cup (B \cap C))
  107. = \mathbb{P}(A \cap C) + \mathbb{P}(B \cap C) - \mathbb{P}(A \cap C) \cap (B \cap C)
  108. = \mathbb{P}(A)\mathbb{P}(C) + \mathbb{P}(B) \mathbb{P}(C) - \mathbb{P}(A \cap B \cap C)
  109. = \mathbb{P}(C) (\mathbb{P}(A) + \mathbb{P}(B) - \mathbb{P}(A \cap B))
  110. = \mathbb{P}(C) \mathbb{P}(A \cup B)$.
  111. \item Da der Würfel Laplace verteilt angenommen ist, folgt direkt
  112. $\mathbb{P}(A) = \frac{1}{2}$ und $\mathbb{P}(B) = \frac{1}{2}$. Da
  113. die Summe der Augenzahlen genau dann gerade ist, wenn einer der Würfe eine gerade
  114. und einer der Würfe eine ungerade Zahl ergibt, folgt $\mathbb{P}(C) = \frac{1}{2}$.
  115. Dabei gilt $\mathbb{P}(A \cap B \cap C) = 0$, da die Summe der Augenzahlen gerade ist, falls
  116. beide Würfe gerade Augenzahlen ergeben.
  117. Die Ereignisse $A, B, C$ sind paarweise unabhängig, denn
  118. \begin{salign*}
  119. \mathbb{P}(A \cap C) &= \mathbb{P}(\text{,,1. Wurf gerade, 2. ungerade''}) = \frac{1}{4}
  120. = \mathbb{P}(A) \mathbb{P}(C) \\
  121. \mathbb{P}(A \cap B) &= \mathbb{P}(\text{,,1. und 2. Wurf gerade''})
  122. = \frac{1}{4} = \mathbb{P}(A) \mathbb{P}(B) \\
  123. \mathbb{P}(B \cap C) &= \mathbb{P}(\text{,,1. Wurf ungerade, 2. gerade''})
  124. = \frac{1}{4} = \mathbb{P}(B) \mathbb{P}(C)
  125. .\end{salign*}
  126. Aber $\mathbb{P}(A \cap B \cap C) = 0 \neq \frac{1}{8} = \mathbb{P}(A) \mathbb{P}(B) \mathbb{P}(C)$
  127. \end{enumerate}
  128. \end{aufgabe}
  129. \begin{aufgabe}
  130. %Sei $N$ die Anzahl der Zeichen in Goethes Faust und $M$ die Anzahl der verschiedenen Zeichen in Goethes Faust.
  131. %Sei dann $A_i$ das Ereignis, dass es ein $j \leq i$ gibt, sodass $\forall 1\leq k \leq N$ der $j + k$-te Buchstabe, den der Affe tippt, genau dem $i$-ten Buchstaben von Goethes Faust entspricht.
  132. %Die Weisheit entspricht dann wegen $A_i \subset A_j \forall i \leq j$ genau der Aussage
  133. %\[
  134. % \forall m \in \N\colon \exists n\in \N\colon \P(A_n) = 1 \Leftrightarrow \P(\limsup\limits_{n \to \infty} A_n)
  135. %\]
  136. %Offensichtlich sind alle Ereignisse stochastisch unabhängig. Außerdem ist $\P(A_i) = \frac{1}{M^N} \forall i \in \N$.
  137. \end{aufgabe}
  138. \end{document}