25개 이상의 토픽을 선택하실 수 없습니다. Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

204 lines
13KB

  1. \documentclass[uebung]{lecture}
  2. \title{Wtheo 0: Übungsblatt 5}
  3. \author{Josua Kugler, Christian Merten}
  4. \usepackage[]{bbm}
  5. \begin{document}
  6. \punkte[17]
  7. \begin{aufgabe}
  8. Beh.: $\varphi = \mathbbm{1}_{A_k}$ mit $ k \in \R^{+}$ ist bester Test
  9. zum Niveau $\mathbb{P}_0(A_k) \in [0,1]$.
  10. \begin{proof}
  11. Sei $\tilde{\varphi} = \mathbbm{1}_{\tilde{A}}$ ein Test zum Niveau $\mathbb{P}_0(A_k)$, d.h.
  12. $\mathbb{P}_0(\tilde{\varphi} = 1) = \mathbb{P}_0(\tilde{A}) \le \mathbb{P}_{0}(A_k) =
  13. \mathbb{P}_0(\varphi = 1)$ $(**)$.
  14. Z.z.: $\mathbb{P}_1(\tilde{\varphi} = 0) = \mathbb{P}_1(\tilde{A}^{c}) \ge \mathbb{P}_1(A_k^{c}) =
  15. \mathbb{P}_1(\varphi = 0)$.
  16. Es ist $x \in A_{k} \iff \mathbbm{f}_1(x) - k \mathbbm{f}_0(x) \ge 0$, also
  17. $x \in A_k^{c} \iff \mathbbm{f}_1(x) - k \mathbbm{f}_0(x) < 0$ $(*)$. Damit folgt
  18. \begin{salign*}
  19. \mathbb{P}_1(A_k) - k \mathbb{P}_0(A_k) &= \int_{A_k}^{} \left[ \mathbbm{f}_1(x) - k \mathbbm{f}_0(x) \right] \d{x} \\
  20. &\ge \int_{A_k \cap \tilde{A}}^{} \left[ \mathbbm{f}_1(x) - k \mathbbm{f}_0(x) \right] \d{x} \\
  21. &\ge \int_{A_k \cap \tilde{A}}^{} \left[ \mathbbm{f}_1(x) - k \mathbbm{f}_0(x) \right] \d{x}
  22. + \int_{A_k^{c} \cap \tilde{A}}^{} \underbrace{\left[ \mathbbm{f}_1(x) - k \mathbbm{f}_0(x) \right] }_{< 0 \; (*)}\d{x} \\
  23. &= \int_{\tilde{A}}^{} \left[ \mathbbm{f}_1(x) - k \mathbbm{f}_0(x) \right] \d{x} \\
  24. &= \mathbb{P}_1(\tilde{A}) - k \mathbb{P}_0(\tilde{A})
  25. .\end{salign*}
  26. Also folgt
  27. \[
  28. \mathbb{P}_1(A_k) - \mathbb{P}_1(\tilde{A}) \ge k (\mathbb{P}_0(A_k) - \mathbb{P}_0(\tilde{A}))
  29. \stackrel{\text{(**)}}{\ge } 0
  30. .\] Es ist also $\mathbb{P}_1(A_k) \ge \mathbb{P}_1(\tilde{A})$, insgesamt
  31. \[
  32. \mathbb{P}_1(A_k^{c}) = 1 - \mathbb{P}_1(A_k) \le 1 - \mathbb{P}_1(\tilde{A})
  33. = \mathbb{P}_1(\tilde{A}^{c})
  34. .\] Also Fehler $2$. Art minimiert und damit $\varphi$ bester Test zum Niveau $\mathbb{P}_0(A_k)$.
  35. \end{proof}
  36. \end{aufgabe}
  37. \begin{aufgabe}[]
  38. \begin{enumerate}[(a)]
  39. \item Der Neyman-Pearson-Test $\varphi \colon \R \to \{1,0\}$ ist gegeben durch $\mathbbm{1}_{A_{k_\alpha}}$ mit
  40. \[
  41. A_{k_\alpha} = \{x \in \R | \mathbbm{f}_1(x) \geq k_\alpha \mathbbm{f}_0(x)\} = \{x \in \R | \mathbbm{f}_1(x) / \mathbbm{f}_0(x) \geq k_\alpha\},
  42. \] wobei wir zeigen werden, dass ein $k_\alpha$ existiert mit $\mathbbm{P}_0(A_{k_\alpha}) = \alpha$.
  43. Dabei ist der Likelihoodquotient $L(x) = \frac{\mathbbm{f}_1(x)}{\mathbbm{f}_0(x)} = \frac{\lambda_0}{\lambda_1} e^{\left(\frac{1}{\lambda_0} - \frac{1}{\lambda_1}\right) x}$ stetig und wegen $\lambda_0 < \lambda_1 \implies \frac{1}{\lambda_0} > \frac{1}{\lambda_1}$ auch monoton wachsend. Insbesondere existiert zu jedem $k_\alpha$ genau ein $c_\alpha$ mit
  44. \[
  45. A_{k_\alpha} = [c_\alpha, \infty).
  46. \]
  47. Dann gilt
  48. \[
  49. \alpha \overset{!}{=} \mathbbm{P}_0(A_{k_\alpha}) = \int_{A_{k_\alpha}} \mathbbm{f}_0(x) \d{x} = \int_{c_\alpha}^\infty \frac{1}{\lambda_0}e^{- \frac{1}{\lambda_0} x} \d{x} = e^{- \frac{1}{\lambda_0} c_\alpha}
  50. \]
  51. Daher gilt $c_\alpha = -\lambda_0 \log(\alpha)$ und damit $\varphi = \mathbbm{1}_{[-\lambda_0\log(\alpha), \infty)}$
  52. \item Offensichtlich ist also $\varphi$ unabhängig von $\lambda_1$.
  53. Sei $\lambda < \lambda_0$. Dann gilt
  54. \[
  55. \mathbbm{P}_\lambda(A_{k_\alpha}) = \int_{-\lambda_0\log(\alpha)}^\infty \frac{1}{\lambda}e^{-\frac{1}{\lambda}x} \d{x} = e^{\frac{\lambda_0}{\lambda}\log(\alpha)} = \alpha^{\frac{\lambda_0}{\lambda}} < \alpha,
  56. \]
  57. da $\alpha < 1$.
  58. Damit hält $\varphi$ für $H_0: \lambda \le \lambda_0$ das Signifikanzniveau $\alpha$ ein und ist folglich gleichmäßig bester Test mit $H_1: \lambda > \lambda_0$, da für alle $\lambda_1 > \lambda_0$ nach dem Neyman-Pearson-Lemma $\varphi$ ein bester Test ist.
  59. \item Die Forscher liegen falsch, wenn die Nullhypothese $\lambda \leq \lambda_0$ wahr ist und sie diese ablehnen. Das ist also gerade ein Fehler erster Art und wir erhalten $\alpha = 0.05$. Damit ist $\varphi = \mathbbm{1}_{[- \lambda_0 \log(\alpha), \infty)} = \mathbbm{1}_{[15,7917, \infty]}$. Wegen $\varphi(X) = \varphi(13) = 0$ publizieren sie ihre Ergebnisse nicht.
  60. \item Es gilt $\mathcal{R}_\lambda = \mathcal F_\lambda^c = (0,\lambda)^c = [\lambda, \infty)$. Die assoziierte Familie von Partitionen ist
  61. \[
  62. \mathscr H_\lambda^0 \coloneqq \{\tilde \lambda \in \R^+ \colon \lambda \in \mathcal R_{\tilde \lambda}\}
  63. = \{\tilde \lambda \in \R^+ \colon \lambda \geq \tilde \lambda\} = (-\infty, \tilde \lambda]
  64. \] und analog
  65. \[
  66. \mathscr H_\lambda^1 \coloneqq \{\tilde \lambda \in \R^+ \colon \lambda \in \mathcal F_{\tilde \lambda}\}
  67. = \{\tilde \lambda \in \R^+ \colon \lambda < \tilde \lambda\} = (\tilde \lambda, \infty).
  68. \]
  69. Nach Aufgabe $b$ wissen wir, dass $\varphi_\lambda = \mathbbm{1}_{[-\lambda \log(\alpha)]}$ ein gleichmäßig bester Test zum Niveau $\alpha$ mit Nullhypothese $\mathscr H_\lambda^0$ gegen die Alternative $\mathscr H_\lambda^1$ ist. Nach Satz 12.33 muss damit die assoziierte Bereichsschätzfunktion $B$ ein gleichmäßig bester $(1-\alpha)$-Konfidenzbereich sein. Die assoziierte Bereichsschätzfunktion ist gegeben durch
  70. \begin{align*}
  71. B(x) &= \{\lambda \in \R^+ \colon \varphi_\lambda(x) = 0\}\\
  72. &= \{\lambda \in \R^+\colon \mathbbm{1}_{[-\lambda\log(\alpha), \infty)} = 0\}\\
  73. &= \{\lambda \in \R^+\colon x < -\lambda\log(\alpha)\}
  74. \intertext{$\log(\alpha) < 0$}
  75. &= \{\lambda \in \R^+\colon -x/\log(\alpha) < \lambda\}\\
  76. &= \left(-\frac{x}{\log(\alpha)}, \infty\right)
  77. \end{align*}
  78. \end{enumerate}
  79. \end{aufgabe}
  80. \begin{aufgabe}[]
  81. \begin{enumerate}[(a)]
  82. \item Beh.: $\hat{\theta}_n(x) = (\overline{x}_n, \frac{1}{n} \sum_{i=1}^{n} (x_i - \overline{x}_n)^2)$.
  83. \begin{proof}
  84. Betrachte für $\sigma^2 > 0$:
  85. \begin{salign*}
  86. L(x, \mu, \sigma^2) &= (2 \pi \sigma^2)^{-\frac{n}{2}} \exp\left( -\frac{1}{2\sigma^2}
  87. \sum_{i=1}^{n} (x_i - \mu)^2\right) \\
  88. l(x, \mu, \sigma^2) &= \log L \\
  89. &= -\frac{1}{2 \sigma^2} \sum_{i=1}^{n} (x_i - \mu)^2
  90. - \frac{n}{2} \log(2 \pi \sigma^2)
  91. \intertext{Es genügt die Maxima von $l = \log L$ zu betrachten, da der Logarithmus
  92. streng monoton wachsend ist. Betrachte den Gradienten bezüglich $\mu$ und $\sigma^2$:}
  93. \nabla l(x, \mu, \sigma^2) &= \begin{pmatrix}
  94. \frac{1}{2 \sigma^2} \sum_{i=1}^{n} 2 (x_i - \mu) \\
  95. \frac{1}{2 \sigma ^{4}} \sum_{i=1}^{n} (x_i - \mu)^2 - \frac{n}{2} \frac{1}{\sigma^2}
  96. \end{pmatrix}
  97. \stackrel{!}{=} 0
  98. .\end{salign*}
  99. Damit folgt
  100. \[
  101. \frac{1}{\sigma ^{4}} \sum_{i=1}^{n} (x_i - \mu)^2 = \frac{n}{\sigma^2}
  102. \implies \sigma^2 = \frac{1}{n} \sum_{i=1}^{n} (x_i - \mu)^2
  103. .\] Eingesetzt in die zweite Gleichung ergibt:
  104. \[
  105. n \frac{\sum_{i=1}^{n} (x_i - \mu)}{\sum_{i=1}^{n} (x_i - \mu)^2} = 0
  106. \implies \sum_{i=1}^{n} (x_i - \mu) = 0
  107. \implies \sum_{i=1}^{n} x_i = n \mu \implies \mu = \overline{x}_n
  108. .\] Damit folgt
  109. \[
  110. \sigma^2 = \frac{1}{n} \sum_{i=1}^{n} (x_i - \overline{x}_n)^2
  111. .\]
  112. Die Determinante der Hessematrix von $l$ bezüglich $\mu$ und $\sigma^2$
  113. ausgewertet bei $\mu = \overline{x}_n$ ist
  114. $\forall \sigma^2 > 0$:
  115. \begin{salign*}
  116. \text{det}\left[\begin{pmatrix} -\frac{n}{\sigma^2} & -\frac{1}{\sigma ^{4}} \sum_{i=1}^{n} (x_i - \mu) \\
  117. - \frac{1}{\sigma ^{4}} \sum_{i=1}^{n} (x_i - \mu) &
  118. - \frac{1}{\sigma ^{6}} \sum_{i=1}^{n} (x_i - \mu)^2 + \frac{n}{2} \frac{1}{\sigma ^{4}}
  119. \end{pmatrix}\Big|_{\mu = \overline{x}_n} \right]
  120. &= \text{det} \left[\begin{pmatrix}
  121. - \frac{n}{\sigma ^2} & 0 \\
  122. 0 & \frac{n}{2 \sigma ^{4}}
  123. \end{pmatrix} \right] \\
  124. &= - \underbrace{\frac{n^2}{2 \sigma ^{6}}}_{> 0} < 0
  125. .\end{salign*}
  126. Es liegt also ein (lokales) Maximum bei
  127. $\theta = (\overline{x}_n, \frac{1}{n} \sum_{i=1}^{n} (x_i - \overline{x}_n)^2)$ vor.
  128. Damit folgt die Behauptung.
  129. \end{proof}
  130. \item Beh.: $\hat{\theta}_n(x) = \frac{\overline{x}_n}{m}$.
  131. \begin{proof}
  132. Sei $m \in \N$ fest. Betrachte wieder den Logarithmus der Likelihoodfunktion:
  133. \begin{salign*}
  134. L(x, p) &= \prod_{i=1}^{n} p^{x_i} (1 - p)^{m - x_i} \\
  135. &= p^{n \overline{x}_n} (1-p)^{nm - n \overline{x}_n} \\
  136. l(x, p) &= n \overline{x}_n \log(p) + n(m - \overline{x}_n) \log(1-p)
  137. \intertext{Dann folgt}
  138. \frac{\partial l}{\partial p} &= \frac{n \overline{x}_n}{p} - \frac{n(m - \overline{x}_n)}{1-p} \stackrel{!}{=} 0\\
  139. \intertext{Damit folgt direkt}
  140. p &= \frac{\overline{x}_n}{m}
  141. \intertext{Dieses ist auch lokales Maximum da wegen $0 \le x_i \le m$ $\forall i \in \N$
  142. auch $0 \le \overline{x_n} \le m$ gilt und damit}
  143. \frac{\partial l^2}{\partial p^2} \Big|_{p = \frac{\overline{x}_n}{m}}
  144. &= - \frac{n \overline{x}_n}{p^2} - \frac{n(m - \overline{x}_n)}{(1-p)^2}
  145. \Big|_{p = \frac{\overline{x}_n}{m}} = - n \frac{m^2}{\overline{x}_n}
  146. - \frac{n(\overbrace{m - \overline{x}_n}^{\ge 0})}{\left( 1 - \frac{\overline{x}_n}{m} \right)^2} < 0
  147. .\end{salign*}
  148. Da $\frac{\overline{x}_n}{m}$ einzige Nullstelle von $\frac{\partial l}{\partial p}$, ist
  149. dieses auch globales Maximum. Damit folgt die Behauptung.
  150. \end{proof}
  151. \end{enumerate}
  152. \end{aufgabe}
  153. \begin{aufgabe}
  154. \begin{enumerate}[(a)]
  155. \item Für die Zähldichte $\mathbbm p_{X_i}$ gilt
  156. \[
  157. \mathbbm p_{X_i} = \begin{cases}
  158. \mathbbm p_{\text{Poi}_\lambda}(0) &| X_i = 0\\
  159. \sum_{i = 1}^{\infty} \mathbbm p_{\text{Poi}_\lambda}(i) &| X_i = 1
  160. \end{cases} = \begin{cases}
  161. e^{-\lambda} & |X_i = 0\\
  162. 1 - e^{-\lambda} & | X_i = 1
  163. \end{cases}
  164. \]
  165. Für die Produktzähldichte erhalten wir daher
  166. \[
  167. \prod_{i=1}^n \mathbbm p_{X_i} = (1 - e^{-\lambda})^{\sum_{i = 1}^{n} X_i} (e^{-\lambda})^{n - \sum_{i = 1}^{n} X_i}
  168. = (1 - e^{-\lambda})^{n \overline{X_n}} (e^{-\lambda})^{n - n \overline{X_n}}
  169. %(1 - e^{-\lambda})^{\sum_{i = 1}^{n} X_i} \cdot e^{-n\lambda} \cdot e^{\lambda \sum_{i = 1}^{n} X_i} = (e^{\lambda} - 1)^{\sum_{i = 1}^{n} X_i} \cdot e^{-n\lambda}
  170. \]
  171. Daraus ergibt sich die Likelihoodfunktion
  172. \[
  173. L(X, \lambda) = (1 - e^{-\lambda})^{n \overline{X_n}} e^{-n\lambda} e^{n \lambda \overline{X_n}} = (e^{\lambda} - 1)^{n \overline{X_n}} \cdot e^{-n\lambda},
  174. \]
  175. die log-Likelihoodfunktion
  176. \[
  177. l(X,\lambda) = n \overline{X_n} \log(e^\lambda - 1) - n\lambda,
  178. \]
  179. sowie deren Ableitung
  180. \[
  181. \frac{\partial}{\partial \lambda} l(X, \lambda) = n \overline{X_n} \frac{e^\lambda}{e^\lambda - 1} - n \overset{!}{=} 0,
  182. \]
  183. von der wir direkt die Nullstellen berechnen um Extremstellen in $L(X, \lambda)$ zu finden.
  184. Daraus folgern wir
  185. \begin{align*}
  186. \overline{X_n} e^{\hat \lambda_n} &= e^{\hat \lambda_n} - 1\\
  187. 1 - \overline{X_n} &= e^{-\hat \lambda_n}\\
  188. \hat \lambda_n &= -\log(1 - \overline{X_n}).
  189. \end{align*}
  190. \item Der Schätzer $ \hat \lambda_n$ existiert genau dann nicht, wenn $\overline{X_n} = 1 \Leftrightarrow X_i = 1 \forall 1\le i\le n$. Es gilt
  191. \[
  192. \mathbbm P(X_1 = \dots = X_n = 1) = \prod_{i=1}^n \mathbbm P_i(X_i = 1) = \prod_{i=1}^n (1 - e^{-\lambda}) = e^{-n\lambda} > 0.
  193. \]
  194. \end{enumerate}
  195. \end{aufgabe}
  196. \end{document}