No puede seleccionar más de 25 temas Los temas deben comenzar con una letra o número, pueden incluir guiones ('-') y pueden tener hasta 35 caracteres de largo.

244 líneas
13KB

  1. \documentclass[uebung]{lecture}
  2. \title{Wtheo 0: Übungsblatt 11}
  3. \author{Josua Kugler, Christian Merten}
  4. \usepackage[]{mathrsfs}
  5. \newcommand{\E}{\mathbb{E}}
  6. \newcommand{\F}{\mathbbm{F}}
  7. \newcommand{\var}{\mathbb{V}\text{ar}}
  8. \newcommand{\indep}{\perp \!\!\! \perp}
  9. \begin{document}
  10. \punkte[40]
  11. \begin{aufgabe}[]
  12. \begin{enumerate}[(a)]
  13. \item In der $i$-ten Runde wird das Kapital mit $1 + (-0.5)^k_i$ multipliziert, wobei $k_i = 0$ für Kopf stehe
  14. und $k_i = 1$ bedeute, dass in der $i$-ten Runde Zahl geworfen wird. Offenbar ist $k_i$ Bernoulli-verteilt mit
  15. $n = 1$, $p = 0.5$. Daher gilt $R_i \overset{i.i.d}{\sim} 1 + (-0.5)^{B_{0.5}}$.
  16. \item Es gilt
  17. \begin{salign*}
  18. \E(K_n) &= \E\left(\prod_{i = 1}^n R_i\right)\\
  19. &\stackrel{\indep R_i}{=} \prod_{i=1}^n \E(R_i)\\
  20. &\stackrel{R_i \sim 1 + (-0.5)^{B_{0.5}}}{=} \E(1 + (-0.5)^{B_{0.5}})^n\\
  21. &= (0.5(1.5 + 0.5))^n\\
  22. &= 1
  23. \end{salign*}
  24. \item Es gilt
  25. \begin{align*}
  26. \E(\ln R_1) = 0.5 \cdot \ln(0.5) + 0.5 \cdot \ln(1.5) = \frac{\ln(3)}{2} - \ln(2) < 0.
  27. \end{align*}
  28. Insbesondere ist $\ln(R_1) \in \mathscr L_1$. Außerdem ist $(\ln R_i)_{i\in \N}$ eine unabhängig und identisch verteilte
  29. Folge reeller Zufallsvariablen. Daher sind die Voraussetzungen fürs SGGZ erfüllt und wir erhalten
  30. \begin{salign*}
  31. \lim\limits_{n \to \infty} \frac{1}{n} \ln K_n &= \lim\limits_{n \to \infty} \frac{1}{n} \sum_{i = 1}^{\infty} \ln R_i\\
  32. &= \lim\limits_{n \to \infty} \overline{\ln R_i}\\
  33. &\stackrel{\text{SGGZ}}{=} \E(R_1)\\
  34. &= \frac{\ln(3)}{2} - \ln(2) < 0.
  35. \intertext{Wir schließen daraus}
  36. \lim\limits_{n \to \infty} \ln K_n &= -\infty.
  37. \intertext{Schlussendlich folgt}
  38. \lim\limits_{n \to \infty} K_n &= \lim\limits_{n \to \infty} e^{\ln K_n}\\
  39. &\stackrel{\operatorname{exp} \text{ stetig}}{=} e^{\lim\limits_{n \to \infty} \ln K_n}\\
  40. &= 0.
  41. \end{salign*}
  42. \end{enumerate}
  43. \end{aufgabe}
  44. \begin{aufgabe}[]
  45. \begin{enumerate}[(a)]
  46. \item Aus dem ZGWS folgt mit Korollar 31.04: $\sqrt{n}[\overline{X_n}-\mu] \xrightarrow{D} N_{(0,\sigma^2)}$.
  47. Daraus erhalten wir für $a_n = \sqrt{n}, X_n = \overline{X_n}$ und $x = \mu$ mit Satz 29.19
  48. $\overline{X}_n \xrightarrow{\mathbbm{P}} \mu = \E(X_1)$. Das ist genau die Aussage des schwachen Gesetzes
  49. der großen Zahlen.
  50. \item Wir zeigen $X_n \xrightarrow{\mathbbm{P}} 0$. Daraus folgt dann die Behauptung.
  51. Sei $\epsilon > 0$.
  52. Es gilt wegen $\sqrt[n]{n} \xrightarrow{n \to \infty} 1$
  53. \begin{align*}
  54. \lim\limits_{n \to \infty} \sqrt[n]{\frac{2\epsilon}{n+1}} = 1.
  55. \end{align*}
  56. Für beliebiges $x \in (-1, 1)$ existiert daher ein $n\in \N$ mit $|x| < \sqrt[n]{\frac{2\epsilon}{n+1}}$.
  57. Insbesondere ist
  58. \begin{align*}
  59. \limsup\limits_{n \to \infty} \left\{|\frac{n+1}{2} |x|^n \mathbbm{1}_{(-1,1)}| > \epsilon\right\}
  60. &= \limsup\limits_{n \to \infty} \left\{x \in (-1, 1), |x| > \sqrt[n]{\frac{2\epsilon}{n+1}}\right\}= \emptyset
  61. \end{align*}
  62. und damit auch $\limsup\limits_{n \to \infty} \mathbbm{P}(\{|X_n| > \epsilon\}) = 0$.
  63. Das ist gerade die Definition von $X_n \xrightarrow{\mathbbm{P}} 0$, die Behauptung ist also bewiesen.
  64. \item \begin{enumerate}
  65. \item Es gilt $\forall x < 0\colon \F_n(x) = 0 \implies \F(x) = 0$,
  66. $\forall x \in [0,1]\colon \F_n(x) = \frac{x}{1 + 1/n} \implies \F(x) = x$ und
  67. $\forall x \geq 1\colon \F_n(x) = \frac{x}{1+1/n}$ für $x < 1+ 1/n \Leftrightarrow n < \frac{1}{x-1}$.
  68. Für $n > \frac{1}{x-1}$ gilt $\F_n(x) = 0$. Daraus folgt $\F(x) = 0$.
  69. Wir erhalten als Grenzwert der Verteilungsfunktionen
  70. \begin{align*}
  71. \lim\limits_{n \to \infty} \F_n(x) = \F(x) \coloneqq \begin{cases}
  72. 0 &| x < 0\\
  73. x &| 0 \leq x \leq 1\\
  74. 1 &| 1 < x
  75. \end{cases}
  76. \end{align*}
  77. Dies ist genau die Verteilungsfunktion von $U_{[0,1]}$, also wähle gilt $X_n \xrightarrow{D} U_{[0,1]}$.
  78. \item Es gilt
  79. \begin{align*}
  80. \lim\limits_{n \to \infty} \F_n(x) &= \lim\limits_{n \to \infty} \begin{cases}
  81. \int_0^x ne^{-n\tilde{x}}\d{\tilde{x}} = 1 - e^{-nx} &| x > 0\\
  82. 0 &| x \leq 0
  83. \end{cases}\\
  84. &= \begin{cases}
  85. 1 - \lim\limits_{n \to \infty} e^{-nx} &| x > 0\\
  86. 0&|x \leq 0
  87. \end{cases}\\
  88. &= \mathbbm{1}_{\R_{\setminus 0}^+}
  89. \end{align*}
  90. Es gilt aber $\lim\limits_{x \searrow 0} \mathbbm{1}_{\R_{\setminus 0}^+}(x) = 1 \neq 0 = \mathbbm{1}_{\R_{\setminus 0}^+}(0)$.
  91. Daher ist der Grenzwert der Verteilungsfunktion nicht rechtsstetig. Es kann daher keine Zufallsvariable mit dieser Verteilung
  92. existieren.
  93. \item Es gilt
  94. \begin{align*}
  95. \lim\limits_{n \to \infty} \F_n(x) &= \lim\limits_{n \to \infty} \begin{cases}
  96. \int_0^x \frac{1}{n}e^{-\frac{1}{n}\tilde{x}}\d{\tilde{x}} = 1 - e^{-\frac{1}{n}x} &| x > 0\\
  97. 0 &| x \leq 0
  98. \end{cases}\\
  99. &= \begin{cases}
  100. 1 - \lim\limits_{n \to \infty} e^{-\frac{1}{n}x} = 0 &| x > 0\\
  101. 0&|x \leq 0
  102. \end{cases}\\
  103. &\equiv 0
  104. \end{align*}
  105. Es gilt aber $\lim\limits_{x \to \infty} 0 = 0\neq 1$. Es kann daher keine Zufallsvariable mit dieser Verteilung
  106. existieren.
  107. \end{enumerate}
  108. \end{enumerate}
  109. \end{aufgabe}
  110. \begin{aufgabe}
  111. \begin{enumerate}[(a)]
  112. \item Sei $t \in \R$ beliebig. Dann rechne
  113. \begin{salign*}
  114. \E(\cos(tX)) &= \int_{a}^{b} \cos(tx) \frac{1}{b-a}\d{x}
  115. = \frac{1}{b-a} \frac{1}{t} \sin(tx) \Big|_{a}^{b} = \frac{1}{t(b-a)}(\sin(tb) - \sin(ta)) \\
  116. \E(\sin(tX)) &= \int_{a}^{b} \sin(tx) \frac{1}{b-a} \d{x}
  117. = \frac{1}{t(b-a)} (\cos(ta) - \cos(tb))
  118. \intertext{Insgesamt ergibt sich}
  119. \varphi_X(t) &= \frac{1}{t(b-a)} \left[ \sin(tb) - \sin(ta) + i \cos(ta) - i\cos(tb) \right]
  120. = \frac{1}{it(b-a)} \left[ \exp(tai) - \exp(tbi) \right]
  121. .\end{salign*}
  122. \item Da $Y$ und $Z$ unabhängig, sind auch $\exp(itY)$ und $\exp(itZ)$ unabhängig. Damit folgt
  123. für $t \in \R$:
  124. \begin{salign*}
  125. \varphi_{Y+Z}(t) &= \E(\exp(i t(Y + Z))) = \E(\exp(itY) \exp(itZ))
  126. = \E(\exp(itY)) \E(\exp(itZ)) = \varphi_Y(t) \varphi_Z(t)
  127. .\end{salign*}
  128. Es gilt nach VL $\E(\overline{Z}) = \overline{\E(Z)}$, also folgt
  129. \begin{salign*}
  130. \varphi_{-Y}(t) = \E(\exp(-itY)) = \E(\overline{e^{itY}}) = \overline{\E(e^{itY})}
  131. = \overline{\varphi_{Y}(t)}
  132. .\end{salign*}
  133. Seien nun $Y, Z$ identisch verteilt. Dann ist $\varphi_Y = \varphi_{Z}$ und
  134. es folgt für $t \in \R$
  135. \[
  136. \varphi_{Y-Z}(t) = \varphi_{Y} \varphi_{-Y}(t) = \varphi_Y(t) \overline{\varphi_Y(t)}
  137. = |\varphi_Y(t)|^2 \ge 0
  138. .\] Aber $\varphi_{X}(t) = \frac{\sin(t)}{t}$ für $X \sim U_{[-1, 1]}$ und
  139. für $t = \frac{3}{2} \pi$ folgt $\varphi_X(\frac{3}{2}\pi) = - \frac{2}{3 \pi} < 0$.
  140. Also ist $\varphi_X(t) \neq \varphi_{Y-Z}(t)$, also
  141. ist $Y - Z$ nicht $U_{[-1,1]}$ verteilt.
  142. \item Es gilt für $t \in \R$
  143. \[
  144. \varphi_{X_2}(t) = \varphi_{X_1}(t) = \varphi_{X_1 + X_2}(t) = \varphi_{X_1}(t) \varphi_{X_2}(t)
  145. .\] Da $\varphi_{X_1}(t) = \varphi_{X_2}(t) \neq 0$, folgt
  146. \[
  147. \varphi_{X_1}(t) = \varphi_{X_2}(t) = 1
  148. .\] Setze $Z \coloneqq 0$. Dann ist $\varphi_{Z}(t) = 1$ $\forall t \in \R$, also
  149. folgt
  150. \[
  151. \varphi_{X_1}(t) = \varphi_{X_2}(t) = \varphi_{Z}(t)
  152. .\] Betrachte nun $Y_n \coloneqq X_1$ $\forall n \in \N$. Dann
  153. ist $Y_n \xrightarrow{D} Z$. Da $Z$ konstant, folgt damit auch
  154. $Y_n \xrightarrow{\mathbb{P}} Z$. Also $\forall \epsilon > 0$
  155. \[
  156. \mathbb{P}(|X_2| > \epsilon) = \mathbb{P}(|X_1| > \epsilon) = \lim_{n \to \infty} \mathbb{P}(|Y_n - Z| > \epsilon) = 0
  157. .\] Da $\epsilon$ beliebig, folgt $\mathbb{P}(X_1 = 0) = \mathbb{P}(X_2 = 0) = 1$. Also
  158. $X_1 = 0 = X_2$ $\mathbb{P}$ f.s.
  159. \end{enumerate}
  160. \end{aufgabe}
  161. \begin{aufgabe}
  162. \begin{enumerate}[(a)]
  163. \item Setze $Y_i(x) \coloneqq \mathbbm{1}_{\{X_i \le x\}}$. Dann
  164. ist $Y_i(x) \sim \text{Bernoulli}_{p}$ mit:
  165. \[
  166. p := \mathbb{P}(X_i \le x) =\mathbb{P}(X_1 \le x) = \mathbb{F}(x)
  167. .\]
  168. Dann
  169. ist $n \hat{\mathbb{F}}_n(x) = \sum_{i=1}^{n} Y_i(x)$ und damit
  170. $n \hat{\mathbb{F}}_n(x) \sim \text{Bin}_{n,p}$ mit $p = \mathbb{P}(X_1 \le x) = \mathbb{F}(x)$.
  171. Damit folgt
  172. \begin{salign*}
  173. \E(\hat{\mathbb{F}}_n(x)) &= \frac{1}{n} \E(n\hat{\mathbb{F}}_n(x))
  174. = \frac{1}{n} n p = p = \mathbb{F}(x)\\
  175. \var(\hat{\mathbb{F}}_n(x)) &= \frac{1}{n^2} \var(n \hat{\mathbb{F}}_n(x)) = \frac{p(1-p)}{n}
  176. = \frac{\mathbb{F}(x)(1 - \mathbb{F}(x)}{n}
  177. .\end{salign*}
  178. \item Es ist $\hat{\mathbb{F}}_n(x) = \overline{Y}_n(x)$. Also folgt
  179. \begin{salign*}
  180. \lim_{n \to \infty} \hat{\mathbb{F}}_n(x) =
  181. \lim_{n \to \infty} \overline{Y}_n(x)
  182. &\stackrel{\text{SGGZ}}{=} \E(Y_1) = \mathbb{F}(x)
  183. .\end{salign*}
  184. \item Es gilt da $\var(Y_1) = p(1-p) = \mathbb{F}(x)(1 - \mathbb{F}(x))$:
  185. \begin{salign*}
  186. \sqrt{n} (\hat{\mathbb{F}}_n(x) - \mathbb{F}(x))
  187. = \sqrt{n} (\overline{Y}_n(x) - \mathbb{F}(x))
  188. \xrightarrow[\text{ZGWS}]{D} N_{(0, \var(Y_1(x))}
  189. = N_{(0, \mathbb{F}(x)(1 - \mathbb{F}(x))}
  190. .\end{salign*}
  191. \end{enumerate}
  192. \end{aufgabe}
  193. \begin{aufgabe}
  194. \begin{enumerate}[(a)]
  195. \item Sei $b \in \R^{+}$. Dann ist
  196. \begin{salign*}
  197. \text{Bias}_b(\hat{b}_n) &= \E_b(\hat{b}_n - b) = 2 \E_b(\overline{X}_n) - b =
  198. 2 \E_b(X_1) - b = 0 \\
  199. \var_b(\hat{b}_n) &= 4 \var_b(\overline{X}_n) = \frac{4}{n} \var_b(X_1) = \frac{b^2}{3n}
  200. .\end{salign*}
  201. Setze $Y_i \coloneqq 2 X_i$. Dann ist $\overline{Y}_n = 2 \overline{X}_n = \hat{b}_n$. Damit
  202. folgt mit ZGWS direkt
  203. \[
  204. \sqrt{n} (\hat{b}_n - b) = \sqrt{n} (\overline{Y}_n - \E(Y_1))
  205. \xrightarrow{D} N_{(0, \var(Y_1)} = N_{(0, b^2/3)}
  206. .\]
  207. \item Es ist $\hat{b}_n$ nach (a) $\sqrt{n} $-konsistent. Außerdem ist mit (a), dass
  208. \[
  209. \frac{\sqrt{3n} }{b} (\hat{b}_n - b) \xrightarrow{D} N_{(0, 1)}
  210. .\] Also ist $\frac{b}{\sqrt{3} }$ Störparameter. Da $\hat{b}_n = \overline{Y}_n$
  211. und $\E(Y_1) = b$, folgt mit dem SGGZ, dass
  212. \[
  213. \hat{b}_n = \overline{Y}_n \xrightarrow{\mathbb{P} \text{ f.s.}} \E(Y_1) = b
  214. .\] Also insbesondere $\hat{b}_n$ konsistenter Schätzer für $b$ und damit
  215. auch $\frac{\hat{b}_n}{\sqrt{3} }$ konsistenter Schätzer für den Störparameter
  216. $\frac{b}{\sqrt{3} }$. Damit folgt nach VL, dass
  217. $C_n^{(b)} \coloneqq [\hat{b}_n - \frac{\hat{b}_n}{\sqrt{3n} }q_{1-\alpha}, \infty)$
  218. ein $1-\alpha$ KB für die richtigen Parameter $\mathcal{R}_{b} = [b, \infty)$ ist, wobei
  219. $q_{1-\alpha}$ das $1-\alpha$ Quantil der Standardnormalverteilung ist.
  220. \item $H_0$ ist die assoziierte Nullhypothese zu $\mathcal{R}_{b_0}$. Damit folgt nach
  221. VL, da $C_n^{(b)}$ asympt. $1-\alpha$-KB, dass
  222. \[
  223. \phi_n^{(b)} = \mathbbm{1}_{\{b_0 \not\in C_{n}^{(b)}\} }
  224. = \mathbbm{1}_{\{ \hat{b}_n - \frac{\hat{b}_n}{\sqrt{3n} } q_{1-\alpha} > b_0\} }
  225. \] ein asympt. $1-\alpha$ Test ist.
  226. \item Ausrechnen ergibt $\overline{X}_n = 50.88$ und damit
  227. \[
  228. \hat{b}_{10} - \frac{\hat{b}_{10}}{\sqrt{3 \cdot 10} } 1.64 = 71.28 < 100
  229. \qquad C_{10}^{(b)} = [71.28, \infty)
  230. .\] Also sollte $H_0$ nicht abgelehnt werden.
  231. \end{enumerate}
  232. \end{aufgabe}
  233. \end{document}