|
- \documentclass[uebung]{lecture}
-
- \title{Wtheo 0: Übungsblatt 11}
- \author{Josua Kugler, Christian Merten}
- \usepackage[]{mathrsfs}
- \newcommand{\E}{\mathbb{E}}
- \newcommand{\var}{\mathbb{V}\text{ar}}
-
- \begin{document}
-
- \punkte[40]
-
- \begin{aufgabe}[]
-
- \end{aufgabe}
-
- \begin{aufgabe}[]
-
- \end{aufgabe}
-
- \begin{aufgabe}
- \begin{enumerate}[(a)]
- \item Sei $t \in \R$ beliebig. Dann rechne
- \begin{salign*}
- \E(\cos(tX)) &= \int_{a}^{b} \cos(tx) \frac{1}{b-a}\d{x}
- = \frac{1}{b-a} \frac{1}{t} \sin(tx) \Big|_{a}^{b} = \frac{1}{t(b-a)}(\sin(tb) - \sin(ta)) \\
- \E(\sin(tX)) &= \int_{a}^{b} \sin(tx) \frac{1}{b-a} \d{x}
- = \frac{1}{t(b-a)} (\cos(ta) - \cos(tb))
- \intertext{Insgesamt ergibt sich}
- \varphi_X(t) &= \frac{1}{t(b-a)} \left[ \sin(tb) - \sin(ta) + i \cos(ta) - i\cos(tb) \right]
- = \frac{1}{it(b-a)} \left[ \exp(tai) - \exp(tbi) \right]
- .\end{salign*}
- \item Da $Y$ und $Z$ unabhängig, sind auch $\exp(itY)$ und $\exp(itZ)$ unabhängig. Damit folgt
- für $t \in \R$:
- \begin{salign*}
- \varphi_{Y+Z}(t) &= \E(\exp(i t(Y + Z))) = \E(\exp(itY) \exp(itZ))
- = \E(\exp(itY)) \E(\exp(itZ)) = \varphi_Y(t) \varphi_Z(t)
- .\end{salign*}
- Es gilt nach VL $\E(\overline{Z}) = \overline{\E(Z)}$, also folgt
- \begin{salign*}
- \varphi_{-Y}(t) = \E(\exp(-itY)) = \E(\overline{e^{itY}}) = \overline{\E(e^{itY})}
- = \overline{\varphi_{Y}(t)}
- .\end{salign*}
- Seien nun $Y, Z$ identisch verteilt. Dann ist $\varphi_Y = \varphi_{Z}$ und
- es folgt für $t \in \R$
- \[
- \varphi_{Y-Z}(t) = \varphi_{Y} \varphi_{-Y}(t) = \varphi_Y(t) \overline{\varphi_Y(t)}
- = |\varphi_Y(t)| \ge 0
- .\] Aber $\varphi_{X}(t) = \frac{\sin(t)}{t}$ für $X \sim U_{[-1, 1]}$ und
- für $t = \frac{3}{2} \pi$ folgt $\varphi_X(\frac{3}{2}\pi) = - \frac{2}{3 \pi} < 0$.
- Also ist $\varphi_X(t) \neq \varphi_{Y-Z}(t)$, also
- ist $Y - Z$ nicht $U_{[-1,1]}$ verteilt.
- \item Es gilt für $t \in \R$
- \[
- \varphi_{X_2}(t) = \varphi_{X_1}(t) = \varphi_{X_1 + X_2}(t) = \varphi_{X_1}(t) \varphi_{X_2}(t)
- .\] Da $\varphi_{X_1}(t) = \varphi_{X_2}(t) \neq 0$, folgt
- \[
- \varphi_{X_1}(t) = \varphi_{X_2}(t) = 1
- .\] Setze $Z \coloneqq 0$. Dann ist $\varphi_{Z}(t) = 1$ $\forall t \in \R$, also
- folgt
- \[
- \varphi_{X_1}(t) = \varphi_{X_2}(t) = \varphi_{Z}(t)
- .\] Betrachte nun $Y_n \coloneqq X_1$ $\forall n \in \N$. Dann
- ist $Y_n \xrightarrow{D} Z$. Da $Z$ konstant, folgt damit auch
- $Y_n \xrightarrow{\mathbb{P}} Z$. Also $\forall \epsilon > 0$
- \[
- \mathbb{P}(|X_2| > \epsilon) = \mathbb{P}(|X_1| > \epsilon) = \lim_{n \to \infty} \mathbb{P}(|Y_n - Z| > \epsilon) = 0
- .\] Da $\epsilon$ beliebig, folgt $\mathbb{P}(X_1 = 0) = \mathbb{P}(X_2 = 0) = 1$. Also
- $X_1 = 0 = X_2$ $\mathbb{P}$ f.s.
- \end{enumerate}
- \end{aufgabe}
-
- \begin{aufgabe}
- \begin{enumerate}[(a)]
- \item Setze $Y_i(x) \coloneqq \mathbbm{1}_{\{X_i \le x\}}$. Dann
- ist $Y_i(x) \sim \text{Bernoulli}_{p}$ mit:
- \[
- p := \mathbb{P}(X_i \le x) =\mathbb{P}(X_1 \le x) = \mathbb{F}(x)
- .\]
- Dann
- ist $n \hat{\mathbb{F}}_n(x) = \sum_{i=1}^{n} Y_i(x)$ und damit
- $n \hat{\mathbb{F}}_n(x) \sim \text{Bin}_{n,p}$ mit $p = \mathbb{P}(X_1 \le x) = \mathbb{F}(x)$.
- Damit folgt
- \begin{salign*}
- \E(\hat{\mathbb{F}}_n(x)) &= \frac{1}{n} \E(n\hat{\mathbb{F}}_n(x))
- = \frac{1}{n} n p = p = \mathbb{F}(x)\\
- \var(\hat{\mathbb{F}}_n(x)) &= \frac{1}{n^2} \var(n \hat{\mathbb{F}}_n(x)) = \frac{p(1-p)}{n}
- = \frac{\mathbb{F}(x)(1 - \mathbb{F}(x)}{n}
- .\end{salign*}
- \item Es ist $\hat{\mathbb{F}}_n(x) = \overline{Y}_n(x)$. Also folgt
- \begin{salign*}
- \lim_{n \to \infty} \hat{\mathbb{F}}_n(x) =
- \lim_{n \to \infty} \overline{Y}_n(x)
- &\stackrel{\text{SGGZ}}{=} \E(Y_1) = \mathbb{F}(x)
- .\end{salign*}
- \item Es gilt da $\var(Y_1) = p(1-p) = \mathbb{F}(x)(1 - \mathbb{F}(x))$:
- \begin{salign*}
- \sqrt{n} (\hat{\mathbb{F}}_n(x) - \mathbb{F}(x))
- = \sqrt{n} (\overline{Y}_n(x) - \mathbb{F}(x))
- \xrightarrow[\text{ZGWS}]{D} N_{(0, \var(Y_1(x))}
- = N_{(0, \mathbb{F}(x)(1 - \mathbb{F}(x))}
- .\end{salign*}
- \end{enumerate}
- \end{aufgabe}
-
- \begin{aufgabe}
- \begin{enumerate}[(a)]
- \item Sei $b \in \R^{+}$. Dann ist
- \begin{salign*}
- \text{Bias}_b(\hat{b}_n) &= \E_b(\hat{b}_n - b) = 2 \E_b(\overline{X}_n) - b =
- 2 \E_b(X_1) - b = 0 \\
- \var_b(\hat{b}_n) &= 4 \var_b(\overline{X}_n) = \frac{4}{n} \var_b(X_1) = \frac{b^2}{3n}
- .\end{salign*}
- Setze $Y_i \coloneqq 2 X_i$. Dann ist $\overline{Y}_n = 2 \overline{X}_n = \hat{b}_n$. Damit
- folgt mit ZGWS direkt
- \[
- \sqrt{n} (\hat{b}_n - b) = \sqrt{n} (\overline{Y}_n - \E(Y_1))
- \xrightarrow{D} N_{(0, \var(Y_1)} = N_{(0, b^2/3)}
- .\]
- \item Es ist $\hat{b}_n$ nach (a) $\sqrt{n} $-konsistent. Außerdem ist mit (a), dass
- \[
- \frac{\sqrt{3n} }{b} (\hat{b}_n - b) \xrightarrow{D} N_{(0, 1)}
- .\] Also ist $\frac{b}{\sqrt{3} }$ Störparameter. Da $\hat{b}_n = \overline{Y}_n$
- und $\E(Y_1) = b$, folgt mit dem SGGZ, dass
- \[
- \hat{b}_n = \overline{Y}_n \xrightarrow{\mathbb{P} \text{ f.s.}} \E(Y_1) = b
- .\] Also insbesondere $\hat{b}_n$ konsistenter Schätzer für $b$ und damit
- auch $\frac{\hat{b}_n}{\sqrt{3} }$ konsistenter Schätzer für den Störparameter
- $\frac{b}{\sqrt{3} }$. Damit folgt nach VL, dass
- $C_n^{(b)} \coloneqq [\hat{b}_n - \frac{\hat{b}_n}{\sqrt{3n} }q_{1-\alpha}, \infty)$
- ein $1-\alpha$ KB für die richtigen Parameter $\mathcal{R}_{b} = [b, \infty)$ ist, wobei
- $q_{1-\alpha}$ das $1-\alpha$ Quantil der Standardnormalverteilung ist.
- \item $H_0$ ist die assoziierte Nullhypothese zu $\mathcal{R}_{b_0}$. Damit folgt nach
- VL, da $C_n^{(b)}$ asympt. $1-\alpha$-KB, dass
- \[
- \phi_n^{(b)} = \mathbbm{1}_{\{b_0 \not\in C_{n}^{(b)}\} }
- = \mathbbm{1}_{\{ \hat{b}_n - \frac{\hat{b}_n}{\sqrt{3n} } q_{1-\alpha} > b_0\} }
- \] ein asympt. $1-\alpha$ Test ist.
- \item Ausrechnen ergibt $\overline{X}_n = 50.88$ und damit
- \[
- \hat{b}_{10} - \frac{\hat{b}_{10}}{\sqrt{3 \cdot 10} } 1.64 = 71.28 < 100
- \qquad C_{10}^{(b)} = [71.28, \infty)
- .\] Also sollte $H_0$ nicht abgelehnt werden.
- \end{enumerate}
- \end{aufgabe}
-
- \end{document}
|