Stichprobenvarianz < math. Statistik < Stochastik < Hochschule < Mathe < Vorhilfe
|
Aufgabe | Seien [mm] X_{1},...,X_{n} [/mm] i.i.d. Zufallsvariablen mit [mm] EX_{i}=\mu, [/mm] Var [mm] X_{i}=\sigma^{2}, [/mm] i=1,...,n, [mm] \mu \in \IR, \sigma^2 \in (0,\infty).
[/mm]
Zeigen Sie, dass für die Stichprobenvarianz
[mm] S^{2}_{n}:=\bruch{1}{n-1} \summe_{1=1}^{n}(X_{i}-\overline{X})^{2},
[/mm]
wobei [mm] \overline{X}:=\bruch{1}{n}\summe_{i=1}^{n}X_{i}, [/mm] gilt
[mm] ES_{n}^{2}=\sigma^{2} [/mm] |
Wir haben ziemlich keinen Plan, was wir tun sollen.
Wir haben gedacht, wir berechnen vom [mm] S_{n}^{2} [/mm] den Erwartungswert. Ferner denken wir, dass wir zeigen müssen, dass dabei [mm] Var(X)=E((X-\mu)^2)=\sigma^2 [/mm] rauskommen sollte.
Frage 1: Ist der Gedankengang halbwegs richtig?
Frage 2: Wie können wir davon ausgehen, dass [mm] E(X_{i})=\overline{X} [/mm] (das arithmetische Mittel) ist?
Frage 3: Wie rechnen wir nun den Erwartungswert aus? (Vorausgesetzt die Antwort auf 1 lautet ja)
Vielen Dank im Voraus für eure Hilfe.
Grüße
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 23:49 Di 09.11.2010 | Autor: | ullim |
Hi,
ich würde folgendes vorab berechnen.
1) [mm] \summe_{i=1}^{n}(X_i-\overline X)^2=\summe_{i=1}^{n}X_i^2-n*\overline X^2
[/mm]
2) [mm] \sigma^2=E[X_i-E(X_i)]^2=E(X_i^2)-\mu^2 \Rightarrow E(X_i^2)=\sigma^2+\mu^2
[/mm]
3) [mm] E(\overline X^2)=\br{1}{n^2}*\left(\summe_{i\ne j=1}^{n}\mu^2+\summe_{i=1}^{n}E(X_i^2)\right)=\mu^2+\br{1}{n}*\sigma^2 [/mm] (Hier wird die Unabhängigkeit der Zufallsvariblen [mm] X_i [/mm] gebraucht)
Daraus folgt
[mm] E(S_n^2)=\br{1}{n-1}*\left(\summe_{i=1}^{n}(\sigma^2+\mu^2)-n*(\mu^2+\br{1}{n}*\sigma^2\right)=\sigma^2
[/mm]
|
|
|
|
|
Super, vielen lieben Dank. Wir sehen uns das morgen nochmal genauer an.
Eine Frage habe ich noch: Warum steht eigentlich in der Aufgabenstellung [mm] \bruch{1}{n-1} [/mm] und nicht [mm] \bruch{1}{n}?
[/mm]
Grüße
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 07:01 Mi 10.11.2010 | Autor: | luis52 |
Moin
> Eine Frage habe ich noch: Warum steht eigentlich in der
> Aufgabenstellung [mm]\bruch{1}{n-1}[/mm] und nicht [mm]\bruch{1}{n}?[/mm]
Was meinst du damit? Anderenfalls wuerde doch die behauptete Eigenschaft nicht gelten.
vg Luis
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 14:49 Mi 10.11.2010 | Autor: | d10 |
Die Frage war eine reine Verständnisfrage und hatte nicht viel mit der ursprünglichen Aufgabe zu tun. Worum es ging, war aber ob es eine einfache (einleuchtende) Erklärung dafür gibt, dass [mm] \bruch{1}{n-1} [/mm] und nicht [mm] \bruch{1}{n} [/mm] korrekt ist. Denn die Summe wird ja auch von 1 bis n und nicht von 1 bis n-1 gebildet.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 08:44 Mi 10.11.2010 | Autor: | ullim |
Hi,
mit dem Nenner (n-1) wird sicher gestellt, das [mm] S_n^2 [/mm] ein erwartungstreuer Schätzer für die Varianz ist.
Wenn Du die Maximum Likelihood Schätzung für die Varianz berechnest, bekommst Du den Faktor [mm] \br{1}{n}, [/mm] aber dann ist die Schätzung nicht mehr Erwartungstreu.
|
|
|
|
|
Status: |
(Frage) überfällig | Datum: | 15:11 Mi 10.11.2010 | Autor: | d10 |
Vielen Dank für die schnelle Antwort.
Ich konnte die einzelnen Schritte alle soweit nachvollziehen, bis auf Nebenrechnung 3. Hier konnte ich weder die Umformung Teil1->Teil2 noch Teil2->Teil3 nachvollziehen.
Kannst du den Teil bitte nochmal detaillierter erklären?
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 03:20 Do 11.11.2010 | Autor: | matux |
$MATUXTEXT(ueberfaellige_frage)
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 09:18 Do 11.11.2010 | Autor: | ullim |
Hi,
Es geht ja um
(3) [mm] E(\overline X^2)=\br{1}{n^2}\cdot{}\left(\summe_{i\ne j=1}^{n}\mu^2+\summe_{i=1}^{n}E(X_i^2)\right)=\mu^2+\br{1}{n}\cdot{}\sigma^2
[/mm]
Also
[mm] E(\overline X^2)=\br{1}{n^2}*E\left(\summe_{i=1}^{n}X_i*\summe_{j=1}^{n}X_j\right)=\br{1}{n^2}*E\left(\summe_{i=1,j=1}^{n}X_i*X_j\right)
[/mm]
Jetzt in der letzten Summe die Terme betrachten an denen der Index gleich ist und den Rest, also da wo [mm] i\ne [/mm] j ist und die Summe so aufteilen, dann kommst Du zu der Formel in (3), wenn man noch beachtet das wegen der Unabhängigkeit gilt, [mm] E[X_i*X_j)=E(X_i)*E(X_j)=\mu^2.
[/mm]
Die Trennung muss man machen, weil eben für [mm] E(X_i^2) [/mm] nicht gilt [mm] E(X_i^2)=\mu^2 [/mm] sondern [mm] E(X_i^2)=\sigma^2+\mu^2
[/mm]
Alles in (3) eingesetzt ergibt
[mm] E(\overline X^2)=\br{1}{n^2}\cdot{}\left[(n^2-n)*\mu^2+n*(\sigma^2+\mu^2)\right]=\br{1}{n^2}*[n^2*\mu^2+n*\sigma^2]=\mu^2+\br{1}{n}*\sigma^2
[/mm]
|
|
|
|