Schätzer Varianz < math. Statistik < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 19:18 Sa 19.11.2011 | Autor: | dennis2 |
Aufgabe | Hallo, es geht um Folgendes:
Als Schätzer für die Varianz (wenn der Erwartungswert bekannt ist), hatten wir:
[mm] $\hat\sigma_{\mu}^2(X_1,...,X_n):=\frac{1}{n}\sum_{i=1}^{n}(X_i-\mu)^2=\frac{1}{n}\sum_{i=1}^{n}Y_i$.
[/mm]
Das heißt, die Schätzung der Varianz von X wird zurückgeführt auf die Schätzung des Erwartungswerts von Y.
(Dazu sollte ich dagen, daß wir als Schätzer für den Erwartungswert vorher das arithmetische Mittel kennengelernt hatten).
Desweiteren wird hier angenommen:
(a) [mm] $Y=(X-\mu)^2$
[/mm]
(b) Existenz von [mm] $\mu=E(X), \sigma^2\in\mathbb [/mm] R, [mm] \sigma^2<\infty$
[/mm]
(c) [mm] $\mu_y=E((X-\mu)^4)<\infty$
[/mm]
(d) [mm] $X_1,...,X_n\sim [/mm] (i.i.d) X$
So, meine Frage ist jetzt Folgendes:
Man soll zeigen, daß
[mm] $\hat\sigma_{\mu}^2\to\sigma^2$ [/mm] fast sicher für [mm] $n\to\infty$ [/mm] |
Meine Idee hierzu ist:
Da [mm] $Y_i\sim [/mm] (i.i.d) Y$
gilt dies doch sofort aufgrund des starken Satzes von der großen Zahl...
Sehe ich das richtig?
|
|
|
|
> Hallo, es geht um Folgendes:
>
> Als Schätzer für die Varianz (wenn der Erwartungswert
> bekannt ist), hatten wir:
>
> [mm]\hat\sigma_{\mu}^2(X_1,...,X_n):=\frac{1}{n}\sum_{i=1}^{n}(X_i-\mu)^2=\frac{1}{n}\sum_{i=1}^{n}Y_i[/mm].
>
> Das heißt, die Schätzung der Varianz von X wird
> zurückgeführt auf die Schätzung des Erwartungswerts von
> Y.
>
> (Dazu sollte ich dagen, daß wir als Schätzer für den
> Erwartungswert vorher das arithmetische Mittel
> kennengelernt hatten).
>
> Desweiteren wird hier angenommen:
>
> (a) [mm]Y=(X-\mu)^2[/mm]
> (b) Existenz von [mm]\mu=E(X), \sigma^2\in\mathbb R, \sigma^2<\infty[/mm]
>
> (c) [mm]\mu_y=E((X-\mu)^4)<\infty[/mm]
> (d) [mm]X_1,...,X_n\sim (i.i.d) X[/mm]
>
>
> So, meine Frage ist jetzt Folgendes:
>
> Man soll zeigen, daß
>
> [mm]\hat\sigma_{\mu}^2\to\sigma^2[/mm] fast sicher für [mm]n\to\infty[/mm]
> Meine Idee hierzu ist:
>
> Da [mm]Y_i\sim (i.i.d) Y[/mm]
>
> gilt dies doch sofort aufgrund des starken Satzes von der
> großen Zahl...
>
> Sehe ich das richtig?
Ja. Wenn du das starke Gesetz der großen Zahlen benutzen darfst, musst du nur noch begründen, warum du das hier anwenden kannst.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 19:33 Sa 19.11.2011 | Autor: | dennis2 |
Ich nehme mal an, daß ich das verwenden darf, immerhin wird sonst auch immer argumentiert: "aus der Stochastik bekannt."
Also warum darf ich das hier anwenden:
Ich geh einfach die Bedingungen mal durch, wie ich sie bei Georgii finde:
1.) Die [mm] $Y_i$ [/mm] sind paarweise unabhängig
Das ist doch so, weil die [mm] $X_i$ [/mm] nach Voraussetzung es sind und dann auch [mm] $Y_i=(X_i-\mu)^2$, [/mm] oder? Daß man einen konstnten Wert abzieht und dann quadriert ändert nichts an der Unabhängigkeit, sehe ich das richtig?
2.) Die zweiten Momente der [mm] $Y_i$ [/mm] ex., denn sie sind idetisch verteilt zu $Y$ und da gilt [mm] $\opratorname{Var}(Y)=\mu_4-\sigma^4<\infty$, [/mm] da nach Voraussetzung [mm] $\mu_4<\infty$ [/mm] und [mm] $\sigma^2<\infty$.
[/mm]
Also gilt auch 3.) das [mm] $v:=\sup_{i\geq 1}\operatorname{Var}(Y_i)<\infty$.
[/mm]
Das wäre meine Begründung bzw. Abarbeitung der Voraussetzungen, wie ich sie bei Georgii finde. Scheinen mir alle erfüllt.
|
|
|
|
|
> Ich nehme mal an, daß ich das verwenden darf, immerhin
> wird sonst auch immer argumentiert: "aus der Stochastik
> bekannt."
>
> Also warum darf ich das hier anwenden:
>
> Ich geh einfach die Bedingungen mal durch, wie ich sie bei
> Georgii finde:
>
> 1.) Die [mm]Y_i[/mm] sind paarweise unabhängig
>
> Das ist doch so, weil die [mm]X_i[/mm] nach Voraussetzung es sind
> und dann auch [mm]Y_i=(X_i-\mu)^2[/mm], oder? Daß man einen
> konstnten Wert abzieht und dann quadriert ändert nichts an
> der Unabhängigkeit, sehe ich das richtig?
ja
>
> 2.) Die zweiten Momente der [mm]Y_i[/mm] ex., denn sie sind idetisch
> verteilt zu [mm]Y[/mm] und da gilt
> [mm]\opratorname{Var}(Y)=\mu_4-\sigma^4<\infty[/mm], da nach
> Voraussetzung [mm]\mu_4<\infty[/mm] und [mm]\sigma^2<\infty[/mm].
>
> Also gilt auch 3.) das [mm]v:=\sup_{i\geq 1}\operatorname{Var}(Y_i)<\infty[/mm].
ja
>
>
>
> Das wäre meine Begründung bzw. Abarbeitung der
> Voraussetzungen, wie ich sie bei Georgii finde. Scheinen
> mir alle erfüllt.
Passt alles, mehr ist dann nicht zu tun.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 20:03 Sa 19.11.2011 | Autor: | dennis2 |
Das finde ich schonmal toll. Danke für Dein Feedback.
Ich habe aber nochmal eine andere Frage.
Worin genau besteht der Unterschied zwischen Konvergenz nach Wahrscheinlichkeit und Konvergenz fast sicher?
Ich habe mir die Wiki-Artikel durchgelesen.
Ich verstehe den Unterschied aber nicht gut.
|
|
|
|
|
> Das finde ich schonmal toll. Danke für Dein Feedback.
>
> Ich habe aber nochmal eine andere Frage.
>
> Worin genau besteht der Unterschied zwischen Konvergenz
> nach Wahrscheinlichkeit und Konvergenz fast sicher?
>
> Ich habe mir die Wiki-Artikel durchgelesen.
>
> Ich verstehe den Unterschied aber nicht gut.
Konvergenz von [mm] X_n [/mm] gegen X in Wahrscheinlichkeit heißt salopp gesagt, dass [mm] X_n(\omega) [/mm] und [mm] X(\omega) [/mm] für große n mit hoher Wahrscheinlichkeit dicht zusammen liegen. Also etwa so: zu jedem großen n gibt es eine Menge von "vielen" [mm] \omega, [/mm] für die [mm] $X_n(\omega)\approx X(\omega)$
[/mm]
Es wird aber keine Aussage gemacht, wie sich die Folge [mm] $X_n(\omega)$ [/mm] für festgehaltenes [mm] \omega [/mm] verhält. So lassen sich Beispiele von Zufallsvariabelen mit [mm] X_n\to [/mm] X in Wahrscheinlichkeit konstruieren, wo [mm] $|X_n-X|$ [/mm] mit wahrscheinlichkeit 1 "immer mal wieder große Ausflüge macht" und es kein [mm] \omega [/mm] gibt, für das [mm] $\lim X_n(\omega)=X(\omega) [/mm] gilt.
Dagegen bedeutet fast sichere Konvergenz, dass [mm] \lim X_n(\omega)=X(\omega) [/mm] mit Wahrscheinlichkeit 1 gilt.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 00:06 So 20.11.2011 | Autor: | dennis2 |
Eingabefehler: "{" und "}" müssen immer paarweise auftreten, es wurde aber ein Teil ohne Entsprechung gefunden (siehe rote Markierung)
Hab' es leider noch nicht so richtig verstanden.
Vielleicht hilft ein Beispiel, das ich gefunden habe, aber nicht verstehe:
Wir definieren $\Omega=(0,1], \mathcal{A}=(0,1]\cap\mathcal{B}(\mathbb R), P=\lambda_{|(0,1]}$.
Rekursiv setzen wir für $n\in\mathbb N$:
$a_1=0, b_1=1$, $a_{n+1}=\begin{cases} b_n, & \mbox{falls } b_n \mbox{ <1} \\ 0, & \mbox{sonst } \end{cases}$, $b_{n+1}=\min\left\{a_{n+1}+\frac{1}{n+1}, 1\right\}$
Betrachte die Zufallsvariablen $X_n:=\chi_{(a_n,b_n]}, n\in\mathbb N.$
($chi$ soll die charakt. Fkt. bezeichnen.)
Nun soll man das hinsichtlich
(a) Konvergenz in Wahrscheinlichkeit und
(b) Konvergenz fast sicher
untersuchen.
Kann mir jemand bitte helfen, ich weiß nämlich gar nicht, wie man das jetzt konkret macht.
Ich habe nur schonmal (hoffentlich korrekt) berechnet:
$a_2=0, b_2=\frac{1}{2}$
$a_3=\frac{1}{2}, b_3=\frac{5}{6}$
$a_4=\frac{5}{6}, b_4=\frac{26}{24]$
....
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 00:39 So 20.11.2011 | Autor: | Blech |
Hi,
> $ [mm] X_n:=\chi_{(a_n,b_n]}, n\in\mathbb [/mm] N. $
Das Intervall [mm] $(a_n,b_n]$ [/mm] ist [mm] $\frac [/mm] 1n$ breit (außer bei den Gelegenheiten, wo wir rechts an 1 stoßen, aber die sind nicht so wichtig). Also ist die Wkeit [mm] $P(X_n=1)\leq \frac [/mm] 1n$.
D.h. [mm] $P(X_n=0)\to [/mm] 1$; [mm] $X_n$ [/mm] konvergiert in Wkeit.
Andererseits, nehmen wir uns ein beliebiges [mm] $\omega$, [/mm] z.B. [mm] $\omega=\frac [/mm] 13$.
Gilt [mm] $X_n(\frac [/mm] 13) [mm] \underset{n\to\infty}{\longrightarrow} [/mm] 0$? Nein, weil [mm] $(a_n,b_n]$ [/mm] das Intervall $(0,1]$ unendlich oft durchläuft.
(schließlich gilt
[mm] $\sum_{i=1}^\infty \frac 1n=\infty$
[/mm]
)
D.h. es gibt unendlich viele n, für die [mm] $\frac [/mm] 13 [mm] \in (a_n,b_n]$. [/mm] Also konvergiert [mm] $X_n(\frac [/mm] 13)$ nicht gegen 0. [mm] $\frac [/mm] 13$ war nur ein konkretes Beispiel, [mm] $X_n(\omega)$ [/mm] konvergiert für kein [mm] $\omega\in [/mm] (0,1]$.
ciao
Stefan
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 11:04 So 20.11.2011 | Autor: | dennis2 |
Also bei fast sicherer Konvergenz guckt man punktweise und schaut dann, ob die Wkeit derjenigen [mm] $\omega$, [/mm] für die gilt, daß [mm] $\lim_{n\to\infty}X_n(\omega)=X(\omega)$ [/mm] 1 ist.
Aber was man bei der Knvergenz in Wkeit macht, habe ich noch nicht verstanden. Was ist da das Vorgehen?
Nimmt man da keine [mm] $\omega$ [/mm] her?
Oder wenn ja, welche?
|
|
|
|
|
> Also bei fast sicherer Konvergenz guckt man punktweise und
> schaut dann, ob die Wkeit derjenigen [mm]\omega[/mm], für die gilt,
> daß [mm]\lim_{n\to\infty}X_n(\omega)=X(\omega)[/mm] 1 ist.
>
>
> Aber was man bei der Knvergenz in Wkeit macht, habe ich
> noch nicht verstanden. Was ist da das Vorgehen?
>
> Nimmt man da keine [mm]\omega[/mm] her?
> Oder wenn ja, welche?
Man betachtet sozusagen die Menge der [mm] \omega [/mm] als Ganzes:
Zu jedem hinreichend großen n gibt es eine Teilmenge von [mm] \omega's [/mm] mit Wahrscheinlichkeit nahe 1, für die [mm] |X_n(\omega)-X(\omega)|<\epsilon [/mm] ist.
Bei fast sicher Konvergenz dagegen lautet die bedingung:
Für (fast) jedes [mm] \omega [/mm] gilt [mm] |X_n-X|<\epsilon [/mm] für alle hinreichend großen n.
Vielleicht noch eine kleine Modifikation des Beispiels einer Folge, die in Wahrscheinlichkeit, aber nicht fast sicher konvergiert:
Sei [mm] (X_n) [/mm] eine Folge von unabhängigen Zufallsvariablen, die nur die Werte 0 und 1 annehmen. Weiter sei [mm] P(X_n=1)=\frac{1}{n}
[/mm]
Dann konvergiert [mm] (X_n) [/mm] in Wahrscheinlichkeit gegen 0, denn [mm] P(|X_n|<\epsilon)=1-\frac{1}{n}\to [/mm] 1 für jedes [mm] \epsilon\in(0,1).
[/mm]
Trotzdem enthält diese Folge von Zufallszahlen mit Wahrscheinlichkeit 1 unendlich viele Einsen (Beweis mit dem Borel-Cantelli-Lemma), womit sie keine Nullfolge ist.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 19:54 So 20.11.2011 | Autor: | Blech |
Hi,
die Aussage bei fast sicherer Konvergenz ist salopp:
"Wir sind in Zeitpunkt n=1. Mal angenommen, Ergebnis [mm] $\omega$ [/mm] ist eingetreten, konvergiert [mm] $X_n(\omega)$ [/mm] dann gegen [mm] $X(\omega)$, [/mm] wenn wir nur lange genug warten."
Bei Konvergenz in Wkeit ist es
"Wir sind jetzt in Zeitpunkt n=1000000. Wenn wir jetzt die Ziehung durchführen, und schauen welches [mm] $\omega$ [/mm] denn nun eintritt, ist es dann sehr unwahrscheinlich, daß zwischen [mm] $X_n(\omega)$ [/mm] und [mm] $X(\omega)$ [/mm] ein großer Unterschied besteht?"
ciao
Stefan
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 06:43 Mo 21.11.2011 | Autor: | dennis2 |
Vielen Dank für die Hilfe und die Erklärungen.
Ich denke, daß ich es jetzt besser verstehe!
Solche "umgangssprachlichen" Umschreibungen wirken manchmal bei mir Wunder.
Dennis
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 17:59 So 27.11.2011 | Autor: | dennis2 |
Wieso gibt es unendlich viele Intervalle, in denen zum Beispiel 1/3 enthalten ist? Das habe ich noch nicht verstanden.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 09:30 Di 29.11.2011 | Autor: | Blech |
weil die Intervalle [mm] $\frac [/mm] 1n$ breit sind.
$ [mm] \sum_{i=1}^\infty \frac 1n=\infty [/mm] $
Die kumulative Breite der Intervalle konvergiert gegen Unendlich, damit durchlaufen sie auch (0,1] unendlich oft.
ciao
Stefan
|
|
|
|