www.vorhilfe.de
- Förderverein -
Der Förderverein.

Gemeinnütziger Verein zur Finanzierung des Projekts Vorhilfe.de.
Hallo Gast!einloggen | registrieren ]
Startseite · Mitglieder · Impressum
Forenbaum
^ Forenbaum
Status VH e.V.
  Status Vereinsforum

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Suchen
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "mathematische Statistik" - Schätzer Varianz
Schätzer Varianz < math. Statistik < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "mathematische Statistik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Schätzer Varianz: Beweis
Status: (Frage) beantwortet Status 
Datum: 19:18 Sa 19.11.2011
Autor: dennis2

Aufgabe
Hallo, es geht um Folgendes:

Als Schätzer für die Varianz (wenn der Erwartungswert bekannt ist), hatten wir:

[mm] $\hat\sigma_{\mu}^2(X_1,...,X_n):=\frac{1}{n}\sum_{i=1}^{n}(X_i-\mu)^2=\frac{1}{n}\sum_{i=1}^{n}Y_i$. [/mm]

Das heißt, die Schätzung der Varianz von X wird zurückgeführt auf die Schätzung des Erwartungswerts von Y.

(Dazu sollte ich dagen, daß wir als Schätzer für den Erwartungswert vorher das arithmetische Mittel kennengelernt hatten).

Desweiteren wird hier angenommen:

(a) [mm] $Y=(X-\mu)^2$ [/mm]
(b) Existenz von [mm] $\mu=E(X), \sigma^2\in\mathbb [/mm] R, [mm] \sigma^2<\infty$ [/mm]
(c) [mm] $\mu_y=E((X-\mu)^4)<\infty$ [/mm]
(d) [mm] $X_1,...,X_n\sim [/mm] (i.i.d) X$


So, meine Frage ist jetzt Folgendes:

Man soll zeigen, daß

[mm] $\hat\sigma_{\mu}^2\to\sigma^2$ [/mm] fast sicher für [mm] $n\to\infty$ [/mm]

Meine Idee hierzu ist:

Da [mm] $Y_i\sim [/mm] (i.i.d) Y$

gilt dies doch sofort aufgrund des starken Satzes von der großen Zahl...

Sehe ich das richtig?

        
Bezug
Schätzer Varianz: Antwort
Status: (Antwort) fertig Status 
Datum: 19:25 Sa 19.11.2011
Autor: donquijote


> Hallo, es geht um Folgendes:
>  
> Als Schätzer für die Varianz (wenn der Erwartungswert
> bekannt ist), hatten wir:
>  
> [mm]\hat\sigma_{\mu}^2(X_1,...,X_n):=\frac{1}{n}\sum_{i=1}^{n}(X_i-\mu)^2=\frac{1}{n}\sum_{i=1}^{n}Y_i[/mm].
>  
> Das heißt, die Schätzung der Varianz von X wird
> zurückgeführt auf die Schätzung des Erwartungswerts von
> Y.
>  
> (Dazu sollte ich dagen, daß wir als Schätzer für den
> Erwartungswert vorher das arithmetische Mittel
> kennengelernt hatten).
>  
> Desweiteren wird hier angenommen:
>  
> (a) [mm]Y=(X-\mu)^2[/mm]
>  (b) Existenz von [mm]\mu=E(X), \sigma^2\in\mathbb R, \sigma^2<\infty[/mm]
>  
> (c) [mm]\mu_y=E((X-\mu)^4)<\infty[/mm]
>  (d) [mm]X_1,...,X_n\sim (i.i.d) X[/mm]
>  
>
> So, meine Frage ist jetzt Folgendes:
>  
> Man soll zeigen, daß
>  
> [mm]\hat\sigma_{\mu}^2\to\sigma^2[/mm] fast sicher für [mm]n\to\infty[/mm]
>  Meine Idee hierzu ist:
>  
> Da [mm]Y_i\sim (i.i.d) Y[/mm]
>  
> gilt dies doch sofort aufgrund des starken Satzes von der
> großen Zahl...
>  
> Sehe ich das richtig?

Ja. Wenn du das starke Gesetz der großen Zahlen benutzen darfst, musst du nur noch begründen, warum du das hier anwenden kannst.


Bezug
                
Bezug
Schätzer Varianz: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 19:33 Sa 19.11.2011
Autor: dennis2

Ich nehme mal an, daß ich das verwenden darf, immerhin wird sonst auch immer argumentiert: "aus der Stochastik bekannt." :-)

Also warum darf ich das hier anwenden:

Ich geh einfach die Bedingungen mal durch, wie ich sie bei Georgii finde:

1.) Die [mm] $Y_i$ [/mm] sind paarweise unabhängig

Das ist doch so, weil die [mm] $X_i$ [/mm] nach Voraussetzung es sind und dann auch [mm] $Y_i=(X_i-\mu)^2$, [/mm] oder? Daß man einen konstnten Wert abzieht und dann quadriert ändert nichts an der Unabhängigkeit, sehe ich das richtig?

2.) Die zweiten Momente der [mm] $Y_i$ [/mm] ex., denn sie sind idetisch verteilt zu $Y$ und da gilt [mm] $\opratorname{Var}(Y)=\mu_4-\sigma^4<\infty$, [/mm] da nach Voraussetzung [mm] $\mu_4<\infty$ [/mm] und [mm] $\sigma^2<\infty$. [/mm]

Also gilt auch 3.) das [mm] $v:=\sup_{i\geq 1}\operatorname{Var}(Y_i)<\infty$. [/mm]



Das wäre meine Begründung bzw. Abarbeitung der Voraussetzungen, wie ich sie bei Georgii finde. Scheinen mir alle erfüllt.

Bezug
                        
Bezug
Schätzer Varianz: Antwort
Status: (Antwort) fertig Status 
Datum: 19:39 Sa 19.11.2011
Autor: donquijote


> Ich nehme mal an, daß ich das verwenden darf, immerhin
> wird sonst auch immer argumentiert: "aus der Stochastik
> bekannt." :-)
>  
> Also warum darf ich das hier anwenden:
>  
> Ich geh einfach die Bedingungen mal durch, wie ich sie bei
> Georgii finde:
>  
> 1.) Die [mm]Y_i[/mm] sind paarweise unabhängig
>
> Das ist doch so, weil die [mm]X_i[/mm] nach Voraussetzung es sind
> und dann auch [mm]Y_i=(X_i-\mu)^2[/mm], oder? Daß man einen
> konstnten Wert abzieht und dann quadriert ändert nichts an
> der Unabhängigkeit, sehe ich das richtig?

ja

>  
> 2.) Die zweiten Momente der [mm]Y_i[/mm] ex., denn sie sind idetisch
> verteilt zu [mm]Y[/mm] und da gilt
> [mm]\opratorname{Var}(Y)=\mu_4-\sigma^4<\infty[/mm], da nach
> Voraussetzung [mm]\mu_4<\infty[/mm] und [mm]\sigma^2<\infty[/mm].
>  
> Also gilt auch 3.) das [mm]v:=\sup_{i\geq 1}\operatorname{Var}(Y_i)<\infty[/mm].

ja

>  
>
>
> Das wäre meine Begründung bzw. Abarbeitung der
> Voraussetzungen, wie ich sie bei Georgii finde. Scheinen
> mir alle erfüllt.

Passt alles, mehr ist dann nicht zu tun.


Bezug
                                
Bezug
Schätzer Varianz: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 20:03 Sa 19.11.2011
Autor: dennis2

Das finde ich schonmal toll. Danke für Dein Feedback.

Ich habe aber nochmal eine andere Frage.

Worin genau besteht der Unterschied zwischen Konvergenz nach Wahrscheinlichkeit und Konvergenz fast sicher?

Ich habe mir die Wiki-Artikel durchgelesen.

Ich verstehe den Unterschied aber nicht gut.

Bezug
                                        
Bezug
Schätzer Varianz: Antwort
Status: (Antwort) fertig Status 
Datum: 20:21 Sa 19.11.2011
Autor: donquijote


> Das finde ich schonmal toll. Danke für Dein Feedback.
>  
> Ich habe aber nochmal eine andere Frage.
>  
> Worin genau besteht der Unterschied zwischen Konvergenz
> nach Wahrscheinlichkeit und Konvergenz fast sicher?
>  
> Ich habe mir die Wiki-Artikel durchgelesen.
>  
> Ich verstehe den Unterschied aber nicht gut.

Konvergenz von [mm] X_n [/mm] gegen X in Wahrscheinlichkeit heißt salopp gesagt, dass [mm] X_n(\omega) [/mm] und [mm] X(\omega) [/mm] für große n mit hoher Wahrscheinlichkeit dicht zusammen liegen. Also etwa so: zu jedem großen n gibt es eine Menge von "vielen" [mm] \omega, [/mm] für die [mm] $X_n(\omega)\approx X(\omega)$ [/mm]
Es wird aber keine Aussage gemacht, wie sich die Folge [mm] $X_n(\omega)$ [/mm] für festgehaltenes [mm] \omega [/mm] verhält. So lassen sich Beispiele von Zufallsvariabelen mit [mm] X_n\to [/mm] X in Wahrscheinlichkeit konstruieren, wo [mm] $|X_n-X|$ [/mm] mit wahrscheinlichkeit 1 "immer mal wieder große Ausflüge macht" und es kein [mm] \omega [/mm] gibt, für das [mm] $\lim X_n(\omega)=X(\omega) [/mm] gilt.
Dagegen bedeutet fast sichere Konvergenz, dass [mm] \lim X_n(\omega)=X(\omega) [/mm] mit Wahrscheinlichkeit 1 gilt.


Bezug
                                                
Bezug
Schätzer Varianz: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 00:06 So 20.11.2011
Autor: dennis2

Eingabefehler: "{" und "}" müssen immer paarweise auftreten, es wurde aber ein Teil ohne Entsprechung gefunden (siehe rote Markierung)

Hab' es leider noch nicht so richtig verstanden.

Vielleicht hilft ein Beispiel, das ich gefunden habe, aber nicht verstehe:

Wir definieren $\Omega=(0,1], \mathcal{A}=(0,1]\cap\mathcal{B}(\mathbb R), P=\lambda_{|(0,1]}$.

Rekursiv setzen wir für $n\in\mathbb N$:

$a_1=0, b_1=1$, $a_{n+1}=\begin{cases} b_n, & \mbox{falls } b_n \mbox{ <1} \\ 0, & \mbox{sonst } \end{cases}$, $b_{n+1}=\min\left\{a_{n+1}+\frac{1}{n+1}, 1\right\}$

Betrachte die Zufallsvariablen $X_n:=\chi_{(a_n,b_n]}, n\in\mathbb N.$

($chi$ soll die charakt. Fkt. bezeichnen.)


Nun soll man das hinsichtlich
(a) Konvergenz in Wahrscheinlichkeit und
(b) Konvergenz fast sicher
untersuchen.

Kann mir jemand bitte helfen, ich weiß nämlich gar nicht, wie man das jetzt konkret macht.



Ich habe nur schonmal (hoffentlich korrekt) berechnet:

$a_2=0, b_2=\frac{1}{2}$

$a_3=\frac{1}{2}, b_3=\frac{5}{6}$

$a_4=\frac{5}{6}, b_4=\frac{26}{24]$

....

Bezug
                                                        
Bezug
Schätzer Varianz: Antwort
Status: (Antwort) fertig Status 
Datum: 00:39 So 20.11.2011
Autor: Blech

Hi,

> $ [mm] X_n:=\chi_{(a_n,b_n]}, n\in\mathbb [/mm] N. $

Das Intervall [mm] $(a_n,b_n]$ [/mm] ist [mm] $\frac [/mm] 1n$ breit (außer bei den Gelegenheiten, wo wir rechts an 1 stoßen, aber die sind nicht so wichtig). Also ist die Wkeit [mm] $P(X_n=1)\leq \frac [/mm] 1n$.
D.h. [mm] $P(X_n=0)\to [/mm] 1$; [mm] $X_n$ [/mm] konvergiert in Wkeit.


Andererseits, nehmen wir uns ein beliebiges [mm] $\omega$, [/mm] z.B. [mm] $\omega=\frac [/mm] 13$.

Gilt [mm] $X_n(\frac [/mm] 13) [mm] \underset{n\to\infty}{\longrightarrow} [/mm] 0$? Nein, weil [mm] $(a_n,b_n]$ [/mm] das Intervall $(0,1]$ unendlich oft durchläuft.

(schließlich gilt
[mm] $\sum_{i=1}^\infty \frac 1n=\infty$ [/mm]
)

D.h. es gibt unendlich viele n, für die [mm] $\frac [/mm] 13 [mm] \in (a_n,b_n]$. [/mm] Also konvergiert [mm] $X_n(\frac [/mm] 13)$ nicht gegen 0. [mm] $\frac [/mm] 13$ war nur ein konkretes Beispiel, [mm] $X_n(\omega)$ [/mm] konvergiert für kein [mm] $\omega\in [/mm] (0,1]$.

ciao
Stefan






Bezug
                                                                
Bezug
Schätzer Varianz: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 11:04 So 20.11.2011
Autor: dennis2

Also bei fast sicherer Konvergenz guckt man punktweise und schaut dann, ob die Wkeit derjenigen [mm] $\omega$, [/mm] für die gilt, daß [mm] $\lim_{n\to\infty}X_n(\omega)=X(\omega)$ [/mm] 1 ist.


Aber was man bei der Knvergenz in Wkeit macht, habe ich noch nicht verstanden. Was ist da das Vorgehen?

Nimmt man da keine [mm] $\omega$ [/mm] her?
Oder wenn ja, welche?

Bezug
                                                                        
Bezug
Schätzer Varianz: Antwort
Status: (Antwort) fertig Status 
Datum: 13:30 So 20.11.2011
Autor: donquijote


> Also bei fast sicherer Konvergenz guckt man punktweise und
> schaut dann, ob die Wkeit derjenigen [mm]\omega[/mm], für die gilt,
> daß [mm]\lim_{n\to\infty}X_n(\omega)=X(\omega)[/mm] 1 ist.
>  
>
> Aber was man bei der Knvergenz in Wkeit macht, habe ich
> noch nicht verstanden. Was ist da das Vorgehen?
>  
> Nimmt man da keine [mm]\omega[/mm] her?
> Oder wenn ja, welche?

Man betachtet sozusagen die Menge der [mm] \omega [/mm] als Ganzes:
Zu jedem hinreichend großen n gibt es eine Teilmenge von [mm] \omega's [/mm] mit Wahrscheinlichkeit nahe 1, für die [mm] |X_n(\omega)-X(\omega)|<\epsilon [/mm] ist.
Bei fast sicher Konvergenz dagegen lautet die bedingung:
Für (fast) jedes [mm] \omega [/mm] gilt [mm] |X_n-X|<\epsilon [/mm] für alle hinreichend großen n.

Vielleicht noch eine kleine Modifikation des Beispiels einer Folge, die in Wahrscheinlichkeit, aber nicht fast sicher konvergiert:
Sei [mm] (X_n) [/mm] eine Folge von unabhängigen Zufallsvariablen, die nur die Werte 0 und 1 annehmen. Weiter sei [mm] P(X_n=1)=\frac{1}{n} [/mm]
Dann konvergiert [mm] (X_n) [/mm] in Wahrscheinlichkeit gegen 0, denn [mm] P(|X_n|<\epsilon)=1-\frac{1}{n}\to [/mm] 1 für jedes [mm] \epsilon\in(0,1). [/mm]
Trotzdem enthält diese Folge von Zufallszahlen mit Wahrscheinlichkeit 1 unendlich viele Einsen (Beweis mit dem Borel-Cantelli-Lemma), womit sie keine Nullfolge ist.

Bezug
                                                                        
Bezug
Schätzer Varianz: Antwort
Status: (Antwort) fertig Status 
Datum: 19:54 So 20.11.2011
Autor: Blech

Hi,

die Aussage bei fast sicherer Konvergenz ist salopp:

"Wir sind in Zeitpunkt n=1. Mal angenommen, Ergebnis [mm] $\omega$ [/mm] ist eingetreten, konvergiert [mm] $X_n(\omega)$ [/mm] dann gegen [mm] $X(\omega)$, [/mm] wenn wir nur lange genug warten."


Bei Konvergenz in Wkeit ist es

"Wir sind jetzt in Zeitpunkt n=1000000. Wenn wir jetzt die Ziehung durchführen, und schauen welches [mm] $\omega$ [/mm] denn nun eintritt, ist es dann sehr unwahrscheinlich, daß zwischen [mm] $X_n(\omega)$ [/mm] und [mm] $X(\omega)$ [/mm] ein großer Unterschied besteht?"

ciao
Stefan

Bezug
                                                                                
Bezug
Schätzer Varianz: Dankesehr!
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 06:43 Mo 21.11.2011
Autor: dennis2

Vielen Dank für die Hilfe und die Erklärungen.
Ich denke, daß ich es jetzt besser verstehe!

Solche "umgangssprachlichen" Umschreibungen wirken manchmal bei mir Wunder.

Dennis

Bezug
                                                                
Bezug
Schätzer Varianz: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 17:59 So 27.11.2011
Autor: dennis2

Wieso gibt es unendlich viele Intervalle, in denen zum Beispiel 1/3 enthalten ist? Das habe ich noch nicht verstanden.

Bezug
                                                                        
Bezug
Schätzer Varianz: Antwort
Status: (Antwort) fertig Status 
Datum: 09:30 Di 29.11.2011
Autor: Blech

weil die Intervalle [mm] $\frac [/mm] 1n$ breit sind.

$ [mm] \sum_{i=1}^\infty \frac 1n=\infty [/mm] $

Die kumulative Breite der Intervalle konvergiert gegen Unendlich, damit durchlaufen sie auch (0,1] unendlich oft.


ciao
Stefan

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "mathematische Statistik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
ev.vorhilfe.de
[ Startseite | Mitglieder | Impressum ]