schwache gesetz der gr. zahlen < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 22:14 So 12.06.2011 | Autor: | jay91 |
Aufgabe | Sei [mm] (X_n)_{n \in \IN} [/mm] eine Folge stochastisch unabhängiger Zufallsgrößen mit [mm] P(X_n=n^{\alpha})=\bruch{1}{2}=P(X_n=-n^{\alpha}) [/mm] für [mm] \alpha \in \IR
[/mm]
zeige:
für [mm] \alpha \ge [/mm] 1 gilt das schwache Gesetz der großen Zahlen nicht |
hey!
erstmal habe ich so angefangen:
da [mm] X_n [/mm] eine Folge stochastisch unabhängiger Zufallsgrößen und [mm] E[|X_n|]=n^{\alpha}*\bruch{1}{2}+n^{\alpha}*\bruch{1}{2}=n^{\alpha} [/mm] < [mm] \infty [/mm] ist das schwache Gesetz der großen Zahlen überhaupt anwendbar.
erstmal ex die Varianz, da [mm] V[X_n]< \infty [/mm] genau dann wenn [mm] E[X_n^2] [/mm] < [mm] \infty [/mm] und [mm] E[X_n^2]= n^{\alpha}^2*\bruch{1}{2}+(-n^{\alpha})^2*\bruch{1}{2}=n^{2*\alpha}
[/mm]
[mm] P(|\bruch{1}{n}* \summe_{i=1}^{n} (X_i [/mm] - [mm] E[X_i])| \ge \epsilon) [/mm] = [mm] P(|\bruch{1}{n}* \summe_{i=1}^{n} (X_i)| \ge \epsilon) \le \bruch{1}{\epsilon^2}*V[\bruch{1}{n} \summe_{i=1}^{n} X_i] [/mm] = [mm] \bruch{1}{n^2*\epsilon^2}*V[\summe_{i=1}^{n} X_i] [/mm] = [mm] \bruch{1}{n*\epsilon^2}*V[ X_i] [/mm] = [mm] \bruch{1}{n*\epsilon^2}*n^{2*\alpha}= \bruch{1}{\epsilon^2}*n^{2*\alpha-1}
[/mm]
so aber daraus folgt aber nur, dass das schwache gesetz der großen Zahlen für [mm] \alpha [/mm] < [mm] \bruch{1}{2} [/mm] gilt...
also habe ich versuche zu zeigen:
[mm] \exists \epsilon [/mm] >0, so dass [mm] P(|\bruch{1}{n}* \summe_{i=1}^{n} (X_i [/mm] - [mm] E[X_i])| [/mm] < [mm] \epsilon) [/mm] >0.
ist das überhaupt der richtige ansatz? ist die Umkehrung überhaupt korrekt? Wusste nicht genau ob ich das ungleichheitszeichen umdrehen muss und am ende da > 0 stehen muss??
mfg
|
|
|
|
Hallo jay,
deine ersten Versuche sind, wie du festgestellt hast, nicht zielführend, deine zweite Idee dagegen schon eher.
Betrachten wir mal [mm] $\varepsilon [/mm] = 1$, dann gilt:
[mm] P\left(\bruch{1}{n}\left|\summe_{i=1}^n \left(X_i - E[X_i]\right)\right| \ge 1\right) [/mm] = [mm] P\left(\left|\summe_{i=1}^n X_i\right| \ge n\right).
[/mm]
Wenn du nun [mm] $S_n [/mm] := [mm] \summe_{i=1}^n X_i$ [/mm] setzt (denn es ist ja eine Art "Random Walk" aka "Symmetrische Irrfahrt), steht da ja:
[mm] $P\left(\left|S_n| \ge n\right)$
Und was weisst du über diese Ausdrücke? Schlag mal in deiner Vorlesung nach, was ihr über Random Walks gemacht habt :-)
Eine andere Möglichkeit, die mir gerade einfällt, wäre:
Setze $\overline{X}_i = \bruch{1}{2*n^\alpha}X_i + \bruch{1}{2}$, dann gilt:
Die $\overline{X}_i$ sind Bernouli-\bruch{1}{2}-0-1-verteilt sowie:
$\summe_{j=1}^n\overline{X}_i = \bruch{1}{2*n^\alpha}\summe_{j=1}^n X_i + \bruch{n}{2}$
$\gdw \summe_{j=1}^n X_i = 2*n^\alpha\left(\summe_{j=1}^n\overline{X}_i - \bruch{n}{2}\right)
Damit gilt:
P\left(\bruch{1}{n}\summe_{j=1}^n X_i \ge 1\right) = P\left(\summe_{j=1}^n\overline{X}_i \ge \bruch{1}{2*n^{\alpha-1}} + \bruch{n}{2}\right)$
Na nun stehts ja fast da, wenn du bedenkst, dass $\bruch{1}{2*n^{\alpha-1}} \to 0$ und $P\left(\summe_{j=1}^n\overline{X}_i \ge \bruch{n}{2}\right) = \bruch{1}{2}$
MFG,
Gono.
MFG,
Gono.
[/mm]
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 22:11 Mo 13.06.2011 | Autor: | jay91 |
hey!
was ist eine Art Random Walk aka Symmetrische Irrfahrt? Das habe ich noch nie gehört und ist auch nicht in meinem Script. Wie kann man das damit zeigen?
und bei der anderen Möglichkeit, die dir eingefallen ist:
Setze [mm]\overline{X}_i = \bruch{1}{2*n^\alpha}X_i + \bruch{1}{2}[/mm],
dann gilt:
Die [mm]\overline{X}_i[/mm] sind [mm]Bernouli-\bruch{1}{2}-0-1-verteilt[/mm]
muss jetzt nicht gelten:
[mm]\summe_{j=1}^n\overline{X}_i =\summe_{j=1}^n (\bruch{1}{2*n^\alpha} X_i + \bruch{1}{2})[/mm]
= [mm] \summe_{j=1}^n (\bruch{1}{2*n^\alpha} X_i) [/mm] + [mm] \bruch{n}{2}
[/mm]
= [mm] \bruch{n}{2}+\bruch{1}{2*n^\alpha}\summe_{j=1}^n [/mm] ( [mm] X_i) [/mm] ???
[mm]$\gdw \summe_{j=1}^n X_i[/mm] = - [mm] \bruch{n}{2}+2*n^\alpha\left(\summe_{j=1}^n\overline{X}_i \right)
[/mm]
und dann folgt:
[mm]P\left(\summe_{j=1}^n X_i \ge n\right)[/mm]
=[mm]P\left(- \bruch{n}{2}+2*n^\alpha\left(\summe_{j=1}^n\overline{X}_i \right)
\ge n\right)[/mm]
=[mm]P\left (\summe_{j=1}^n\overline{X}_i \ge \bruch{3}{4*n^{\alpha-1}} \right )[/mm]
> [mm]P\left (\summe_{j=1}^n\overline{X}_i = 1 \right) [/mm] = [mm] \bruch{1}{2} [/mm] >0
|
|
|
|
|
Huhu,
> was ist eine Art Random Walk aka Symmetrische Irrfahrt? Das
> habe ich noch nie gehört und ist auch nicht in meinem
> Script. Wie kann man das damit zeigen?
wenn du das nicht hattest (was ich mir zwar nicht vorstellen kann), wäre das jetzt zu ausufernd.
> und bei der anderen Möglichkeit, die dir eingefallen ist:
>
> Setze [mm]\overline{X}_i = \bruch{1}{2*n^\alpha}X_i + \bruch{1}{2}[/mm],
> dann gilt:
> Die [mm]\overline{X}_i[/mm] sind
> [mm]Bernouli-\bruch{1}{2}-0-1-verteilt[/mm]
> muss jetzt nicht gelten:
> [mm]\summe_{j=1}^n\overline{X}_i =\summe_{j=1}^n (\bruch{1}{2*n^\alpha} X_i + \bruch{1}{2})[/mm]
>
> = [mm]\summe_{j=1}^n (\bruch{1}{2*n^\alpha} X_i)[/mm] +
> [mm]\bruch{n}{2}[/mm]
> = [mm]\bruch{n}{2}+\bruch{1}{2*n^\alpha}\summe_{j=1}^n[/mm] ( [mm]X_i)[/mm]
> ???
> [mm]$\gdw \summe_{j=1}^n X_i[/mm] = -
> [mm]\bruch{n}{2}+2*n^\alpha\left(\summe_{j=1}^n\overline{X}_i \right)[/mm]
Hier hast du einen Fehler in der Umformung gemacht. Der Faktor [mm] $2*n^\alpha$ [/mm] muss vor der gesamten rechten Seite stehen, nicht nur vor der Summe.
> und dann folgt:
Die Umformungen sind dann ein Folgefehler.
> > [mm]P\left (\summe_{j=1}^n\overline{X}_i = 1 \right) = \bruch{1}{2}[/mm]
Der letzte Schritt ist nebenbei auch Unsinn. Wieso sollte das gelten?
MFG,
Gono.
|
|
|
|
|
Status: |
(Frage) überfällig | Datum: | 11:46 Di 14.06.2011 | Autor: | jay91 |
> Der letzte Schritt ist nebenbei auch Unsinn. Wieso sollte
> das gelten?
ich dachte dass gilt da [mm] \bruch{3}{4*n^{\alpha-1}} [/mm] für alle n [mm] \in \IN [/mm] kleiner als eins ist und die Zufallsvariable Bernoulli-verteilt sind.
so jetzt habe ich am Ende:
[mm] P(|\summe_{i=1}^{n}X_i| \ge [/mm] n) = [mm] P(|\summe_{i=1}^{n} \overline{X_i} [/mm] - [mm] \bruch{n}{2}| \ge \bruch {1}{2*n^{\alpha -1}}) [/mm]
= [mm] P(\summe_{i=1}^{n} \overline{X_i} \ge \bruch {1}{2*n^{\alpha -1}}+ [/mm] n/2)
Warum fallen da jetzt die Betragsstriche weg?
und wie schreibe ich das mit dem Limes auf?
=> [mm] \limes_{n\rightarrow\infty} P(\summe_{i=1}^{n} \overline{X_i} \ge \bruch {1}{2*n^{\alpha -1}}+ [/mm] n/2)
= [mm] \limes_{n\rightarrow\infty} P(\summe_{i=1}^{n} \overline{X_i} \ge [/mm] n/2)
= 1/2
warum gilt das?
für n=2, wäre das doch zum beispiel 3/4 oder nicht? muss da nicht [mm] \ge [/mm] 1/2 hin?
mfg
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 12:21 Do 16.06.2011 | Autor: | matux |
$MATUXTEXT(ueberfaellige_frage)
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 13:40 Di 14.06.2011 | Autor: | sangham |
Hallo,
> Sei [mm](X_n)_{n \in \IN}[/mm] eine Folge stochastisch unabhängiger
> Zufallsgrößen mit
> [mm]P(X_n=n^{\alpha})=\bruch{1}{2}=P(X_n=-n^{\alpha})[/mm] für
> [mm]\alpha \in \IR[/mm]
> zeige:
> für [mm]\alpha \ge[/mm] 1 gilt das schwache Gesetz der großen
> Zahlen nicht
> hey!
>
> erstmal habe ich so angefangen:
> da [mm]X_n[/mm] eine Folge stochastisch unabhängiger
> Zufallsgrößen und
> [mm]E[|X_n|]=n^{\alpha}*\bruch{1}{2}+n^{\alpha}*\bruch{1}{2}=n^{\alpha}[/mm]
> < [mm]\infty[/mm] ist das schwache Gesetz der großen Zahlen
> überhaupt anwendbar.
>
> erstmal ex die Varianz, da [mm]V[X_n]< \infty[/mm] genau dann wenn
> [mm]E[X_n^2][/mm] < [mm]\infty[/mm] und [mm]E[X_n^2]= n^{\alpha}^2*\bruch{1}{2}+(-n^{\alpha})^2*\bruch{1}{2}=n^{2*\alpha}[/mm]
>
> [mm]P(|\bruch{1}{n}* \summe_{i=1}^{n} (X_i[/mm] - [mm]E[X_i])| \ge \epsilon)[/mm]
> = [mm]P(|\bruch{1}{n}* \summe_{i=1}^{n} (X_i)| \ge \epsilon) \le \bruch{1}{\epsilon^2}*V[\bruch{1}{n} \summe_{i=1}^{n} X_i][/mm]
> = [mm]\bruch{1}{n^2*\epsilon^2}*V[\summe_{i=1}^{n} X_i][/mm] =
> [mm]\bruch{1}{n*\epsilon^2}*V[ X_i][/mm] =
> [mm]\bruch{1}{n*\epsilon^2}*n^{2*\alpha}= \bruch{1}{\epsilon^2}*n^{2*\alpha-1}[/mm]
gut! also Var von der Summe = [mm] n^{2*\alpha-1} [/mm]
die brauchen wir noch.
> so aber daraus folgt aber nur, dass das schwache gesetz der
> großen Zahlen für [mm]\alpha[/mm] < [mm]\bruch{1}{2}[/mm] gilt...
>
> also habe ich versuche zu zeigen:
> [mm]\exists \epsilon[/mm] >0, so dass [mm]P(|\bruch{1}{n}* \summe_{i=1}^{n} (X_i[/mm]
> - [mm]E[X_i])|[/mm] < [mm]\epsilon)[/mm] >0.
> ist das überhaupt der richtige ansatz? ist die Umkehrung
> überhaupt korrekt? Wusste nicht genau ob ich das
> ungleichheitszeichen umdrehen muss und am ende da > 0
> stehen muss??
Du kannst die Umkehrung so bilden, müsstest dann aber zeigen, dass die Wahrscheinlichkeiten gegen 1 konvergieren (dann ist es dieselbe Aussage).
Werde mal genau diesen Ansatz weiterverfolgen und den Tip von dem Vorredner aufgreifen. Da du (zentrierte, d.h. EX=0) Bernoulli-Variablen hast, konvergieren die normierten Partialsummen gegen die Standart-Normalverteilung PHI. Das ist der Zentrale Grenzwertsatz und den solltet ihr hoffentlich schon bewiesen haben, denn ich werde ihn im folgenden benutzen.
Ach so, man normiert mit der Streuung, also der Wurzel aus der Varianz.
Sei also [mm] S_n=X_1+...+X_n, [/mm] dann konvergiert nach dem ZGWS
[mm] \bruch{S_n}{\wurzel{Var(S_n)}} [/mm] gegen PHI , d.h.
[mm] P(\bruch{S_n}{\wurzel{n^{2\alpha -1}}} [/mm] < [mm] \varepsilon) \to PHI(\varepsilon)
[/mm]
Nun, um stochastische Konvergenz zu zeigen, betrachten wir
[mm]P(\bruch{S_n}{n}<\varepsilon) = P(\bruch{S_n}{\wurzel{n^{2\alpha -1}}} < \bruch{\varepsilon}{n^{2\alpha-2}}) [/mm] , Erweiterung mit [mm] n^{2\alpha-2}
[/mm]
Wenn man jetzt auf beiden Seiten den Limes bildet, bekommt man
[mm] lim_{n\to\infty}P(\bruch{S_n}{n}<\varepsilon) [/mm] = [mm] PHI(lim_{n\to\infty}\bruch{\varepsilon}{n^{2(\alpha-1)}})
[/mm]
das ist für
[mm] \alpha=1 [/mm] - [mm] PHI(\varepsilon)
[/mm]
[mm] \alpha>1 [/mm] - PHI(0)
in beiden Fällen größer als Null, aber kleiner als 1.
für [mm] \alpha<1
[/mm]
[mm] PHI(lim_{n\to\infty} n\varepsilon) [/mm] = 1.
So, ich hoffe geholfen zu haben. mfg
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 10:29 Mi 15.06.2011 | Autor: | jay91 |
aber für [mm] \alpha [/mm] <- [mm] \bruch{1}{2} [/mm] gilt der zentrale Grenzwertsatz nicht.
ändert das was?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 13:39 Mi 15.06.2011 | Autor: | sangham |
> aber für [mm]\alpha[/mm] <- [mm]\bruch{1}{2}[/mm] gilt der zentrale
> Grenzwertsatz nicht.
> ändert das was?
Nein, das ändert nichts.
Erstmal sollst du ja nur zeigen, dass für [mm] \alpha [/mm] >= 1 stochastische Konvergenz nicht gilt; also kannst du dich auf diesen Fall beschränken.
Zweitens hast du in deinem ersten Ansatz bewiesen, dass die Konvergenz gilt, falls [mm] \alpha [/mm] < 0,5 ist.
Du kannst also, wenn du lückenlos zeigen willst, für welche [mm] \alpha [/mm] Konvergenz vorliegt und für welche nicht, beide Argumentationen zusammenführen (vielleicht als Schlussbemerkung). Desweiteren konvergieren die [mm] X_n [/mm] im Fall [mm] \alpha [/mm] < -0,5 absolut gegen 0 (=Erwartungswert), und das ist viel stärker als schwache Konvergenz.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 21:44 Mi 15.06.2011 | Autor: | jay91 |
hey!
gilt´überhaupt: [mm] V(\bruch{1}{n} \summe_{i=1}^{n} X_i) [/mm] = [mm] n^{2*\alpha -1}
[/mm]
es steht ja eigentlich nirgends, dass die Zufallsvariablen identisch verteilt sind.
dann würde doch eigentlich gelten:
[mm] V(\bruch{1}{n} \summe_{i=1}^{n} X_i) [/mm] = [mm] \bruch{1}{n^2}* \summe_{i=1}^{n} i^{2*\alpha}
[/mm]
ist das nicht gerade das problem um den zentralen grenzwertsatz überhaupt anwenden zu können? Muss man da nicht erstmal zeigen, dass die Zufallsvariablen der Lindeberg - Bedingung genügen?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 02:44 Do 16.06.2011 | Autor: | sangham |
> hey!
> gilt´überhaupt: [mm]V(\bruch{1}{n} \summe_{i=1}^{n} X_i)[/mm] =
> [mm]n^{2*\alpha -1}[/mm]
> es steht ja eigentlich nirgends, dass die
> Zufallsvariablen identisch verteilt sind.
Stimmt! Sie sind nicht identisch - grrrrr Sie sind alle Bernoulli, aber mit unterschiedlicher Varianz. Habe ich auch übersehen. Also ist es
[mm]V(\bruch{1}{n} \summe_{i=1}^{n} X_i) = \bruch{1}{n^2} \summe_{i=1}^{n} Var(X_i) = \bruch{1}{n^2} \summe_{i=1}^{n} i^{2*\alpha}[/mm]
Der größte dieser Summanden ist [mm] n^{2\alpha-2}. [/mm] Hm.
Man könnte argumentieren, dass [mm] X_1,...,X_n [/mm] jeweils durch eine identisch [mm] X_n-verteilte [/mm] ZVe beschränkt sind, für die der ZGWS gilt und dann versuchen den ZGWS für beschränkte unabhängige ZVe anzuwenden. Aber das wäre Arbeit und sprengt vermutlich etwas den Rahmen..
Wenn die Bernoulli-Variablen denselben Zustandsraum haben, ist die Summe binominalverteilt und dann kann man Moivre-Laplace anwenden.
Es funktioniert schon, aber ich habe den Satz für untersch. Zustandsräume noch nicht gesehen. Aber im Grunde ist die Schrittweite (1 oder [mm] n^\alpha) [/mm] nicht entscheidend. Hm. Tut mir leid, aber ich weiß im Moment auch nicht mehr zu sagen. Deine Einwände sind jedenfalls gut, du prüfst die Sachen genau nach.
die Lösung würde mich interessieren
|
|
|
|
|
Status: |
(Frage) überfällig | Datum: | 12:37 Do 16.06.2011 | Autor: | jay91 |
weiß jemand wie das geht??
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 13:20 Mo 20.06.2011 | Autor: | matux |
$MATUXTEXT(ueberfaellige_frage)
|
|
|
|