www.vorhilfe.de
- Förderverein -
Der Förderverein.

Gemeinnütziger Verein zur Finanzierung des Projekts Vorhilfe.de.
Hallo Gast!einloggen | registrieren ]
Startseite · Mitglieder · Impressum
Forenbaum
^ Forenbaum
Status VH e.V.
  Status Vereinsforum

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Suchen
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Uni-Stochastik" - Beweis Varianz von Summe
Beweis Varianz von Summe < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Beweis Varianz von Summe: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 20:27 Sa 21.07.2018
Autor: Hela123

Aufgabe
Sei [mm] (\Omega,A, [/mm] P) ein Wahrscheinlichkeitsraum und seien [mm] X, Y, X_1,..., X_n \in L^2(P) [/mm] reelle Zufallsvariablen, für die das zweite Moment existiert.

Zeige, dass gilt:

[mm]Var(\summe_{i=1}^{n} X_{i}) = \summe_{i=1}^{n} Var(X_{i}) + \summe_{i,j=1, i\not= j}^{n} Cov(X_{i},X_{j}) [/mm]



Hallo Forum,

ich habe folgenden Beweis hierzu gefunden und kann ihn aber nicht ganz nachvollziehen:

[mm]Var(\summe_{i=1}^{n} X_{i}) = E(\summe_{i=1}^{n} X_{i} - E(\summe_{i=1}^{n} (X_{i})^2))[/mm]
         [mm]= E(\summe_{i=1}^{n} X_{i} - E(X_{i})^2))[/mm]
         [mm]= E(\summe_{i=1}^{n} X_{i} - E(X_{i})\summe_{j=1}^{n} X_{j} - E(X_{j}))[/mm]
         [mm]= E(\summe_{i=1}^{n} (X_{i} - E(X_{i}))^2 + \summe_{i,j=1, i\not= j}^{n}X_{i} - E(X_{i}) * X_{j} - E(X_{j})[/mm]
         [mm]= \summe_{i=1}^{n} Var(X_{i}) + 2 \summe_{i          [mm]= \summe_{i=1}^{n} Var(X_{i}) + \summe_{i,j=1, i\not= j}^{n} Cov(X_{i},X_{j}) [/mm]

1. Ist der Beweis korrekt?

2. Ich verstehe nicht den Übergang von 1. in die 2. Zeile. Warum können wir die Summe weglassen?
Der Übergang 2 zu 3 ist mir auch nicht klar: Woher kommt auf einmal j usw?
Weitere Umformungen sind mir demensprechend auch etwas schleierhaft...

Schönen Dank im Voraus!
Hela123


        
Bezug
Beweis Varianz von Summe: Antwort
Status: (Antwort) fertig Status 
Datum: 15:49 So 22.07.2018
Autor: Gonozal_IX

Hiho,

> ich habe folgenden Beweis hierzu gefunden und kann ihn aber
> nicht ganz nachvollziehen:
>  
> [mm]Var(\summe_{i=1}^{n} X_{i}) = E(\summe_{i=1}^{n} X_{i} - E(\summe_{i=1}^{n} (X_{i})^2))[/mm]

Hier müsste das Quadrat und  die Klammer vertauscht werden, damit es stimmt.

Machen wir es mal langsam: Setzen wir [mm] $Z=\summe_{i=1}^n X_i$, [/mm] dann erhalten wir:

$Z - E(Z)$
$= [mm] \summe_{i=1}^n X_i [/mm] - [mm] E\left(\summe_{i=1}^n X_i\right)$ [/mm]
$= [mm] \summe_{i=1}^n X_i [/mm] - [mm] \summe_{i=1}^n E(X_i)$ [/mm]
$= [mm] \summe_{i=1}^n \left(X_i - E(X_i)\right)$ [/mm]

Nun erhalten wir damit:

[mm] $\text{Var}\left(\summe_{i=1}^n X_i\right) [/mm] = [mm] \text{Var}(Z) [/mm] = [mm] E\left[(Z - E(Z))^2\right]$ [/mm]
$= [mm] E\left(\left[\summe_{i=1}^n \left(X_i - E(X_i)\right)\right]^2\right)$ [/mm]

Setzen wir jetzt [mm] $Z_i [/mm] = [mm] X_i [/mm] - [mm] E(X_i)$ [/mm] können wir das schreiben als

$= [mm] E\left(\left[\summe_{i=1}^n Z_i \right]^2\right)$ [/mm]

Es wird also eine Summe quadriert. Und du kannst dir überlegen, dass wenn du die Summe quadrierst, bekommst du quadratische Terme und Mischterme, d.h. mathematisch kürzer aufgeschrieben, gilt:

[mm] $\left[\summe_{i=1}^n Z_i \right]^2 [/mm] = [mm] \summe_{j=1}^n Z_i^2 [/mm] + [mm] \summe_{\substack{i=j=1 \\ i\not=j}}^n Z_iZ_j$ [/mm]

Setzt du jetzt die Definition von [mm] $Z_i$ [/mm] wieder ein, kannst du normal mit deinem Beweis weitermachen.

Wenn du den Beweis verstanden hast, zeige ich dir einen deutlich kürzeren.....

Gruß,
Gono

Bezug
                
Bezug
Beweis Varianz von Summe: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 16:35 So 22.07.2018
Autor: Hela123

Hallo Gono,

vielen vielen Dank für deine (wie immer) sehr hilfreiche Antwort!

> Hier müsste das Quadrat und  die Klammer vertauscht
> werden, damit es stimmt.

Stimmt!

> Machen wir es mal langsam: Setzen wir [mm]Z=\summe_{i=1}^n X_i[/mm],
> dann erhalten wir:
>  
> [mm]Z - E(Z)[/mm]
> [mm]= \summe_{i=1}^n X_i - E\left(\summe_{i=1}^n X_i\right)[/mm]
>  [mm]= \summe_{i=1}^n X_i - \summe_{i=1}^n E(X_i)[/mm]
>  
> [mm]= \summe_{i=1}^n \left(X_i - E(X_i)\right)[/mm]

Das verstehe ich, wir können beide Summanden quasi unter eine Summe ziehen.

> Nun erhalten wir damit:
>  
> [mm]\text{Var}\left(\summe_{i=1}^n X_i\right) = \text{Var}(Z) = E\left[(Z - E(Z))^2\right][/mm]
>  
> [mm]= E\left(\left[\summe_{i=1}^n \left(X_i - E(X_i)\right)\right]^2\right)[/mm]

Das ist auch klar: Einsetzen in die Ursprungsgleichung.

> Setzen wir jetzt [mm]Z_i = X_i - E(X_i)[/mm] können wir das
> schreiben als
>  
> [mm]= E\left(\left[\summe_{i=1}^n Z_i \right]^2\right)[/mm]

Ich merke, das ist wirklich viel übersichtlicher, wenn man das Ganze in kleinere Päckchen verpackt.

> Es wird also eine Summe quadriert. Und du kannst dir
> überlegen, dass wenn du die Summe quadrierst, bekommst du
> quadratische Terme und Mischterme, d.h. mathematisch
> kürzer aufgeschrieben, gilt:
>  
> [mm]\left[\summe_{i=1}^n Z_i \right]^2 = \summe_{j=1}^n Z_i^2 + \summe_{\substack{i=j=1 \\ i\not=j}}^n Z_iZ_j[/mm]

Ja, verstehe.

> Setzt du jetzt die Definition von [mm]Z_i[/mm] wieder ein, kannst du
> normal mit deinem Beweis weitermachen.

Also wenn wir [mm]Z_i[/mm] (und entsprechend dann auch [mm]Z_j[/mm]) einsetzen, bekommen wir:

[mm]= E(\summe_{i=1}^{n} (X_{i} - E(X_{i}))^2 + \summe_{i,j=1, i\not= j}^{n}X_{i} - E(X_{i}) * X_{j} - E(X_{j})[/mm]

Dann können wie Linearität des Erwartungswertes nutzen:

[mm]= E(\summe_{i=1}^{n} (X_{i} - E(X_{i}))^2) + E(\summe_{i=j=1, i\not= j}^{n}(X_{i} - E(X_{i})) * (X_{j} - E(X_{j})))[/mm]
[mm]= \summe_{i=1}^{n}(E(X_{i} - E(X_{i}))^2) + \summe_{i=j=1, i\not= j}^{n} E((X_{i} - E(X_{i})) * (X_{j} - E(X_{j})))[/mm]

Dann nutzen wir die Definition von Varianz und Kovarianz:
[mm]= \summe_{i=1}^{n} Var(X_{i}) + 2 \summe_{i
Hier habe ich Frage: Woher kommt die 2 vor der Summe?
Die Rechenregel, die wir hier brauchen ist (wenn ich mich nicht vertue):
[mm]Cov(X,Y)= E(XY) - E(X)E(Y) = E((X - E(X))(Y-E(Y)))[/mm]

> Wenn du den Beweis verstanden hast, zeige ich dir einen
> deutlich kürzeren.....

Ich glaube, ich bin nah dran :-)

Noch mal danke!
Hela123


Bezug
                        
Bezug
Beweis Varianz von Summe: Antwort
Status: (Antwort) fertig Status 
Datum: 18:43 So 22.07.2018
Autor: Gonozal_IX

Hiho,

also der Schritt ist in der Umformung zwar nicht falsch aber irgendwie sinnlos. Es gilt
[mm] $\summe_{i=j=1,i\not=j}^n Cov(X_i,X_j) [/mm] = [mm] 2\summe_{i=j=1,i Das liegt einfach daran, dass die Kovarianz symmetrisch ist. Im ersten Fall summiert man eben einfach alle Kovarianzen auf, im zweiten nur diejenigen wo i<j ist und sagt dann einfach: anstatt jetzt die für i>j auch noch zu summieren multiplizieren wir das Ergebnis einfach mit 2.

Sind jetzt alle Unklarheiten beseitigt?

Gruß,
Gono

Bezug
                                
Bezug
Beweis Varianz von Summe: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 19:19 So 22.07.2018
Autor: Hela123

Hallo Gono,

shönen Dank für deine Antwort!

> also der Schritt ist in der Umformung zwar nicht falsch
> aber irgendwie sinnlos. Es gilt
>  [mm]\summe_{i=j=1,i\not=j}^n Cov(X_i,X_j) = 2\summe_{i=j=1,i
>  
> Das liegt einfach daran, dass die Kovarianz symmetrisch
> ist. Im ersten Fall summiert man eben einfach alle
> Kovarianzen auf, im zweiten nur diejenigen wo i<j ist und
> sagt dann einfach: anstatt jetzt die für i>j auch noch zu
> summieren multiplizieren wir das Ergebnis einfach mit 2.
>  
> Sind jetzt alle Unklarheiten beseitigt?

Alles klar! Ja, jetzt verstehe ich den Beweis, danke dir!

Wie könnte man es denn kürzer beweisen?:-)

Viele Grüße
Hela123

Bezug
                                        
Bezug
Beweis Varianz von Summe: Antwort
Status: (Antwort) fertig Status 
Datum: 22:08 So 22.07.2018
Autor: Gonozal_IX

Hiho,

die Kovarianz ist linear und trivialerweise gilt [mm] $\summe_{i=1}^n X_i [/mm] = [mm] \summe_{j=1}^n X_j [/mm] $ und damit gilt:

[mm] $\text{Var}\left(\summe_{i=1}^n X_i\right)$ [/mm]

[mm] $=\text{Cov}\left(\summe_{i=1}^n X_i, \summe_{j=1}^n X_j\right)$ [/mm]

[mm] $=\summe_{i=1}^n \summe_{j=1}^n \text{Cov}(X_i,X_j)$ [/mm]

[mm] $=\summe_{i=j=1,i=j}^n \text{Cov}(X_i,X_j) [/mm] + [mm] \summe_{i=j=1,i\not=j}^n \text{Cov}(X_i,X_j)$ [/mm]

[mm] $=\summe_{i=j=1}^n \text{Var}(X_i) [/mm] + [mm] \summe_{i=j=1,i\not=j}^n \text{Cov}(X_i,X_j)$ [/mm]

Gruß,
Gono


Bezug
                                                
Bezug
Beweis Varianz von Summe: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 07:59 Mo 23.07.2018
Autor: Hela123

Hallo Gono,

den Beweis kann ich auch nachvollziehen und der ist in der Tat deutlich übersichtlicher!
Noch mal vielen vielen Dank für deine Hilfe!

Gruß,
Hela123

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
ev.vorhilfe.de
[ Startseite | Mitglieder | Impressum ]