www.vorhilfe.de
- Förderverein -
Der Förderverein.

Gemeinnütziger Verein zur Finanzierung des Projekts Vorhilfe.de.
Hallo Gast!einloggen | registrieren ]
Startseite · Mitglieder · Impressum
Forenbaum
^ Forenbaum
Status VH e.V.
  Status Vereinsforum

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Suchen
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Wahrscheinlichkeitstheorie" - hypergeometrische Verteilung
hypergeometrische Verteilung < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Wahrscheinlichkeitstheorie"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

hypergeometrische Verteilung: Herleitung der Varianz
Status: (Frage) beantwortet Status 
Datum: 20:56 Mo 24.02.2020
Autor: sancho1980

Aufgabe
Gegeben ist eine Grundgesamtheit aus N Elementen, von denen M eine bestimmte Eigenschaft haben. Man entnimmt eine Stichprobe vom Umfang n (ohne Zurücklegen). Dann kann die Zufallsvariable X = Anzahl der Elemente in der Stichprobe mit der gewünschten Eigenschaft höchstens die Werte x = 0, 1, 2, ..., n annehmen. Die Wahrscheinlichkeit, genau x Elemente mit der gewünschten Eigenschaft in der Stichprobe vorzufinden, ist

P(X = x) = [mm] \bruch{\vektor{M \\ x} \vektor{N - M \\ n - x}}{\vektor{N \\ n}} [/mm]

Man nennt X hypergeometrisch verteilt und die zugehörige Wahrscheinlichkeitsverteilung eine hypergeometrische Verteilung mit den Parametern n, M und N. Kurzschreibweise: X [mm] \sim [/mm] H(n; M; N).

Hallo,

hier werden nach Definition der hypergeometrischen Verteilung Erwartungswert

[mm] \mu [/mm] = E(X) = [mm] n\bruch{M}{n} [/mm]

und Varianz

[mm] \sigma^2 [/mm] = Var(X) = [mm] n\bruch{M}{N}(1 [/mm] - [mm] \bruch{M}{N})\bruch{N - n}{N - 1} [/mm]

vorgestellt und folgendermaßen hergeleitet:

"Herleitung der Formeln: Für den Erwartungswert berechnen wir zunächst [mm] \summe_{i=0}^{M} i\vektor{M \\ i} \vektor{N - M \\ n - i} [/mm] = ... = [mm] M\bruch{n}{N}\vektor{N \\ n}... [/mm]
Dividieren wir beide Seiten dieser Identität durch [mm] \vektor{N \\ n}, [/mm] so steht links [mm] \mu [/mm] und rechts M [mm] \bruch{n}{N}. [/mm]
Die Formel für [mm] \sigma^2 [/mm] folgt analog, indem man [mm] \summe_{i=0}^{M} [/mm] i(i - [mm] 1)\vektor{M \\ i} \vektor{N - M \\ n - i} [/mm] = M(M - [mm] 1)\bruch{n(n - 1)}{N(N - 1)}\vektor{N \\ n} [/mm] zeigt."

Ich kann zwar einen Weg von

[mm] \summe_{i=0}^{M} [/mm] i(i - [mm] 1)\vektor{M \\ i} \vektor{N - M \\ n - i} [/mm]

nach

M(M - [mm] 1)\bruch{n(n - 1)}{N(N - 1)}\vektor{N \\ n} [/mm]

finden, was ich hieran aber nicht verstehe ist:

1) Wieso soll anscheinend gelten:

[mm] \sigma^2 [/mm] = [mm] \bruch{\summe_{i=0}^{M} i(i - 1)\vektor{M \\ i} \vektor{N - M \\ n - i}}{\vektor{N \\ n}} [/mm]

2) Die Rechnung endet wie gesagt bei

... = M(M - [mm] 1)\bruch{n(n - 1)}{N(N - 1)}\vektor{N \\ n} [/mm]

Aber

[mm] \bruch{M(M - 1)\bruch{n(n - 1)}{N(N - 1)}\vektor{N \\ n}}{\vektor{N \\ n}} \not= n\bruch{M}{N}(1 [/mm] - [mm] \bruch{M}{N})\bruch{N - n}{N - 1} [/mm] = [mm] \sigma^2 [/mm] (siehe []hier)

        
Bezug
hypergeometrische Verteilung: Antwort
Status: (Antwort) fertig Status 
Datum: 22:31 Mo 24.02.2020
Autor: Gonozal_IX

Hiho,

> 1) Wieso soll anscheinend gelten:
>  
> [mm]\sigma^2[/mm] = [mm]\bruch{\summe_{i=0}^{M} i(i - 1)\vektor{M \\ i} \vektor{N - M \\ n - i}}{\vektor{N \\ n}}[/mm]

Tut es nicht und steht auch nirgends.
Da steht nur, dass dir die Berechnung von  [mm]\bruch{\summe_{i=0}^{M} i(i - 1)\vektor{M \\ i} \vektor{N - M \\ n - i}}{\vektor{N \\ n}} = \summe_{i=0}^{M} i(i - 1)P(X = i)[/mm] bei der Berechnung von [mm] $\sigma^2$ [/mm] hilft.

Denn es ist [mm] \summe_{i=0}^{M} i(i - 1)P(X = i) = \summe_{i=0}^{M} i^2P(X = i) - \summe_{i=0}^{M} iP(X = i) = E[X^2] - \mu[/mm]

D.h. es gilt: [mm] $\sigma^2 [/mm] = [mm] E[X^2] [/mm] - [mm] \mu^2 [/mm] = [mm] E[X^2] [/mm] - [mm] \mu [/mm] + [mm] \mu(1 [/mm] - [mm] \mu) [/mm] =  [mm] \summe_{i=0}^{M} [/mm] i(i - 1)P(X = i) + [mm] \mu(1 [/mm] - [mm] \mu)$ [/mm]

Du musst also zu deinem Ergebnis noch was dazuaddieren…

Gruß,
Gono

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Wahrscheinlichkeitstheorie"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
ev.vorhilfe.de
[ Startseite | Mitglieder | Impressum ]