Erwartungswert-Vergleich < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 13:59 Mo 10.05.2010 | Autor: | conman |
Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.
Hallo,
gegeben sei eine Zufalls-Funktion f: [mm] \IR \to \IR, [/mm] die für bestimmte [mm] x_{i} [/mm] realisiert wird.
Wie kann ich die Wahrscheinlichkeit angeben, dass:
[mm] E[f(x_{i})] [/mm] > [mm] E[f(x_{j})],
[/mm]
wenn [mm] f(x_{j}) [/mm] - [mm] f(x_{i}) [/mm] > k, k [mm] \in \IR.
[/mm]
Sprich ich möchte folgendes angeben können: wenn ich die Zufallsfunktion an zwei Stellen [mm] x_{i} [/mm] und [mm] x_{j} [/mm] auswerte und die eine Realisierungen um den Betrag k größer als die andere ist, mit welcher Wahrscheinlichkeit diese Aussage noch gilt, wenn man den tatsächlichen Erwartungswert an beiden Stellen (mit vielen Realisierungen) berechnet und vergleicht.
Mir ist klar, dass ich dafür noch weitere Dinge benötige, z.B. die Varianz der Funktion f an den Stellen [mm] x_{i} [/mm] und [mm] x_{j}.
[/mm]
Aber wie kann ich das formal aufschlüsseln? Hat da jemand einen Tip für mich?
Besten Dank!
Constantin
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 15:41 Mo 10.05.2010 | Autor: | gfm |
> Ich habe diese Frage in keinem Forum auf anderen
> Internetseiten gestellt.
>
> Hallo,
>
> gegeben sei eine Zufalls-Funktion f: [mm]\IR \to \IR,[/mm] die für
> bestimmte [mm]x_{i}[/mm] realisiert wird.
Was bedeutet für Dich das "Zufalls" in "Zufalls-Funktion"?
Für wahrscheinlichkeitstheoretische Modellbildungen setzt man i.A. eine beliebige Menge [mm] \Omega [/mm] vorraus, in der der "Zufall lebt". Auf gewissen Teilmengen (den "Ereignissen") von [mm] \Omega [/mm] ist ein Wahrscheinlichkeitsmaß P definiert, welches diesen Ereignissen Ihre Wahrscheinlichkeit zuordnet. Die Ereignisse bilden zusammen das Mengensystem [mm]\mathcal{A}[/mm]. Wenn die [mm]\omega\in\Omega[/mm] nicht direkt beobachtbar sind (oder interessieren), sondern nur die Funktionswerte einer Abbildung [mm] X:\Omega\to\IR, [/mm] bezeichnet man X als Zufallsvariable (oder auch Zufallsfunktion).
>
> Wie kann ich die Wahrscheinlichkeit angeben, dass:
>
> [mm]E[f(x_{i})][/mm] > [mm]E[f(x_{j})],[/mm]
>
> wenn [mm]f(x_{j})[/mm] - [mm]f(x_{i})[/mm] > k, k [mm]\in \IR.[/mm]
>
> Sprich ich möchte folgendes angeben können: wenn ich die
> Zufallsfunktion an zwei Stellen [mm]x_{i}[/mm] und [mm]x_{j}[/mm] auswerte
Was meinst Du damit, dass Du die Zufallsfunktion an zwei Stellen [mm]x_{i}[/mm] und [mm]x_{j}[/mm] auswertest?
> und die eine Realisierungen um den Betrag k größer als
> die andere ist, mit welcher Wahrscheinlichkeit diese
> Aussage noch gilt, wenn man den tatsächlichen
> Erwartungswert an beiden Stellen (mit vielen
> Realisierungen) berechnet und vergleicht.
Was meinst Du mit "Erwartungswert an einer Stelle"?
Ich kenne die Definition [mm] E(X):=\integral_\Omega X(\omega)dP [/mm] als Integral der Zufallsvariablen über den W-Raum für den Erwartungswert. Mit [mm] F_X(t):=P(\{X\le t\}) [/mm] kann man auch schreiben [mm] E(X)=\integral_{X(\Omega)}tdF_X(t). [/mm] Wenn [mm] F_X [/mm] eine Dichte gegen das L-Maß besitzt geht auch [mm] E(X)=\integral_{X(\Omega)}t f_X(t) [/mm] dt.
Oder meinst Du: Wenn [mm] Y_n:=1/n \summe_{j=1}^n X_j [/mm] die Zufallsvariable bezeichnet, die die Mittelwertbildung einer n-maligen identischen und unabhängigen Ausführung des Zufallsexperimentes beschreibt, wie ist dann [mm] Y_n [/mm] verteilt bzw. was ist [mm] P(\{X-Y_n>k\}) [/mm] oder auch [mm] P(\{E(X)-Y_n>k\})?
[/mm]
> Mir ist klar, dass ich dafür noch weitere Dinge benötige,
> z.B. die Varianz der Funktion f an den Stellen [mm]x_{i}[/mm] und
> [mm]x_{j}.[/mm]
Klar ist auch, dass grundlegenden W-theoretische Begriffsbildungen und Werkzeuge verfügbar sein sollten.
> Aber wie kann ich das formal aufschlüsseln? Hat da jemand
> einen Tip für mich?
Sauber die Problemstellung formulieren.
Also so in etwa:
Gegeben sind ein Wahrscheinlichkeitsraum [mm](\Omega, \mathcal{A}, P)[/mm] und zwei identisch verteilte und unabhängige Zufallsvariablen [mm]X_1,X_2:\Omega\to \IR[/mm], die die zweimalige unabhängige und identische Ausführung eines Zufallssexperimentes beschreiben sollen. Gesucht ist dann die Verteilung der Zufallsvariable [mm]Y:=X_1-X_2[/mm] und insbesondere [mm]P(\{Y>k\})[/mm]
LG
gfm
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 18:46 Mo 10.05.2010 | Autor: | conman |
Hallo gfm,
danke für deine Antwort, ich werde versuchen es besser zu formulieren:
Gegeben sind zwei unabhängige Zufallsvariablen X und Y mit X, Y: [mm] \Omega \to \IR. [/mm] Die Wahrscheinlichkeitsdichtefunktion der beiden Zufallsvariablen ist unbekannt (sie kann gleich sein, oder auch unterschiedlich). Bekannt ist nur die Varianz jeder dieser Dichtefunktionen: [mm] var_{x} [/mm] und [mm] var_{y}. [/mm]
Wenn ich nun zufällig zwei Werte x und y realisiere und ich feststelle, dass x > y, dann kann ich vermuten, dass E(X) > E(Y) gilt. Ganz sicher kann ich mir natürlich nicht sein und in der "Praxis" würde ich mehrmals X und Y realisieren, also:
S = [mm] \bruch{1}{n} \summe_{i=1}^{n} x_{i} [/mm] - [mm] y_{i} [/mm]
und aus S > 0 würde ich dann folgern, dass E(X) > E(Y).
Was mich nun interessiert ist, ob ich das wiederholte Realisieren von X und Y nicht abbrechen kann, wenn [mm] x_{i} [/mm] und [mm] y_{i} [/mm] genügend weit auseinander liegen und ich aufgrund der Varianz [mm] var_{x} [/mm] und [mm] var_{y} [/mm] mit Wahrscheinlichkeit P sicher sein kann, dass E(X) > E(Y).
Grüße
Constantin
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 21:01 Mo 10.05.2010 | Autor: | gfm |
> Hallo gfm,
>
> danke für deine Antwort, ich werde versuchen es besser zu
> formulieren:
>
> Gegeben sind zwei unabhängige Zufallsvariablen X und Y mit
> X, Y: [mm]\Omega \to \IR.[/mm] Die Wahrscheinlichkeitsdichtefunktion
> der beiden Zufallsvariablen ist unbekannt (sie kann gleich
> sein, oder auch unterschiedlich). Bekannt ist nur die
> Varianz jeder dieser Dichtefunktionen: [mm]var_{x}[/mm] und [mm]var_{y}.[/mm]
>
> Wenn ich nun zufällig zwei Werte x und y realisiere und
> ich feststelle, dass x > y, dann kann ich vermuten, dass
> E(X) > E(Y) gilt. Ganz sicher kann ich mir natürlich nicht
> sein und in der "Praxis" würde ich mehrmals X und Y
> realisieren, also:
>
> S = [mm]\bruch{1}{n} \summe_{i=1}^{n} x_{i}[/mm] - [mm]y_{i}[/mm]
>
> und aus S > 0 würde ich dann folgern, dass E(X) > E(Y).
>
> Was mich nun interessiert ist, ob ich das wiederholte
> Realisieren von X und Y nicht abbrechen kann, wenn [mm]x_{i}[/mm]
> und [mm]y_{i}[/mm] genügend weit auseinander liegen und ich
> aufgrund der Varianz [mm]var_{x}[/mm] und [mm]var_{y}[/mm] mit
> Wahrscheinlichkeit P sicher sein kann, dass E(X) > E(Y).
>
Alles klar. Was Du suchst, ist ein T-Test für die Untersuchung der Relation der Mittelswerte zweier Stichproben zueinander. Viel Spaß.
LG
gfm
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 21:57 Mo 10.05.2010 | Autor: | conman |
Super, das sieht gut aus! Auf die Idee einen t-Test zu verwenden bin ich gar nicht gekommen...
Danke und schöne Grüße
Constantin
|
|
|
|