Maximum-Likelihood- Schätzung < math. Statistik < Stochastik < Hochschule < Mathe < Vorhilfe
|
Aufgabe | Eine Münze wird fünf mal geworfen, wobei mit - unbekannter- Wahrscheinlichkeit [mm] p\in [/mm] [0,1] Kopf fällt. k soll die Anzahl der Würfe sein, bei denen Kopf fällt. Gib für jedes k mit [mm] 0\le [/mm] k [mm] \le [/mm] 5 eine Maximum Likelihood Schätzung für p [mm] \in [/mm] [0,1] an. |
Ich verzweifle an dem Mist!!! Sit Tagen wälze ich statistik Bücher, aber ich verstehe das einfach nicht!!!!!!! Ich kriegs einfach nicht hin! Vielleicht denke ich auch nur zu kompliziert!
Kann mir jemand an einem Beispiel schritt für Schritt erklären wie das mit der Maximum- Likelihood-Schätzung fünktioniert? Ich habe mal eine Aufgabe aus einem Buch gepostet, die für die Schätzung angegeben war.
Mein Ansatz bisher:
n=5 (Anzahl der Versuche)
k={0,1,2,3,4,5} (Trefferzahl)
[mm] L_k(p):=\vektor{n \\ k}*p^k* (1-p)^{n-k}
[/mm]
So, jetzt kann ich hier ja die unterschiedlichen k einsetzen, n ist immer 5. aber wie bestimme ich p? Die Wahrscheinlichkeit ist ja nicht bekannt!! Es müsste ja eigentlich gelten [mm] p_k=\bruch{k}{n} [/mm] und ich muss p für jedes k berechnen und einsetzen????
MfG
Mathegirl
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 09:36 Mi 24.08.2011 | Autor: | luis52 |
> Ich verzweifle an dem Mist!!!
Haltung, meine Dame.
> Sit Tagen wälze ich statistik Bücher,
Brav.
> aber ich verstehe das einfach
> nicht!!!!!!! Ich kriegs einfach nicht hin! Vielleicht denke
> ich auch nur zu kompliziert!
Ja.
> Mein Ansatz bisher:
>
> n=5 (Anzahl der Versuche)
> k={0,1,2,3,4,5} (Trefferzahl)
>
> [mm]L_k(p):=\vektor{n \\ k}*p^k* (1-p)^{n-k}[/mm]
Das stimmt nicht. Die Wsk, k Treffer zu erhalten ist vielmehr
[mm]L(p)=p^k* (1-p)^{n-k}[/mm]
>
> So, jetzt kann ich hier ja die unterschiedlichen k
> einsetzen, n ist immer 5. aber wie bestimme ich p?
Erst mal zeichnen. Fuer $k=0_$ lautet die Funktion [mm] $L(p)=(1-p)^5$, [/mm] fuer $k=1_$ ist [mm]L(p)=p (1-p)^4[/mm], ... Wo haben diese Funktionen ihre Maxima?
Allgemein: Wo hat [mm]L(p)=p^k* (1-p)^{n-k}[/mm] fuer beliebiges $k_$ sein Maximum?
vg Luis
|
|
|
|
|
Wie komme ich auf diese Funktion? woher weiß ich, dass ich genau diese nehmen muss? weil in meinem Buch ist die dich ich angegeben habe als Maximum Likelihood- Funktion angegeben. Wie man das Maximum bestimmt weiß ich leider nicht :(
also jetzt verstehe ich noch weniger als vorher....
MfG
Mathegirl
|
|
|
|
|
Guten Morgen,
na die Wahrscheinlichkeit, dass in einem Wurf Kopf fällt, ist ja $p$, die Wahrscheinlichkeit für Zahl logischerweise $1-p$. Weil die Würfe unabhängig sind, ist die Wahrscheinlichkeit $k$-mal Kopf zu werfen, das Produkt der Einzelwahrscheinlichkeiten für einmal Kopf, also [mm] $p^{k}$. [/mm]
So jetzt du insgesamt $n$ Würfe und hast dabei $k$ mal Kopf geworfen, also musst du $n-k$-mal Zahl geworfen haben, die Wahrscheinlichkeit dafür ist ganz analog zu oben [mm] $(1-p)^{n-k}$.
[/mm]
Es ergibt sich als Gesamtwahrscheinlichkeit für genau $k$-mal Kopf bei $n$ Würfen
[mm] $p^{k}\cdot (1-p)^{n-k}$
[/mm]
So jetzt zum Maximum-Likelihood Schätzer.
Das Konzept funktioniert hier ja so: Gesucht ist hier die Wahrscheinlichkeit $p$, sodass bei bekanntem Wurfumfang $n$ und bei bekannter Anzahl von Kopf-Würfen $k$, die Wahrscheinlichkeit, dass genau dieses $k$ auftritt am größten wird.
Wir halten also $n$ und $k$ fest, und wollen die Funktion
[mm] $L_{k}(p)=p^{k}\cdot (1-p)^{n-k}$ [/mm] maximieren, denn diese Funktion gibt ja gerade die Wahrscheinlichkeit an, dass wir $k$-mal Kopf beobachten.
Jetzt erinnere dich mal an Analysis I, Maximierung von Funktionen im Eindimensionalen. Wie habt ihr das gemacht(Stichwort Ableitungen und so)
Viele Grüße
Blasco
|
|
|
|
|
> Guten Morgen,
>
> na die Wahrscheinlichkeit, dass in einem Wurf Kopf fällt,
> ist ja [mm]p[/mm], die Wahrscheinlichkeit für Zahl logischerweise
> [mm]1-p[/mm]. Weil die Würfe unabhängig sind, ist die
> Wahrscheinlichkeit [mm]k[/mm]-mal Kopf zu werfen, das Produkt der
> Einzelwahrscheinlichkeiten für einmal Kopf, also [mm]p^{k}[/mm].
>
> So jetzt du insgesamt [mm]n[/mm] Würfe und hast dabei [mm]k[/mm] mal Kopf
> geworfen, also musst du [mm]n-k[/mm]-mal Zahl geworfen haben, die
> Wahrscheinlichkeit dafür ist ganz analog zu oben
> [mm](1-p)^{n-k}[/mm].
>
> Es ergibt sich als Gesamtwahrscheinlichkeit für genau
> [mm]k[/mm]-mal Kopf bei [mm]n[/mm] Würfen
>
> [mm]p^{k}\cdot (1-p)^{n-k}[/mm]
Hallo Blasco,
dies ist die Wahrscheinlichkeit dafür, dass man k mal Kopf und
(n-k) mal Kopf in einer ganz bestimmten Reihenfolge wirft.
Liegt aber die konkrete Wurffolge nicht vor, so gilt natürlich
die übliche Formel für die Binomialverteilung:
$\ P(k\ Treffer\ in\ n\ [mm] W\ddot [/mm] u rfen)\ =\ [mm] \pmat{n\\k}*p^k*(1-p)^{n-k}$ [/mm]
Natürlich ist für die Extremalaufgabe der konstante Faktor [mm] \pmat{n\\k}
[/mm]
belanglos - d.h. man kann auf ihn auch wieder verzichten. Falsch
ist es aber jedenfalls nicht, ihn hinzuschreiben.
LG Al
|
|
|
|
|
> > Mein Ansatz bisher:
> >
> > n=5 (Anzahl der Versuche)
> > k={0,1,2,3,4,5} (Trefferzahl)
> >
> > [mm]L_k(p):=\vektor{n \\ k}*p^k* (1-p)^{n-k}[/mm]
>
>
> Das stimmt nicht. Die Wsk, k Treffer zu erhalten ist
> vielmehr
>
> [mm]L(p)=p^k* (1-p)^{n-k}[/mm]
Hallo Luis,
der Faktor [mm] \vektor{n \\ k} [/mm] war schon richtig ! Es geht ja um
die Wahrscheinlichkeit für genau k Treffer und (n-k)
Nicht-Treffer in beliebiger Reihenfolge .
[mm] \vektor{n \\ k} [/mm] steht dabei für die Anzahl der möglichen Reihenfolgen.
[mm] p^k* (1-p)^{n-k} [/mm] wäre die Wahrscheinlichkeit dafür,
zuerst k mal zu treffen und dann (n-k) mal nicht.
An Mathegirl: vielleicht ist es für dich ein nützlicher
(für Mathematiker zwar etwas doofer) Tipp, wenn du
einmal x anstelle von p schreibst ...
LG Al-Chw.
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 11:56 Mi 24.08.2011 | Autor: | statler |
Mahlzeit Luis!
> Haltung, meine Dame.
Bist du dir da bzgl. ♀ so völlig sicher?
> > Mein Ansatz bisher:
> >
> > n=5 (Anzahl der Versuche)
> > k={0,1,2,3,4,5} (Trefferzahl)
> >
> > [mm]L_k(p):=\vektor{n \\ k}*p^k* (1-p)^{n-k}[/mm]
>
>
> Das stimmt nicht. Die Wsk, k Treffer zu erhalten ist
> vielmehr
>
> [mm]L(p)=p^k* (1-p)^{n-k}[/mm]
Diese Antwort ist unten ja schon kritisiert worden. Ich habe sie ebenfalls im ersten Anlauf nicht verstanden, aber schließlich bist du der Stochastik-Guru.
Jetzt bin ich der Meinung, daß das Problem in deinem vorhergehenden Text liegt. Ich schlage folgende Formulierung vor: Die Wsk für das von dir einmalig erhaltene Versuchsergebnis ist [mm] $p^k* (1-p)^{n-k}$
[/mm]
Viele Grüße aus dem noch supersonnigen HH-Harburg
Dieter
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 12:41 Mi 24.08.2011 | Autor: | luis52 |
>
> Diese Antwort ist unten ja schon kritisiert worden. Ich
> habe sie ebenfalls im ersten Anlauf nicht verstanden, aber
> schließlich bist du der Stochastik-Guru.
Danke. Mehr! Mehr!
> Jetzt bin ich der Meinung, daß das Problem in deinem
> vorhergehenden Text liegt. Ich schlage folgende
> Formulierung vor: Die Wsk für das von dir einmalig
> erhaltene Versuchsergebnis ist [mm]p^k* (1-p)^{n-k}[/mm]
Einverstanden.
Habe mich in dieser Angelegenheit auch schon per PN an Al
gewandt, jetzt verstehe ich seinen Einwand.
Blascowitz hat das besser dargestellt als ich.
Viele Gruesse aus dem auch sonnigen Niedersachsen,
der niedrigsten Form von Sachsen.
vg Luis
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 13:08 Mi 24.08.2011 | Autor: | blascowitz |
> >
> > Diese Antwort ist unten ja schon kritisiert worden. Ich
> > habe sie ebenfalls im ersten Anlauf nicht verstanden, aber
> > schließlich bist du der Stochastik-Guru.
>
> Danke. Mehr! Mehr!
>
> > Jetzt bin ich der Meinung, daß das Problem in deinem
> > vorhergehenden Text liegt. Ich schlage folgende
> > Formulierung vor: Die Wsk für das von dir einmalig
> > erhaltene Versuchsergebnis ist [mm]p^k* (1-p)^{n-k}[/mm]
>
> Einverstanden.
>
> Habe mich in dieser Angelegenheit auch schon per PN an Al
> gewandt, jetzt verstehe ich seinen Einwand.
>
> Blascowitz hat das besser dargestellt als ich.
Danke, ich verneige mich gnädigst von dem Guru^^.
>
Wobei ja noch gesagt werden kann das das [mm] $\vektor{n \\ k}$ [/mm] ja für den Schätzer eh egal ist, ändert ja nichts am Ergebnis. Bei der Likelihood-Funktion hab ich das trotzdem vergessen.
> Viele Gruesse aus dem auch sonnigen Niedersachsen,
> der niedrigsten Form von Sachsen.
>
> vg Luis
>
>
>
>
>
>
|
|
|
|