Zum Inhalt springen

Mathematik: Wahrscheinlichkeitstheorie: DW: K6: Bedingter Erwartungswert

Aus Wikibooks

←  zurück   -  zum Inhaltsverzeichnis   -  weiter  →

K6: Bedingter Erwartungswert

Diskrete Wahrscheinlichkeitsrechnung

6.5 Bedingter Erwartungswert[Bearbeiten]

Wenn X und Y eine simultane Verteilung haben, können wir, wie wir zuvor sahen, von der bedingten Verteilung von X, vorausgesetzt Y=y, reden. Diese bedingte Verteilung wird gegeben durch die Wahrscheinlichkeitsfunktion pX( · |Y=y). Für jede y ist dies eine ganz gewöhnliche Wahrscheinlichkeitsfunktion, sodass wir davon die zugehörige Erwartung bestimmen können:

Wir nennen diese Erwartung die bedingte Erwartung von X, vorausgesetzt Y=y.

Beispiel 1 (Zweimal Würfeln (Fortsetzung))[Bearbeiten]

Die bedingte Verteilung der Gesamtaugenzahl Z vorausgesetzt dass die maximale Augenzahl M=3, findet man in der nächste Tabelle.

2 3 4 5 6 7 8 9 10 11 12 Total
0 0 2/5 2/5 1/5 0 0 0 0 0 0 1
0 0 8/5 10/5 6/5 0 0 0 0 0 0 24/5

Die Berechnung der Erwartung dieser Verteilung ist ausgeführt worden in der unteren Zeile.

.

Die bedingte Erwartung der Gesamtaugenzahl Z wenn wir wissen dass die maximale Augenzahl M gleich 3 ist, ist also 24/5. Wenn über die maximale Augenzahl nichts bekannt ist, erwarten wir als Gesamtaugenzahl EZ = 7. Wenn das Maximum der Augenzahlen aber 3 ist, können wir keine hohen Augen gewürfelt haben, und die Erwartung der Gesamtaugenzahl ist dementsprechend auch kleiner als 7.

Definition 6.5.1[Bearbeiten]

Es seien X und Y zwei Zufallsvariablen mit einer simultane Verteilung, und es sei P(Y=y) > 0. Die bedingte Erwartung oder der bedingte Erwartungswert von X vorausgesetzt Y=y ist die Zahl:

,

vorausgesetzt die Summe konvergiert absolut, also wenn

Beispiel 2[Bearbeiten]

Es sei 0 < y < 1, P(Y=y) > 0 und X bedingt, vorausgesetzt Y=y, binomialverteilt mit Parametern n und y. Dann ist:

E(X|Y=y) = ny.

Beispiel 3[Bearbeiten]

Es sei 0 < y < 1 , P(Y=y) > 0 und X bedingt, vorausgesetzt, Y=y geometrisch Verteilt mit Parameter y. Dann ist;

E(X|Y=y) = 1/y.

Beispiel 4[Bearbeiten]

Es sei y ∈ , P(Y=y) > 0 und X bedingt, vorausgesetzt Y=y, binomialverteilt mit Parametern y und p. Dann ist:

E(X|Y=y) = yp.

Beispiel 5[Bearbeiten]

Es sei y > 0, P(Y=y) > 0 und X bedingt, vorausgesetzt Y=y, Poisson-Verteilt mit Parameter y. Dann ist:

E(X|Y=y) = y.


Es ist klar dass die bedingte Erwartung von X vorausgesetzt Y=y abhängig ist von y. In der Beispielen 2 - 5 zeigt sich das auch deutlich. Wir bestimmen diese Abhängigkeit auch mal in der Situation des Beispiels 1.

Beispiel 6 (Zweimal Würfeln (Fortsetzung))[Bearbeiten]

Im Beispiel 1 haben wir berechnet dass E(Z|M=3) = 24/5. Auch für andere Werte von M können wir die bedingte Erwartung von Z bestimmen. In der nächste Tabelle sind die bedingte Verteilungen von Z vorausgesetzt den Wert m von M eingetragen und direkt darunter die Berechnung der bedingten Erwartungswerten.

2 3 4 5 6 7 8 9 10 11 12 Total
1 1 0 0 0 0 0 0 0 0 0 0 1
2 0 0 0 0 0 0 0 0 0 0 2
2 0 2/3 1/3 0 0 0 0 0 0 0 0 1
0 2 4/3 0 0 0 0 0 0 0 0 10/3
3 0 0 2/5 2/5 1/5 0 0 0 0 0 0 1
0 0 8/5 10/5 6/5 0 0 0 0 0 0 24/5
4 0 0 0 2/7 2/7 2/7 1/7 0 0 0 0 1
0 0 0 10/7 12/7 14/7 8/7 0 0 0 0 44/7
5 0 0 0 0 2/9 2/9 2/9 2/9 1/9 0 0 1
0 0 0 0 12/9 14/9 16/9 18/9 10/9 0 0 70/9
6 0 0 0 0 0 2/11 2/11 2/11 2/11 2/11 1/11 1
0 0 0 0 0 14/11 16/11 18/11 20/11 22/11 12/11 102/11

Zusammengefasst ist das Ergebnis der Berechnung:

1 2 3 4 5 6
2 10/3 24/5 44/7 70/9 102/11


Diese Tabelle zeigt wie E(Z|M=m) von m abhängt. Wir können die Abhängigkeit auch als Formel schreiben:

, für m = 1, 2, ..., 6.


Klar ist dass E(X|Y=y) abhängig ist von y. Weil Y eine Zufallsvariable ist und der Wert y von Y also bestimmt wird durch Zufall, wird auch der Wert E(X|Y=y) durch Zufall bestimmt werden. Deshalb wird im Beispiel 6, wenn die maximale Augenzahl 2 ist, die bedingte Erwartung der Gesamtaugenzahl den Wert 10/3 haben. Ist dagegen die maximale Augenzahl 5, dann wird die bedingte Erwartung der Gesamtaugenzahl den Wert 70/9 haben. Die bedingte Erwartung E(X|Y=y) ist also aufzufassen als der Wert einer Zufallsvariable die abhängig ist von Y, eine Funktion ist von Y. Wir nennen diese Zufallsvariable die bedingte Erwartung von X vorausgesetzt Y. Im nächsten Schema ist dies abgebildet; darin bezeichnen wir die Funktion, die an y den Wert E(X|Y=y) hinzufügt, fürs Moment mit g, also ist g(y) = E(X|Y=y).


Die Zufallsvariable goY (meistens notiert wie g(Y)) ist die beabsichtigte bedingte Erwartung von X vorausgesetzt Y. Sie ist die Zufallsvariable die beim Ergebnis s, also wenn Y den Wert Y(s) hat, selbst den Wert E(X|Y=Y(s)) bekommt.

Definition 6.5.2[Bearbeiten]

Es seien X und Y zwei Zufallsvariablen mit einer simultane Verteilung, und es sei P(Y=y) > 0. Die bedingte Erwartung von X, vorausgesetzt Y, ist die Zufallsvariable E(X|Y) definiert durch:

E(X|Y)(s) = E(X|Y=Y(s)).

Wir können nun in den Beispielen 2 - 5 diese Zufallsvariable E(X|Y) bestimmen.

Beispiel 7 (Fortsetzung des Beispiels 2)[Bearbeiten]

Weil E(X|Y=y) = ny, folgt E(X|Y) = nY.

Beispiel 8 (Fortsetzung des Beispiels 3)[Bearbeiten]

Weil E(X|Y=y) = 1/y, folgt E(X|Y) = 1/Y.

Beispiel 9 (Fortsetzung des Beispiels 4)[Bearbeiten]

Weil E(X|Y=y) = yp, folgt E(X|Y) = Yp.

Beispiel 10 (Fortsetzung des Beispiels 5)[Bearbeiten]

Weil E(X|Y=y) = y, folgt E(X|Y) = Y.

Beispiel 11 (Fortsetzung des Beispiels 6)[Bearbeiten]

Hier gilt: E(Z|M) = M(3M-1)/(2M-1).

In der Beispielen zeigt sich deutlich das E(X|Y) eine Funktion ist von Y. Die Verteilung von E(X|Y) wird hergeleitet aus der Verteilung von Y. Es gilt:

,

worin summiert wird über alle Werte y, die zu dem selbe Wert z = E(X|Y=y) führen.

Wenn wir die Wahrscheinlichkeitsverteilung von Y kennen, folgt daraus die von E(X|Y).

Beispiel 12 (Fortsetzung des Beispiels 7)[Bearbeiten]

Die Wahrscheinlichkeitsverteilung von E(X|Y) wird für y ∈ SY gegeben durch P(E(X|Y) = ny) = P(Y=y).


Was wird die Erwartung E(E(X|Y)) der bedingte Erwartung E(X|Y) sein? Sie gleicht sich selbstverständlich die Erwartung EX von X. E(X|Y) ist eine Funktion von Y, deshalb berechnen wir:


Hieraus zeigt sich auch dass, wenn EX existiert, auch E(X|Y=y) existiert (vorausgesetzt P(Y=y) > 0). Denn für jede y, mit P(Y=y) > 0, ist:

.

Der nächste Satz fasst diese Ergebnisse zusammen.

Satz 6.5.1[Bearbeiten]

Wenn die Zufallsvariablen X und Y eine simultane Verteilung haben, und EX existiert, gilt:

(a) E(X|Y=y) existiert für jede y mit P(Y=y) > 0
(b) E(E(X|Y)) = EX.

Beispiel 13 (Zweimal Würfeln (Fortsetzung))[Bearbeiten]

Im Beispiel 6 haben wir E(Z|M=m) berechnet als Funktion von M. Das Ergebnis steht, zusammen mit die die zugehörige Wahrscheinlichkeitsverteilung, in der nächste Tabelle. Darin ist auch die Erwartung von E(Z|M) berechnet.


1 2 3 4 5 6 Total
1/36 3/36 5/36 7/36 9/36 11/36 36/36
2 10/3 24/5 44/7 70/9 102/11
2/36 10/36 24/36 44/36 70/36 102/36 252/36 = 7


Tatsächlich ist E(E(Z|M)) = 7 = EZ.

Beispiel 14 (Fortsetzung des Beispiels 9)[Bearbeiten]

Unterstelle dass Y geometrisch Verteilt ist mit Parameter q; dann ist EX = E(E(X|Y)) = pEY = p/q.

Weil die bedingte Erwartung E(X|Y=y) eigentlich ein "ganz normaler" Erwartungswert ist, hat er untermehr die Eigenschaften die in Satz 6.4.1 für den Erwartungswert genannt werden.

Satz 6.5.2[Bearbeiten]

Wenn die Zufallsvariablen X, Y und Z eine simultane Verteilung haben, und P(Y=y) > 0, gilt:

(a) E(X + Z|Y=y) = E(X|Y=y) + E(Z|Y=y)
(b) E(aX + b|Y=y) = a E(X|Y=y) + b, für alle a,b ∈ R
(c) wenn X und Y unabhängig sind, ist für jede y: E(X|Y=y) = EX.

Für die bedingte Erwartung gilt eine analoge Eigenschaft wie in Satz 6.4.1.c, wo sich zeigte dass für unabhängige X1 und X2, EX1X2 = EX1.EX2. Wenn X und Y bedingt, vorausgesetzt ein Ereignis A, unabhängig sind, gleicht sich die bedingte Erwartung des Produkts von X und Y das Produkt der bedingten Erwartungen, alle vorausgesetzt das Ereignis A. Für die unbedingte Erwartung braucht dies nicht zu gelten. Die nächsten Beispiele verdeutlichen das.

Beispiel 15[Bearbeiten]

Es seien X1 und X2 zwei unabhängige Alternative, beide mit Erfolgswahrscheinlichkeit p. Dann ist:

,

also

;

aber

,

sodass

.

Gleichfalls für X2, also

.

Obwohl X1 und X2 unabhängig sind, sind sie, vorausgesetzt X1+ X2= 1, abhängig.

Beispiel 16[Bearbeiten]

In einem Schachtel befinden sich zwei (unfaire) Münzen, mit der Nummer 1 bzw. 2, und Wahrscheinlichkeiten auf "Kopf" bzw. 1/3 und 2/3. Wir nehmen zufällig eine Münze M aus der Schachtel heraus und werfen sie zwei Mal. Die Würfe sind unabhängig. Mit X1 und X2 deuten wir das Ergebnis des ersten bzw. zweiten Wurfs an, und zwar so dass Xi= 0 wenn das Ergebnis "Kopf" ist, und 1 wenn es "Zahl" ist. Dann sind, vorausgesetzt die Münze M, X1 und X2 unabhängig, und für m = 1,2 gilt:

.

Aber

,

also ist

und

,

womit sich zeigt dass

.

X1 und X2 sind also abhängig, aber vorausgesetzt die Münze M unabhängig.

Wir besprechen nun noch einige Beispielen worin mit bedingten Erwartungen gerechnet wird.

Beispiel 17[Bearbeiten]

Der Torwart von FC SCHLACKE spielt nach dem Training oft noch draußen mit seinem kleinen Sohn. Abhängig von der verfügbaren Zeit feuert der Bub einige Schüsse, sage N, ab auf seinem Vater, der ins Tor steht. Wir nehmen an N sei Poisson-Verteilt mit Parameter μ. Der Torwart kann im Durchschnitt eine Fraktion p der abgefeuerten Bälle halten. Die Anzahl der gehaltenen Bälle nennen wir X. Dann ist die bedingte Verteilung von X, vorausgesetzt N=n, eine Binomialverteilung mit Parametern n und p. Also für x = 0,1,...,n ist:

Daraus ergibt sich: E(X|N=n) = np und E(X|N) = Np, mit als Verteilung

,

für n = 0,1,...

Wir können auch die (unbedingte) Verteilung von X bestimmen:

für x = 0,1,2,...; X hat also eine Poisson-Verteilung mit Parameter μp. Folglich ist: EX = μp und tatsächlich ist auch E(E(X|N)) = ENp = μp.

Wenn der Torwart zuhause kommt und zu seiner Frau sagt dass er 10 Bälle, die der kleine Sohn abfeuerte, gehalten hat, wird seine Frau natürlich fragen wie viel der Junge abfeuerte. Wir berechnen darum die bedingte Verteilung von N, vorausgesetzt X=x. Laut der Bayesschen Satz ist für n = x,x+1,...:

,
,

Vorausgesetzt der Anzahl gehaltener Bällen X=x, ist die Anzahl der nicht-gehaltenen Bälle N-X (die unter der Bedingung X=x gleich ist an N-x) Poisson-Verteilt mit Parameter μ(1-p). Daraus können wir wieder herleiten: E(N|X=x) = E(N-x|X=x) + x = μ(1-p) + x, sodass:

E(N|X) = X + μ(1-p)

und

EN = E(E(N|X)) = EX + μ(1-p) = μp + μ(1-p) = μ,

was wir übrigens schon wussten.

Beispiel 18[Bearbeiten]

Wir bilden ein einfaches Modell für Arbeitslosigkeitsdaten. Dazu betrachten wir die Population (Ergebnisraum) S = {Deutsche von 25 bis 65 Jahre alt} und führen zwei Zufallsvariablen ein: das Bundesland N (als Nummer) wo der Bezogene (Ergebnis) ansässig ist, und X, die bezeigt ob die Person vollberufstätig (X=0), teilbeschäftigt (X = 1/2) oder ohne Arbeit ist (X=1). Als Zufallsmechanismus denken wir uns den Wahrscheinlichkeitsraum symmetrisch. Dann ist:

              Anzahl ansässig im Bundesland n 
    P(N=n) = ─────────────────────────────────
              Gesamtanzahl der Population

und

                  Anzahl ansässig im Bundesland n ohne Arbeit
    P(X=1|N=n) = ─────────────────────────────────────────────────── .
                  Anzahl in der Population ansässig im Bundesland n

Die bedingte Wahrscheinlichkeiten P(X=1/2|N=n) und P(X=0|N=n) sind auf analoge Weise definiert.

Fürs Bundesland n können wir als Arbeitslosigkeitszahl E(X|N=n) benutzen und für ganz Deutschland EX. Zwischen die Teilzahlen pro Bundesland und die Zahl für ganz Deutschland gibt es die Beziehung:

.

Die Zahl für ganz Deutschland ist also der gewichtete Mittelwert der Arbeitslosigkeitszahlen der Bundesländer, mit als Gewichte die relativen Anteile der Bundesländer in der Population.

Beispiel 19 (Lebensdauer)[Bearbeiten]

Die Zufallsvariable L stellt die Lebensdauer (d.h. das Alter beim sterben, gemessen in ganze Jahre) eines Menschen (Gerät, Teil) vor. Die Lebensdauerverteilung ist pL, meistens bestimmt durch die Überlebungswahrscheinlichkeiten P(L ≥ k), für k = 0,1,2,... Die erwartete Lebensdauer (für einen Menschen auch Lebenserwartung genannt) ist EL, die wir berechnen können als die Summe der Überlebungswahrscheinlichkeiten (überprüfe):

.

(Die Lebenserwartung ist eigentlich EL + 0,5, weil Älter gemessen werden als vollendete ganze Jahre. Wir werden nicht weiter darauf eingehen.)

Wie lange wird jemand, der gerade 65 Jahre alt geworden ist, noch leben? Um die Frage zu beantworten betrachten wir die bedingte Verteilung von L, vorausgesetzt L ≥ 65. (Achte auf der Unterschied zwischen Alter und Lebensdauer.) Diese Verteilung wird für k = 0,1,2,... gegeben durch die bedingte Überlebungswahrscheinlichkeiten:

auch bezeichnet als alterspezifische Überlebungswahrscheinlichkeiten für ein 65-jährige. Die bedingte Lebenserwartung, vorausgesetzt man hat das Alter von 65 Jahre erreicht, bezeichnet als die alterspezifische Lebenserwartung eines 65-jährigen, ist:

.

Bedenke selbst wie man die Überlebungswahrscheinlichkeiten in einer Bevölkerung schätzen kann.


Da E(X|Y) eine Funktion von Y ist, wird es für eine andere Funktion von Y, z.B. h(Y), egal sein ob wir E(h(Y)X|Y) bestimmen, oder h(Y)·E(X|Y), denn vorausgesetzt ein Wert von Y ist h(Y) doch konstant.

Satz 6.5.3[Bearbeiten]

Es seien X und Y zwei Zufallsvariablen, definiert auf derselbe Wahrscheinlichkeitsraum und P(Y=y) > 0. Für jede Zufallsvariable h(Y) die eine Funktion von Yist, gilt:

Beweis

Beispiel 20[Bearbeiten]

Die Zufallsvariable Y ist gleichverteilt auf die Zahlen 1/10, 2/10, ..., 10/10 und, vorausgesetzt einen Wert y von Y, ist die Zufallsvariable X geometrisch Verteilt mit Parameter y. Dann ist

.

Dieses Ergebnis bekommen wir ganz einfach und direkt durch Anwendung des obigen Satzes:

.