Mathematik: Wahrscheinlichkeitstheorie: DW: K3: Unabhängige Ereignisse

Aus Wikibooks
Zur Navigation springen Zur Suche springen

←  zurück   -  zum Inhaltsverzeichnis   -  weiter  →

K3: Unabhängige Ereignisse

Diskrete Wahrscheinlichkeitsrechnung

3. Bedingte Wahrscheinlichkeit und Unabhängigkeit[Bearbeiten]

3.2 Unabhängige Ereignisse[Bearbeiten]

Wenn ich beliebig einen Deutschen herausgreife, wird es für die Wahrscheinlichkeit, dass es jemand aus Bayern ist, keinen Unterschied machen, ob ich weiß, dass ich eine Frau wählen werde. Der Anteil der Frauen ist ja in Bayern gleich groß wie in ganz Deutschland. Anders ist es, wenn ich weiß, dass derjenige den ich wählen werde, gerne Bier trinkt. Denn pro Kopf wird in Bayern mehr Bier getrunken als woanders in Deutschland.

Wenn das Eintreten eines Ereignisses B keinen Einfluss auf die Wahrscheinlichkeit des Eintretens eines anderen Ereignisses A hat, also wenn P(A|B) = P(A), dann sagen wir, dass A unabhängig ist von B. Umgekehrt gilt dann auch, dass das Eintreten von A keinen Einfluss hat auf die Wahrscheinlichkeit des Eintretens von B, denn aus P(A|B) = P(A) folgt dass P(B|A) = P(AB)/P(A) = P(A|B)P(B)/P(A) = P(B).

Wenn also A unabhängig ist von B, dann ist auch B unabhängig von A. Wir sagen deshalb, A und B seien (von einander) unabhängig. Meistens lassen wir die Hinzufügung "von einander" weg, obwohl das streng genommen nicht richtig ist. Weil beide Beziehungen P(A|B) = P(A) und P(B|A) = P(B) auch äquivalent mit der symmetrische Beziehung P(AB) = P(A)P(B) sind, benutzen wir diese letztere als Definition.

Definition 3.2.1[Bearbeiten]

Die Ereignisse A und B heißen (von einander) unabhängig wenn P(AB) = P(A)P(B).

Bemerkung 1[Bearbeiten]

Der Begriff "unabhängig" wird manchmal verwechselt mit dem Begriff "disjunkt". Zwei disjunkte Ereignisse A und B, also mit AB = ∅, können aber nur dann unabhängig sein, wenn eins der beiden Ereignisse die Wahrscheinlichkeit 0 hat. Nur dann ist P(A)P(B) = 0 = P(∅) = P(AB).

Beispiel 1[Bearbeiten]

Aus einem Spiel von 52 Spielkarten ziehen wir beliebig eine Karte. H ist das Ereignis, dass die gezogene Karte eine Herz-Karte ist und B heißt, die gezogene Karte ist ein Bube. Dann gilt: P(H) = 13/52 = 1/4 und P(B) = 4/52 = 1/13. Weil HB das Ereignis ist dass wir den Herz-Bube ziehen, ist P(HB) = 1/52 = P(H)P(B). Die Ereignissen H und B sind also unabhängig.

Im Beispiel könnten wir die Unabhängigkeit der zwei Ereignisse beweisen. Manchmal aber kennen wir die Wahrscheinlichkeiten nicht und entscheiden auf andere Gründe zur Unabhängigkeit von zwei Ereignissen. Demnächst können wir dann die Wahrscheinlichkeit des gleichzeitigen Eintretens der beiden Ereignisse berechnen als das Produkt der Wahrscheinlichkeiten von jedem einzeln.

Beispiel 2[Bearbeiten]

Ein Gerät besteht aus zwei Komponenten. A1 ist das Ereignis, dass die eine Komponente funktioniert und A2 ist das Ereignis, dass die zweite funktioniert. Das Gerät funktioniert nur, wenn beide Komponente funktionieren, und wir haben gute Gründe zu unterstellen, das Funktionieren der einen Komponente hat keinen Einfluss auf das Funktionieren der anderen, d. h. A1 und A2 sind unabhängig. Mit dieser Unterstellung gilt für die Wahrscheinlichkeit, dass das Gerät funktioniert: P(A1A2) = P(A1)P(A2).

Beispiel 3 (zweimal Würfeln (Fortsetzung))[Bearbeiten]

Wir werfen zweimal hintereinander einen Würfel. Es sei A das Ereignis, dass wir beim ersten Wurf 5 werfen, und B das Ereignis, dass wir beim zweiten Wurf 3 oder mehr werfen. Wenn wir davon ausgehen, dass der Würfel fair ist, ist P(A) = 1/6 und P(B) = 2/3. Wenn unsere Würfe so eingerichtet sind, dass sie einander nicht beeinflussen, was normalerweise der Fall sein wird, werden A und B unabhängig sein. Es folgt dann: P(AB) = P(A)P(B) = 1/6×2/3 = 1/9.

In das oben stehende Beispiel machten wir zwei Unterstellungen im Bezug auf unser Wahrscheinlichkeitsmodell, und zwar, dass der Würfel ehrlich ist, und dass Ereignisse, die nur auf dem zweiten Wurf bezogen sind, unabhängig sind von Ereignissen, die nur auf dem ersten Wurf bezogen sind. Diese Unterstellungen zusammen sind äquivalent mit der Unterstellung, der Wahrscheinlichkeitsraum sei symmetrisch. Denn wenn Ai das Ereignis ist, dass wir beim erste Wurf i Augen werfen, und Bj das Ereignis, dass wir beim zweite Wurf j Augen werfen, dann gilt wegen die Ehrlichkeit des Würfels dass P(Ai) = P(Bj) = 1/6, und auf Grund der Unabhängigkeit dass P(AiBj) = P(Ai)P(Bj) = 1/36.

Wir hätten also die Wahrscheinlichkeit vom Ereignis AB auch berechnen mit Anwendung der Definition von Laplace können. Die oben verwendete Methode, die direkt die Unabhängigkeit der beiden Ereignisse benutzt, ist aber meistens einfacher.


Auch im Fall von mehr als zwei Ereignissen wollen wir von Unabhängigkeit sprechen. Es gibt dann verschiedene Möglichkeiten.

Definition 3.2.2[Bearbeiten]

Die Ereignisse A1,A2,... heißen paarweise unabhängig, wenn jedes Paar unabhängig ist.

Paarweise Unabhängigkeit schließt aber die Möglichkeit einer bestimmten Abhängigkeit zwischen Ereignissen nicht aus, wie im nächsten Beispiel gezeigt wird.

Beispiel 4[Bearbeiten]

Wir werfen zweimal nacheinander eine faire Münze. Der Ergebnisraum ist S = {KK,KZ,ZK,ZZ} und jedes dieser Ergebnisse hat die Wahrscheinlichkeit 1/4. Es sei A das Ereignis "das erste Mal war Kopf", B das Ereignis "das zweite Mal war Kopf" und C das Ereignis "beide Male dasselbe". Also ist A = {KK,KM}, B = {KK,MK} en C = {KK,MM}. A, B und C sind paarweise unabhängig, denn P(AB) = 1/4 = P(A)P(B), P(AC) = 1/4 = P(A)P(C) und P(BC) = 1/4 = P(B)P(C). Aber P(C|AB) = 1 ≠ P(C), was bedeutet, dass das Ereignis AB = {KK} (d. h. A und B zugleich) "Information" über C gibt .


Um jede Art von Abhängigkeit zwischen den Ereignissen A, B und C auszuschließen, werden wir also mehr fordern müssen als paarweise Unabhängigkeit. So müsste auch gelten, dass P(A|BC) = P(A), also dass P(ABC) = P(A)P(B)P(C). Aber diese Anforderung ist wieder nicht ausreichend, um paarweise Unabhängigkeit zu erzwingen.

Beispiel 5 (zweimal Würfeln (Fortsetzung))[Bearbeiten]

Wir werfen zweimal einen fairen Würfel. Es sei A das Ereignis, dass der erste Wurf 1, 2 oder 3 Augen, und B das Ereignis, dass der erste Wurf 3, 4 oder 5 Augen aufweist. C ist das Ereignis einer Gesamtaugenzahl von 9, also C = {(3,6),(4,5),(5,4),(6,3)}. P(A) = P(B) = 1/2 und P(C) = 1/9. Der Durchschnitt ABC = {(3,6)}, also P(ABC) = 1/36 = 1/2×1/2×1/9 = P(A)P(B)P(C), aber P(AB) = 1/6 ≠ 1/2 × 1/2 = P(A)P(B) P(BC) = 1/36 ≠ 1/2 × 1/9 = P(B)P(C) en P(AC) = 1/36 ≠ 1/2 × 1/9 = P(A)P(C). A, B und C sind also nicht paarweise unabhängig.

Deshalb nennen wir A, B und C erst dann (von einander) unabhängig, wenn für jedes Paar und auch für alle drei die Wahrscheinlichkeit des Durchschnitts (der Schnittmenge) das Produkt der einzelnen Wahrscheinlichkeiten ist. Für eine endliche oder abzählbar unendliche Folge von Ereignisse A1,A2,A3,... werden wir solches fordern für jede Zweier-, Dreier-, Vierergruppe, usw.

Definition 3.2.3[Bearbeiten]

Die Ereignisse A1,A2,A3,... heißen (von einander) unabhängig, wenn für jede endliche Teilfolge (k ≥ 2), gilt:

.


Wenn zwei Ereignisse A und B unabhängig sind, sind auch Ac und B unabhängig, ebenfalls A und Bc und auch Ac und Bc. Auch für mehr als zwei Ereignisse kann man Vergleichbares beweisen. Wenn z. B. A, B, C und D unabhängig sind, sind "disjunkte Kombinationen" wie AB und C ∪ D auch unabhängig, denn P(AB(C∪D)) = P(ABC ∪ ABD) = P(ABC) + P(ABD) – P(ABCD) = P(A)P(B)P(C) + P(A)P(B)P(D) – P(A)P(B)P(C)P(D) = P(A)P(B){[P(C) + P(D) – P(CD)} = P(AB)P(C∪D). Das gleiche gilt für AB∪C und D.

Satz 3.2.1[Bearbeiten]

Wenn A1,A2,A3,... unabhängig sind, sind auch disjunkte Kombinationen dieser Ereignisse unabhängig.