Mathematik: Wahrscheinlichkeitstheorie: DW: K5: Unabhängige Zufallsvariablen
← zurück - zum Inhaltsverzeichnis - weiter →
K5: Unabhängige Zufallsvariablen
Diskrete Wahrscheinlichkeitsrechnung
5. Simultane Wahrscheinlichkeitsverteilungen
[Bearbeiten]5.3 Unabhängige Zufallsvariablen
[Bearbeiten]Im vorherigen Paragrafen haben wir gesehen wie wir aus der simultanen Verteilung einiger Zufallsvariablen die marginale Verteilung bestimmen können. Umgekehrt ist es im Allgemeinen nicht möglich die simultane Verteilung von z.B. zwei Zufallsvariablen X und Y herzuleiten aus die marginale Verteilung jeder. In einem Spezialfall aber ist dies doch möglich und ist die simultane Wahrscheinlichkeitsfunktion einer n-Zahl Zufallsvariablen einfach das Produkt der marginalen Wahrscheinlichkeitsfunktionen jeder Zufallsvariable. Dies ist der Fall wenn die Zufallsvariablen unabhängig sind. Unabhängigkeit ist für Zufallsvariablen ganz analog definiert wie für Ereignisse und Experimente. Für zwei Zufallsvariablen X und Y können wir von einem beliebigen Ereignis {X∈B1}, das sich auf X bezieht, und {Y∈B2}, das sich auf Y bezieht, feststellen ob sie abhängig sind oder nicht. Wenn für jeder Wahl von B1 und B2 die erwähnten Ereignisse unabhängig sind, liegt es nah X und Y unabhängig zu nennen.
Definition 5.3.1
[Bearbeiten]Die Zufallsvariablen X1,X2,...,Xn heißen (von einander) unabhängig wenn die Ereignisse {X1∈ B1},{X2∈ B2},...,{Xn∈ Bn} unabhängig sind für jede B1⊂ SX , B2⊂ SX , ..., Bn⊂ SX. Wenn die n Zufallsvariablen nicht unabhängig sind, nennt man sie abhängig.
Wenn die Zufallsvariablen X und Y unabhängig sind, können wir die simultane Verteilung herleiten aus die marginale Verteilungen von X und von Y, denn, weil die Ereignissen {X=x} und {Y=y} für jede x und y unabhängig sind, ist P(X=x und Y=y) = P(X=x)P(Y=y). Allgemein gilt für eine n-Zahl:
Satz 5.3.1
[Bearbeiten]Wenn die Zufallsvariablen X1,X2,...,Xn unabhängig sind, gilt für alle :
- .
Beispiel 1
[Bearbeiten]Die Zufallsvariablen X1,X2,...,Xn sind unabhängig und alle Bernouilliverteilt mit Erfolgswahrscheinlichkeit p. Die simultane Verteilung ist dann:
- ,
mit xi = 0 oder 1 für alle i.
Satz 5.3.1 ist auch karakteristisch für unabhängige Zufallsvariablen. Umgekehrt gilt namentlich auch dass n Zufallsvariablen unabhängig sind wenn die simultane Verteilung das Produkt ist der marginalen Verteilungen von jeder.
Satz 5.3.2
[Bearbeiten]Die Zufallsvariablen X1,X2,...,Xn sind unabhängig wenn für alle gilt:
- .
Beispiel 2 (zweimal Würfeln (Fortsetzung))
[Bearbeiten]Wir nennen das Ergebnis der erste Wurf X und der Zweite Y. Für jede x = 1,2,...,6 und y = 1,2,...,6 gilt: P(X=x und Y=y) = 1/36 = P(X=x).P(Y=y). Die Zufallsvariablen X und Y sind also unabhängig.
Die Gesamtaugenzahl Z = X + Y und die maximale Augenzahl M = max(X,Y) sind abhängig, denn es gilt z.B. P(Z=5 und M=3) = 2/36 ≠ P(Z=5).P(M=3) = 4/36 × 5/36.
Wie wir schon zuvor bemerkten, ist die Analogie zwischen unabhängige Zufallsvariablen und unabhängige Experimente auffällig. In der Praxis gibt es kaum Unterschied und wir können eine bestimmte Situation auf beide Arten beschreiben.
Beispiel 3 (zweimal Würfeln (Fortsetzung))
[Bearbeiten]Wenn wir das Experiment beschreiben als gebildet aus zwei unabhängigen Teilexperimenten, dann sind Ereignisse die sich nur beziehen auf den ersten Wurf unabhängig von Ereignissen die sich nur beziehen auf den zweiten Wurf. Folglich sind X und Y unabhängige Zufallsvariablen.
Wir können das Experiment auch beschreiben mit X und Y als unabhängige Zufallsvariablen, also vorauszusetzen dass für x,y = 1,2,...,6 gilt dass P(X=x und Y=y) = 1/36. Folglich sind dann die beide Wurfe, aufgefasst als Teilexperimenten unabhängig.