Mathematik: Wahrscheinlichkeitstheorie: DW: K4: Bekannte Verteilungen

Aus Wikibooks

←  zurück   -  zum Inhaltsverzeichnis   -  weiter  →

K4: Bekannte Verteilungen

Diskrete Wahrscheinlichkeitsrechnung

4. Zufallsvariablen[Bearbeiten]

4.3 Bekannte Verteilungen[Bearbeiten]

In diesem Paragrafen besprechen wir einige viel benutzte diskrete Wahrscheinlichkeitsverteilungen. Im Bezug auf was wir im vorigen Paragrafen erwähnten, lassen wir jede Hinweisung auf einen unterliegenden Wahrscheinlichkeitsraum weg.


Als Grenzfall betrachten wir die Situation, dass eigentlich nicht von Zufall die Rede ist; die Zufallsvariable X nimmt nur einen Wert an: die Verteilung von X ist entartet.

Definition 4.3.1 (entartete Verteilung)[Bearbeiten]

Die Zufallsvariable X hat eine entartete Verteilung im Punkt a, wenn die Wahrscheinlichkeitsfunktion von X gegeben wird durch pX(a) = 1.

Wenn die Zufallsvariable X zwei verschiedene Werte annehmen kann, sprechen wir von einer Bernoulli-Verteilung. Wir werden einfachshalber nur 0 und 1 als mögliche Werte von X betrachten. Die Zufallsvariable X zeigt ob wir ja (X=1) oder nein (X=0) Erfolg haben in einem Bernoulli-Experiment. Wir können auch sagen dass X die Anzahl der Erfolge im Experiment ist.

Definition 4.3.2 (Bernoulli-Verteilung)[Bearbeiten]

Die Zufallsvariable X hat eine Bernoulli-Verteilung mit dem Parameter p (0 ≤ p ≤ 1), wenn die Wahrscheinlichkeitsfunktion von X gegeben wird durch: pX(1) = 1 – pX(0) = p.

Wenn die Zufallsvariable X mehrere Werte x1,x2,...,xN annehmen kann, alle mit derselbe Wahrscheinlichkeit, sprechen wir von einer diskreten Gleichverteilung. Es ist das Analogon eines symmetrischen Wahrscheinlichkeitsraums.

Definition 4.3.3 (diskrete Gleichverteilung)[Bearbeiten]

Die Zufallsvariable X hat eine (diskrete) Gleichverteilung auf die Zahlen x1,x2,...,xN, wenn die Wahrscheinlichkeitsfunktion von X gegeben wird durch pX(xi) = 1/N, für i = 1,2,..,N.

Beispiel 1 (eine aselekte Ziehung)[Bearbeiten]

Gelegentlich werden wir den Begriff aselekte (zufällige, beliebige) Ziehung begegnen. Eine aselekte Ziehung aus den Zahlen x1,x2,...,xN können wir beschreiben mittels einer auf diesen Zahlen gleichverteilte Zufallsvariable.

Ziehen wir beliebig ohne Zurücklegen n Mal aus einer dichotomen Masse, dann ist die Wahrscheinlichkeit von m Erfolge gegeben durch die hypergeometrische Formel (Satz 3.3.6). Eine Zufallsvariable mit dieser Formel als Verteilung nennen wir hypergeometrisch verteilt.

Definition 4.3.4 (hypergeometrische Verteilung)[Bearbeiten]

Die Zufallsvariable X hat eine hypergeometrische Verteilung mit Parametern N, M und n (N, M, n ∈ , 0≤M≤N), wenn die Wahrscheinlichkeitsfunktion von X gegeben wird durch:

, für m = 0,1,..,n.

Auf Grund des Obenstehenden können wir sagen:

Satz 4.3.1[Bearbeiten]

Es sei X die Anzahl Malen Erfolg in n aselekte Ziehungen ohne Zurücklegen aus einer dichotomen Masse der Größe N, wovon M Erfolge und N-M Misserfolge sind. Dann ist X hypergeometrisch verteilt mit den Parametern N, M und n.

Im nächsten Bild sehen wir die hypergeometrische Verteilung mit Parametern 50, 20 und 12.

Bild 4.2. Hypergeometrische Verteilung mit Parametern 50, 20, 12


Beispiel 2[Bearbeiten]

Aus einer Gruppe von Studenten mit 20 Mädchen und 30 Jungen werden beliebig 5 Studenten ausgewählt. Wie hoch ist die Wahrscheinlichkeit dass es nur 1 Jungen gibt bei der Auswahl dieser 5? Die Anzahl Mädchen bei den 5 Ausgewählten ist eine Zufallsvariable X, die hypergeometrisch verteilt ist; also ist die erlangte Wahrscheinlichkeit:

.


Ziehen wir aselekt mit Zurücklegen n Mal aus eine dichotomen Masse mit Erfolgswahrscheinlichkeit p, dann besteht das Experiment also aus n Bernoulli-Versuchen, und die Wahrscheinlichkeit von m Erfolgen ist gegeben durch die Binomialformel (Satz 3.3.4). Eine Zufallsvariable mit dieser Formel als Wahrscheinlichkeitsfunktion nennen wir binomialverteilt.

Definition 4.3.5 (Binomialverteilung)[Bearbeiten]

Die Zufallsvariable X hat eine Binomialverteilung mit Parametern n und p (n ∈ N, n > 0, 0 ≤ p ≤ 1), wenn die Wahrscheinlichkeitsfunktion von X gegeben wird durch:

, für k = 0,1,..,n.

Wir sprechen von der B(n,p)-Verteilung und sagen dass X B(n,p)-verteilt ist.

Auf Grund des Obenstehenden können wir sagen:

Satz 4.3.2[Bearbeiten]

Es sei X die Anzahl der Erfolge in n Bernoulli-Versuchen mit Erfolgswahrscheinlichkeit p. Dann ist X Binomialverteilt mit Parametern n und p.

In den nächsten Bildern sehen wir einige Binomialverteilungen gezeichnet.

Bild 4.3. Die Binomialverteilung mit Parametern 12 und 0,4
Bild 4.3. Die Binomialverteilung mit Parametern 12 und 0,4


Bild 4.4. Die Binomialverteilung mit Parametern 30 und 0,4
Bild 4.4. Die Binomialverteilung mit Parametern 30 und 0,4

Beispiel 3[Bearbeiten]

Die Anzahl der Jungen X in einer beliebigen Familie mit 4 Kindern ist B(4,1/2)-verteilt, wenn wir unterstellen dass Jungen und Mädchen im Durchschnitt gleich viel vorkommen (was nicht ganz richtig ist) und dass in einer Familie der Geburt eines Jungens und eines Mädchens unabhängig sind (was auch nicht ganz richtig ist). Die Wahrscheinlichkeit dass es in einer beliebigen Familie mit vier Kinder nur Jungen gibt, ist dann:

.

Ziehen wir n Mal aselekt ohne Zurücklegen aus einer Masse größer Umfang worin eine Fraktion p ein bestimmtes Merkmal ("Erfolg") hat, dann ist die Anzahl der Erfolge XN in der Stichprobe hypergeometrisch verteilt. Ziehen wir mit Zurücklegen dann ist die Anzahl Malen Erfolg Y Binomialverteilt. Für eine große Masse und eine relativ kleine Stichprobe aber, wird es wenig Unterschied geben ob wir die Stichprobe mit oder ohne Zurücklegen gezogen haben. Die Verteilungen von XN und Y werden sich also ziemlich ähnlich sein.

Satz 4.3.3[Bearbeiten]

Es sei Y Binomialverteilt mit Parametern n und p, und für N = 1,2,3,... XN hypergeometrisch verteilt mit Parametern N, M = Np und n, dann gilt:

.

Beispiel 4[Bearbeiten]

In der nächste Tabelle vergleichen wir die hypergeometrische Verteilung mit N = 1000, M = 200 und n = 5, mit der annähernde B(5,5)-Verteilung.

k 0 1 2 3 4 5
hypergeom. 0,3269 0,4106 0,2051 0,0509 0,0063 0,0003
binomial 0,3277 0.4096 0,2048 0,0512 0,0064 0,0003

Wenn wir so lange Bernoulli-Versuche machen, bis wir Erfolg haben, ist laut Satz 3.3.5 die Wahrscheinlichkeit dass wir n Versuche machen müssen, gegeben durch die geometrische Formel. Eine Zufallsvariable mit dieser Formel als Wahrscheinlichkeitsverteilung nennen wir geometrisch verteilt. Wir können eine solche Zufallsvariable betrachten als die "Wartezeit" bis zum Erfolg.

Definition 4.3.6 (geometrische Verteilung)[Bearbeiten]

Die Zufallsvariable X hat eine geometrische Verteilung mit Parameter p (0 < p < 1), wenn die Wahrscheinlichkeitsfunktion von X, für n = 1,2,3,..., gegeben wird durch:


Auf Grund des Obenstehenden können wir sagen:

Satz 4.3.4[Bearbeiten]

Es sei X die Anzahl der Bernoulli-Versuche, mit Erfolgswahrscheinlichkeit p, benötigt um zum ersten Mal Erfolg zu haben; dann ist X geometrisch verteilt mit Parameter p.

Im nächsten Bild ist die geometrische Verteilung mit Parameter p = 0,4 abgebildet.

Bild 4.5. Die geometrische Verteilung mit Parameter 0,4


Die geometrische Verteilung wird am einfachsten beschrieben durch die Überschreitungswahrscheinlichkeiten P(X > n), wie der nächste Satz zeigt.

Satz 4.3.5[Bearbeiten]

Wenn die Zufallsvariable X geometrisch verteilt ist mit Parameter p, gilt für n = 0,1,2,...:

.

Beispiel 5[Bearbeiten]

Ein Vertreter hat im Durchschnitt bei jedem zehntem Kunden Erfolg. Wie groß ist die Wahrscheinlichkeit dass er an einem bestimmten Tag beim 5. Kunden, den er besucht, die erste Bestellung des Tages notieren kann? Die Anzahl X der Kunden die er besuchen muss um zum ersten Mal Erfolg zu haben, ist geometrisch verteilt mit Parameter p = 0,1; also ist

P(X = 5) = (1–p)4p = 0,94 × 0,1 = 0,06561 0,066.

Die Wahrscheinlichkeit, dass er 5 oder mehr Kunden besuchen muss, um eine Bestellung zu notieren, ist

P(X ≥ 5) = P(X > 4) = (1–p)4 = 0,94 = 0,6561.

Beispiel 6[Bearbeiten]

Was ist die Wahrscheinlichkeit mit einem fairen Würfel, in weniger als 6 Würfen, eine Sechs zu werfen? Die Anzahl der dazu benötigten Würfe, X, ist geometrisch verteilt mit Parameter 1/6. Also ist die resultierende Wahrscheinlichkeit

P(X < 6) = 1 – P(X > 5) = 1 – (1 – 1/6)5 = 0,5981 ~ 60%.


Eine Verteilung die nicht direkt aus einfachen Experimenten hervorkommt, ist die Poisson-Verteilung (Poisson, 1837). Diese Verteilung wird wohl die Verteilung seltener Vorfälle genannt. Zufallsvariablen mit dieser Wahrscheinlichkeitsverteilung werden benutzt als Modelle für die Anzahle Vorfällen die in einer bestimmten Zeitspanne stattfinden, wie z.B. die Anzahl der eintretende Personen in einem Postamt zwischen 10 und 11 Uhr Morgens, die Anzahl der Atome in einer bestimmte Masse radioaktiver Materie, die innerhalb einem bestimmten Zeitdauer zerfallen, usw. Auch Zählungen von Objekten die sich in einem bestimmten Teil des Raumes befinden, können manchmal modelliert werden mittels einer Poisson-Verteilung. Man denke an die Anzahl der roten Blutkörper in eine bestimmte Menge Blut, die Anzahl der Bakteriën eines bestimmten Typs in einem Liter Grabenwasser, die Anzahl der Waldorchideen auf einem Hektare Waldboden, die Anzahl der Drahtbrüche in 1000 m Garn in einer Spinnerei, usw.

Beispiel 7[Bearbeiten]

Auf einer Kreuzung finden jährlich einige schwere Unfälle statt. Im Durchschnitt m pro Jahr. Die Anzahl pro Jahr nennen wir X. Wie wäre die Wahrscheinlichkeitsverteilung von X? Dazu betrachten wir die Verteilung der Unfälle (×) über die 12 Monate des Jahres:

─xx─ ─x── ──x─ ─x── ──── ──── ───x ──xx ─x── ─xx─ ──── ──x─
Jan Feb Mrz Apr Mai Jun Jul Aug Sep Okt Nov Dez

Grob betrachtet können wir sagen es gibt Monate worin kein Unfall stattfindet und Monate worin ein Unfall stattfindet. Wenn wir Monate mit einem Unfall als "Erfolg" betrachten und das Eintreten der Unfälle als unabhängig, dann haben wir 12 Bernoulli-Versuche mit Erfolgswahrscheinlichkeit p = m/12. Leider gibt es Monate mit zwei (oder mehr) Unfällen! Wir lassen uns dadurch nicht von unserem Weg abbringen und betrachten deshalb die Wochen. Eine Woche mit einem Unfall nennen wir einen Erfolg und eine Woche ohne Unfall einen Misserfolg. Nun haben wir 52 Bernoulli-Versuche mit Erfolgswahrscheinlichkeit p = m/52. Sollte es noch Wochen geben mit mehr als einen Unfall, dann könnten wir die Tage betrachten, usw. Die Zufallsvariable X stellt nun die Anzahl der Wochen vor, worin genau einen Unfall stattfindet; X ist also mit gute Annäherung Binomialverteilt mit Parametern n = 52 und p = m/52. Die Annäherung wird umso besser sein, wie größer n ist. Der nächste Satz bestimmt den Grenzwert.

Satz 4.3.6[Bearbeiten]

Es seien die Zufallsvariablen Xn für n=1,2,3,... B(n,μ/n)-verteilt, dann gilt:

.


Dieser Grenzwert ist wieder eine Wahrscheinlichkeitsfunktion, wie der nächste Satz zeigt.

Satz 4.3.7[Bearbeiten]

Es gilt:

.


Die Verteilung mit dieser Wahrscheinlichkeitsfunktion nennen wir die Poisson-Verteilung.

Definition 4.3.7 (Poisson-Verteilung)[Bearbeiten]

Die Zufallsvariable X hat eine Poisson-Verteilung mit Parameter μ (μ > 0), wenn die Wahrscheinlichkeitsfunktion von X für k = 0,1,2,... gegeben wird durch:

.


In den nächsten Bildern werden einige Poisson-Verteilungen gezeigt.

Bild 4.6. Die Poisson-Verteilung mit Parameter 1
Bild 4.7. Die Poisson-Verteilung mit Parameter 5


Die Parameter μ der Poisson-Verteilung ist die Intensität, mit der die Vorfälle stattfinden. Für eine gefährliche, verkehrsintensive Kreuzung nehmen wir einen großen Wert für μ, für eine weniger befahrene Kreuzung einen kleinen Wert für μ, wenn wir die Anzahl der Unfälle mittels einer Poisson-Verteilung beschreiben möchten.

Beispiel 8[Bearbeiten]

Die Anzahl X pro Stunde der telefonischen Anfragen um Informationen an eine Abteilung eines Versicherungsbüros ist Poisson-verteilt mit den Parametern μ = 2, d.h.: über eine lange Periode gibt es im Durchschnitt 2 Anfragen pro Stunde. Nach intensiver Werbung gibt es aber viel mehr Anfragen und es zeigt sich, dass μ gestiegen ist auf 10. Im Fall μ = 2 ist P(X ≤ 6) = 0,996; aber für μ = 10 ist P(X ≤ 6) = 0,130, womit der Unterschied der beiden Situationen klar ist.

Im Beispiel 7 sahen wir, dass eine Binomialverteilung für große Werte der Parameter n und kleine Werte der Parameter p viel Ähnlichkeit zeigt mit einer Poisson-Verteilung mit Parameter np. Der nächste Satz verdeutlicht dieses.

Satz 4.3.8[Bearbeiten]

Es sei für n=1,2,3,... Xn B(n,μ/n)-verteilt und Y Poisson-verteilt mit Parameter μ, dann gilt:

.

Beispiel 9[Bearbeiten]

Eine Lebensversicherungsgesellschaft versichert das Leben von 5000 je 42 Jahre alten Männern. Die Wahrscheinlichkeit, dass ein 42-jähriger Mann sterben wird, ist 0,001. Was ist die Wahrscheinlichkeit, dass die Gesellschaft während eines Jahres mehr als 4 Forderungen auszahlen muss? Die Anzahl X der Forderungen in diesem Jahr ist binomialverteilt mit Parametern n = 5000 und p = 0,001. Eine gute Annäherung dieser Verteilung ist die Poisson-Verteilung mit μ = np = 5, und damit ist die erlangte Wahrscheinlichkeit:

worin Y eine Poisson-Verteilung mit Parameter μ = 5 hat.