Binomialverteilung
Binomialverteilung
Dichtefunktion
Binomial distribution pmf.svg
Verteilungsfunktion
Binomial distribution cdf.svg
Parameter n \in \N^+ , p \in [0,1]
Träger k \in \{0, \dots,n\}
Dichtefunktion \textstyle {n\choose k}\, p^k (1-p)^{n-k}
Verteilungsfunktion I_{1-p}(n - \lfloor k \rfloor, 1 + \lfloor k \rfloor)
Erwartungswert np
Median \left[\,\lfloor np\rfloor-1,\ \lfloor np\rfloor+1\,\right]
Modus \lfloor (n+1)p\rfloor oder \lfloor (n+1)p-1\rfloor
Varianz np(1 − p)
Schiefe \frac{1-2p}{\sqrt{np(1-p)}}
Wölbung \frac{1-6p(1-p)}{np(1-p)}
Entropie \frac12 \log_2 \big( 2\pi \mathrm{e}\, np(1-p) \big)
 + \mathcal{O} \left( \frac{1}{n} \right)
Momenterzeugende Funktion \left(1-p + p\mathrm{e}^t\right)^n
Charakteristische Funktion \left(1-p + p\mathrm{e}^{\mathrm{i}t}\right)^n
Wahrscheinlichkeitsfunktion der Binomialverteilung für n = 20; p = 0,1 (blau), p = 0,5 (grün) und p = 0.8 (rot)
Binomialverteilungen für p = 0,5
mit n und k wie im Pascalschen Dreieck

Die Wahrscheinlichkeit, dass eine Kugel in einem Galtonbrett mit 8 Ebenen (n = 8) ins mittlere Fach fällt (k = 4) ist 70 / 256.

Die Binomialverteilung ist eine der wichtigsten diskreten Wahrscheinlichkeitsverteilungen.

Sie beschreibt die Anzahl der Erfolge in einer Serie von gleichartigen und unabhängigen Versuchen, die jeweils nur zwei mögliche Ergebnisse haben („Erfolg“ oder „Misserfolg“). Solche Versuchs-Serien werden auch Bernoulli-Prozesse genannt.

Ist p die Erfolgswahrscheinlichkeit bei einem Versuch, und die Anzahl der Versuche n, dann bezeichnet man mit B(k \mid p,n) oder Bn,p(k) die Wahrscheinlichkeit genau k Erfolge zu erzielen (siehe Abschnitt Definition).

Die Binomialverteilung und der Bernoulli-Versuch können mit Hilfe des Galtonbretts veranschaulicht werden. Dabei handelt es sich um eine mechanische Apparatur, in die man n Kugeln wirft. Diese fallen dann zufällig in eines von mehreren Fächern, wobei die Aufteilung der Binomialverteilung entspricht. Je nach Konstruktion sind unterschiedliche Parameter p möglich.

Obwohl die Binomialverteilung bereits lange vorher bekannt war, wurde der Begriff zum ersten Mal 1911 in einem Buch von George Udny Yule verwendet.[1]

Inhaltsverzeichnis

Definition der Binomialverteilung

Die diskrete Wahrscheinlichkeitsverteilung

B(\cdot\mid p,n)\colon\mathbb Z\to [0,1],  k\mapsto B(k \mid p,n) = \binom nk p^k (1-p)^{n-k}

heißt die Binomialverteilung zu den Parametern n (Anzahl der Versuche) und p\in [0,1] (der Erfolgs- oder Trefferwahrscheinlichkeit). Statt B(k\mid p,n) schreibt man auch Bn,p(k).

Dabei wird nur den Zahlen 0,1\dots, n eine Wahrscheinlichkeit ungleich Null zugeordnet. Die zur Erfolgswahrscheinlichkeit p komplementäre Ausfallwahrscheinlichkeit 1 − p wird häufig mit q abgekürzt. Wie für eine Wahrscheinlichkeitsverteilung notwendig, müssen sich die Wahrscheinlichkeiten für alle möglichen Werte k zu 1 summieren. Dies ergibt sich aus dem binomischen Lehrsatz wie folgt

\sum_{k=0}^n \binom nk p^k (1-p)^{n-k} = (p + 1 -p)^n = 1^n = 1.

Eine nach B(\cdot\mid p,n) verteilte Zufallsgröße X heißt binomialverteilt mit den Parametern n und p. Damit hat sie die Verteilungsfunktion

F_X(x)=\operatorname P(X\le x) = \sum_{k=0}^{\lfloor x \rfloor}\binom nk p^k (1-p)^{n-k}.

Herleitung als Laplace-Wahrscheinlichkeit

Versuchsschema: Ein Korb enthält N nummerierte Bälle, davon sind M schwarz und NM weiß. Die Wahrscheinlichkeit, einen schwarzen Ball zu ziehen, ist also p=M/N. Es werden einzeln und nacheinander, rein zufällig, insgesamt n Bälle entnommen, untersucht und wieder zurückgelegt.

Wir berechnen die Anzahl der Möglichkeiten, in denen man k schwarze Bälle findet und daraus die sogenannte Laplace-Wahrscheinlichkeit („Anzahl der für das Ereignis günstigen Möglichkeiten geteilt durch Gesamtanzahl der (gleichwahrscheinlichen) Möglichkeiten“).

In jeder der n Ziehungen gibt es N Möglichkeiten, insgesamt also Nn Möglichkeiten für die Auswahl der Bälle. Damit genau k dieser n Bälle schwarz sind, müssen genau k der n Ziehungen einen schwarzen Ball aufweisen. Für jeden schwarzen Ball gibt es M Möglichkeiten, und für jeden weißen Ball N–M Möglichkeiten. Die k schwarzen Bälle können noch auf \tbinom nk mögliche Weisen über die n Ziehungen verteilt sein, also gibt es

\binom nk M^k(N-M)^{n-k}

Fälle worin genau k schwarze Bälle ausgewählt worden sind. Die Wahrscheinlichkeit pk, unter n Bällen genau k schwarze zu finden ist also

\begin{align}
p_k &= \binom nk \frac{M^k(N-M)^{n-k}}{N^n}\\
    &= \binom nk \left(\frac MN\right)^k\left(\frac{N-M}N\right)^{n-k}\\
    &= \binom nk p^k (1-p)^{n-k}.
\end{align}

Eigenschaften der Binomialverteilung

Symmetrie

  • Die Binomialverteilung ist in den Spezialfällen p = 0, p = 0,5 und p = 1 symmetrisch und ansonsten asymmetrisch.
  • Die Binomialverteilung besitzt die Eigenschaft B(k | p,n) = B(nk | q,n) mit q = 1 − p.

Erwartungswert

Die Binomialverteilung besitzt den Erwartungswert np.

Beweis

Den Erwartungswert errechnet man direkt aus der Definition \operatorname E(X)=\sum_{i=1}^n x_i p_i und dem binomischen Lehrsatz zu

\begin{align}
  \operatorname E(X) &= \sum_{k=0}^n k\binom nk p^k (1-p)^{n-k}\\
                     &= np\sum_{k=0}^n k\frac{(n-1)!}{(n-k)!k!}p^{k-1} (1-p)^{(n-1)-(k-1)}\\
                     &= np\sum_{k=1}^n \frac{(n-1)!}{(n-k)!(k-1)!}p^{k-1} (1-p)^{(n-1)-(k-1)}\\
                     &= np\sum_{k=1}^n \binom{n-1}{k-1} p^{k-1} (1-p)^{(n-1)-(k-1)}\\
                     &= np\sum_{\ell=0}^{n-1} \binom{n-1}\ell p^\ell (1-p)^{(n-1)-\ell}\\
                     &= np\sum_{\ell=0}^m \binom m\ell p^\ell (1-p)^{m-\ell}\qquad\text{mit } m:=n-1\\
                     &= np\left(p+\left(1-p\right)\right)^m=np1^m=np
\end{align}

oder alternativ mit der Summenregel für Erwartungswerte, wenn man berücksichtigt, dass die identischen Einzelprozesse der Bernoulli-Verteilung mit \operatorname{E}=p genügen, zu

\operatorname E(X) = \operatorname E(X_1+\dotsb+X_n)= \operatorname E(X_1)+\dotsb+\operatorname E(X_n)= n \operatorname E(X_1)=np.

Alternativ kann man auch mit Hilfe des Binomiums folgenden Beweis geben:

(a+b)^n=\sum_{k=0}^n \tbinom nk a^k b^{n-k},

also ist:

\frac{\partial}{\partial a}(a+b)^n=n(a+b)^{n-1}=\sum_{k=0}^n k\tbinom n ka^{k-1} b^{n-k}

und:

na(a+b)^{n-1}=\sum_{k=0}^n k\tbinom n ka^k b^{n-k}

Mit a = p und b = 1 − p folgt das gewünschte Ergebnis.

Varianz

Die Binomialverteilung besitzt die Varianz npq mit q = 1 − p.

Beweis

Die Varianz bestimmt sich analog zum Erwartungswert direkt aus dem Verschiebungssatz \operatorname{Var}(X)=\operatorname E\left(X^2\right)-\left(\operatorname E\left(X\right)\right)^2 zu

\operatorname{Var}(X) =\sum_{k=0}^n k^2\binom nk p^k (1-p)^{n-k}-n^2p^2 = np(1-p)=npq

oder alternativ aus der Summenregel für die Varianz unabhängiger Zufallsvariablen, wenn man berücksichtigt, dass die identischen Einzelprozesse der Bernoulli-Verteilung mit \operatorname{Var}(X) = p(1-p)= pq genügen, zu

\operatorname{Var}(X)=\operatorname{Var}(X_1+\dotsb+X_n)=\operatorname{Var}(X_1)+\dotsb+\operatorname{Var}(X_n)=n \operatorname{Var}(X_1)=n\left(p-p^2\right)=npq.

Die zweite Gleichheit gilt, da die Einzelexperimente unabhängig sind, so dass die Einzelvariablen unkorreliert sind.

Variationskoeffizient

Aus Erwartungswert und Varianz erhält man den Variationskoeffizienten

\operatorname{VarK}(X) = \sqrt{\frac{1-p}{np}}.

Schiefe

Die Schiefe ergibt sich zu

\operatorname v(X) = \frac{1-2p}{\sqrt{np(1-p)}}.

Wölbung

Die Wölbung lässt sich ebenfalls geschlossen darstellen als

\beta_2 = \frac{1-6pq}{npq}.

Maximum

Das Maximum wird für p < 1 bei k=\lfloor np+p\rfloor und für p = 1 bei n angenommen. Falls np + p eine natürliche Zahl ist, ist B(k\mid p,n) auch bei k = np + p − 1 maximal. Falls der Erwartungswert eine natürliche Zahl ist, ist der Erwartungswert die Maximalstelle.

Beweis

Sei ohne Einschränkung 0 < p < 1. Wir schauen uns den Quotienten \frac {B(k+1 \mid p,n)}{B(k \mid p,n)}=:\alpha_k an. Es gilt \alpha_k=\frac{n-k}{k+1}\,\frac p{1-p}. Nun gilt αk > 1 falls k < np − (1 − p) und αk < 1 falls k > np − (1 − p). Und nur im Falle, dass np-(1-p)\in\N, ist B(np-(1-p) \mid n,p)=B(np+p \mid n,p). Die Aussage ist bewiesen.

Charakteristische Funktion

Die charakteristische Funktion hat die Form

\phi_X(s) = \left(\left(1-p\right)+p\mathrm{e}^{\mathrm{i}s}\right)^n = \left(q+p\mathrm{e}^{\mathrm{i}s}\right)^n.

Erzeugende Funktion

Für die erzeugende Funktion erhält man

gX(s) = (ps + (1 − p))n.

Momenterzeugende Funktion

Die momenterzeugende Funktion der Binomialverteilung lautet


\begin{align}
m_X(s) & = \operatorname E\left(e^{sX}\right) \\
& = \sum_{X=0}^n \mathrm{e}^{sX} \cdot \binom{n}{X} p^X (1-p)^{n-X} \\
& = \sum_{X=0}^n \binom{n}{X} (\mathrm{e}^s p)^X (1-p)^{n-X} \\
& = \left(p \cdot\mathrm{e}^s + \left(1-p\right)\right)^n.
\end{align}

Summe binomialverteilter Zufallsgrößen

Für die Summe Z = X + Y zweier unabhängiger binomialverteilter Zufallsgrößen X und Y mit den Parametern n1, p und n2, p erhält man die Einzelwahrscheinlichkeiten

\begin{align}
  \operatorname P(Z=k) &= \sum_{i=0}^k\left[\binom{n_1}i p^i (1-p)^{n_1-i}\right]\left[\binom{n_2}{k-i} p^{k-i} (1-p)^{n_2-k+i}\right]\\
                       &= \binom{n_1+n_2}k p^k (1-p)^{n_1+n_2-k} \qquad k=0,1,\ldots,n_1+n_2
\end{align}

also wieder eine binomialverteilte Zufallsgröße, jedoch mit den Parametern n1 + n2 und p.

Wenn die Summe Z = X + Y bekannt ist, folgt jede der Zufallsvariablen X und Y unter dieser Bedingung einer hypergeometrischen Verteilung. Dazu berechnet man die bedingte Wahrscheinlichkeit:

\begin{align}
  P(X=\ell|Z=k) &= \frac{P(X=\ell\cap Z=k)}{P(Z=k)}\\
                &= \frac{P(X=\ell\cap Y=k-\ell)}{P(Z=k)}\\
                &= \frac{P(X=\ell) P(Y=k-\ell)}{P(Z=k)}\\
                &= \frac{\binom{n_1}\ell p^\ell (1-p)^{n_1-\ell} \binom{n_2}{k-\ell} p^{k-\ell} (1-p)^{n_2-k+\ell}} {\binom{n_1+n_2}k p^k (1-p)^{n_1+n_2-k}}\\
                &= \frac{\binom{n_1}\ell \binom{n_2}{k-\ell}} {\binom{n_1+n_2}k}\\
                &=h(\ell;n_1+n_2;n_1;k)
\end{align}

Dies stellt eine hypergeometrische Verteilung dar.


Allgemein gilt: Wenn die m Zufallsvariablen Xi stochastisch unabhängig sind und den Binomialverteilungen B(ni,p) genügen, dann ist auch die Summe X_1+X_2+\dotsb+X_m binomialverteilt, jedoch mit den Parametern n_1+n_2+\dotsb+n_m und p.

Beziehung zu anderen Verteilungen

Beziehung zur Bernoulli-Verteilung

Ein Spezialfall der Binomialverteilung für n = 1 ist die Bernoulli-Verteilung. Die Summe von unabhängigen und identischen Bernoulli-verteilten Zufallsgrößen genügt demnach der Binomialverteilung.

Übergang zur Normalverteilung

Im Grenzfall n\to\infty konvergiert die Binomialverteilung gegen eine Normalverteilung, d. h. die Normalverteilung kann als brauchbare Näherung der Binomialverteilung verwendet werden, wenn der Stichprobenumfang hinreichend groß und der Anteil der gesuchten Ausprägung nicht zu klein sind. (vgl. den Satz von Moivre-Laplace)

Es gilt: μ = np und σ2 = npq. Durch Einsetzung in die Verteilungsfunktion der Normalverteilung folgt:

B(k \mid p,n)\approx\Phi\left({k-np\over\sqrt{npq}}\right)-\Phi\left({k-1-np\over\sqrt{npq}}\right) \approx {1\over\sqrt{2\pi npq}}\,\cdot\exp\left(-{{(k-np)}^2\over 2npq}\right).

Eine Faustregel besagt, dass diese Näherung brauchbar ist, sofern np > 4 und nq > 4, oder auch np(1-p)\geq 9. Je asymmetrischer die Binomialverteilung, umso größer muss n sein, bevor die Normalverteilung eine brauchbare Näherung liefert.

Übergang zur Poisson-Verteilung

Eine asymptotisch asymmetrische Binomialverteilung, deren Erwartungswert np für große n\rightarrow\infty und kleine p\rightarrow 0 gegen eine Konstante λ konvergiert, kann man durch die Poisson-Verteilung annähern. Der Wert λ ist dann für alle in der Grenzwertbildung betrachteten Binomialverteilungen wie auch für die resultierende Poissonverteilung der Erwartungswert. Diese Annäherung wird auch als Poissonscher Grenzwertsatz oder als das Gesetz seltener Ereignisse bezeichnet.

\begin{align}B(k \mid p,n) &= {n \choose k} p^{k}\, (1-p)^{n-k}
=\frac{n!}{(n-k)! \, k!}\left(\frac{\lambda}{n}\right)^k\left(1-\frac{\lambda}{n}\right)^{n-k}
\\ &=\frac{n (n-1)(n-2) \cdots (n-k+1)}{n^k}\, \frac{\lambda^k}{k!}\left(1-\frac{\lambda}{n}\right)^{n-k}
\\ &=\left(1-\frac{1}{n}\right)\left(1-\frac{2}{n}\right) \cdots \left(1-\frac{k-1}{n}\right)\frac{\lambda^k}{k!} \left(1-\frac{\lambda}{n}\right)^{n-k}
\\ &\to \, \frac{\lambda^k}{k!} \mathrm{e}^{-\lambda}\quad \text{wenn}\quad n\to\infty\end{align}

Eine Faustregel besagt, dass diese Näherung brauchbar ist, wenn n\geq 50 und p\leq 0{,}05.

Die Poisson-Verteilung ist also die Grenzverteilung der Binomialverteilung für große n und kleine p.

Beziehung zur geometrischen Verteilung

Die Zahl der Misserfolge bis zum erstmaligen Eintritt eines Erfolgs wird durch die geometrische Verteilung beschrieben.

Beziehung zur negativen Binomialverteilung

Die negative Binomialverteilung hingegen beschreibt die Wahrscheinlichkeitsverteilung der Anzahl der Versuche, die erforderlich sind, um in einem Bernoulli-Prozess eine vorgegebene Anzahl von Erfolgen zu erzielen.

Beziehung zur Hypergeometrischen Verteilung

Bei der Binomialverteilung werden die ausgewählten Stichproben wieder zur Auswahlmenge zurückgeführt, können also zu einem späteren Zeitpunkt erneut ausgewählt werden. Werden im Gegensatz dazu die Stichproben nicht zur Grundgesamtheit zurückgegeben, dann kommt die Hypergeometrische Verteilung zur Anwendung. Beide gehen bei großem Umfang N der Grundgesamtheit und geringem Umfang n der Stichproben ineinander über. Als Faustregel gilt, dass für n/N\leq 0{,}05 die Binomialverteilung der mathematisch anspruchsvolleren Hypergeometrischen Verteilung vorgezogen werden kann, da sie nur unwesentlich voneinander abweichende Ergebnisse liefern.

Beziehung zur Multinomial-Verteilung

Die Binomialverteilung ist ein Spezialfall der Multinomialverteilung.

Beziehung zur Panjer-Verteilung

Die Binomialverteilung ist ein Spezialfall der Panjer-Verteilung, welche die Verteilungen Binomialverteilung, Negative Binomialverteilung und Poisson-Verteilung in einer Verteilungsklasse vereint.

Beziehung zur Betaverteilung

Für viele Anwendungen ist es nötig, die Verteilungsfunktion

\sum_{i=0}^k B(i \mid p,n)

konkret auszurechnen (beispielsweise bei statistischen Tests oder für Konfidenzintervalle).

Hier hilft die folgende Beziehung zur Betaverteilung

\sum_{i=0}^k \binom{n}{i} \cdot p^i \cdot (1-p)^{n-i}=Beta(1-p;n-k;k+1).

Diese lautet für ganzzahlige positive Parameter a und b:


Beta(x;a;b)={(a + b - 1)!\over (a-1)! \cdot (b-1)!}\int_0^x u^{a-1} (1-u)^{b-1}\, \mathrm{d}u \,.

Um die Gleichung

 \sum_{i=0}^k \binom{n}{i} \cdot p^i \cdot (1-p)^{n-i} = {n!\over (n-k-1)! \cdot k!}\int_0^{1-p} u^{n-k-1} (1-u)^{k}\, \mathrm{d}u \,

zu beweisen, kann man folgendermaßen vorgehen:

  • Die linke und rechte Seite stimmen für p=0 überein (beide Seiten sind gleich 1).
  • Die Ableitungen nach p stimmen für die linke und rechte Seite der Gleichung überein, sie sind nämlich beide gleich :- {n!\over (n-k-1)! \cdot k!} \cdot p^k \cdot (1-p)^{n-k-1} \,.

Beziehung zur Pólya-Verteilung

Die Binomialverteilung ist ein Spezialfall der Pólya-Verteilung (wähle c=0).

Beispiele

Symmetrische Binomialverteilung (p gleich 1/2)

Dieser Fall tritt auf beim n-fachen Münzwurf mit einer fairen Münze (Wahrscheinlichkeit für Kopf gleich der für Zahl, also gleich 1/2). Die erste Abbildung zeigt die Binomialverteilung für p = 0,5 und für verschiedene Werte von n als Funktion von k. Diese Binomialverteilungen sind spiegelsymmetrisch um den Wert k = n / 2:

Binomialverteilungen mit p=0.5 (mit Verschiebung um -n/2 und Skalierung) für n=4,6,8,12,16,23,32,46
Die gleichen Daten in halblogarithmischer Auftragung
B(k \mid 1/2;n) =B(n-k \mid 1/2;n),

Dies ist in der zweiten Abbildung veranschaulicht. Die Breite der Verteilung wächst proportional zur Standardabweichung \sigma = {\sqrt{n} \over 2}. Der Funktionswert bei k = n / 2, also das Maximum der Kurve, sinkt proportional zu σ.

Dementsprechend kann man Binomialverteilungen mit unterschiedlichem n aufeinander skalieren, indem man die Abszisse kn / 2 durch σ teilt und die Ordinate mit σ multipliziert (dritte Abbildung oben).

Die nebenstehende Graphik zeigt noch einmal reskalierte Binomialverteilungen, nun für andere Werte von n und in einer Auftragung, die besser verdeutlicht, dass sämtliche Funktionswerte mit steigendem n gegen eine gemeinsame Kurve konvergieren. Indem man die Stirling-Formel auf die Binomialkoeffizienten anwendet, erkennt man, dass diese Kurve (im Bild schwarz durchgezogen) eine Gaußsche Glockenkurve ist:

 f(x) = {1 \over \sqrt{2 \pi}}\, {\rm e}^{-\frac{x^2}{2}}.

Dies ist die Wahrscheinlichkeitsdichte zur Standard-Normalverteilung \mathcal{N}(0,1). Im zentralen Grenzwertsatz wird dieser Befund so verallgemeinert, dass auch Folgen anderer diskreter Wahrscheinlichkeitsverteilungen gegen die Normalverteilung konvergieren.

In der zweiten nebenstehenden Graphik die gleichen Daten in einer halblogarithmischen Auftragung, die zu empfehlen ist, wenn man überprüfen möchte, ob auch seltene Ereignisse, die um mehrere Standardabweichungen vom Erwartungswert abweichen, einer Binomial- oder Normalverteilung folgen.

Ziehen von Kugeln

In einem Behälter befinden sich 80 Kugeln, davon sind 16 gelb. Es wird 5-mal eine Kugel entnommen und anschließend wieder zurückgelegt. Wegen des Zurücklegens ist die Wahrscheinlichkeit, eine gelbe Kugel zu ziehen, bei allen Entnahmen gleich groß, und zwar 16/80 = 1/5. Die Verteilung B\left(k \mid\tfrac{1}{5}; 5\right) gibt die Wahrscheinlichkeit dafür an, dass genau k der entnommenen Kugeln gelb sind. Als Beispiel rechnen wir k=3:

B\left(3 \left|\,\tfrac{1}{5};5\right.\right)=\binom{5}{3}\cdot\left(\frac{1}{5}\right)^3\cdot\left(\frac{4}{5}\right)^2 = \frac{5\cdot 4}{1\cdot 2}\cdot\frac{1}{125}\cdot\frac{16}{25}=\frac{64}{1250}=0{,}0512

In ungefähr 5% der Fälle zieht man also genau 3 gelbe Kugeln.

B(k | 0,2; 5)
k Wahrscheinlichkeit in %
0   32,768
1   40,96
2   20,48
3    5,12
4    0,64
5    0,032
100
Erw.Wert   1
Varianz   0.8

Anzahl Personen mit Geburtstag am Wochenende

Die Wahrscheinlichkeit, dass eine Person in diesem Jahr an einem Wochenende Geburtstag hat, betrage (der Einfachheit halber) 2/7. In einem Raum halten sich 10 Personen auf. Die Verteilung B(k \mid 2/7; 10) gibt (im vereinfachten Modell) die Wahrscheinlichkeit dafür an, dass genau k der Anwesenden in diesem Jahr an einem Wochenende Geburtstag haben.

B(k | 2/7; 10)
k Wahrscheinlichkeit in % (gerundet)
0   3,46
1  13,83
2  24,89
3  26,55
4  18,59
5   8,92
6   2,97
7   0,6797
8   0,1020
9   0,009063
10   0,0003625
100
Erw.Wert 2,86
Varianz 2,04

Gemeinsamer Geburtstag im Jahr

253 Personen sind zusammengekommen. Die Verteilung B(k \mid 1/365; 253) gibt die Wahrscheinlichkeit an, dass genau k Anwesende an einem zufällig gewählten Tag Geburtstag haben (ohne Beachtung des Jahrganges).

B(k | 1/365; 253)
k Wahrscheinlichkeit in % (gerundet)
0  49,95
1  34,72
2  12,02
3  2,76
4  0,47

Die Wahrscheinlichkeit, dass „irgendjemand“ dieser 253 Personen, d.h. eine oder mehrere Personen, an diesem Tag Geburtstag haben, beträgt somit 1 - B(0 \mid 1/365; 253) = 50.05\%.

Bei 252 Personen beträgt die Wahrscheinlichkeit 1 - B(0 \mid 1/365; 252) = 49.91\%. Das heißt, die Schwelle der Anzahl von Personen, ab der die Wahrscheinlichkeit, dass mindestens eine dieser Personen an einem zufällig gewählten Tag Geburtstag hat, größer als 50 % wird, beträgt 253 Personen (siehe dazu auch Geburtstagsparadoxon).

Die direkte Berechnung der Binomialverteilung kann aufgrund der großen Fakultäten schwierig sein. Eine Näherung über die Poisson-Verteilung ist zulässig (n>50, p<0,05). Mit dem Parameter λ = np = 253/365 ergeben sich folgende Werte:[2]

P253/365(k)
k Wahrscheinlichkeit in % (gerundet)
0  50
1  34,66
2  12,01
3  2,78
4  0,48

Konfidenzintervall für eine Wahrscheinlichkeit

In einer Meinungsumfrage unter n Personen geben k Personen an, die Partei A zu wählen. Bestimme ein 95% -Konfindenzintervall für den unbekannten Anteil der Wähler die Partei A wählen in der Gesamtwählerschaft.

Eine Lösung des Problems ohne Rückgriff auf die Normalverteilung findet sich im Artikel Konfidenzintervall einer unbekannten Wahrscheinlichkeit.

Auslastungsmodell

Mittels folgender Formel lässt sich die Wahrscheinlichkeit dafür errechnen, dass k von n Personen eine Tätigkeit, die durchschnittlich m Minuten pro Stunde dauert, gleichzeitig ausführen.

P(X=k) = {n \choose k}\cdot\left(\frac{m}{60}\right)^k\cdot\left(1-\frac{m}{60}\right)^{n-k}

Zufallszahlen

Zufallszahlen zur Binomialverteilung werden üblicherweise mit Hilfe der Inversionsmethode erzeugt.

Einzelnachweise

  1. George Udny Yule: An Introduction to the Theory of Statistics. Griffin, London 1911, S. 287
  2. Im konkreten Fall muss man für die Binomialverteilung \left(\frac{364}{365}\right)^{253} ausrechnen und für die Poissonverteilung e − 253 / 365. Beides ist mit dem Taschenrechner einfach. Bei einer Rechnung mit Papier und Bleistift benötigt man mit der Exponentialreihe 8 oder 9 Glieder für den Wert der Poissonverteilung, während man für die Binomialverteilung durch mehrfaches Quadrieren auf die 256. Potenz kommt und dann noch durch die dritte Potenz teilt.

Weblinks

Wikibooks Wikibooks: Binomialverteilung – Lern- und Lehrmaterialien

Wikimedia Foundation.

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Binomialverteilung — I Binomialverteilung,   Zeichen B (n, p), gibt die Wahrscheinlichkeit dafür an, dass bei n maliger unabhängiger Wiederholung eines Versuchs mit zwei möglichen Ausgängen die eine Alternative …   Universal-Lexikon

  • Binomialverteilung — spezielle diskrete theoretische Verteilung in der Statistik mit der Wahrscheinlichkeitsfunktion Die B. mit ⇡ Parametern n und p erfasst folgenden Sachverhalt: In einer Grundgesamtheit befinden sich zwei Sorten von Elementen mit den ⇡… …   Lexikon der Economics

  • Binomialverteilung — Bi|no|mi|al|ver|tei|lung die; : spezielle Wahrscheinlichkeitsverteilung von einer bestimmten Anzahl von Versuchen bzw. zufälligen Ereignissen (Statistik) …   Das große Fremdwörterbuch

  • Negative Binomialverteilung — Wahrscheinlichkeitsfunktion der negativen Binomialverteilung für r = 10; p = 0.2 (blau), p = 0.5 (grün) und p = 0.8 (rot) Die negative Binomialverteilung (auch Pascal Verteilung) ist eine diskrete Wahrscheinlic …   Deutsch Wikipedia

  • Beta-Binomialverteilung — Die Beta Binomialverteilung ist eine univariate diskrete Wahrscheinlichkeitsverteilung, welche als eine Art Verallgemeinerung der Binomialverteilung angesehen werden kann, da in dieser die Wahrscheinlichkeit von x Erfolgen auf n bei gegebener… …   Deutsch Wikipedia

  • Bernoullikette — Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Mathematik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Mathematik auf ein akzeptables Niveau zu bringen. Dabei werden Artikel gelöscht, die nicht… …   Deutsch Wikipedia

  • Binomial-Verteilung — Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Mathematik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Mathematik auf ein akzeptables Niveau zu bringen. Dabei werden Artikel gelöscht, die nicht… …   Deutsch Wikipedia

  • Poissonscher Grenzwertsatz — Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Mathematik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Mathematik auf ein akzeptables Niveau zu bringen. Dabei werden Artikel gelöscht, die nicht… …   Deutsch Wikipedia

  • Ziehen mit Zurücklegen — Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Mathematik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Mathematik auf ein akzeptables Niveau zu bringen. Dabei werden Artikel gelöscht, die nicht… …   Deutsch Wikipedia

  • Negativbinomialverteilung — Die negative Binomialverteilung (auch Pascal Verteilung) ist eine diskrete Wahrscheinlichkeitsverteilung. Die negative Binomialverteilung beschreibt die Wahrscheinlichkeitsverteilung der Anzahl der Versuche, die erforderlich sind, um in einem… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”