Binomial-Verteilung

Binomial-Verteilung

Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Mathematik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Mathematik auf ein akzeptables Niveau zu bringen. Dabei werden Artikel gelöscht, die nicht signifikant verbessert werden können. Bitte hilf mit, die Mängel dieses Artikels zu beseitigen, und beteilige dich bitte an der Diskussion!

Die Binomialverteilung (manchmal nicht ganz korrekt auch Bernoulli-Verteilung genannt) ist eine der wichtigsten diskreten Wahrscheinlichkeitsverteilungen.

Sie beschreibt den wahrscheinlichen Ausgang einer Folge von gleichartigen Versuchen, die jeweils nur zwei mögliche Ergebnisse haben, also die Ergebnisse von Bernoulli-Prozessen. Wenn das gewünschte Ergebnis eines Versuches die Wahrscheinlichkeit p besitzt, und die Zahl der Versuche n ist, dann gibt die Binomialverteilung an, mit welcher Wahrscheinlichkeit sich insgesamt k Erfolge einstellen. Unter diesen Voraussetzungen ist der Versuch ein Bernoulli-Versuch.

Die Binomialverteilung ist zur Beschreibung von Zufallsgrößen der folgenden Art geeignet:

  • Die Bestimmung der Anzahl einer bestimmten Eigenschaft in einer Stichprobe aus einer Menge von Elementen, wenn die Reihenfolge beim Entnehmen der Stichprobe aus der Gesamtmenge keine Rolle spielt, und die entnommenen Elemente wieder zurückgelegt werden („Ziehen mit Zurücklegen“). Beispiel: Ein Korb enthält N Bälle, davon sind M schwarz und NM weiß. Die Wahrscheinlichkeit, einen schwarzen Ball zu ziehen, ist also p = M / N. Es werden einzeln und nacheinander insgesamt n Bälle entnommen, untersucht und wieder zurückgelegt. Dabei werden k Schwarze identifiziert. Insgesamt gibt es Nn Möglichkeiten für die Auswahl der Bälle. In \binom nk M^k(N-M)^{n-k} Fällen davon werden k schwarze Bälle ausgewählt, d. h. die Wahrscheinlichkeit, unter n Bällen genau k schwarze zu finden ist
\begin{align}
  \operatorname P(k)&= \binom nk \frac{M^k(N-M)^{n-k}}{N^n}\\
                    &= \binom nk \left(\frac MN\right)^k\left(\frac{N-M}N\right)^{n-k}\\
                    &= \binom nk p^k (1-p)^{n-k}.
\end{align}
Der erste Term ist der Binomialkoeffizient. Die Binomialverteilung ist dabei auch auf Probleme ohne Zurücklegen anwendbar. Diese Bedingung existiert in diesem Beispiel, damit die Wahrscheinlichkeit für den Erfolg sich nicht ändert.

Die Binomialverteilung bzw. der Bernoulliversuch kann mit Hilfe des Galtonbretts veranschaulicht werden. Dabei handelt es sich um eine mechanische Apparatur, in die man eine beliebige Zahl von Kugeln werfen kann. Diese fallen dann zufällig in eines von mehreren Fächern, wobei die Aufteilung der Binomialverteilung entspricht.

Obwohl die Binomialverteilung bereits lange vorher bekannt war, wurde der Begriff zum ersten Mal 1911 in einem Buch von George Udny Yule verwendet.[1]

Inhaltsverzeichnis

Definition der Binomialverteilung

Die diskrete Wahrscheinlichkeitsverteilung

B(\cdot|p,n):\mathbb Z\to [0,1],\,k\mapsto B(k|p,n) = \binom nk p^k (1-p)^{n-k}

heißt die Binomialverteilung zu den Parametern n (Anzahl der Versuche) und p\in [0,1] (Trefferwahrscheinlichkeit).

Dabei wird nur den Zahlen 0,1\dots n eine Wahrscheinlichkeit ungleich Null zugeordnet. Die zur Trefferwahrscheinlichkeit p komplementäre Ausfallwahrscheinlichkeit 1 − p wird häufig als q abgekürzt. Nach dem binomischen Lehrsatz gilt

\sum_{k=0}^n \binom nk p^k (1-p)^{n-k} = 1,

was eine notwendige Bedingung für eine Wahrscheinlichkeitsverteilung darstellt.

Eine diskrete Zufallsgröße X heißt binomialverteilt mit den Parametern n und p, wenn sie die Wahrscheinlichkeiten

\operatorname P(X=k) = B(k|p,n)

und damit die Verteilungsfunktion

F_X(x)=\operatorname P(X\le x) = \sum_{k=0}^{\lfloor x \rfloor}\binom nk p^k (1-p)^{n-k}

besitzt.

Eigenschaften der Binomialverteilung

Symmetrie

  • Die Binomialverteilung ist im Spezialfall p = 0,5 symmetrisch und ansonsten asymmetrisch.
  • Die Binomialverteilung besitzt die Eigenschaft B(k | p,n) = B(nk | q,n) mit q = 1 − p.

Erwartungswert und Varianz

Die Binomialverteilung besitzt den Erwartungswert np und die Varianz npq mit q = 1 − p.

Beweis

Den Erwartungswert errechnet man direkt aus der Definition \operatorname E(X)=\sum_{i=1}^n x_i p_i zu

\begin{align}
  \operatorname E(X) &= \sum_{k=0}^n k\binom nk p^k (1-p)^{n-k}\\
                     &= np\sum_{k=0}^n k\frac{(n-1)!}{(n-k)!k!}p^{k-1} (1-p)^{(n-1)-(k-1)}\\
                     &= np\sum_{k=1}^n \frac{(n-1)!}{(n-k)!(k-1)!}p^{k-1} (1-p)^{(n-1)-(k-1)}\\
                     &= np\sum_{k=1}^n \binom{n-1}{k-1} p^{k-1} (1-p)^{(n-1)-(k-1)}\\
                     &= np\sum_{l=0}^{n-1} \binom{n-1}l p^l (1-p)^{(n-1)-l}\\
                     &= np\sum_{l=0}^m \binom ml p^l (1-p)^{m-l}\\
                     &= np
\end{align}

oder alternativ mit der Summenregel für Erwartungswerte, wenn man berücksichtigt, dass die identischen Einzelprozesse der Bernoulli-Verteilung mit \operatorname{E}=p genügen, zu

\begin{align}
  \operatorname E(X) &= \operatorname E(X_1+\dotsb+X_n)\\
                     &= \operatorname E(X_1)+\dotsb+\operatorname E(X_n)\\
                     &= n \operatorname E(X_1)=np.
\end{align}

Die Varianz bestimmt sich analog direkt aus dem Verschiebungssatz \operatorname{Var}(X)=\operatorname E(X^2)-\left(\operatorname E(X)\right)^2 zu

\operatorname{Var}(X) =\sum_{k=0}^n k^2\binom nk p^k (1-p)^{n-k}-n^2p^2 = np(1-p)=npq

oder alternativ aus der Summenregel für die Varianz unabhängiger Zufallsvariablen, wenn man berücksichtigt, dass die identischen Einzelprozesse der Bernoulli-Verteilung mit \operatorname{Var}(X) = p(1-p)= pq genügen, zu

\operatorname{Var}(X)=\operatorname{Var}(X_1+\dotsb+X_n)=\operatorname{Var}(X_1)+\dotsb+\operatorname{Var}(X_n)=n \operatorname{Var}(X_1)=n(p-p^2)=npq.

Die zweite Gleichheit gilt, da die Einzelexperimente unabhängig sind, so dass die Einzelvariablen unkorreliert sind.

Variationskoeffizient

Aus Erwartungswert und Varianz erhält man sofort den Variationskoeffizienten

\operatorname{VarK}(X) = \sqrt{\frac{1-p}{np}}.

Schiefe und Wölbung

Die Schiefe ergibt sich zu

\operatorname v(X) = \frac{1-2p}{\sqrt{np(1-p)}}.

Die Wölbung lässt sich ebenfalls geschlossen darstellen als

\beta_2 = \frac{1-6pq}{npq}.

Maximum

Das Maximum wird für p < 1 bei k=\lfloor np+p\rfloor und für p = 1 bei n angenommen. Falls np + p eine natürliche Zahl ist, ist B(k | p,n) auch bei k = np + p − 1 maximal. Falls der Erwartungswert eine natürliche Zahl ist, ist der Erwartungswert die Maximalstelle.

Beweis

Sei ohne Einschränkung 0 < p < 1. Wir schauen uns den Quotienten \frac {B(k+1|p,n)}{B(k|p,n)}=:\alpha_k an. Es gilt \alpha_k=\frac{n-k}{k+1}\,\frac p{1-p}. Nun gilt αk > 1 falls k < np − (1 − p) und αk < 1 falls k > np − (1 − p). Und nur im Falle, dass np-(1-p)\in\N, ist B(np − (1 − p) | n,p) = B(np + p | n,p). Die Aussage ist bewiesen.

Charakteristische Funktion

Die charakteristische Funktion hat die Form

φX(s) = ((1 − p) + peis)n = (q + peis)n.

Erzeugende Funktion

Für die erzeugende Funktion erhält man

gX(s) = (ps + (1 − p))n.

Momenterzeugende Funktion

Die momenterzeugende Funktion der Binomialverteilung lautet

m_X(s) = (p \cdot e^s + (1-p))^n.

Summe binomialverteilter Zufallsgrößen

Für die Summe Z = X + Y zweier unabhängiger binomialverteilter Zufallsgrößen X und Y mit den Parametern n1, p und n2, p erhält man die Einzelwahrscheinlichkeiten

\begin{align}
  \operatorname P(Z=k) &amp;amp;amp;= \sum_{i=0}^k\left[\binom{n_1}i p^i (1-p)^{n_1-i}\right]\left[\binom{n_2}{k-i} p^{k-i} (1-p)^{n_2-k+i}\right]\\
                       &amp;amp;amp;= \binom{n_1+n_2}k p^k (1-p)^{n_1+n_2-k} \qquad k=0,1,\ldots,n_1+n_2
\end{align}

also wieder eine binomialverteilte Zufallsgröße, jedoch mit den Parametern n1 + n2 und p.

Allgemein gilt: Wenn die m Zufallsvariablen Xi stochastisch unabhängig sind und den Binomialverteilungen B(ni,p) genügen, dann ist auch die Summe X_1+X_2+\dotsb+X_m binomialverteilt, jedoch mit den Parametern n_1+n_2+\dotsb+n_m und p.

So ist zum Beispiel

\begin{align}
  P(X=\ell|Z=k) &amp;amp;amp;= \frac{P(X=\ell\cap Z=k)}{P(Z=k)}\\
                &amp;amp;amp;= \frac{P(X=\ell\cap Y=k-\ell)}{P(Z=k)}\\
                &amp;amp;amp;= \frac{P(X=\ell) P(Y=k-\ell)}{P(Z=k)}\\
                &amp;amp;amp;= \frac{\binom{n_1}\ell p^\ell (1-p)^{n_1-\ell} \binom{n_2}{k-\ell} p^{k-\ell} (1-p)^{n_2-k+\ell}} {\binom{n_1+n_2}k p^k (1-p)^{n_1+n_2-k}}\\
                &amp;amp;amp;= \frac{\binom{n_1}\ell \binom{n_2}{k-\ell}} {\binom{n_1+n_2}k}\\
                &amp;amp;amp;=h(\ell;n_1+n_2;n_1;k)
\end{align}

hypergeometrisch verteilt.

Beziehung zu anderen Verteilungen

Beziehung zur Bernoulli-Verteilung

Ein Spezialfall der Binomialverteilung für n = 1 ist die Bernoulli-Verteilung. Die Summe von unabhängigen und identischen Bernoulli-verteilten Zufallsgrößen genügt demnach der Binomialverteilung.

Übergang zur Normalverteilung

Im Grenzfall n\to\infty konvergiert die Binomialverteilung gegen eine Normalverteilung, d. h. die Normalverteilung kann als brauchbare Näherung der Binomialverteilung verwendet werden, wenn der Stichprobenumfang hinreichend groß und der Anteil der gesuchten Ausprägung nicht zu klein sind. (vgl. den Satz von Moivre-Laplace)

Es gilt: μ = np und σ2 = npq. Durch Einsetzung in die Verteilungsfunktion der Normalverteilung folgt:

B(k|p,n)\approx\Phi\left({k-np\over\sqrt{npq}}\right)-\Phi\left({k-1-np\over\sqrt{npq}}\right) \approx {1\over\sqrt{2\pi npq}}\,\cdot\exp\left(-{{(k-np)}^2\over 2npq}\right).

Eine Faustregel besagt, dass diese Näherung brauchbar ist, sofern np > 4 und nq > 4, oder auch np(1-p)\geq 9. Je asymmetrischer die Binomialverteilung, umso größer muss n sein, bevor die Normalverteilung eine brauchbare Näherung liefert.

Übergang zur Poisson-Verteilung

Eine asymptotisch asymmetrische Binomialverteilung, deren Erwartungswert np für große n\rightarrow\infty und kleine p\rightarrow 0 gegen eine von n unabhängige Konstante λ konvergiert, kann man durch die Poisson-Verteilung annähern. Der Wert λ ist dann für alle in der Grenzwertbildung betrachteten Binomialverteilungen wie auch für die resultierende Poissonverteilung der Erwartungswert. Diese Annäherung wird auch als Poissonscher Grenzwertsatz oder als das Gesetz seltener Ereignisse bezeichnet.

\begin{align}\operatorname{P}(k) &amp;amp;amp;= {n \choose k} \, p^{k}\, (1-p)^{n-k}
=\frac{n!}{(n-k)! \, k!}\left(\frac{\lambda}{n}\right)^k\left(1-\frac{\lambda}{n}\right)^{n-k}
\\ &amp;amp;amp;=\frac{n\, (n-1)\, (n-2)\, \cdots \, (n-k+1)}{n^k}\, \frac{\lambda^k}{k!}\left(1-\frac{\lambda}{n}\right)^{n-k}
\\ &amp;amp;amp;=\left(1-\frac{1}{n}\right)\left(1-\frac{2}{n}\right) \cdots \left(1-\frac{k-1}{n}\right)\frac{\lambda^k}{k!}\,\left(1-\frac{\lambda}{n}\right)^{n-k}
\\ &amp;amp;amp;\to \, \frac{\lambda^k}{k!} e^{-\lambda}\quad \text{fuer}\quad n\to\infty\end{align}

Eine Faustregel besagt, dass diese Näherung brauchbar ist, sofern np\leq 10 und n > 1500p, gleichbedeutend mit n\geq 50 und p\leq 0{,}05.

Die Poisson-Verteilung ist also die Grenzverteilung der Binomialverteilung für große n und kleine p.

Beziehung zur negativen Binomialverteilung

Die negative Binomialverteilung hingegen beschreibt die Wahrscheinlichkeitsverteilung der Anzahl der Versuche, die erforderlich sind, um in einem Bernoulli-Prozess eine vorgegebene Anzahl von Erfolgen zu erzielen. Die Zahl der Misserfolge bis zum erstmaligen Eintritt eines Erfolgs wird durch die geometrische Verteilung beschrieben.

Beziehung zur Hypergeometrischen Verteilung

Bei der Binomialverteilung werden die ausgewählten Stichproben wieder zur Auswahlmenge zurückgeführt, können also zu einem späteren Zeitpunkt erneut ausgewählt werden. Werden im Gegensatz dazu die Stichproben nicht zur Grundgesamtheit zurückgegeben, dann kommt die Hypergeometrische Verteilung zur Anwendung. Beide gehen bei großem Umfang N der Grundgesamtheit und geringem Umfang n der Stichproben ineinander über. Als Daumenwert gilt, dass für n/N\leq 0{,}05 die Binomialverteilung der mathematisch anspruchsvolleren Hypergeometrischen Verteilung vorgezogen werden kann, da sie nur unwesentlich voneinander abweichende Ergebnisse liefern.

Beziehung zur Multinomial-Verteilung

Die Binomialverteilung ist ein Spezialfall sowohl der Multinomialverteilung als auch der Panjer-Verteilung.

Beispiele

Symmetrische Binomialverteilung (p gleich 1/2)

Dieses Bild zeigt die Binomialverteilung für p = 0,5 und verschiedene Werte von n als Funktion von k:

Symmetrische Binomialverteilung mit p=0.5 für unterschiedliche Anzahlen von Versuchen n


Diese Funktion ist spiegelsymmetrisch um den Wert k = n / 2:

B(k | 0,5,n) = B(nk | 0,5,n),

wie die folgende Auftragung zeigt:

Die symmetrische Binomialverteilung mit p=0.5 für unterschiedliche Anzahlen von Versuchen n. Die Auftragung gegen (k-n/2) verschiebt die Symmetrieachsen in identische Position.


Die Breite der Verteilung wächst proportional zur Standardabweichung \sigma = {\sqrt{n} \over 2}. Der Funktionswert bei k = n / 2, also das Maximum der Kurve, sinkt proportional zu σ. Dementsprechend kann man Binomialverteilungen mit unterschiedlichem n aufeinander skalieren, indem man die Abszisse kn / 2 durch σ teilt und die Ordinate mit σ multipliziert:

Skalierte symmetrische Binominalverteilung mit p=0.5, Verschiebung um -n/2, Skalierung mittels der Standardabweichung


Das folgende Bild zeigt noch einmal reskalierte Binomialverteilungen, nun für andere Werte von n und in einer Auftragung, die besser verdeutlicht, dass sämtliche Funktionswerte mit steigendem n gegen eine gemeinsame Kurve konvergieren. Indem man die Stirling-Formel auf die Binomialkoeffizienten anwendet, erkennt man, dass diese Kurve (im Bild schwarz durchgezogen) eine Gaußsche Glockenkurve ist:

 f(x) = {1 \over \sqrt{2 \pi}}\, {\rm e}^\frac{-x^2}{2}.

Dies ist die Wahrscheinlichkeitsdichte zur Standard-Normalverteilung \mathcal{N}(0,1). Im zentralen Grenzwertsatz wird dieser Befund so verallgemeinert, dass auch Folgen anderer diskreter Wahrscheinlichkeitsverteilungen gegen die Normalverteilung konvergieren.

Skalierte symmetrische Binominalverteilung mit p=0.5, Verschiebung um -n/2, Skalierung mittels der Standardabweichung; Darstellung mit n=4, n=6, n=8, n=12, n=16, n=23, n=32 und n=46


Und hier die gleichen Daten in einer halblogarithmischen Auftragung, die sehr zu empfehlen ist, wenn man überprüfen möchte, ob auch seltene Ereignisse, die um mehrere Standardabweichungen vom Erwartungswert abweichen, einer Binomial- oder Normalverteilung folgen:

Skalierte symmetrische Binominalverteilung mit p=0.5, Verschiebung um -n/2, Skalierung mittels der Standardabweichung; Darstellung mit n=4, n=6, n=8, n=12, n=16, n=23, n=32 und n=46 bei halbalgorithmischer Auftragung



Ziehen von Kugeln

In einem Behälter befinden sich 80 Kugeln, davon sind 16 gelb. Es wird 5-mal eine Kugel entnommen und anschließend wieder zurückgelegt. Wegen des Zurücklegens ist die Wahrscheinlichkeit, eine gelbe Kugel zu ziehen, bei allen Entnahmen gleich groß: 16/80 = 1/5 = 0,2. Die Verteilung B(k|0,2; 5) gibt die Wahrscheinlichkeit dafür an, dass genau k der entnommenen Kugeln gelb sind.

B(k|0,2; 5)
k Wahrscheinlichkeit in %
0   32,768
1   40,96
2   20,48
3    5,12
4    0,64
5    0,032
100
Erw.Wert   1
Varianz   0.8

Anzahl Personen mit Geburtstag am Wochenende

Die Wahrscheinlichkeit, dass eine Person in diesem Jahr an einem Wochenende Geburtstag hat, beträgt 2/7. In einem Raum halten sich 10 Personen auf. Die Verteilung B(k|2/7; 10) gibt die Wahrscheinlichkeit dafür an, dass genau k der Anwesenden in diesem Jahr an einem Wochenende Geburtstag haben.

B(k|2/7; 10)
k Wahrscheinlichkeit in % (gerundet)
0   3,46
1  13,83
2  24,89
3  26,55
4  18,59
5   8,92
6   2,97
7   0,68
8   0,10
9   0,01
10   0,00036
100
Erw.Wert 2,86
Varianz 2,04

Gemeinsamer Geburtstag im Jahr

253 Personen sind zusammen gekommen. Die Verteilung B(k|1/365; 253) gibt die Wahrscheinlichkeit an, dass genau k Anwesende an einem zufällig gewählten Tag Geburtstag haben.

B(k|1/365; 253)
k Wahrscheinlichkeit in % (gerundet)
0  49,95
1  34,72
2  12,02
3  2,76
4  0,47

Die Wahrscheinlichkeit, dass "irgendjemand" dieser 253 Personen, d.h. 1 oder mehrere Personen, an diesem Tag Geburtstag haben, beträgt somit 1 - B(0|1/365; 253) = 50.05%. Die Schwelle der Anzahl von Personen, ab der die Wahrscheinlichkeit, dass mindestens 1 dieser Personen an einem zufällig gewählten Tag Geburtstag hat, größer als 50% wird, beträgt 253 Personen (siehe Geburtstagsparadoxon).

Die direkte Berechnung der Binomialverteilung kann aufgrund der großen Fakultäten schwierig sein. Eine Näherung über die Poisson-Verteilung ist zulässig (n>50, p<0,05). Mit dem Parameter λ = np = 253/365 ergeben sich folgende Werte:

P253/365(k)
k Wahrscheinlichkeit in % (gerundet)
0  50
1  34,66
2  12,01
3  2,78
4  0,48

Konfidenzintervall für eine Wahrscheinlichkeit

In einer Meinungsumfrage unter n Personen geben k Personen an, die Partei A zu wählen. Bestimme ein 95% -Konfindenzintervall.

Eine Lösung des Problems ohne Rückgriff auf die Normalverteilung findet sich im Artikel Konfidenzintervall einer unbekannten Wahrscheinlichkeit.

Auslastungsmodell

Mittels folgender Formel lässt sich die Wahrscheinlichkeit dafür errechnen, dass k von n Personen eine Tätigkeit, die durchschnittlich m Minuten pro Stunde dauert, gleichzeitig ausführen.

P(X=k) = {n \choose k}\cdot\left(\frac{m}{60}\right)^k\cdot\left(1-\frac{m}{60}\right)^{n-k}

Zufallszahlen

Zufallszahlen zur Binomialverteilung werden üblicherweise mit Hilfe der Inversionsmethode erzeugt.

Einzelnachweise

  1. George Udny Yule: An Introduction to the Theory of Statistics. Griffin, London 1911, S. 287

Weblinks


Wikimedia Foundation.

Игры ⚽ Поможем написать реферат

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Verteilung — Ausbreitung; Streuung; Verbreitung; Zuweisung; Auskehrung; Zuordnung; Ausstreuung; Aushändigung; Ausgabe; Herausgabe; Erteilung; Austeilung …   Universal-Lexikon

  • Binomial — Der Binomialkoeffizient ist eine mathematische Funktion, mit der sich eine der Grundaufgaben der Kombinatorik lösen lässt. Er gibt an, auf wieviele verschiedene Arten man k Objekte aus einer Menge von n verschiedenen Objekten auswählen kann (ohne …   Deutsch Wikipedia

  • Poisson-Verteilung — Wahrscheinlichkeitsfunktion der Poisson Verteilung für λ = 1 (blau), λ = 5 (grün) und λ = 10 (rot) Die Poisson Verteilung (benannt nach dem Mathematiker Siméon Denis Poisson) ist eine diskrete Wahrscheinlichkeitsverteilung, die beim mehrmaligen… …   Deutsch Wikipedia

  • Poisson Verteilung — Die Poisson Verteilung ist eine diskrete Wahrscheinlichkeitsverteilung, die beim mehrmaligen Durchführen eines Bernoulli Experiments entsteht. Letzteres ist ein Zufallsexperiment, das nur zwei mögliche Ergebnisse besitzt (z. B. „Erfolg“ und… …   Deutsch Wikipedia

  • Diskrete Verteilung — In der Wahrscheinlichkeitstheorie gibt die Wahrscheinlichkeitsverteilung an, wie sich die Wahrscheinlichkeiten auf die möglichen Zufallsergebnisse, insbesondere die möglichen Werte einer Zufallsvariable, verteilen. Die… …   Deutsch Wikipedia

  • Stetige Verteilung — In der Wahrscheinlichkeitstheorie gibt die Wahrscheinlichkeitsverteilung an, wie sich die Wahrscheinlichkeiten auf die möglichen Zufallsergebnisse, insbesondere die möglichen Werte einer Zufallsvariable, verteilen. Die… …   Deutsch Wikipedia

  • Chi-Quadrat-Verteilung — Die Chi Quadrat Verteilung ist eine stetige Wahrscheinlichkeitsverteilung über der Menge der positiven reellen Zahlen. Im Allgemeinen ist mit „Chi Quadrat Verteilung“ die zentrale Chi Quadrat Verteilung gemeint. Ihr einziger Parameter n muss eine …   Deutsch Wikipedia

  • F-Verteilung — Die F Verteilung oder Fisher Verteilung, auch Fisher Snedecor Verteilung (nach Ronald Aylmer Fisher und George W. Snedecor), ist eine stetige Wahrscheinlichkeitsverteilung. Eine F verteilte Zufallsvariable ergibt sich als Quotient zweier jeweils… …   Deutsch Wikipedia

  • Studentsche t-Verteilung — Dichten von t verteilten Zufallsgrößen Die studentsche t Verteilung (auch Student t Verteilung) ist eine Wahrscheinlichkeitsverteilung, die 1908 von William Sealy Gosset entwickelt wurde.[1] Er hatte festgestellt, dass die standardisierte… …   Deutsch Wikipedia

  • Cauchy-Verteilung — Die Cauchy Verteilung für verschiedene Werte der beiden Parameter. Dabei gilt: γ im Bild entspricht s in der nebenstehenden Gleichung und x0 entspricht t. Die Cauchy Lorentz Verteilung (nach Augustin Louis Cauchy und Hendrik Antoon Lorentz)… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”