Bedingte Häufigkeit
Berechnung der relativen Häufigkeit als Mengendiagramm

Die relative Häufigkeit oder bedingte Häufigkeit ist ein Maß der deskriptiven Statistik und in der elementaren Wahrscheinlichkeitsrechnung. Sie gibt

- den Anteil der Objekte mit dem gleichen interessierenden Merkmal an einer Grundgesamtheit an,
- oder den Anteil der Versuche eines Zufallsexperiments, bei dem ein bestimmtes Ereignis eingetreten ist.

Sie wird berechnet, in dem die absolute Häufigkeit durch die Anzahl der Objekte oder Versuche überhaupt geteilt wird. Die relative Häufigkeit ist also eine Bruchzahl und hat einen Wert zwischen 0 und 1.

Bei der Beschreibung von Daten, das heißt in der deskriptiven Statistik, erleichtert sie den Vergleich von Teilmengen unterschiedlich großer Gruppen.

Im Rahmen der Inferenzstatistik und Stochastik ermöglicht die relative Häufigkeit Aussagen über die Wahrscheinlichkeit eines Ereignisses. Dabei unterscheidet man zwei Arten, wie man von der relativen Häufigkeit auf die Wahrscheinlichkeit schließen kann:

  1. Von der relativen Häufigkeit eines Merkmals in einer Population wird auf die Wahrscheinlichkeit geschlossen, mit der ein Objekt mit diesem Merkmal zufällig ausgewählt wird (A-priori-Wahrscheinlichkeit.)
  2. Aus der relativen Häufigkeit eines Ereignisses wird dessen Wahrscheinlichkeit geschätzt. (A-posteriori-Wahrscheinlichkeit.)

Inhaltsverzeichnis

Relative Häufigkeit in der deskriptiven Statistik

Beispiel

In einer Klasse A sind 24 Schüler, davon 12 Mädchen. In Klasse B sind 18 Schüler, davon 9 Mädchen. Das heißt in Klasse A sind mehr Mädchen (12) als in Klasse B (9), wenn man die absolute Häufigkeit betrachtet. Betrachtet man die Häufigkeit an Mädchen aber relativ zur Klassengröße, sieht man, dass in beiden Klassen der gleiche Anteil an Mädchen ist. In Klasse A ist die relative Häufigkeit an Mädchen 0,5 (12/24) und in Klasse B auch 0,5 (9/18). Die relative Häufigkeit lässt sich auch leicht in eine Prozentzahl umrechen, indem man sie mit 100 multipliziert. Somit bestehen beide Klassen zu 50% (0,5*100) aus Mädchen.

Im Gegensatz zur absoluten Häufigkeit bewegt sich die relative Häufigkeit immer zwischen 0 und 1. Sie ist unabhängig von der Gruppengröße oder von der Gesamtanzahl an beobachteten Ereignissen. Sie wird deswegen auch als normiertes Maß bezeichnet.

Dadurch kann man verschiedene relative Häufigkeiten miteinander vergleichen, obwohl sie sich auf eine unterschiedliche Bezugsgröße beziehen.


Relative Häufigkeit und Wahrscheinlichkeit

A-priori-Wahrscheinlichkeit

Unter bestimmten Voraussetzugen versucht man für die Vorhersage eines zukünftigen Ereignisses die Wahrscheinlichkeit direkt aus der relativen Häuigkeit zu berechnen. Die Wahrscheinlichkeit ist in dem Fall identisch mit der relativen Häufigkeit (Frequentistischer Wahrscheinlichkeitsbegriff, siehe auch Objektivistischer Wahrscheinlichkeitsbegriff).

Beispiel

In einer Urne befinden sich 7 rote, 5 blaue und 3 grüne Kugeln. Die Wahrscheinlichkeit, eine Kugel blind aus der Urne zu ziehen, sei für alle Kugeln gleich.

  • Die Wahrscheinlichkeit, eine grüne Kugel zu ziehen liegt bei 3/15 = 1/5 = 0,2 oder 20 Prozent.
  • Die Wahrscheinlichkeit, keine blaue Kugel zu ziehen liegt bei 10/15 = 2/3 = 0,666... oder 66,67 Prozent.
  • Die Wahrscheinlichkeit, eine rote oder blaue Kugel zu ziehen liegt bei 12/15 = 4/5 = 0,8 oder 80 Prozent.

In unserem Beispiel geht man also davon aus, dass die physikalischen Eigenschaften der Kugeln gleich sind und somit jede Kugel gleich wahrscheinlich gezogen wird. Man spricht hier von einer Gleichverteilung. Man kann außerdem die Wahrscheinlichkeit, eine von mehreren Kugeln zu ziehen ausrechnen indem man die Wahrscheinlichkeit für die einzelnen Kugeln addiert (Kolmogorov-Axiom)

Zur Berechnung der A-priori-Wahrscheinlichkeit müssen allerdings bestimmte Grundvorraussetzungen erfüllt sein:

  • Die Anzahl der möglichen Ereignisse muss endlich und abzählbar sein, damit man jedem möglichen Ereignis eine Wahrscheinlichkeit zuordnen kann.
  • Diese Zuordnug erfolgt aufgrund einer sogenannten Wahrscheinlichkeitsverteilung. Diese muss vorab (d. h. a-priori) bekannt sein. In der Regel nimmt man an für die möglichen Ereignisse eine Gleichverteilung an, d. h. dass jedes Ereignis gleich wahrscheinlich eintritt. Manchmal wird aber auch eine Normalverteilung angenommen. Die Art der Verteilung muss also bekannt sein.

Man spricht hier von einer A-priori-Wahrscheinlichkeit, weil zur Berechnung der Wahrscheinlichkeit die Wahrscheinlichkeitsverteilung a priori bekannt sein muss.

In dem Fall, dass man eine diskrete Gleichverteilung annimmt, redet man auch häufig von einem Laplace-Experiment.

A-posteriori-Wahrscheinlichkeit

Wenn die Grundvorraussetzungen zur Berechnung einer A-priori-Wahrscheinlichkeit nicht erfüllt sind versucht man die Wahrscheinlichkeit zu Schätzen in dem man ein Zufallsexperiment macht.

Mögliche Gründe:

  • Die Wahrscheinlichkeitsverteilung der möglichen Ereignisse ist nicht bekannt, z. B. wenn man glaubt, dass ein Würfel nicht gerecht ist.
  • Es sind nicht alle möglichen Ereignisse bekannt, z. B. alle Menschen die auch in der Zukunft noch geboren werden.
  • Es sind zu viele mögliche Ereignisse um sie vollstänig zu erfassen und die relative Häufigkeit für alle zu berechnen.
  • Die Ereignisse sind nicht abzählbar (diskret).

Beispiel

In einer Telefonumfrage werden 453 Personen aus der Population einer Stadt nach ihrem Geschlecht befragt. Bei der Auszählung stellt man fest, dass 197 Personen in die Klasse "weiblich" fallen.

  • Die absolute Häufigkeit von weiblichen Personen in dieser Stichprobe ist also 197.
  • Die relative Häufigkeit dieser Klasse ist 197 zu 453 (197/453) = 43,5%.

Das heißt 43,5% der Befragten sind weiblich. Die relative Häufigkeit ist also hier die absolute Häufigkeit Frauen „relativ“ zur Anzahl der befragten Personen.

Problem: Schätzung der Wahrscheinlichkeit

Aus der relativen Häufigkeit der Stichprobe lässt sich nur schätzen, wie groß die Wahrscheinlichkeit ist, dass wir bei Befragung einer zufälligen weiteren Person aus dieser Stadt wieder eine Person erwischen, die "weiblich" ist. Es könnte sein, dass in der Stichprobe zufälligerweise ungewöhnlich viele oder wenig Frauen waren und somit die relative Häufigkeit der Stichprobe, die relative Häufigkeit an Frauen in der ganzen Stadt unter oder überschätzt. Wir würden dennoch schätzen, dass wir mit einer 43,5 prozentigen Wahrscheinlichkeit wieder zufällig eine weibliche Person bei der Befragung erwischen würden. Da hier die Wahrscheinlichkeit nach der Ziehung einer Zufallsstichprobe (a posteriori) erfolgt ist spricht man hier von der A-posteriori-Wahrscheinlichkeit.

Wichtig zu bedenken ist, dass wir durch die Errechnung der relativen Häufigkeit nur dann eine gute Schätzung für die Wahrscheinlichkeit bekommen, wenn die folgenden Bedingungen erfüllt sind:

  • Eine möglichst große Anzahl Personen wurde befragt. Denn hätten wir nur drei angerufen, wäre die Wahrscheinlichkeit groß, dass zufällig nur Frauen oder nur Männer befragt werden.
  • Die Telefonnummern für die Befragung müssen zufällig aus dem Telefonbuch gezogen werden. Beispielsweise könnte es sein, dass ein männlicher Befrager lieber Frauen anruft.
  • Die nächste Person, die wir vorhersagen wollen, muss auch wirklich wieder zufällig und aus derselben Stadt und demselben Telefonbuch gezogen werden. Es könnte zum Beispiel sein, dass ein anderes Mal eine Frau die Befragung durchführt und diese lieber Männer anruft, oder dass meine Stichprobe in Berlin durchgeführt wurde, aber ich will eine Vorhersage für Hamburg machen, wo es weniger oder mehr Frauen gibt. Das heißt, die Populationen müssen identisch sein.

Mit diesen Maßnahmen begegnet man dem Problem des Induktionsschlusses bzw. dem Induktionsproblem

Allgemeine mathematische Definitionen

Um Häufigkeitsverteilungen bezüglich der Dimension unterschiedlicher Grundgesamtheiten oder unterschiedlicher Stichprobenumfänge besser abwägen zu können, berücksichtigt man bei n Wiederholungen eines zufälligen Versuchs mit dem Ereignis A weniger die absoluten Häufigkeiten Hn(A), sondern legt größeren Wert auf die bedingten oder relativen Häufigkeiten.

Dabei handelt es sich um die absolute Häufigkeit dividiert durch die Anzahl der Objekte in der Stichprobe, d. h. die Anzahl n der Wiederholungen des Zufallsexperiments bzw. der Anzahl n der tatsächlich untersuchten Objekte. Sie ist ein ein normiertes Maß, das vom Umfang oder dem Ausmaß der Stichprobe unabhängig ist.

Die relative Häufigkeit ergibt sich zu

h_n(A)=\frac{H_n(A)}{n}

Für die relative Häufigkeit gelten folgende Beziehungen:

  • 0\leq h_n(A)\leq 1 aufgrund der Normierung auf die Anzahl n der Wiederholungen.
  • h_n(\Omega)= 1\, für das sichere Ereignis.
  • h_n(A\cup B)=h_n(A)+h_n(B)-h_n(A\cap B) für die Summe von Ereignissen.
  • h_n(\bar{A})=1-h_n(A) für das komplementäre Ereignis.

Für große n wird jedem Ereignis A eine reelle Funktion W(A) oder P(A) als Grenzwert der relativen Häufigkeit Hn(A) zugeordnet, die die Wahrscheinlichkeit des Eintretens des Ereignisses A bestimmt.


Siehe auch


Wikimedia Foundation.

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Prozentuale Häufigkeit — Berechnung der relativen Häufigkeit als Mengendiagramm Die relative Häufigkeit oder bedingte Häufigkeit ist ein Maß der deskriptiven Statistik und in der elementaren Wahrscheinlichkeitsrechnung. Sie gibt den Anteil der Objekte mit dem gleichen… …   Deutsch Wikipedia

  • SSRI-bedingte sexuelle Dysfunktion — Klassifikation nach ICD 10   Unerwünschte Nebenwirkungen... N48.4 Impotenz organischen Ursprungs F52.0 …   Deutsch Wikipedia

  • Sozial bedingte Ungleichheit von Gesundheitschancen — Der Begriff sozial bedingte Ungleichheit von Gesundheitschancen bezeichnet den Zusammenhang zwischen Armut, mangelnder Bildung und schlechterem Gesundheitszustand, und in Konsequenz die statistisch erhöhten Krankheitsrisiken sozial… …   Deutsch Wikipedia

  • Konditionale Wahrscheinlichkeit — Bedingte Wahrscheinlichkeit (auch konditionale Wahrscheinlichkeit) ist die Wahrscheinlichkeit des Eintretens eines Ereignisses A unter der Bedingung, dass ein Ereignis B bereits vorher eingetreten ist. Es wird geschrieben als P(A | B), der… …   Deutsch Wikipedia

  • Totale Wahrscheinlichkeit — Bedingte Wahrscheinlichkeit (auch konditionale Wahrscheinlichkeit) ist die Wahrscheinlichkeit des Eintretens eines Ereignisses A unter der Bedingung, dass ein Ereignis B bereits vorher eingetreten ist. Es wird geschrieben als P(A | B), der… …   Deutsch Wikipedia

  • Verbundwahrscheinlichkeit — Bedingte Wahrscheinlichkeit (auch konditionale Wahrscheinlichkeit) ist die Wahrscheinlichkeit des Eintretens eines Ereignisses A unter der Bedingung, dass ein Ereignis B bereits vorher eingetreten ist. Es wird geschrieben als P(A | B), der… …   Deutsch Wikipedia

  • Geschichte der Stochastik — Roulettespieler, um 1800. Das Glücksspiel war eine der frühesten Triebfedern der Wahrscheinlichkeitsrechnung …   Deutsch Wikipedia

  • Geschichte der Wahrscheinlichkeitstheorie — Roulettespieler, um 1800. Das Glücksspiel war eine der frühesten Triebfedern der Wahrscheinlichkeitsrechnung …   Deutsch Wikipedia

  • Auftretenswahrscheinlichkeit — Die Wahrscheinlichkeit ist eine Einstufung von Aussagen und Urteilen nach dem Grad der Gewissheit (Sicherheit). Besondere Bedeutung hat dabei die Gewissheit von Vorhersagen. In der Mathematik hat sich mit der Wahrscheinlichkeitstheorie ein… …   Deutsch Wikipedia

  • Probabilistik — Die Wahrscheinlichkeit ist eine Einstufung von Aussagen und Urteilen nach dem Grad der Gewissheit (Sicherheit). Besondere Bedeutung hat dabei die Gewissheit von Vorhersagen. In der Mathematik hat sich mit der Wahrscheinlichkeitstheorie ein… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”