Signifikanztest

Signifikanztest
Dieser Artikel oder Abschnitt ist nicht hinreichend mit Belegen (Literatur, Webseiten oder Einzelnachweisen) versehen. Die fraglichen Angaben werden daher möglicherweise demnächst gelöscht. Hilf Wikipedia, indem du die Angaben recherchierst und gute Belege einfügst. Bitte entferne erst danach diese Warnmarkierung.
Redundanz Die Artikel Statistischer Test und Signifikanztest überschneiden sich thematisch. Hilf mit, die Artikel besser voneinander abzugrenzen oder zu vereinigen. Beteilige dich dazu an der Diskussion über diese Überschneidungen. Bitte entferne diesen Baustein erst nach vollständiger Abarbeitung der Redundanz. Falk Lieder 15:04, 13. Aug 2006 (CEST)

Ein Signifikanztest ist ein Hypothesentest aus der Stochastik, einem Teilgebiet der Mathematik.

Als Signifikanztest (von lateinisch significans = deutlich) bezeichnet man einen Hypothesentest, bei dem überprüft wird, ob die Wahrscheinlichkeit für die Ablehnung einer (auf Grund einer willkürlichen Entscheidungsregel aufgestellten zu prüfenden) Hypothese kleiner oder gleich einer bestimmten Grenzwahrscheinlichkeit, dem so genannten Signifikanzniveau ist.

Inhaltsverzeichnis

Allgemeine Beschreibung

Grundlagen

Man betrachtet ein Zufallsexperiment mit dem Ergebnisraum Ω und interessiert sich für ein bestimmtes Ergebnis ω. Es wird erwartet, dass dieses Ergebnis mit der Wahrscheinlichkeit p0 auftritt.

Erwartung: P(ω) = p0


Man stellt die so genannte Nullhypothese H0 auf, die die Behauptung beinhaltet, das betrachtete Experiment verhalte sich wie erwartet, die Wahrscheinlichkeit für das Eintreten des Betrachteten Ereignisses {ω} sei also gleich p0.

H0: P(ω) = p0

Hypothesentests

Man möchte nun herausfinden, ob die Erwartung tatsächlich zutrifft. Deshalb führt man einen so genannten Hypothesentest durch. Hierbei wird das Experiment stichprobenartig n mal durchgeführt.

Die diskrete Zufallsgröße Z gibt hierbei an, wie oft bei einer solchen Versuchsreihe das Ergebnis ω auftritt. Der Wertebereich W der Zufallsgröße erstreckt sich also von einschließlich 0 bis einschließlich n. Z wird deshalb eine Zufallsgröße genannt, weil der Wert, den sie bei einer Versuchsreihe tatsächlich annimmt, vom Zufall abhängt. Dieser Wert, den die Zufallsgröße tatsächlich bei einer Durchführung der Versuchsreihe annimmt, bezeichnet man als die Realisation z der Zufallsgröße.

Da es sich bei der Versuchsreihe um eine stichprobenartige Versuchsreihe handelt, lässt sich über die Wahrheit der Hypothese H0 keine Aussage mit absoluter Sicherheit machen. Daher definiert man die Menge A als Annahmebereich für die Hypothese.


Wenn z ein Element des Annahmebereichs A ist, betrachtet man die aufgestellte Hypothese H0 als bestätigt, andernfalls lehnt man die Hypothese ab.

z \in A \rightarrow H_0 angenommen
z \notin A \rightarrow H_0 abgelehnt


Man beachte, dass die Schreibweise z \notin A gleichbedeutend ist mit z \in \bar A, da der Wertebereich für z nur aus dem Annahmebereich A und dem Ablehnungsbereich \bar A (gesprochen: "nicht A") besteht: W=A \cup \bar A.

Fehlentscheidungen

Da es sich bei Hypothesentests nur um Stichproben handelt, man aber trotzdem auf Grund des Versuchsergebnisses eine Entscheidung über eine Annahme oder Ablehnung der aufgestellten Nullhypothese H0 treffen muss, bleibt die Möglichkeit einer Fehlentscheidung.

Fehler 1. Art (α-Fehler) Die Nullhypothese ist zutreffend. Dennoch wird sie auf Grund des Versuchsergebnisses abgelehnt.
Fehler 2. Art (β-Fehler) Die Nullhypothese ist nicht zutreffend, wird aber auf Grund des Versuchsergebnisses angenommen.


Beiden Fehlervarianten können Wahrscheinlichkeiten zugeordnet werden, mit denen sie eintreten. Die jeweilige Wahrscheinlichkeit ist abhängig von der Anzahl der Stichproben n, dem gewählten Annahmebereich A und außerdem von der tatsächlichen Wahrscheinlichkeit für das Eintreten des Ergebnisses ω.


Man möchte die Wahrscheinlichkeiten für das Eintreten der Fehler möglichst gering halten. Daher wählt man die Grenzwahrscheinlichkeiten α und β, so genannte Niveaus, die von den Wahrscheinlichkeiten für den jeweiligen Fehler nicht überstiegen werden dürfen. Meist entscheidet man sich, entweder die Wahrscheinlichkeit für das Eintreten eines Fehlers erster Art oder die für das Eintreten eines Fehlers zweiter Art zu minimieren.


P\,( "Fehler erster Art" )=P(z \in \bar A \mid H_0) \leq \alpha
P\,( "Fehler zweiter Art" )=P(z \in A \mid \overline{H_0}) \leq \beta

Signifikanzniveaus

Möchte man die Wahrscheinlichkeiten für das Eintreten eines Fehlers begrenzen, gibt man das maximal erlaubte Niveau α oder β für einen Fehler vor und bestimmt den Annahmebereich A dieser Vorgabe entsprechend.

Ist die Wahrscheinlichkeit für einen Fehler höchstens 5%, so spricht man von einem signifikanten Ergebnis. Ist sie höchstens 1%, so spricht man von einem hochsignifikanten Ergebnis. Die festgelegten Grenzwahrscheinlichkeiten bezeichnet man als Signifikanzniveaus.


P(z \in \bar A \mid H_0) \leq \alpha


P \leq \alpha = 5% \rightarrow "signifikantes Ergebnis"
P \leq \alpha = 1% \rightarrow "hochsignifikantes Ergebnis"


In der Praxis möchte man meist die Nullhypothese H0, beispielsweise die Giftigkeit eines Medikaments, ausschließen und deshalb auch die Wahrscheinlichkeit dafür, dass H0 tatsächlich zutrifft, also das Medikament giftig ist, obwohl der Stichprobentest zur Ablehnung der Hypothese führt (Fehler erster Art), möglichst geringhalten. Also wird die Minimierung des Niveaus α angestrebt.

Bernoulli-Charakter und Binomialverteilung

Bei einer Stichprobenuntersuchung können mehrere gleichartige Versuche gleichzeitig durchgeführt werden. Beispielsweise können n Personen gleichzeitig befragt werden. Man wird dieselbe Person nicht zweimal befragen. Untersucht man einen Karton mit Schrauben, wird man n Schrauben gleichzeitig entnehmen. Die Stichproben der angesprochenen Beispiele werden, auf das Urnenmodell übertragen, "ohne Zurücklegen" durchgeführt. Deshalb ist die Verteilung der Zufallsgröße eigentlich hypergeometrisch.

Allerdings weicht bei geeigneten Untersuchungen, deren Stichproben hinreichend großen Grundmengen N entnommen werden die hypergeometrische nur gering von der binomialen Verteilung ab, so dass die Verteilung als binomialverteilt und somit das Experiment als Bernoulli Experiment angesehen werden kann, was schlicht bedeutet, dass die Wahrscheinlichkeit für das Eintreten eines bestimmten Ergebnisses ω bei allen Teilversuchen gleich ist.

Deshalb darf die Wahrscheinlichkeit für einen Fehler erster Art, wie im folgenden dargestellt wird, umformuliert werden.


Es wird die Wahrscheinlichkeit für einen Fehler erster Art betrachtet:


P(z \in \bar A \mid H)


Hierbei ist H eine wahre Hypothese, deren Ablehnungsbereich \bar A ist. Die Hypothese beinhaltet, dass die Wahrscheinlichkeit für das Eintreten des Ergebnisses ω gleich p ist.


P(\omega) = p \,


Auf Grund des angesprochenen Bernoulli-Charakters ändert sich diese Wahrscheinlichkeit P(ω) nicht, sondern bleibt immer gleich p. Deshalb lässt sich die Wahrscheinlichkeit für einen Fehler erster Art auch als Summe der Wahrscheinlichkeiten dafür darstellen, dass bei n Versuchen k mal das Ergebnis ω eintritt, wobei die Wahrscheinlichkeit für das Eintreten dieses Ergebnisses gleich p ist. Der Laufindex k soll jedes Element aus dem Ablehnungsbereich \bar A darstellen.

P(z \in \bar A \mid H) = \sum_{k \in \bar A} B(n; p; k)

Um diese eher umständliche Schreibweise zu vermeiden, stellt man die Wahrscheinlichkeit für einen Fehler erster Art in vereinfachter aber gleichbedeutender Schreibweise dar:

P(z \in \bar A \mid H) = \sum_{k \in \bar A} B(n; p; k) = P_p^n(z \in \bar A)

Einseitige und zweiseitige Tests

Die Zufallsgröße Z gibt an, wie oft bei n Stichproben das Ereignis ω eintritt. Der Wertebereich W von Z erstreckt sich also von einschließlich 0 bis einschließlich n. Diese Wertemenge wird in den Annahmebereich A \, der Hypothese H0 und den Ablehnungsbereich \bar A eingeteilt. Je nach Art des Experimentes und des gewählten Annahmebereichs kann A \, entweder von \bar A umgeben sein, \bar A einschließen, oder neben \bar A liegen.

Die Grenzen, die bestimmen, ob ein Wert der Zufallsgröße zu A\, oder zu \bar A gehört, werden mit c, bzw. c1 und c2 bezeichnet und gehören jeweils noch mit zum Annahmebereich A.


Einseitiger Test

Der Annahmebereich des Signifikanztests liegt links vom Ablehnungsbereich.

Liegt der Annahmebereich links vom Ablehnungsbereich (siehe Abbildung rechts), lässt sich die Wahrscheinlichkeit für einen Fehler erster Art wie folgt berechnen:

P( \, "Fehler erster Art" ) =
P(z \in \bar A \mid H_0) =
P_{p_0}^n(z \in \bar A) =
P_{p_0}^n(z \geq c+1) =
1 - P_{p_0}^n(z<c+1) =
1 - P_{p_0}^n(z \leq c) =
1 - F_{p_0}^n(c)


F ist hierbei die kumulative Verteilungsfunktion der binomialverteilten Zufallsgröße Z.

F_p^n(a) = P_p^n(z \leq a) = \sum_{k=0}^a B(n;p;k)
Der Annahmebereich des Signifikanztests liegt rechts vom Ablehnungsbereich.

Liegt der Annahmebereich rechts vom Ablehnungsbereich (siehe Abbildung rechts), lässt sich die Wahrscheinlichkeit für einen Fehler erster Art wie folgt berechnen:


P( \, "Fehler erster Art" )=P_{p_0}^n(z \in \bar A) = P_{p_0}^n(z \leq c-1) = F_{p_0}^n(c-1)


Zweiseitiger Test

Der Annahmebereich des Signifikanztests wird vom Ablehnungsbereich umgeben.

Wird der Annahmebereich vom Ablehnungsbereich umgeben (siehe Abbildung rechts), lässt sich die Wahrscheinlichkeit für einen Fehler erster Art wie folgt berechnen:

P( \, "Fehler erster Art" ) = P_{p_0}^n(z \in \bar A) = P_{p_0}^n(z \leq c_1 - 1) + P_{p_0}^n(z \geq c_2 + 1) =
P_{p_0}^n(z \leq c_1 - 1) + (1 - P_{p_0}^n(z < c_2 +1)) = P_{p_0}^n(z \leq c_1 - 1) + 1 - P_{p_0}^n(z \leq c_2) =
F_{p_0}^n(c_1 - 1) + 1 - F_{p_0}^n(c_2)


Fehler erster und zweiter Art

In den obigen Abschnitten wurde exemplarisch der Fehler erster Art berechnet (α-Fehler). Die Berechnung des Fehlers zweiter Art (β-Fehler) erfolgt analog. Allerdings ist bei diesem Fehler nicht H_0 \,, sondern \overline{H_0} die wahre Hypothese. Deshalb ist auch P(\omega) \not= p_0. Statt dessen hat P(ω) jetzt eine andere Wahrscheinlichkeit, die im Folgenden mit p bezeichnet wird.


P( \, "Fehler erster Art" ) = P(z \in \bar A \mid H_0) = P_{p_0}^n(z \in \bar A)
P( \, "Fehler zweiter Art" ) = P(z \in A \mid \overline{H_0}) = P_p^n(z \in A)

Normalverteilung

Für hinreichend große n verhält sich die betrachtete Zufallsgröße Z normalverteilt, weshalb die Wahrscheinlichkeit für einen Fehler erster Art dann auch mit der Verteilungsfunktion Φ berechnet werden kann.

Die standardisierte Verteilungsfunktion Φ ist wie folgt definiert. Ihre Werte werden in der Praxis mit Hilfe von Tabellen zur Stochastik ermittelt.

 \Phi(a) = \frac{1}{ \sqrt{2 \pi}} \int\limits_{-\infty}^{a} e^{-\frac{1}{2} t^2} \mathrm d t


Wegen der Normalverteilung gelte für die Zufallsgröße Z:

Erwartungswert: \mu = E(Z) = np \,
Standardabweichung: \sigma = \sqrt{Var(Z)} = \sqrt{npq},\qquad q=1-p \,


Beim einseitigen Test mit Annahmebereich rechts vom Ablehnungsbereich wäre die Wahrscheinlichkeit für einen Fehler erster Art dann wie folgt zu berechnen:

P( \, "Fehler erster Art" ) = P_{p_0}^n(z \in \bar A) = F_{p_0}^n(c-1) =

\Phi_{\mu\sigma} (c-1 + \frac{0,5}{\sigma}) = \Phi( \frac{c-1+0,5-\mu}{\sigma})

Beispiel zur Anwendung

Ein neues Medikament M soll auf seine Wirksamkeit hin untersucht werden. Es soll in Erfahrung gebracht werden, ob es besser wirkt als ein vergleichbares Medikament N.

Man führt eine Untersuchung mit n = 25 Probanden durch, die beide Medikamente vergleichend einnehmen. Das Ergebnis, für das wir uns interessieren, ist

ω: "Das Medikament M wirkt besser als das Medikament N."


Wir gehen zunächst vom ungünstigen Fall aus, beide Medikamente seien entweder gleichwertig, oder M sei sogar weniger wirksam als N, weshalb die Wahrscheinlichkeit für ω kleiner oder gleich \frac{1}{2} wäre.

H_0: P(\omega) \leq p_0 = \frac{1}{2}


Die Realisation z der Zufallsgröße Z gebe die Anzahl der Personen an, bei denen ω tatsächlich zutrifft, bei denen also M besser wirkt als N.

Wir möchten die Wahrscheinlichkeit dafür gering halten, dass das neue Medikament gleichwertig oder schlechter wirkt als das alte, also die Nullhypothese H0 zutrifft, dies aber auf Grund der Untersuchung nicht erkannt wird (Fehler erster Art).

P(z \in \bar A \mid H_0) \leq \alpha


Wir streben ein signifikantes Ergebnis an, weshalb wir ein Signifikanzniveau von \alpha = 5% \, wählen.

Zur Auswertung der Untersuchung muss ein Annahmebereich für die Nullhypothese festgelegt werden. Wir gehen von der Richtigkeit der Hypothese H0 aus, wenn z \in A = \{ 0;1; ... c \}, und dementsprechend von ihrer Falschheit, wenn z \in \bar A = \{ c+1; c+2; ... n\}


P(z \in \bar A \mid H_0) \leq \alpha

P(z \in \bar A \mid H_0) = P_{p_0}^n(z \geq c+1) = 1 - P_{p_0}^n(z \leq c) = 1 - F_{p_0}^n(c)

1 - F_{p_0}^n(c) \leq \alpha = 0,05

1 - 0,05 \leq F_{p_0}^n(c)

F_{p_0}^n(c) \geq 0,95, n=25 \,, p_0 = 0,5 \,


Der stochastischen Tabelle ist folgendes zu entnehmen:

F_{p=0,5}^{n=25}(16)=0,94612
F_{p=0,5}^{n=25}(17)=0,97836


\rightarrow c=17

\rightarrow \bar A = \{c+1; c+2; ... n \} = \{18; 19; ... 25\}


P(z \in \bar A \mid H_0) = 1 - F_{p_0}^n(17) = 0,02164 \approx 2,2 %


Also dürfen wir mit einer Fehlerwahrscheinlichkeit von 2,2% davon ausgehen, dass, wenn bei mindestens 18 von 25 Probanden Medikament M besser wirkt als Medikament N, Medikament M tatsächlich wirksamer ist.


Wikimedia Foundation.

Игры ⚽ Нужно решить контрольную?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Signifikanztest — Si|gni|fi|kạnz|test, der (Statistik): Verfahren zur Ermittlung der ↑Signifikanz (b) von [auf Stichproben beruhenden] Ergebnissen …   Universal-Lexikon

  • Signifikanztest — Si|gni|fi|kanz|test der; s, s: Testverfahren zum Nachprüfen einer statistischen Hypothese …   Das große Fremdwörterbuch

  • Delta-Methode — Die Artikel Statistischer Test und Signifikanztest überschneiden sich thematisch. Hilf mit, die Artikel besser voneinander abzugrenzen oder zu vereinigen. Beteilige dich dazu an der Diskussion über diese Überschneidungen. Bitte entferne diesen… …   Deutsch Wikipedia

  • Hypothesentest — Die Artikel Statistischer Test und Signifikanztest überschneiden sich thematisch. Hilf mit, die Artikel besser voneinander abzugrenzen oder zu vereinigen. Beteilige dich dazu an der Diskussion über diese Überschneidungen. Bitte entferne diesen… …   Deutsch Wikipedia

  • Parametrischer Test — Die Artikel Statistischer Test und Signifikanztest überschneiden sich thematisch. Hilf mit, die Artikel besser voneinander abzugrenzen oder zu vereinigen. Beteilige dich dazu an der Diskussion über diese Überschneidungen. Bitte entferne diesen… …   Deutsch Wikipedia

  • Signifikanztests — Die Artikel Statistischer Test und Signifikanztest überschneiden sich thematisch. Hilf mit, die Artikel besser voneinander abzugrenzen oder zu vereinigen. Beteilige dich dazu an der Diskussion über diese Überschneidungen. Bitte entferne diesen… …   Deutsch Wikipedia

  • Statistische Tests — Die Artikel Statistischer Test und Signifikanztest überschneiden sich thematisch. Hilf mit, die Artikel besser voneinander abzugrenzen oder zu vereinigen. Beteilige dich dazu an der Diskussion über diese Überschneidungen. Bitte entferne diesen… …   Deutsch Wikipedia

  • Chi-Quadrat — (χ2) ist eine Testgröße, mittels der ein Signifikanztest (auch: statistischer Test), der Chi Quadrat Test, durchgeführt wird. Der Chi Quadrat Test basiert auf dem Vergleich zwischen erwarteten und beobachteten Werten zweier Merkmale in einer… …   Deutsch Wikipedia

  • Chi-Quadrat-Statistik — Chi Quadrat (χ2) ist eine Testgröße, mittels der ein Signifikanztest (auch: statistischer Test), der Chi Quadrat Test, durchgeführt wird. Der Chi Quadrat Test basiert auf dem Vergleich zwischen erwarteten und beobachteten Werten zweier Merkmale… …   Deutsch Wikipedia

  • Chi Quadrat — (χ2) ist eine Testgröße, mittels der ein Signifikanztest (auch: statistischer Test), der Chi Quadrat Test, durchgeführt wird. Der Chi Quadrat Test basiert auf dem Vergleich zwischen erwarteten und beobachteten Werten zweier Merkmale in einer… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”