- Wald-Test
-
Der Wald-Test ist ein statistischer Test, der 1943 von Abraham Wald vorgestellt worden ist. Ist θ ein unbekannter Parameter in der Grundgesamtheit und θ0 ein vorgegebener Wert, so prüft er die Hypothesen:
- vs. .
Das Problem ist, die Verteilung einer geeigneten Teststatistik unter Gültigkeit der Nullhypothese zu bestimmen. Der Wald-Test basiert auf der Tatsache, dass der Maximum-Likelihood-Schätzer für den unbekannten Parameter für große Beobachtungszahlen in Verteilung gegen eine Normalverteilung strebt. Viele Tests lassen sich daher als Spezialfälle des Wald-Tests auffassen.
Inhaltsverzeichnis
Beispiele
Einstichproben Gauß-Test als Spezialfall des Wald-Tests
Wenn ein Variable in einer Grundgesamtheit normalverteilt ist mit mit unbekannten Parameter μX und bekannten σX, dann ist der Stichprobenmittelwert
auch der Maximum-Likelihoodschätzer für μX. Eine der Hypothesen für den Einstichproben Gauß-Test lautet:
- vs.
und die Teststatistik nach Wald wäre
- .
Somit kann der Einstichproben Gauß-Test als Spezialfall des Wald-Tests aufgefasst werden.
Anwendung in der Regressionsanalyse
Mit dem Wald-Test kann z.B. geprüft werden, ob eine oder alle unabhängigen Variablen einen signifikanten Beitrag zu einem generalisierten linearen Regressionsmodell liefern:
- y = G(β0 + β1x1 + ... + βpxp).
Sowohl die abhängige Variable als auch die unabhängige Variablen können binär (kategoriell) oder metrisch sein, der Wald-Test kann dann die Hypothesen testen:
- H0:βi = 0 vs. bzw.
- H0:β0 = β1 = ... = βp = 0 vs. H1: mindestens ein .
Wenn der Wald Test für eine oder mehrere unabhängige Variablen die Nullhypothese ablehnt, dann können wir davon ausgehen, dass die zugehörigen Parameter ungleich Null sind, so dass die Variable(n) in das Modell mit einbezogen werden sollten. Wenn es nur um eine unabhängige Variable geht, dann wird ein T-Test benutzt, um zu überprüfen, ob der Parameter signifikant ist. Für einen einzelnen Parameter stimmt das Ergebnis Wald-Statistik mit dem Ergebnis des Quadrates der T-Statistik überein.
Im klassischen linearen Regressionsmodell (G(η) = η) ist jedoch z.B. der F-Test ist auch bei kleinen (endlichen) Stichproben exakt und daher bei bekannter Verteilung des Schätzers vorzuziehen (so z.B. im klassischen linearen Regressionsmodell oder bei der Paneldatenanalyse mit festen Effekten – fixed effects).
Mathematischer Hintergrund
Univariater Fall
Aus der Maximum-Likelihoodtheorie weiss man, dass der Maximum-Likelihood-Schätzer des unbekannten Parameters in Verteilung für große Beobachtungszahlen gegen eine Normalverteilung strebt:
- .
Im univariaten Fall ergibt sich die Wald-Teststatistik für die Hypothesen vs. zu
- .
wird auch als der Standardfehler des Maximum-Likelihood-Schätzers bezeichnet. Betrachtet man die quadrierte Teststatistik, so gilt:
- ,
d.h. sie ist bei großen Stichproben asymptotisch Chi-Quadrat-verteilt.
Multivariater Fall
Im multivariaten Fall gilt
wobei der Vektor der Schätzfunktionen ist und die asymptotisch nichtsinguläre Kovarianzmatrix des ML-Schätzers bezeichnet. Die Teststatistik
ist dann asymptotisch Chi-Quadrat-verteilt mit k Freiheitsgraden. Die Restriktionsfunktion muss hierzu unter H0 vollständig differenzierbar sein und vollen Rang haben.
Alternativen
Eine Alternative zum Wald-Test bietet der Likelihood-Ratio-Test. Dieser ist zwar rechenaufwändiger, dafür zeigt er in kleinen Stichproben jedoch auch bessere Eigenschaften. Eine weitere Alternative ist der sogenannte Lagrange-Multiplikator-Tests (LM-Tests, siehe auch Lagrange-Multiplikator). Asymptotisch sind diese drei Tests jedoch identisch.
Literatur
- Wald, Abraham: Tests of Statistical Hypotheses Concerning Several Parameters When the Number of Observations is Large; in: Transactions of the American Mathematical Society, Vol. 54, No. 3 (Nov., 1943), Seiten 426-482.
- Liao, Tim F. (2004): Comparing Social Groups: Wald Statistics for Testing Equality Among Multiple Logit Models, in: International Journal of Comparative Sociology, Vol. 45, No. 1-2, 2004, Seite 3-16.
- Davidson, Russell/MacKinnon, James G. (2004): Econometric Theory and Methods, 1. Aufl., New York: Oxford University Press, 2004, Seite 422ff. Siehe hier: [1]
- Engle, Robert F. (1984): Wald, Likelihood Ratio and Lagrange Multiplier Tests in Econometrics, in: Griliches, Zvi/Intriligator, Michael D. (Hrsg.): Handbook of Econometrics Vol. 2, Amsterdam et al.: Elsevier, 1984, Seite 775-826.
Wikimedia Foundation.