Autokorrelationsfunktion

Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Mathematik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Mathematik auf ein akzeptables Niveau zu bringen. Dabei werden Artikel gelöscht, die nicht signifikant verbessert werden können. Bitte hilf mit, die Mängel dieses Artikels zu beseitigen, und beteilige dich bitte an der Diskussion!

Die Autokorrelation ist ein Begriff aus der Statistik und der Signalverarbeitung.

Inhaltsverzeichnis

Allgemeines

Im statistischen Modell geht man von einer geordneten Folge von Zufallsvariablen aus. Vergleicht man die Folge mit sich selbst, so spricht man von Autokorrelation. Da jede unverschobene Folge mit sich selbst am ähnlichsten ist, hat die Autokorrelation für die unverschobenen Folgen den höchsten Wert. Wenn zwischen den Gliedern der Folge eine Beziehung besteht, die mehr als zufällig ist, hat auch die Korrelation der ursprünglichen Folge mit der verschobenen Folge in der Regel einen Wert, der signifikant von Null abweicht. Man sagt dann, die Glieder der Folge sind autokorreliert.

In der Signalverarbeitung geht man häufig auch von kontinuierlichen Messdaten aus. In der Signalverarbeitung spricht man von Autokorrelation, wenn die kontinuierliche oder zeitdiskrete Funktion (z. B. ein- oder mehrdimensionale Funktion über die Zeit oder den Ort) mit sich selbst korreliert wird. Beispielsweise x(t) mit x(t+Verschiebung).

Genutzt wird die Autokorrelation u. a. in der Regressionsanalyse, der Zeitreihenanalyse und in der Bildverarbeitung.

Autokorrelationsfunktion der Zeitreihe der Tiefenmessungen des Huronsees

Beispielsweise werden in der Regressionsanalyse die Störgrößen, also die Abweichungen der Beobachtungswerte von der wahren Regressionsgeraden, als Folge von identisch verteilten Zufallsvariablen interpretiert. Damit die Regressionsanalyse sinnvolle Ergebnisse liefert, müssen diese den Erwartungswert Null und gleiche Varianzen haben. Und sie müssen unkorreliert, wenn nicht gar unabhängig sein. Sind sie korreliert, spricht man von Autokorrelation. Man kann die Unkorreliertheit der Störgröße beispielsweise mit dem Durbin-Watson-Test oder anhand eines Korrelogramms überprüfen.

Die Autokorrelation gibt im Gegensatz zur Kreuzkorrelation die Korrelation einer Folge von gleichartigen Zufallsvariablen an. Mit Hilfe der Autokorrelation ist es möglich, Zusammenhänge zwischen den beobachteten Ergebnissen zu verschiedenen Beobachtungszeitpunkten einer Messreihe festzustellen. Die Kreuzkorrelation gibt dagegen die Korrelation zwischen verschiedenen Merkmalen an.

Autokovarianz

Grundlage für die Berechnung der Autokorrelationsfunktion ist die Autokovarianzfunktion. Die Autokovarianzfunktion ist definiert als:

\gamma(t_1,t_2)=E[({Y_t}_1-{\mu_t}_1)({Y_t}_2-{\mu_t}_2)]; \qquad  \gamma(t_1,t_2)\in\mathbb{R}
Hierbei bedeuten:
{Y_t}_1 Realisation der Zufallsvariable Y zum Zeitpunkt t1
{Y_t}_2 Realisation der Zufallsvariable Y zum Zeitpunkt t2
{\mu_t}_1 Erwartungswert der Zufallsvariable Y zum Zeitpunkt t1
{\mu_t}_2 Erwartungswert der Zufallsvariable Y zum Zeitpunkt t2
E[...] Erwartungswert von [...]
γ(t1,t2) Autokovarianz der Zufallsvariable Y bezogen auf die Zeitpunkte t1 und t2

Für einen stationären Prozess sind die statistischen Größen der Zufallsvariable Y Erwartungswert, Standardabweichung und Varianz nicht mehr zeitabhängig. Die Autokovarianz ist dann nicht von der Lage der Zeitpunkte, sondern nur von der Zeitdifferenz τ zwischen t1 und t2 abhängig:


\gamma_\tau = E\left[\left({Y}_t-\mu\right) \left({Y_{t+\tau}}-\mu\right)\right]

Autokorrelation in der Statistik

In der Statistik wird mit dem Begriff Autokorrelationsfunktion eine normierte Form der Autokovarianzfunktion bezeichnet:

\rho\left(t_1,t_2\right)=\frac{\gamma\left(t_1,t_2\right)}{\sigma_{t1}\sigma_{t2}} \qquad \mbox{ mit} -1\le\rho(t_1,t_2)\le+1
Hierbei bedeuten:
σt1 Standardabweichung zum Zeitpunkt t1
σt2 Standardabweichung zum Zeitpunkt t2
ρ(t1,t2) Autokorrelation bezogen auf die Zeitpunkte t1 und t2

In dieser Form ist die Autokorrelationsfunktion auf den Bereich zwischen -1 und 1 normiert (keine Dimension).

Für einen stationären Prozess ist die Autokovarianz nur vom Zeitunterschied τ zwischen t1 und t2 abhängig. Die Standardabweichung ist dann unabhängig vom Zeitpunkt, das Produkt der Standardabweichungen im Nenner entspricht dann der Varianz \sigma_Y^2 der Zufallsvariable Y. Für eine Zeitdifferenz τ = 0 ist dann die Autokovarianz identisch mit der Varianz. Somit vereinfacht sich die Autokorrelationsfunktion für einen stationären Prozess zu:


\rho\left(t_1,t_2\right)=\rho_\tau=\frac{\gamma_\tau}{\sigma_Y^2}=\frac{\gamma_\tau}{\gamma_0}

Autokorrelation in der Signalverarbeitung

In der Signalanalyse wird mit dem Begriff Autokorrelationsfunktion meistens die Autokovarianzfunktion bezeichnet.

Hier wird die Autokorrelationsfunktion zur Beschreibung der Korrelation eines Signales mit sich selbst bei unterschiedlichen Zeitverschiebungen τ zwischen den betrachteten Funktionswerten eingesetzt. So gilt z. B. für das Zeitsignal x(t) im Zeitabschnitt (Zeitfenster) TF :


R_{xx}(\tau) = \lim_{T_F \to \infty} \frac{1}{T_F}\int_{-T_F/2}^{T_F/2} x(t) \cdot x(t + \tau) dt

Dieses entspricht der Autokovarianzfunktion für mittelwertfreie, stationäre Signale. Eigenschaften:

R_{xx}(0) \ge \left| R_{xx}(\tau)\right|
R_{xx}(0) < \infty\;
\lim \limits_{\tau \to \infty} R_{xx}(\tau) = 0

Diese Funktion zeigt Spitzen bei τ = 0. Dort nimmt sie einen Wert proportional zur mittleren Leistung der Funktion an.

Gibt es Wiederholungen im Signal, so ergeben sich Maxima der Autokorrelationsfunktion bei den Zeitverschiebungen, die der Wiederholungsdauer von Erscheinungen im Signal entsprechen. So können z. B. versteckte periodische Anteile und Echoerscheinungen in Signalen detektiert werden. Der Verlauf ist stets symmetrisch zu τ = 0 (gerade Funktion).

In der digitalen Signalanalyse wird die Autokorrelationsfunktion in der Regel über die inverse Fouriertransformation des Autoleistungsspektrums (z.B. SXX(f)) berechnet:


R_{xx}\left(\tau\right) = \int_{-\infty}^\infty S_{XX}(f) \cdot e^{\mathrm{i} 2 \pi f \tau} \,df

Beispiel 1

Das untere Signal besitzt identischen zeitlichen Verlauf, ist aber um Δs verspätet

Die Funktionen im nebenstehenden Bild sind aus sinusförmigen Abschnitten einheitlicher Frequenz zusammengesetzt. An den Stoßstellen treten Phasensprünge auf. Zur Berechnung der Korrelation multipliziert man punktweise beide Signalamplituden und addiert die Produkte über einen längeren Zeitraum. Bei der gezeichneten Verzögerung Δs sind in den rot markierten Bereichen alle Einzelprodukte positiv oder null, in den dazwischen liegenden Bereichen meist negativ. Nur für Δs = 0 sind alle Einzelprodukte positiv, die Korrelationsfunktion erreicht ihren maximalen Wert.

Nebenbemerkung: Addiert man beide Signale, können stückweise konstruktive bzw. destruktive Interferenz auftreten.

Beispiel 2

Weißlichtinterferometrie

Bei der Optischen Kohärenztomografie wird Licht besonders geringer Kohärenzlänge verwendet, weil die Autokorrelation nur dann ein merklich von Null abweichendes Ergebnis liefert, wenn die Länge von Messarm und Referenzarm gut übereinstimmen. Bei größerer Abweichung variieren die Ergebnisse der Autokorrelation um Null (Weißlichtinterferometrie).

Finden von Signalperioden

Eine häufige Anwendung der Autokorrelationsfunktion besteht darin, in stark verrauschten Signalen Periodizitäten zu finden, die nicht ohne weiteres ersichtlich sind:

  • Die Autokorrelationsfunktion eines periodischen Signals ist wieder ein periodisches Signal mit derselben Periode. So ist zum Beispiel die Autokorrelationsfunktion eines Kosinussignals
     x(t)=\hat x \cos(\omega t + \varphi)
    wiederum eine Kosinusfunktion mit derselben Kreisfrequenz ω (Erhaltung der Signalperiode).
     R_{xx}(\tau)=\frac{\hat x^2}{2} \cos(\omega \tau) ,
    Allerdings ist hierbei die Phaseninformation verloren gegangen.
  • Da weißes Rauschen zu einem Zeitpunkt völlig unabhängig von weißem Rauschen zu einem anderen Zeitpunkt ist, ergibt die Autokorrelationsfunktion von weißem Rauschen einen Dirac-Impuls an der Stelle τ = 0. Liegt weißes Rauschen der Leistungsdichte S0 für die Frequenzen \omega = -\infty ... +\infty vor, so gilt:
     R_{xx}(\tau) = S_0 \delta(\tau)\,
    Bei gefärbtem Rauschen, das in technischen Systemen meistens an Stelle von weißem Rauschen vorkommt, ergibt sich ebenso ein absolutes Maximum der Autokorrelationsfunktion bei τ = 0 und ein Abfall der Autokorrelationsfunktion für Verschiebungen | τ | > 0. Die Breite dieses Maximums wird von der "Farbe" des Rauschens bestimmt.

Bei der Analyse von Periodizitäten wird nur die Autokorrelationsfunktion für große Werte von τ betrachtet und der Bereich um τ = 0 ignoriert, da er vor allem Information über die Stärke des Rauschsignals enthält.

Signal-Rausch-Verhältnis

Da der Wert der Autokorrelationsfunktion bei τ = 0 dem quadratischen Mittelwert (bei Leistungssignalen) bzw. der Signalenergie (bei Energiesignalen) entspricht, kann man durch Bilden der Autokorrelationsfunktion relativ einfach das Signal-Rausch-Verhältnis abschätzen.

Dazu teilt man die Höhe des Wertes  \lim \limits_{\tau \to 0} R_{xx}(\tau) , d. h. den Wert, den die Autokorrelationsfunktion ohne Rauschen an der Stelle 0 hätte, durch die Höhe der "Rauschspitze". Beim Umrechnen des Signal-Rausch-Verhältnisses Sx / Nx in Dezibel muss man darauf achten, dass man  10 \cdot \log\left(\frac{S_x}{N_x}\right) und nicht  20 \cdot \log\left(\frac{S_x}{N_x}\right) verwendet. Das liegt daran, dass die Autokorrelationsfunktion an der Stelle 0 eine Leistungs- bzw. Energiegröße (quadratische Größe) und keine lineare Größe darstellt.

Normierung

Erwähnenswert ist, dass man die Autokorrelationsfunktion häufig auch normiert angibt. Da die Autokorrelationsfunktion ihren Maximalwert an der Stelle τ = 0 hat, verwendet man diesen Wert zur Normierung und schreibt:


\rho_{xx}\left(\tau\right)=\frac{R_{xx}(\tau)}{R_{xx}(0)}

Der Betrag dieser normierten Autokorrelationsfunktion kann Werte zwischen 0 und 1 annehmen.

Siehe auch


Wikimedia Foundation.

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Autokorrelationsfunktion — Autokorrelationsfunktion,   eine Korrelationsfunktion …   Universal-Lexikon

  • Autokorrelationsfunktion — autokoreliacijos funkcija statusas T sritis automatika atitikmenys: angl. autocorrelation function vok. Autokorrelationsfunktion, f rus. автокорреляционная функция, f pranc. fonction d auto corrélation, f …   Automatikos terminų žodynas

  • Partielle Autokorrelationsfunktion — Partielle Autokorrelation der Zeitreihe der Tiefen des Huronsee Die partielle Autokorrelationsfunktion (PAKF, engl. PACF) ist wie die Autokovarianzfunktion und die Autokorrelationsfunktion ein Instrument, um Abhängigkeiten zwischen den Werten… …   Deutsch Wikipedia

  • Autocorrelation function — Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Mathematik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Mathematik auf ein akzeptables Niveau zu bringen. Dabei werden Artikel gelöscht, die nicht… …   Deutsch Wikipedia

  • Autokorrelation — Die Autokorrelation ist ein Begriff aus der Signalverarbeitung und beschreibt die Korrelation einer Funktion oder eines Signals mit sich selbst. Inhaltsverzeichnis 1 Allgemeines 2 Definitionen 2.1 AKF (Autokorrelationsfunktion) …   Deutsch Wikipedia

  • Khinchin-Kolmogorov-Theorem — Das Wiener Chintschin Theorem, auch bekannt als Wiener Chintchin Kriterium oder Chintschin Kolmogorow Theorem, besagt, dass die spektrale Leistungsdichte eines „stationären[1]Zufallsprozesses“ die Fourier Transformation der korrespondierenden… …   Deutsch Wikipedia

  • Wiener-Chintschin-Theorem — Das Wiener Chintschin Theorem, auch bekannt als Wiener Chintchin Kriterium oder Chintschin Kolmogorow Theorem, besagt, dass die spektrale Leistungsdichte eines „stationären[1] Zufallsprozesses“ die Fourier Transformation der korrespondierenden… …   Deutsch Wikipedia

  • Wiener-Khinchin-Theorem — Das Wiener Chintschin Theorem, auch bekannt als Wiener Chintchin Kriterium oder Chintschin Kolmogorow Theorem, besagt, dass die spektrale Leistungsdichte eines „stationären[1]Zufallsprozesses“ die Fourier Transformation der korrespondierenden… …   Deutsch Wikipedia

  • Wiener-Khinchine-Theorem — Das Wiener Chintschin Theorem, auch bekannt als Wiener Chintchin Kriterium oder Chintschin Kolmogorow Theorem, besagt, dass die spektrale Leistungsdichte eines „stationären[1]Zufallsprozesses“ die Fourier Transformation der korrespondierenden… …   Deutsch Wikipedia

  • Wiener-Khintchine-Theorem — Das Wiener Chintschin Theorem, auch bekannt als Wiener Chintchin Kriterium oder Chintschin Kolmogorow Theorem, besagt, dass die spektrale Leistungsdichte eines „stationären[1]Zufallsprozesses“ die Fourier Transformation der korrespondierenden… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”