Korrelation

Eine Korrelation beschreibt eine Beziehung zwischen zwei oder mehreren Merkmalen, Ereignissen oder Zuständen. Eine kausale Beziehung zwischen den Merkmalen, Ereignissen oder Zuständen muss jedoch nicht bestehen.

Inhaltsverzeichnis

Nähere Beschreibung

Es gibt positive und negative Korrelationen. Ein Beispiel für eine positive Korrelation (je mehr, desto mehr) ist: „Je mehr Futter, desto dickere Kühe.“ Ein Beispiel für eine negative Korrelation (je mehr, desto weniger) ist: „Je mehr zurückgelegte Strecke mit dem Auto, desto weniger Treibstoff ist im Tank übrig.“

Häufig benutzt man zu Recht die Korrelation, um einen Hinweis darauf zu bekommen, ob zwei statistische Größen ursächlich miteinander zusammenhängen. Das funktioniert immer dann besonders gut, wenn beide Größen durch eine „Je ... desto“-Beziehung miteinander zusammenhängen und eine der Größen nur von der anderen Größe abhängt.

Beispielsweise kann man unter bestimmten Bedingungen nachweisen, dass Getreide umso besser gedeiht, je mehr man es bewässert. Diese Erkenntnis beruht auf dem Wissen über das Getreide - zum Beispiel durch Erfahrung oder wissenschaftliche Überlegungen. Die Korrelation unterscheidet nicht, ob das Wasser auf das Wachstum des Getreides wirkt, oder etwa das Getreide auf die Menge des Wassers. Eine Ursache-Wirkung-Beziehung kann nur eine Person unterstellen, die einer Sache (hier dem Wasser) eine Wirkung (das Wachstum des Getreides) zuschreibt. Gibt es mehrere Einflussfaktoren auf das Wachstum des Getreides (beispielsweise die Temperatur, den Nährstoffgehalt des Bodens, das einfallende Licht usw.), ist die Menge des Wassers nicht mehr die einzige Erklärung für das Wachstum des Getreides. Die Erklärungskraft reduziert sich somit, wohingegen die Korrelation zwischen der Menge des Wassers und dem Wachstum des Getreides unverändert bleibt, da die Korrelation eben keine Erklärungskraft besitzt, sondern nur Hinweise auf relevante Einflussgrößen bieten kann.

Korrelation und Kausalzusammenhang

Eine Korrelation beschreibt keine Ursache-Wirkungs-Beziehung in die eine oder andere Richtung.

Beispiele:

  • Aus der Tatsache, dass in Sommern mit hohem Speiseeisumsatz viele Sonnenbrände auftreten, darf man nicht schließen, dass Eisessen Sonnenbrand erzeugt, aber auch nicht, dass es die Sonnenbrandbeschwerden lindert.
  • Zwischen dem Rückgang der Störche im Burgenland und einem Rückgang der Anzahl Neugeborener kann es durchaus eine Korrelation geben, aber weder bringen Störche Kinder noch umgekehrt.

In beiden Beispielen hängen die jeweiligen Messgrößen allerdings über eine dritte Größe als Ursache kausal zusammen. Im ersten Fall ist es die Sonneneinstrahlung, die sowohl Eisverkauf als auch Sonnenbrand bewirkt, im zweiten Fall die Verstädterung, die sowohl Nistplätze vernichtet als auch Kleinstfamilien fördert. Korrelationen dieser Art werden Scheinkorrelationen genannt.

In der Presse werden Korrelationen oft in einer Weise berichtet, die eine direkte Kausalität suggeriert, obwohl eine Gemengelage direkter und indirekter Zusammenhänge besteht. Beispiele für Schlagzeilen:

Der Fehlschluss von Korrelation auf Kausalität wird auch als Cum hoc ergo propter hoc bezeichnet. Um Kausalitäten wirklich herstellen und Kausalitätsrichtungen definieren zu können, ist grundsätzlich eine substanzwissenschaftliche Betrachtung notwendig. Die Frage "warum wirkt sich Lärm im Haus negativ auf die Intelligenz der Kinder aus?" kann in diesem Fall nur von Personengruppen mit entsprechendem Fachwissen, wie zum Beispiel Psychologen, erklärt werden.

Zur Beurteilung der Hypothesen wären im Grunde Experimente nötig, bei denen ein Faktor experimentell festgelegt wird (z. B. der Lärm im Haus) und der andere Faktor gemessen wird (z. B. Intelligenz der Kinder). Solche Experimente würden mithilfe der Regressionsanalyse oder Varianzanalyse evaluiert. Eine Regression dagegen beschreibt den Zusammenhang, kann ihn aber nicht erklären. Entsprechende Experimente sind allerdings oft aus pragmatischen Gründen nicht durchführbar:

  • zu lange Dauer,
  • zu hohe Kosten,
  • unethisch.

Aufgrund ihres Fokus auf den Menschen sind für viele sozialwissenschaftliche und medizinische Fragestellungen nur korrelative Studien ethisch rechtfertigbar. Um Korrelationsergebnisse als kausal interpretieren zu können, sind weitere Untersuchungen erforderlich (dabei können z. B. langzeitige Zusammenhänge hilfreich sein). Teilweise werden korrelative Studien fälschlicherweise wie Experimente interpretiert.

Mathematische Darstellung

Im Gegensatz zur Proportionalität ist die Korrelation nur ein statistischer Zusammenhang. Häufig wird der lineare oder monotone Zusammenhang zweier Variablen bestimmt. Das bedeutet in diesen Fällen, dass die Korrelation zwischen X und Y dieselbe ist wie zwischen Z = c + t*X und Y für t>0. [1] Aus dieser Eigenschaft folgt, dass bei einer unterstellten Beziehung zwischen X und Y in der Form Y = a + b*X (b>0) die Korrelation zwischen X und Y identisch ist mit Korrelation von Y und 2*X. Das bedeutet, dass selbst bei Kenntnis der Korrelation, ohne die Kenntnis der Parameter a und b keine Prognose von Y möglich ist. Die Parameter für den unterstellten linearen Zusammenhang können mittels einer Linearen Regression bestimmt werden.

Die Verwechslung von Korrelation und direktem Kausalzusammenhang wird dadurch gefördert, dass bei Berechnung der Korrelationskoeffizienten r nach Pearson und bei der linearen Regression mit einer unabhängigen Variablen mathematisch ganz ähnliche Verfahren zum Tragen kommen. In Regressionsanalysen wird das Bestimmtheitsmaß R2 angegeben und ist gleich dem quadrierten Korrelationskoeffizienten r2 und beschreibt die erklärte Varianz des einfachen Regressionsmodells. Dies fördert die falsche Vermutung, die beiden Verfahren mit ihren jeweiligen Interpretationsmöglichkeiten seien austauschbar. Die Korrelation beschreibt die Stärke des Zusammenhangs, während die Regression die Art des Zusammenhangs spiegelt.

Für die Korrelation zufälliger Größen (exakter: Zufallsvariablen) siehe Korrelationskoeffizient.

Technische Anwendung

In der Physik, Elektrotechnik und allgemeinen Signalverarbeitung ist die Korrelation von großer Bedeutung. Angewendet auf eine beliebige Funktion mit einer gewünschten zweiten Funktion, ist sie allgemein betrachtet stets ein Maß dafür, wie ähnlich sich die zu untersuchenden Funktionen sind.

Die Funktionen können grundsätzlich kontinuierlich (bzw. stetig) oder diskret (Abtastwerte) sein. Beispiele hierfür können Funktionen über die Zeit oder über den Ort sein. Zeitfunktionen sind bei der zeitlichen Signalverarbeitung relevant. Funktionen über eine Ortsvariable sind vor allem bei der Bildverarbeitung von Bedeutung. Signale, wie sie in der Natur vorkommen, können als Funktionen abgebildet oder interpretiert werden.

Signalverarbeitung

Bei Zeitfunktionen werden beispielsweise empfangene elektromagnetische Wellen mit den gesendeten elektromagnetischen Wellen korreliert. Hierbei werden zeitliche Signalfolgen (über die Zeitvariable t) korreliert, wobei das Wellenspektrum dabei beliebig sein kann. Ein Beispiel ist die Verarbeitung von Radarsignalen. Hier wird z. B. das empfangene Radarecho mit dem gesendeten Radarsignal korreliert bzw. verglichen, um zu sehen, ob es sich um das eigene oder ein fremdes Radarecho handelt (z. B. im militärischen Bereich). Ein ähnliches Beispiel ist die Erkennung von Mikrowellensignalen bzw. Signalfolgen, z. B. bei Mobiltelefonen und anderen Geräten mit drahtloser Kommunikation.

Die Korrelation der zeitbasierten Signale bzw. Informationen werden häufig hardware- oder softwaremäßig auf der jeweiligen Elektronik (z. B. FPGA, Signalprozessor) realisiert. Ein entscheidender Faktor für die Rechengeschwindigkeit ist die jeweilige Zeitbasis. Je feiner bzw. genauer die Zeiteinheiten sind, desto größer ist der Rechenaufwand.

Bildverarbeitung

Die Korrelation ist gerade bei der Bildverarbeitung ein- oder mehrdimensionaler Daten bzw. Bilder von großer Bedeutung. Bei der Bildverarbeitung wird jedoch der Zeitfaktor (z. B. t) durch eine Ortsvariable (z. B. x) einfach ersetzt. Das Bild wird als Signalfolge über den Ort interpretiert. Anders als bei Zeitfunktionen liegen bei Bildern nicht eine Zeitbasis sondern Bildpunkte vor, die sogenannten Ortsfrequenzen. Die Ortsfrequenzen sind gewissermaßen die Auflösung des Bildes. Bei der Korrelation zweidimensionaler Bilder sind entsprechend zwei statt einer Ortsvariablen anzusetzen. Bei der Bildverarbeitung kann dann beispielsweise mittels Autokorrelation festgestellt werden, ob oder wo sich ein bestimmtes Objekt in einem Bild befindet. Das heißt, dass Objekterkennung möglich ist.

Im Gegensatz zur Korrelation von eindimensionalen zeitlichen Signalfolgen erfordert die Korrelation zweidimensionaler Signalfolgen (Familienfoto, Objekterkennung) einen ungleich höheren zeitlichen Berechnungsaufwand. Je nach Auflösung des Bildes sind entweder Sekunden, Stunden oder auch Tage nötig. Bei herkömmlichen Computern stellt dies ein großes Problem dar, wenn die Korrelation in Echtzeit erfolgen muss.

Daher bietet sich gerade für die Bildverarbeitung von Bildern mit hoher Auflösung (z. B. 50 × 50 Millionen • Millionen Bildpunkten) der Einsatz von sog. optischen Rechnern an, welche die Vorzüge der Fourieroptik anwenden. Die Rechengeschwindigkeit eines optischen Rechners ist äußerst hoch und erfolgt quasi in Echtzeit. Dabei ist bei dieser Implementierung die Rechengeschwindigkeit unabhängig von der erforderlichen Bildauflösung. Die Bildauflösung selbst ist nur durch die Beugungsbegrenzung eingeschränkt. Die Rechengeschwindigkeit berechnet sich aus der Lichtgeschwindigkeit multipliziert mit der tatsächlichen Baulänge des optischen Rechners und der Berücksichtigung der Verarbeitungsgeschwindigkeiten der ggf. erforderlichen Ein- und Ausgabeelektronik.

Eine Anwendung der Korrelation von Bildern ist beispielsweise die Erkennung von bestimmten Objekten oder Strukturen. Strukturen können hierbei sein: Das Muster eines Schüttguts (Größe oder Form), das Karomuster einer Tischdecke, Krebszellen, funktionelle oder nicht funktionelle Blutkörperchen. Diese Anwendung ist sehr interessant, wenn die Aufgabenstellung die Erkennung oder Sortierung von Objekten ist (gut oder schlecht bzw. Größe). Interessant wäre der Nachweis von Manipulation, wie bei gefälschten Geldscheinen.

Weiterhin können Bilder unter Zuhilfenahme der Korrelation selbst verändert werden, indem bestimmte Strukturen (Oberwellen) ausgefiltert werden. Beispiel: Befreiung der Aufnahme eines Fernsehbildschirms von dessen Bildpunkten, um ein glattes Bild zu erhalten. Um die Bildinformation der Bildschirmmaske zu entfernen, werden lediglich alle Frequenzanteile ausgefiltert, welche die Bildpunkte ausmachen. Übrig bleibt ein Bild ohne Bildpunkte. Eine nachträgliche Analyse gibt Aufschluss darüber, welche Frequenzanteile fehlen.

Eine weitere Anwendung wäre die Erhöhung oder Verminderung der Auflösung eines Bildes – allerdings nur bis zu der Auflösung, die das optische Aufnahmesystem physikalisch erzeugen konnte.

Quantitative Beschreibung

Hier sollen die Zusammenhänge aus Sicht der Signalverarbeitung/Signalanalyse mit zeitkontinuierlichen Signalen beschrieben werden.

Das Korrelationsintegral

Die Korrelation ist mathematisch durch das Korrelationsintegral für Zeitfunktionen beschrieben:


\rho(\tau)= K\int_{-\infty}^\infty x(t) m(t + \tau) {\rm d}t

Für komplexe Zeitfunktionen gilt:


\rho(\tau)= K\int_{-\infty}^\infty x(t) m^*(t + \tau) {\rm d}t

Der Wert K und die Integralgrenzen müssen den entsprechenden Funktionen angepasst werden:


K = \begin{cases}1            & \text{bei aperiodischen Signalen} \\ \frac{1}{2T} & \text{bei periodischen Signalen, die Integralgrenzen verlaufen dann von } -T \text{ bis } T \\ \lim \limits_{T \to \infty} \frac{1}{2T} & \text{bei Zufallssignalen} \end{cases}

x(t) ist die zu analysierende Funktion, m(t) ist die Musterfunktion.

Musterfunktion m(t)

m(t) kann jede beliebige Musterfunktion sein. Sie sollte jedoch sinnvoll angepasst werden.

Das Korrelationsintegral geht je nach Musterfunktion m(t) über in andere Signaltransformationen:

Korrelationsfaktor als Maß für die Ähnlichkeit zweier Signale

Die Ähnlichkeit zweier Signale wird zunächst anhand zweier reellwertiger Energiesignale beschrieben, anschließend anhand zweier reellwertiger Leistungssignale. Die komplexwertigen Signale werden hier nicht weiter behandelt.

Die Signalenergie Es eines reellwertigen Signals s berechnet sich bekanntermaßen zu


E_s=\int_{-\infty}^\infty s^2(t) {\rm d}t.

Betrachtet man zusammengesetzte Signale s(t) = x(t) + y(t), so führt das auf die Gleichung


\begin{align}
  E_s&= \int_{-\infty}^\infty s^2(t) {\rm d}t\\
     &= \int_{-\infty}^\infty (x(t) + y(t))^2 {\rm d}t\\
     &= \underbrace{\int_{-\infty}^\infty x^2(t) {\rm d}t}_{E_x}
      + \underbrace{\int_{-\infty}^\infty y^2(t) {\rm d}t}_{E_y}
      + \underbrace{2\int_{-\infty}^\infty x(t) y(t) {\rm d}t}_{2 E_{xy}}.
\end{align}

Ex ist die Energie von x, und Ey ist die Energie von y. Die Größe Exy heißt Kreuzenergie. Sie kann positiv, negativ oder null sein.

Es ist zweckmäßig, die Kreuzenergie mit den Signalenergien über die Gleichung


E_{xy} = \rho\sqrt{E_x E_y}

in Beziehung zu setzen.

Der Faktor ρ ist der Korrelationsfaktor, auch Korrelationskoeffizient genannt. Für ihn gilt stets: \rho^2 \le 1, was mit Hilfe der Cauchy-Schwarzschen Ungleichung aus der Analysis bewiesen werden kann.

Die Energie des Gesamtsignals hängt nach den eben gemachten Ausführungen von der Signalenergie von x, der Signalenergie von y und dem Korrelationsfaktor ρ ab.

Der Korrelationsfaktor hat den Wert ρ = 1, wenn man das Signal x(t) mit dem Signal y(t) = | k | x(t) korreliert. Man nennt das Signal in diesem Fall gleichläufig. Die Signalenergie des Gesamtsignals ist maximal.

Der Korrelationsfaktor hat den Wert ρ = − 1, wenn man das Signal x(t) mit dem Signal y(t) = − | k | x(t) korreliert. Man nennt das Signal in diesem Fall gegenläufig. Die Signalenergie des Gesamtsignals ist minimal.

Eine Besonderheit liegt vor, wenn der Korrelationsfaktor den Wert ρ = 0 annimmt. Man nennt beide Signale dann orthogonal (bei Energiesignalen darf man auch sagen: unkorreliert).

Der Korrelationsfaktor ist, wie an den Beispielen klar wird, ein Maß dafür, wie ähnlich sich zwei Signale sind.

Bei Leistungssignalen finden sich ähnliche Zusammenhänge. Für die Signalleistung Ps eines Signals s(t) = x(t) + y(t) ergibt sich


\begin{align}
  P_s &= \lim_{T \to \infty} \frac 1{2T} \int_{-T}^T s^2(t) {\rm d}t\\
      &= \lim_{T \to \infty} \frac 1{2T} \int_{-T}^T (x(t)+y(t))^2 {\rm d}t\\
      &= \underbrace{\lim_{T\to\infty} \frac 1{2T} \int_{-T}^T x^2(t) {\rm d}t}_{P_x}
       + \underbrace{\lim_{T\to\infty} \frac 1{2T} \int_{-T}^T y^2(t) {\rm d}t}_{P_y}
       + \underbrace{2\lim_{T\to\infty} \frac 1{2T}\int_{-T}^T x(t) y(t) {\rm d}t}_{2P_{xy}}.
\end{align}

Hier bestimmt der Kreuzleistungsfaktor \overline{\rho}=\tfrac{P_{xy}}{\sqrt{P_x P_y}} den Grad der Übereinstimmung beider Signale. Für \overline{\rho}=0 nennt man beide Signale orthogonal. Je größer \overline{\rho}^2 ist, umso größer ist die Wahrscheinlichkeit, dass beide Signale etwas miteinander zu tun haben.

Autokorrelationsfunktion

In der Signalverarbeitung nutzt man für verschiedene Anwendungen die Kreuzkorrelationsfunktion eines Signals mit sich selbst, die sogenannte Autokorrelationsfunktion.

Die Autokorrelationsfunktionen beschreiben die Ähnlichkeit eines Signals bzw. einer Zeitfunktion mit sich selbst.

Definition

Die Autokorrelationsfunktion (AKF) eines reellwertigen Leistungssignals berechnet sich zu


\Psi_{xx}(\tau) = \lim \limits_{T \to \infty} {\frac{1}{2T} \int \limits_{-T}^{T} {x(t) \cdot x(t+\tau) {\rm d}t}}
.

Bei Energiesignalen ergibt sich in ähnlicher Weise


\Psi_{xx}^{E} (\tau) = {\int \limits_{-\infty}^{\infty} {x(t) \cdot x(t+\tau) {\rm d}t}}
.

Bei komplexwertigen Signalen ergibt sich:


\underline{\Psi}_{xx} (\tau) = \lim \limits_{T \to \infty} {\frac{1}{2T} \int \limits_{-T}^{T} {\underline{x}(t) \cdot \underline{x}^{*}(t+\tau) {\rm d}t}}
.

bzw.


{\underline \Psi}_{xx}^{E} = {\int \limits_{-\infty}^{\infty} {\underline{x}(t) \cdot \underline{x}^{*}(t+\tau) {\rm d}t}}
.

wobei der Stern die konjugiert komplexe Zahl bedeutet.

Anwendungen

Korrelationen werden in verschiedenen technischen und wissenschaftlichen Bereichen praktisch untersucht.

Anwendung bei Kapitalanlagen

Der Korrelationsbegriff ist von erheblicher Bedeutung bei Kapitalanlagen. Es gilt: Das Gesamtrisiko des gesamten Portfolios ist umso geringer je geringer die einzelnen Anlagen (Assets) miteinander korrelieren.

Beispiel für positive Korrelation: Besteht ein Portfolio nur aus vielen einzelnen Aktien, so führt der Kursrückgang von Aktie 1 auch zum Wertverlust von Aktie 2 und auch Aktie 3 in einem bestimmten Verhältnis. Besteht das Portfolio jeweils zur Hälfte aus Aktien und Renten, so ist der Verlust geringer, da nur eine geringfügige Korrelation Aktien-Renten besteht.

Allerdings gibt es auch (negative) Korrelationen, wenn auch geringere, bezüglich Aktie-Rente. Ist der Aktienmarkt schwach, so wird tendenziell in Renten investiert (Kapitalflucht in den sicheren Hafen). Die Rentenkurse steigen. Dies fängt jedoch nicht den Komplettverlust im Aktienbereich auf. Daher ist es sinnvoll noch in weitere Anlagen zu diversifizieren als nur in Renten und Aktien (siehe auch Diversifikation). Die Risikominderung durch Diversifikation oder Investition in negativ korrelierte Assets bezeichnet man als Hedging. Dem ist allerdings eine natürliche Grenze dadurch gegeben, dass, wenn zwei Assets negativ korreliert sind, ein dritter nicht mit beiden negativ korreliert sein kann, sondern nur mit dem einen negativ in dem Maße, in dem er mit dem anderen positiv korreliert ist.

Die ideale Diversifikation ist so umfassend, dass keine Korrelationen zwischen den einzelnen Assets existieren. Erwirtschaften zudem die einzelnen, nicht korrelierenden Assets noch eine maximale Rendite, so ergibt sich das ideale, jedoch in Realität nie existierende Portfolio.

Reduktion der Korrelation des Gesamtportfolios im Verhältnis zu seinen Einzelanlagen, verbessert nach dem Markowitz-Modell das Rendite-Risiko-Verhältnis. Auf langfristiger Basis wird damit prinzipiell eine höhere Rendite bei geringerem Risiko erzielt (siehe auch Portfoliotheorie).

Die Korrelation macht in erster Linie Aussagen über die Richtung des Verlaufs von Aktien und Index, nicht jedoch über das Ausmaß der jeweiligen Veränderung. Aus einer positiven Korrelation von 0,8 lässt sich beispielsweise nicht erkennen, um wie viel der Aktienkurs bei einem 3-%-Anstieg des DAX steigt. Auch besagt die Korrelation nicht ob der DAX auf die Aktie wirkt, oder die Aktie auf den DAX. Für die Analyse von Wertpapieren hat sich das Capital Asset Pricing Model entwickelt, dort kommt der Betafaktor als wichtige Kennzahl ins Spiel.

Anwendung in der Softwaretechnik

Ein Korrelationstest bezeichnet in der Softwaretechnik ein Verfahren, in dem nicht nur einzelne Parameter einer Funktion auf Plausibilität (zum Beispiel in Datentyp oder Wertebereich) geprüft werden, sondern auch Kombinationen dieser Parameter berücksichtigt werden. Es ist möglich, dass zwar jeder Parameter für sich einen gültigen Wert besitzt, diese in Kombination jedoch ein fehlerhaftes Verhalten der zu testenden Funktion hervorrufen, nämlich wenn diese Parameter durch die Funktion korreliert werden.

Beispiel: Ein rechteckiges Objekt soll auf dem Bildschirm dargestellt werden. Hierzu existiert eine Funktion, die in den Parametern X,Y,SX,SY die Dimension des Rechtecks entgegennimmt.

  • Parameter X gibt die X-Position der linken oberen Ecke an. Es muss geprüft werden, ob X im gültigen Anzeigebereich liegt.
  • Parameter SX gibt die X-Kantenlänge (Breite des Rechteckes) an. Hier muss zunächst geprüft werden, ob SX die zulässige Anzeigebreite nicht überschreitet.
  • Bei einem Korrelationstest wird nun zusätzlich geprüft ob, X + SX im gültigen Wertebereich liegt.

Anwendung in der Bildverarbeitung

In der Bildverarbeitung nutzt man Korrelationsfunktionen unter anderem zur genauen Lokalisierung eines Musters (der Musterfunktion im Sinne der mathematischen Korrelation) in einem Bild. Dieses Verfahren kann z. B. zur Auswertung von Stereobildpaaren verwendet werden. Um die räumliche Koordinate eines Punktes berechnen zu können muss eine eindeutige Zuordnung von Objekten im linken Bild zu den Objekten im rechten Bild existieren. Dazu nimmt man einen kleinen Ausschnitt aus dem einen Bild – das Muster – und korreliert ihn zweidimensional mit dem anderen Bild. Die so erhaltenen Koordinaten eines Objektpunktes oder -merkmals im linken und rechten Bild kann man mit Methoden der Photogrammetrie in räumliche Koordinaten umwandeln.

Vier Fotos.

Die Fotos der Bildfolge links zeigen eine junge Frau, ihr Negativbild, Nietzsche und ein zufälliges Rauschmuster.

Um zu testen, ob das Foto der jungen Frau auch in den verrauschten Bildern wiederzufinden ist, wurden alle vier Bilder zunächst mit einem weißen Gaußschen Rauschen überlagert und dann mit ihrem Foto (erstes Foto der Bildfolge) korreliert.

Korrelationsbilder (siehe Text).

Das Ergebnis sieht man in der Bildzusammenstellung rechts. Undeutlich zu erkennen sind die Ausgangsbilder. Rechts neben ihnen stehen die Korrelationsrechnungen.

Das Korrelationsbild von Nietzsche zeigt wenig Übereinstimmungen mit dem der jungen Frau, das Rauschmusterbild fast gar keine. Gut zu erkennen ist die positive und negative Korrelation mit den Bildern, die die Frau und ihr Negativ zeigen.

Das Bild-Beispiel stammt aus dem Artikel CDMA, wo es Anwendungen der Korrelationsrechnung bei der Signalanalyse veranschaulicht.

Im weiteren Sinn basieren sog. optische Rechner (Fourier Optik, 4f) auf der Korrelation. Die auch als Fourier-Korrelatoren bezeichneten Systeme korrelieren Bilder mit Hilfe von Hologrammen. Durch eine 4f-Optik lässt sich die Korrelation im Frequenzraum durch einen rein physikalischen Prozess mit nahezu Lichtgeschwindigkeit erzielen. Notwendig ist eine optische Bank mit entsprechendem Linsensystem und Fourierlinse.

Anwendung in der Tonverarbeitung

Die Korrelation beschreibt bei der Stereofonie die Ähnlichkeit von Signalen. Der normierte Korrelationsfaktor oder Korrelationskoeffizient ist ein Ähnlichkeitsmaß zweier Signale und berechnet sich vereinfacht aus dem möglichst großen Zeitintegral der Amplitudendifferenz dieser beiden Signale. Er wird angenähert von Korrelationsgradmessern angezeigt, wobei diese in der Praxis allerdings nur einen Phasenbezug mit einer sehr kleinen Integrationszeit unter einer Sekunde untersuchen.
Als Messgerät wird in der Tontechnik der Korrelationsgradmesser oder das Goniometer verwendet.

Anwendung in der Mehrkanal-Signalübertragung

In der Nachrichtentechnik werden aus ökonomischen Gründen Verfahren eingesetzt, eine Vielzahl von untereinander unabhängigen Signalen (z. B. die Telefonsignale vieler Teilnehmer oder die Bild- und Tonsignale vieler Fernseh- oder Tonrundfunksender) über das gleiche Übertragungsmedium (Draht, Kabel, Funkstrecken, Lichtwellenleiter) zu übertragen. Um solche Kanalbündel nach der Übertragung, also auf der Empfängerseite, wieder störungsfrei „entbündeln“ zu können, müssen die Einzelsignale „unterscheidbar“ sein. Das bedeutet, dass die senderseitig zu einem Bündel zusammengefassten Einzelsignale untereinander (jedes mit jedem) orthogonal sein müssen. Diese Orthogonalitätsbedingung ist in zwei Fällen trivial erfüllt, nämlich dann, wenn die einzelnen Signale sich spektral oder zeitlich nicht überlappen. In diesem Fall ist bereits das Produkt der Spektren der Einzelsignale oder das Produkt der Zeitfunktionen der Einzelsignale jeweils gleich Null, das Korrelationsintegral daher ebenfalls. Die deshalb auch technisch einfache Realisierung dieser beiden Fälle sind das Frequenzmultiplex- und das Zeitmultiplexverfahren. Mit modernen mikroelektronischen Technologien ist es nun aber auch möglich geworden, orthogonale Signale zu (de)multiplexen, die sich sowohl spektral als auch zeitlich gegenseitig überdecken (Codemultiplextechnik). Hier muss empfängerseitig tatsächlich die Korrelationsfunktion ermittelt werden. Das erfolgt in der Regel durch den Einsatz eines Optimalfilters.

Anwendung beim Signalempfang

Bei jeder Art von Signalübertragung treten Störungen verschiedener Art auf, mindestens aufgrund des thermischen Rauschens von Elektronen oder Photonen, die zur elektrischen oder optischen Signalübertragung notwendig sind. Auf der Empfängerseite entsteht also das Problem, das Signal mit einer maximalen Sicherheit vom Störsignal zu trennen. Das gelingt theoretisch umso besser, je mehr beim Empfänger über das Sendesignal bekannt ist (etwa über den Zeitverlauf eines gesendeten Radarsignals). In diesem Fall ist der Korrelationsempfang, d. h. die empfängerseitige Korrelation des ankommenden gestörten Signals mit einem Muster des Sendesignals die theoretisch optimale Lösung der Empfängerrealisierung. Genau dieses Prinzip wird nicht nur in der Technik, sondern auch in der Natur angewendet bei der Ultraschallortung der Fledermäuse.

Siehe auch

Einzelnachweise

  1. www.statistik.lmu.de

Literatur

  • David G. Myers: Psychologie, Springer, 2. Auflage, ISBN 3540213589, Seiten 30-35

Weblinks

Wiktionary Wiktionary: Korrelation – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen

Wikimedia Foundation.

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Korrelation — (neulat.), Wechselbeziehung; in der Grammatik Beziehung von zwei Wörtern oder Sätzen auseinander, so daß das eine Wort die Frage, das andre die Antwort, der eine Satz wiederum die Frage oder den Satz, der andre die Antwort oder die Vergleichung… …   Meyers Großes Konversations-Lexikon

  • Korrelation — Korrelation,die:⇨Wechselbeziehung KorrelationWechselbeziehung,Wechselverhältnis,Wechselwirkung,Aufeinanderbezogensein,Verbindung,Wechselseitigkeit,Gegenseitigkeit …   Das Wörterbuch der Synonyme

  • korrelation — • korrelation, beroende, reciprocitet, ömsesidighet, växelverkan …   Svensk synonymlexikon

  • Korrelation — Zusammenhang; Aufeinanderbezogensein; Wechselbeziehung * * * Kor|re|la|ti|on 〈f. 20〉 1. wechselseitige Beziehung, Wechselbeziehung 2. 〈Biol.〉 gegenseitige Einwirkung aller Bestandteile eines Organismus aufeinander u. die Bedingtheit aller… …   Universal-Lexikon

  • Korrelation — Kor·re·la·ti·on [ tsi̯oːn] die; , en; eine Korrelation (mit / zu etwas); eine Korrelation (zwischen etwas (Dat) und etwas (Dat) / zwischen etwas (Dat Pl)) geschr; der Zusammenhang und die (Wechsel)Beziehung zwischen mehreren Faktoren, besonders… …   Langenscheidt Großwörterbuch Deutsch als Fremdsprache

  • Korrelation — koreliacija statusas T sritis automatika atitikmenys: angl. correlation vok. Korrelation, f rus. корреляция, f pranc. corrélation, f …   Automatikos terminų žodynas

  • Korrelation — koreliacija statusas T sritis Standartizacija ir metrologija apibrėžtis Dviejų atsitiktinių kintamųjų dydžių tarpusavio priklausomybės matas, lygus jų nuokrypių nuo jų vidurkių sandaugos statistiniam vidurkiui. atitikmenys: angl. correlation vok …   Penkiakalbis aiškinamasis metrologijos terminų žodynas

  • Korrelation — koreliacija statusas T sritis Standartizacija ir metrologija apibrėžtis Dviejų dydžių tarpusavio priklausomybės statistinis įvertinimas. atitikmenys: angl. correlation vok. Korrelation, f rus. корреляция, f pranc. corrélation, f …   Penkiakalbis aiškinamasis metrologijos terminų žodynas

  • Korrelation — koreliacija statusas T sritis fizika atitikmenys: angl. correlation vok. Korrelation, f rus. корреляция, f pranc. corrélation, f …   Fizikos terminų žodynas

  • Korrelation — koreliacija statusas T sritis ekologija ir aplinkotyra apibrėžtis Ekosistemos ar kitų sistemų sudedamųjų dalių tarpusavio priklausomybė, sąveika. atitikmenys: angl. correlation vok. Korrelation, f rus. зависимость, f; корреляция, f; соотношение,… …   Ekologijos terminų aiškinamasis žodynas

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”