Kovarianter Tensor


Kovarianter Tensor
Dieser Artikel erläutert den mathematischen Begriff Tensor, die Muskeln werden unter Musculus tensor fasciae antebrachii, Musculus tensor fasciae latae, Musculus tensor tympani und Musculus tensor veli palatini erläutert.

Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Mathematik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Mathematik auf ein akzeptables Niveau zu bringen. Dabei werden Artikel gelöscht, die nicht signifikant verbessert werden können. Bitte hilf mit, die Mängel dieses Artikels zu beseitigen, und beteilige dich bitte an der Diskussion!

Als Tensor bezeichnet man eine Verallgemeinerung des Vektorbegriffs in der Differentialgeometrie und der Physik.

In der Physik tauchen Vektoren und Matrizen vor allem als Darstellungen linearer Abbildungen auf (z. B. das Trägheitsmoment). Dies hat zur Folge, dass sich die Darstellungen dieser Größen bei einer Koordinatentransformation in charakteristischer Weise ändern. Mehrdimensionale 'Matrizen' mit entsprechendem Transformationsverhalten werden als Tensoren bezeichnet.

In der Mathematik wird der Begriff allgemeiner über das Tensorprodukt von Moduln und Algebren definiert.

Inhaltsverzeichnis

Einleitung

Wort- und Begriffsgeschichte

Das Wort Tensor (lat. tendo: ich spanne) wurde in den 1840er Jahren von Hamilton in die Mathematik eingeführt; er bezeichnete damit den Absolutbetrag seiner Quaternionen, also noch keinen Tensor im modernen Sinn.

Maxwell scheint den Spannungstensor, den er aus der Elastizitätstheorie in die Elektrodynamik übertrug, selbst noch nicht so genannt zu haben.

In seiner modernen Bedeutung, als Verallgemeinerung von Skalar, Vektor, Matrix, wird das Wort Tensor erstmals von Woldemar Voigt in seinem Buch Die fundamentalen physikalischen Eigenschaften der Krystalle in elementarer Darstellung (Leipzig, 1898) eingeführt.

Unter dem Titel absolute Differentialgeometrie entwickelten Gregorio Ricci-Curbastro und dessen Schüler Tullio Levi-Civita um 1890 die Tensorrechnung auf riemannschen Mannigfaltigkeiten; einem größeren Fachpublikum machten sie ihre Ergebnisse 1900 mit dem Buch Calcolo differenziale assoluto zugänglich, das bald in andere Sprachen übersetzt wurde, und aus dem sich Einstein unter großer Mühe die mathematischen Grundlagen aneignete, die er zur Formulierung der allgemeinen Relativitätstheorie benötigte. Einstein selbst prägte 1916 den Begriff Tensoranalysis und trug mit seiner Theorie maßgeblich dazu bei, den Tensorkalkül bekannt zu machen; er führte überdies die einsteinsche Summenkonvention ein, nach der über doppelt auftretende Indizes stillschweigend summiert wird.

Tensoren in der Physik

Einführung

Viele physikalische Gesetze sind Proportionalitäten. Beispielsweise bewirkt eine an einem Körper angreifende Kraft eine Geschwindigkeitsänderung, die der Größe der Kraft proportional ist:

\vec F=m\cdot\dot{\vec v}.

Diese Gleichung besagt zudem, dass die Richtung der Kraft auch die Richtung der Beschleunigung angibt. Derselbe Proportionalitätsfaktor, die Masse m, taucht auch in der Formel für die Bewegungsenergie

E_\mathrm{kin}=\frac12\cdot m\cdot v^2

auf.

Es gibt jedoch Zusammenhänge, die sich nicht in dieser Weise beschreiben lassen, weil die zugehörigen Proportionalitätsfaktoren von der Richtung der beteiligten vektoriellen Größen abhängen. Ein Beispiel liefern Drehbewegungen: Greift an einem rotierenden Körper ein Drehmoment an, so bewirkt es eine Änderung der Winkelgeschwindigkeit, und eine Verdoppelung des Drehmomentes verdoppelt auch diesen Effekt. Es gilt also

\vec M=J\cdot \dot{\vec\omega}

mit einem Proportionalitätsfaktor J, der je nach Richtung von \dot{\vec\omega} unterschiedlich sein kann, so dass die Richtungen von \vec M und \dot{\vec\omega} nicht übereinstimmen müssen. Die Rotationsenergie lässt sich ebenfalls mit einem richtungsabhängigen Faktor J als

E_\mathrm{rot}=\frac{1}{2}\cdot\vec\omega^T\cdot J\cdot\vec\omega

darstellen.

Diese Richtungsabhängigkeit bedeutet, dass das Trägheitsmoment J eine tensorielle Größe ist, genauer ein Tensor zweiter Stufe, der Trägheitstensor. „Stufe zwei“ besagt dabei, dass zwei Vektoren beteiligt sind, in der ersten Formel wird über den Trägheitstensor J der Vektor \dot{\vec\omega} auf den Vektor \vec M abgebildet (lineare Abbildung), in der zweiten Energieformel tritt der Tensor als Bestandteil einer Bilinearform auf, die dem Drehimpuls-Vektor \vec\omega einen Skalar zuordnet (die Energie). Tensoren der zweiten Stufe können also grob gesagt aus Vektoren wieder Vektoren machen oder aus Paaren von Vektoren Zahlen. Mathematisch entspricht das einer linearen Abbildung bzw. einer Bilinearform, die sich beide durch eine 3\times3-Matrix beschreiben lassen. Rechnerisch ist ein Tensor zweiter Stufe also nichts anderes als eine (quadratische) Matrix. Durch Hauptachsentransformation der Matrix lassen sich die Haupt-Trägheitsmomente bestimmen (siehe Trägheitsellipsoid).

Tensoren als Verallgemeinerung von Skalar, Vektor und Matrix

Für manche Anwendungen, zum Beispiel in der Elastizitätstheorie und fast überall in den Ingenieurwissenschaften, ist es häufig ausreichend, sich Tensoren als eine Fortsetzung der Reihe Skalar, Vektor, Matrix vorzustellen. Dabei unterscheidet man Tensoren verschiedener Stufen (auch Rang genannt):

  • Ein Tensor nullter Stufe ist eine Zahl, auch Skalar genannt.
  • Ein Tensor erster Stufe wird durch einen Spaltenvektor dargestellt. Im n-dimensionalen Raum hat ein solcher Tensor genau n Koeffizienten.
  • Ein Tensor zweiter Stufe wird durch eine quadratische Matrix dargestellt, also ein Zahlenschema, in dem jeder der n2 Koeffizienten des Tensors durch zwei Indizes bezeichnet ist (Beispiel: Trägheitstensor).
  • Ein Tensor dritter Stufe ließe sich durch eine würfelförmige Anordnung seiner n3 Koeffizienten darstellen, die durch je drei Indizes „adressiert“ werden (Beispiel: der absolut antisymetrische Levi-Civita-Tensor für den 3-dimensionalen Raum).
  • Ein Tensor m-ter Stufe hat dementsprechend nm Koeffizienten, die mit Hilfe von m Indizes auseinandergehalten werden. Dabei ist ein Tensor nur dann vollständig bestimmt, wenn zu jeder möglichen Belegung der Indizes der entsprechende Koeffizient angegeben ist. Man kann dies mit einer Datenbank vergleichen, deren Schlüssel aus den m Indizes besteht und in der für jeden zulässigen Schlüssel ein Wert eingetragen ist.

Ein Tensor n-ter Stufe ist also allgemein eine n-fach indizierte Größe

T=(T_{i_1,i_2,...,i_n})_{i_k=1,\dots,d_k,\;k=1,\dots,n} (siehe auch Indexnotation von Tensoren).

Oft wird der Tensor nur mit dem in Klammern stehenden indexbehafteten Symbol T_{i_1,i_2,...,i_n} bezeichnet.

Jeder Index, beispielsweise i1, durchläuft einen vorbestimmten Wertebereich natürlicher Zahlen, beispielsweise i1 = 1,2,3. Zu jeder möglichen Indexkombination enthält der Tensor eine reelle oder komplexe Zahl. Die indizierte Größe kann sowohl ein Skalar (n = 0), einen Vektor (n = 1) oder eine Matrix (n = 2) darstellen. Insofern handelt es sich um eine Verallgemeinerung der Größen Skalar, Vektor und Matrix.

Es muss aber betont werden, dass für Tensoren ein bestimmtes Transformationsverhalten unter Koordinatentransformationen gefordert wird. Das sind zum Beispiel Drehungen im gewöhnlichen euklidischen Raum oder Lorentz-Transformationen in der Relativitätstheorie. In beiden Fällen lassen die Transformationen eine quadratische Form invariant (die eine Metrik in den zugrundeliegenden Vektorräumen definiert). Man spricht dann auch davon, dass die entsprechenden Tensoren „Darstellungen“ der entsprechenden Gruppen von Transformationen bilden.

Tensor als Tensorprodukt von Vektoren

Als Tensorprodukt wird eine Verknüpfung \otimes zwischen zwei Vektoren v und w der Vektorräume V und W über demselben Körper K definiert. Diese Verknüpfung wird in der üblichen Form zweistelliger Rechenoperationen notiert,

T= v \otimes w.

Die Verknüpfung \otimes kann als Produktoperation interpretiert werden. Die Produktoperation \otimes ist eine bilineare Abbildung. Den Vektoren v und w wird ein Tensorprodukt zugeordnet:

(v,w) \mapsto v \otimes w

Für diese Abbildung ergeben sich direkt aus der Bilinearität die folgenden Regeln:

 (v_1+v_2)\otimes w = v_1\otimes w + v_2\otimes w
 v\otimes(w_1 + w_2) = v\otimes w_1 + v\otimes w_2
 (\lambda v)\otimes w = \lambda\cdot(v\otimes w) = v\otimes(\lambda w)

Dabei sind v1 und v2 jeweils ein beliebiges Element des Vektorraumes V; w1 und w2 sind jeweils ein beliebiges Element des Vektorraumes W; λ ist ein beliebiges Element des Grundkörpers K.

Im Allgemeinen nichts miteinander zu tun haben jedoch

 v\otimes w und w\otimes v,

selbst wenn V = W ist; andernfalls gehören sie sogar unterschiedlichen Vektorräumen an.

Diese Regeln sehen aus wie Distributivgesetze bzw. Assoziativgesetze der Multiplikation; auch daher der Name Tensorprodukt. Damit das Tensorprodukt diese Eigenschaften haben kann, muss der Raum der Tensorprodukte selbst wieder ein Vektorraum sein. Das heißt aber insbesondere, dass beliebige Summen

T=\sum_{j=1}^k v_j\otimes w_j,\qquad k\in\N,\quad v_1,\dots,v_k\in V,\quad w_1,\dots,w_k\in W

in diesem Tensorproduktvektorraum gebildet werden können. Diese stellen die allgemeinste Form eines Tensors 2. Stufe dar, jedoch kann mit den angegebenen Rechenregeln derselbe Tensor durch verschiedene Summen von Tensorprodukten dargestellt werden.

Da die Menge der Tensorprodukte v \otimes w wieder einen Vektorraum über dem Körper K bildet, kann ein Tensor der Form u\otimes(v\otimes w) gebildet werden. u ist dabei ein Vektor aus einem weiteren Vektorraum U über K. Man kann zeigen, dass es auf die Reihenfolge der Produktbildung nicht ankommt, also u\otimes(v\otimes w) = (u\otimes v) \otimes w. Durch Fortsetzung ist es möglich, Tensorprodukte mit beliebig vielen Faktoren zu definieren:

T=v_1\otimes v_2\otimes\dots\otimes v_n,\qquad v_j\in V_j,\quad j=1,\dots,n.

Jeder Tensor kann als Summe reiner Tensorprodukte dargestellt werden, insbesondere als Linearkombination der Tensorprodukte der Basisvektoren,

T=\sum_{j_1\in d_1,\dots,j_n\in d_n} T_{j_1,\dots,j_n}\;e^{(1)}_{j_1}\otimes\dots\otimes e^{(n)}_{j_n}.

Dabei ist (e^{(k)}_{1},e^{(k)}_{2},\dots,e^{(k)}_{d_k}) eine Basis des Vektorraums V(k), aus welchem der k-te Faktor des Tensorproduktes stammt. Fasst man die Koeffizienten dieser Basisdarstellung zu einem mehrfach indizierten Tupel zusammen, so entsteht die obige Tensordarstellung.

Beispielsweise kann man in einem Tensor a\otimes b+c\otimes d die vorkommenden Vektoren in ihren Basen darstellen,

a=a_1e^{(1)}_1+a_2e^{(1)}_2, c=c_1e^{(1)}_1+c_2e^{(1)}_2, sowie
b=b_1e^{(2)}_1+b_2e^{(2)}_2+b_3e^{(2)}_3, d=d_1e^{(2)}_1+d_2e^{(2)}_2+d_3e^{(2)}_3,

und erhält die Basisdarstellung


a\otimes b+c\otimes d=\sum_{j_1=1}^2\sum_{j_2=1}^3(a_{j_1}b_{j_2}+c_{j_1}d_{j_2})\;e^{(1)}_{j_1}\otimes e^{(2)}_{j_2}

Tensoren als multilineare Abbildung

Tensoren T lassen sich als multilineare Abbildungen in einen Vektorraum W interpretieren:

T:V_1^{}\times V_2^{}\times\dots\times V_n^{}\to W mit der Zuordnung
( v_1,\dots,v_n )\mapsto T(v_1,\dots,v_n)

 V_1,\ \dots,\ V_n und W sind jeweils Vektorräume über dem gemeinsamen Körper K (W selbst kann beispielsweise wieder ein Tensorprodukt sein).  v_1,\ \dots,\ v_n seien jeweils beliebige Vektoren aus den entsprechenden Vektorräumen  V_1,\ \dots,\ V_n .

Multilinear bedeutet, dass die Abbildung linear in jedem ihrer Argumente sein muss. Sei i ein Index, der von 1 bis n läuft. xi und yi seien zwei beliebige Vektoren aus dem Vektorraum Vi. λ sei ein beliebiges Element des Körpers K. Dann muss für alle i = 1,...,n gelten:

T(v_1,\dots,x_i+y_i,\dots, v_n)= T(v_1, \dots,x_i, \dots ,v_n)+ T(v_1, \dots ,y_i, \dots ,v_n)\
T(v_1,\dots,\lambda*x_i,\dots, v_n)= \lambda*T(v_1, \dots,x_i, \dots ,v_n)\ .

Der Zusammenhang mit der Definition des Tensors als Tensorprodukt ergibt sich durch folgende Identifikation:

T(v_1,\dots,v_n)=v_1\otimes v_2\otimes\dots\otimes v_n,\qquad v_j\in V_j,\quad j=1,\dots,n.

Koordinaten eines Tensors

Jeder der Vektorräume  V_1, \dots , V_n besitzt eine Basis. Als Basisvektoren der jeweiligen Vektorräume werden  \vec{e}_{i_1}, \dots , \vec{e}_{i_n} bezeichnet. Der erste Index unterscheidet dabei die Basisvektoren des jeweiligen Vektorraums, der Vektorraum selbst wird mit dem zweiten Index gekennzeichnet.  \vec{e}_{k_1} stellt also den k-ten Basisvektor des Vektorraums V1 dar. Der Vektorraum V1 hat eine bestimmte Dimension d, so dass er d Basisvektoren  \vec{e}_{1}, \dots , \vec{e}_{d} \ besitzt. Das gilt entsprechend für alle Vektorräume  V_1,\ \dots ,\ V_n .

Die Koordinaten eines Tensors sind folgendermaßen definiert:

T_{{i_1}, \dots , {i_n}} := T(\vec{e}_{i_1}, \dots , \vec{e}_{i_n})

Handelt es sich bei dem Tensor T um Elemente eines mehrdimensionalen Vektorraums W, so ist nach obiger Definition T(\vec{e}_{i_1}, \dots , \vec{e}_{i_n}) ein Element aus diesem Vektorraum W. T kann wiederum nach den Basisvektoren dieses Vektorraums W entwickelt werden. Dadurch können die Koordinaten als rein skalare Größen dargestellt werden. Die Koordinaten erhalten in dieser Darstellung einen weiteren Index i.

Jeder beliebige Vektor \vec{v}_j des Vektorraums Vj lässt sich als Linearkombination seiner Basisvektoren darstellen, so dass gilt:

\vec{v}_{j} = \sum_{i} v_{i_j}*\vec{e}_{i_j}

Mit vij werden die Koordinaten des Vektors \vec{v}_j bezeichnet. Die Koordinaten des Vektors \vec v sind Skalare aus dem Körper K. Für die Abbildung der Vektoren  {\vec{v}_1, \dots , \vec{v}_n} \ unter dem Tensor T gilt also ganz allgemein:

T(\vec{v}_1, \dots , \vec{v}_n) = \sum_{i_1} \cdots \sum_{i_n} v_{i_1} \cdots v_{i_n} T_{{i_1}, \dots , {i_n}}

Basiswechsel und Koordinatentransformation

Seien { e'_{i_1}, \dots, e'_{i_n} } und { e_{i_1}, \dots, e_{i_n} } jeweils unterschiedliche Basen der Vektorräume  V_1, \dots , V_n \ . Jeder Vektor, also auch jeder Basisvektor { e'_{1_1} } kann als Linearkombination der Basisvektoren { e_{i_1} } dargestellt werden. Der Basisvektor e'_{i_l} werde dargestellt durch:

e'_{i_l} = \sum_{j_l} a_{j_l,i_l} e_{j_l}

Die Größen a_{j_l,i_l} bestimmen also die Basistransformation zwischen den Basen e'_{i_l} und e_{i_l}. Das gilt für alle l=1,\dots, n.

Ferner stelle T(e'_{i_1}, \dots , e'_{i_n}) die Koordinaten T'_{{i_1}, \dots , {i_n}} des Tensors T in der Basis  e'_{i_1}, \dots, e'_{i_n} dar. Dann ergibt sich für das Transformationsverhalten der Tensorkoordinaten:

T'_{{i_1}, \dots ,{i_n}} = \sum_{j_1} \dots \sum_{j_n} a_{j_1, i_1} \dots a_{j_n, i_n} T_{{j_1}, \dots , {j_n}}

Wichtig: Es wird in der Regel zwischen den Koordinatendarstellung des Tensors T'_{{i_1}, \dots ,{i_n}} und den Transformationsmatrizen a_{j_1, i_1}\dots a_{j_n, i_n} unterschieden. Die Transformationsmatrix a_{j_1, i_1}\dots a_{j_n, i_n} ist zwar eine indizierte Größe aber kein Tensor. Im euklidischen Raum sind das Drehmatrizen und in der speziellen Relativitätstheorie z.B. Lorentz-Transformationen, die sich auch als „Drehungen“ in einem vierdimensionalen Minkowskiraum auffassen lassen (man spricht in diesem Fall auch von Vierertensoren und Vierervektoren).

Beispiele von wichtigen Tensoren in der Physik

Das Kronecker-Delta δ ist ein Tensor zweiter Stufe. Es ist ein Element von  \mathbb R^3 \otimes  \mathbb R^3  ; es ist also eine lineare Abbildung  \delta : \mathbb R^3 \times  \mathbb R^3 \to  \mathbb R   . Lineare Abbildungen sind durch die Wirkung auf die Basisvektoren eindeutig bestimmt. So ist das Kronecker-Delta eindeutig durch

\delta(e_i,e_j)=\delta_{ij} = \left\{\begin{matrix}
 1, & \mbox{falls } i=j, \\
 0, & \mbox{falls } i \neq j,
\end{matrix}\right.

bestimmt.

Das Levi-Civita-Symbol  \varepsilon_{i j k} , das zur Berechnung des Kreuzprodukts zwischen Vektoren gebraucht wird, ist ein Tensor dritter Stufe. Es gilt  \varepsilon : \mathbb R^3 \times  \mathbb R^3 \times  \mathbb R^3 \to  \mathbb R   . Man schreibt  \varepsilon(e_i,e_j,e_k) = \varepsilon_{i j k} .

Beide Symbole werden häufig verwendet, um Symmetrieeigenschaften von Tensoren zu untersuchen. Das Kronecker-Delta ist symmetrisch bei Vertauschungen der Indizes, das Levi-Civita-Symbol antisymmetrisch, so dass man mit ihrer Hilfe Tensoren in symmetrische und antisymmetrische Anteile zerlegen kann. In Tensordarstellungen z. B. der Drehgruppe SO(n) erhält man so eine Zerlegung in irreduzible Darstellungen (das heißt Unterräume der Tensorräume, die bei Drehungen in sich transformieren und dabei keine unter Drehungen invariante Unterräume haben).

Ein Beispiel für einen Tensor 2. Stufe ist auch der oben diskutierte Trägheitstensor. In der Elastizitätstheorie verallgemeinert man die Hooke'sche Gleichung über den Zusammenhang zwischen Kräften und zugehörigen Dehnungen und Verzerrungen in einem elastischen Medium ebenfalls mit Hilfe der Tensorrechnung durch Einführung des Verzerrungstensors (der Verzerrungen, Deformationen beschreibt) und Spannungstensors (der die die Deformationen verursachenden Kräfte beschreibt, siehe Kontinuumsmechanik). Der Energie-Impuls-Tensor Tαβ und der elektromagnetische Feldstärketensor Fαβ (als Beispiel eines Feldstärketensors) in der Relativitätstheorie sind Tensoren zweiter Stufe auf der vierdimensionalen Basis der Raumzeit. In der Multipol-Analyse physikalischer Felder ist das Dipolmoment ein Vektor und das Quadrupolmoment ein Tensor 2. Stufe.

In der Allgemeinen Relativitätstheorie werden Differentialgleichungen für den metrischen Tensor aufgestellt, die den riemannschen Krümmungstensor mit dem Energie-Impuls-Tensor in Beziehung setzen. Dabei wird der metrische Tensor als ortsabhängige Funktion betrachtet ("Tensorfeld") und der für die Differentialgeometrie entwickelte Formalismus der Analysis auf Mannigfaltigkeiten verwendet (Tensoranalysis) mit dem grundlegenden Begriff der kovarianten Ableitung.

Siehe auch: Tensordarstellungen der Physik

Kovariante und Kontravariante Tensoren

Die Vektoren eines Vektorraumes V sind "Tensoren der Stufe 1". Ihr Koordinatentupel (x^1,\dots,x^n) bzgl. einer gegebenen Basis (\mathbf{e}_1,\dots,\mathbf{e}_n), n = dimV, wird als kontravarianter Vektor bzw. Tensor bezeichnet.

 \mathbf{v} = x^i \cdot \mathbf{e}_i

Die Koordinaten xi eines kontravarianten Tensors tragen konventionsgemäß einen hochgestellten Index i.

Die Vektoren des dualen Vektorraums V * , d.h. lineare Funktionale, sind ebenfalls Vektoren, das heißt Tensoren der Stufe 1. Koordinaten eines solchen Vektors sind die Werte des Funktionals auf der Basis des Vektorraums. Das Tupel dieser Werte wird als kovariante Vektoren bzw. Tensoren bezeichnet.

 \mathbf{v}^*:V \to K

In vielen Anwendungen ist dabei K der Körper der reellen Zahlen.

Die Basisvektoren des dualen Vektorraums V * seien gegeben durch:

 B^*=(\mathbf{e}^1,\dots\ ,\mathbf{e}^d)

mit der Dualitätsrelation \mathbf{e}^i(\mathbf{e}_j)=\delta^i{}_j mit dem Kronecker-Delta.

Für einen beliebigen Vektor  \mathbf{v}^* des Dualraums gibt es folgende Koordinatendarstellung:

 \mathbf{v}^* = x_i \cdot \mathbf{e}^i

Die Koordinaten  x_i = \mathbf{v}^* (\mathbf{e}_i) eines kovarianten Tensors tragen konventionsgemäß einen tiefgestellten Index i.

Die Vektoren v können mit den Vektoren v** des zugehörigen Bidualraumes V** identifiziert werden. Denn es existiert eine Bijektion zwischen den Elementen des Vektorraums V und des zugehörigen Bidualraums V**. Der Bidualraum umfasst die linearen Abbildungen von v* in K, also

 \mathbf{v} \cong \mathbf{v}^{**}:V^* \to K

Man definiert einen Tensor vom Grad (r, s) als multilineare Abbildung mit r Argumenten v1,...,vr und s Argumenten λ1,...,λs. Die Argumente v1,...,vr sind Elemente eines Vektorraumes V und λ1,...,λs Argumente des zum Vektorraum gehörenden Dualraumes V * .

Der Tensor hat dann die Form

 \begin{matrix}
\underbrace{V\times V\times \dots \times V} \\
r\text{-mal}
\end{matrix}
\begin{matrix}
\times \underbrace{V^* \times V^* \times \dots \times V^*} \rightarrow K \\
s\text{-mal}
\end{matrix}
 (v^1,...,v^r,\lambda_1,...,\lambda_s) \rightarrow T(v^1,...,v^r,\lambda_1,...,\lambda_s)

Die Summe r + s heißt Stufe oder Rang des Tensors.

Je nachdem, ob die Argumente aus einem Vektorraum sind oder aus dessen Dualraum, wird der Tensor als kovariant oder kontravariant bezeichnet. Im obigen Fall liegt ein r-fach kovarianter, s-fach kontravarianter Tensor vor.

In metrischen Vektorräumen (z.B. in den Anwendungen in der Relativitätstheorie) ist durch die Metrik in natürlicher Weise ein dualer Vektorraum gegeben und der Übergang von kontravarianten zu kovarianten Vektoren bzw. Komponenten eines Tensors wird durch den metrischen Tensor \,g_{i j} bewerkstelligt (siehe auch Indexdarstellungen der Relativitätstheorie). Im Fall der allgemeinen Relativitätstheorie ist diese Metrik sogar meist von Punkt zu Punkt verschieden, also eine Funktion des Ortes – man spricht dann von Tensorfeldern \,g_{i j} (x). Man kann dann von ko- zu kontravarianten Vektoren bzw. Koordinaten (und umgekehrt) durch Anwendung des metrischen Tensors übergehen:

\,x_i = g_{i j} x^j

In der Relativitätstheorie verwendet man dabei statt der euklidischen Metrik diejenige des Minkowskiraumes. Noch allgemeinere Metriken (allerdings mit derselben Signatur wie die Minkowski-Metrik) werden in der Allgemeinen Relativitätstheorie verwendet.

Tensoroperationen – Tensorprodukt und Verjüngung

Das oben definierte Produkt zweier Tensoren wird in der Indexdarstellung gebildet, indem die beiden Indextupel in der Reihenfolge ihres Auftretens unter Beibehaltung aller hoch- und Tiefstellungen zum Indextupel eines neuen Tensors aneinandergekoppelt werden. Dabei sind die Indizes beider Tensoren als voneinander verschieden zu betrachten und notieren. Die Komponenten des neuen Tensors ergeben als Produkte der Komponenten der alten Tensoren, deren Indexbelegungen die Indexbelegung der Komponente des neuen Tensors ergeben. Zum Beispiel ist das Produkt von Tensoren Aij und Bijk ein Tensor fünfter Stufe C^i{}_j{}_{i'}{}^{j'}{}_{k'}=A^i{}_j\;B_{i}{}^{j}{}_{k}. Dessen Komponente C21321 ist das Produkt der Komponenten A21 und B321.

Meist wird die von Einstein eingeführte Summationskonvention verwendet: über jeden Index, der in einem Tensorausdruck genau zweimal vorkommt, und zwar einmal als tief- und einmal als hochgestellter Index, wird automatisch summiert. Es ist also

Tijkj

von nun an eine Kurzschreibweise für

\sum_{j=1}^n T_i{}^{jk}{}_j.

Diese Operation heißt Verjüngung des Tensors. Es ist also Aii ein Skalar, welcher die Summe aller Diagonalelemente einer mit A assoziierten Matrix ist, die sogenannte "Spur". Biji ist nicht definiert, Bijj ein Tensor erster Stufe.

Haben in einem Tensorprodukt die aneinanderliegenden äußeren Enden der Indextupel unterschiedliche Stellung, aber gleiche Indexdimension, so können diese im Produkt gleichgesetzt und damit automatisch heraussummiert werden. Diese Kombination aus Produkt und Verjüngung nennt sich Überschieben der Tensoren. Beispielsweise kann Aij Bijk zu einem Tensor dritter Stufe D^i{}^{j'}{}_{k'}=A^i{}^j\,B_{j}{}^{j'}{}_{k'} überschoben werden. Ein Spezialfall ist das Matrix-Matrix-Produkt C^i{}_{k}=A^i{}_{j}\,B^j{}_{k}. Ein Tensor höherer Stufe kann auch mehrfach mit Vektoren überschoben werden, bis alle Indizes aufgebraucht sind, F = BijkCkDjEi ist ein Skalar, der sich aus der Auswertung von B als Multilinearform ergibt.

Tensorbegriff der Mathematik

Unterschiedliche Betrachtungsweisen

In der Physik wird „Tensor“ oft als Abkürzung für Tensorfeld verwendet. Ein Tensorfeld ist eine Abbildung, die jedem Punkt des Raums (allgemeiner: einer Mannigfaltigkeit) einen Tensor zuordnet; jede physikalische Feldtheorie handelt von Tensorfeldern. Das mag im ersten Moment verwirrend erscheinen. Dahinter verbergen sich nur unterschiedliche Blickrichtungen auf die gleichen Objekte, erläutert am Beispiel von Vektorfeldern:

  • In der mathematischen Physik versteht man unter einem glatten Vektorfeld σ über einer glatten Mannigfaltigkeit M einen Schnitt im Tangentialbündel (TM,MM), d.h. eine C^\infty-Abbildung
 \sigma: M \to TM
mit
 \pi_M\circ\sigma = \operatorname{id}_M .
Das ist die abstrakte Form von Bewegungsgleichungen erster Ordnung in der Physik. Hier interessiert man sich für die Existenz und Eigenschaften von Lösungen.
  • In der angewandten Mathematik bzw. in den Ingenieurswissenschaften liegt das Augenmerk weniger auf Existenz und speziellen Eigenschaften, sondern auf der Berechnung von Lösungen. An Stelle einer n-dimensionalen glatten Mannigfaltigkeit M und des Tangentialbündels TM treten die lokalen Koordinatensysteme.
  • Für die Sicht der multilinearen Algebra beschränkt man sich auf die Strukturen in den einzelnen Fasern TxM

Welcher Blickwinkel gerade verwendet wird, ergibt sich aus dem Kontext.

Universaldefinition des Tensorprodukts

Als Tensorprodukt der Vektorräume V und W, d.h. als Vektorraum, in welchem die Tensorprodukte von Vektoren aus V und W „leben“, wird jeder Vektorraum X (über dem gemeinsamen Skalarenkörper von V und W) bezeichnet, zu dem es eine bilineare Abbildung \varphi:V\times W\to X gibt, die die folgende universelle Eigenschaft erfüllt:

Jede weitere bilineare Abbildung B:V\times W\to Y kann auf eindeutiger Weise zu einer linearen Abbildung auf X erweitert werden. Dies heißt exakter, dass es eine einzige lineare Abbildung B':X\to Y gibt, so dass für beliebige Paare von Vektoren gilt
B(v,w) = B'(φ(v,w)).

Gibt es einen solchen Vektorraum, so ist er (bis auf Isomorphie) eindeutig. Es wird X=V\otimes W und \phi(v,w)=v\otimes w notiert. Die universelle Eigenschaft kann also als B(v,w)=B'(v\otimes w) geschrieben werden. Zur Konstruktion solcher Produkträume sei auf den Artikel Tensorprodukt verwiesen.

Tensor als Element des Tensorproduktes

In der Mathematik sind Tensoren Elemente von Tensorprodukten.

Es sei K ein Körper, also beispielsweise K=\mathbb R oder K=\mathbb C, und es seien V_1,V_2,\ldots,V_s Vektorräume über K.

Das Tensorprodukt V_1 \otimes \cdots \otimes V_s von V_1,\ldots,V_s ist ein K-Vektorraum, dessen Elemente Summen von Symbolen der Form

v_1\otimes\cdots\otimes v_s,\quad v_i\in V_i,

sind. Dabei gelten für diese Symbole die folgenden Rechenregeln:

  • v_1\otimes\cdots\otimes(v_i'+v_i'')\otimes\cdots\otimes v_s=(v_1\otimes\cdots\otimes v_i'\otimes\cdots\otimes v_s)+(v_1\otimes\cdots\otimes v_i''\otimes\cdots\otimes v_s)
  • v_1\otimes\cdots\otimes(\lambda v_i)\otimes\cdots\otimes v_s
=\lambda(v_1\otimes\cdots\otimes v_i\otimes\cdots\otimes v_s),\quad\lambda\in K

Die Tensoren der Form v_1\otimes\cdots\otimes v_s heißen elementar. Jeder Tensor lässt sich als Summe von elementaren Tensoren schreiben, aber diese Darstellung ist außer in trivialen Fällen nicht eindeutig, wie man an der ersten der beiden Rechenregeln sieht.

Ist \{e_i^{(1)},\ldots,e_i^{(d_i)}\} eine Basis von Vi (für i=1,\ldots,s; d_i=\dim V_i), so ist

\{e_1^{(j_1)}\otimes\cdots\otimes e_s^{(j_s)}\mid 1\leq i\leq s, 1\leq j_i\leq d_i\}

eine Basis von V_1\otimes\cdots\otimes V_s. Die Dimension von V_1\otimes\cdots\otimes V_s ist also das Produkt der Dimensionen der einzelnen Vektorräume V_1,\ldots,V_s.

Tensorprodukte und Multilinearformen

Der Dualraum von V_1\otimes\cdots\otimes V_s kann mit dem Raum der s-Multilinearformen

V_1\times\cdots\times V_s\to K

identifiziert werden:

  • Ist \lambda\colon V_1\otimes\cdots\otimes V_s\to K eine Linearform auf V_1\otimes\cdots\otimes V_s, so ist die entsprechende Multilinearform
(v_1,\ldots,v_s)\mapsto\lambda(v_1\otimes\cdots\otimes v_s).
  • Ist \mu\colon V_1\times\cdots\times V_s\to K eine s-Multilinearform, so ist die entsprechende Linearform auf V_1\otimes\cdots\otimes V_s definiert durch
\sum_{j=1}^kv_1^{(j)}\otimes\cdots\otimes v_s^{(j)}\mapsto\sum_{j=1}^k\mu(v_1^{(j)},\ldots,v_s^{(j)}).

Sind alle betrachteten Vektorräume endlichdimensional, so kann man

(V_1\otimes\cdots\otimes V_s)^*\quad\mathrm{und}\quad V_1^*\otimes\cdots\otimes V_s^*

miteinander identifizieren, d.h. Elemente von V_1^*\otimes\cdots\otimes V_s^* entsprechen s-Multilinearformen auf V_1\times\cdots\times V_s.

(r,s)-Tensoren

Es sei V ein fester endlichdimensionaler Vektorraum über K.

Elemente von

\begin{matrix}(V^*)^{\otimes r}\otimes V^{\otimes s} &=& \underbrace{V^*\otimes\cdots\otimes V^*}&\otimes&\underbrace{V\otimes\cdots\otimes V}\\&& r && s\end{matrix}

heißen (r,s)-Tensoren oder Tensoren der Stufe (r,s).

Beispielsweise sind (0,0)-Tensoren Skalare, (0,1)-Tensoren Elemente des Vektorraums und (1,0)-Tensoren Linearformen auf V. (1,1)-Tensoren können mit Endomorphismen von V und (2,0)-Tensoren mit Bilinearformen auf V identifiziert werden (siehe unten).

Für (r,s)-Tensoren gibt es drei wichtige Konstruktionen:

  • Einem (r,s)-Tensor kann auf verschiedene Weisen ein (r − 1,s − 1)-Tensor gebildet werden: Für 1\leq i\leq r und 1\leq j\leq s wird einem Tensor
\lambda_1\otimes\cdots\otimes\lambda_i\otimes\cdots\otimes\lambda_r\otimes v_1\otimes\cdots\otimes v_j\otimes\cdots\otimes v_s
der Tensor
\lambda_i(v_j)\cdot(\lambda_1\otimes\cdots\otimes\lambda_{i-1} \otimes\lambda_{i+1}\otimes\cdots\otimes\lambda_r\otimes v_1\otimes\cdots\otimes v_{j-1}\otimes v_{j+1}\otimes\cdots\otimes v_s)
zugeordnet. Dieser Vorgang heißt Tensorverjüngung oder Spurbildung: im Falle von (1,1)-Tensoren entspricht die Abbildung
V^*\otimes V\to K
unter der Identifizierung V^*\otimes V=\mathrm{End}\,V der Spur eines Endomorphismus.
  • Aus einem (r1,s1)-Tensor und einem (r2,s2)-Tensor kann ein (r1 + r2,s1 + s2)-Tensor gebildet werden:
((V^*)^{\otimes r_1}\otimes V^{\otimes s_1})\otimes((V^*)^{\otimes r_2}\otimes V^{\otimes s_2})\cong(V^*)^{\otimes(r_1+r_2)}\otimes V^{\otimes(s_1+s_2)}.
  • Ist auf V ein Skalarprodukt gegeben, so können V und V * miteinander identifiziert werden, es gibt also Entsprechungen zwischen (r,s)-Tensoren und (r + k,sk)-Tensoren.
Beispiel

Es sei g ein (2,0)-Tensor und X,Y\in V zwei Vektoren. Dann ist

g\otimes X\otimes Y

ein (2,2)-Tensor, der durch zweimalige Spurbildung ein Element von K liefert. Da alle diese Konstruktionen multilinear sind, definiert g also eine Bilinearform

V\times V\to K.

(2,0)-Tensoren können also mit Bilinearformen identifiziert werden.

Beispiele

  • Die Determinante von (n\times n)-Matrizen, aufgefasst als alternierende Multilinearform der Spalten, ist ein (n,0)-Tensor.
  • Lineare Abbildungen V\to W zwischen endlichdimensionalen Vektorräumen können als Elemente von V^*\otimes W aufgefasst werden.

In der Differentialgeometrie spielen Tensorfelder eine wichtige Rolle: Ist M eine differenzierbare Mannigfaltigkeit, so ist ein Tensorfeld auf M eine Abbildung, die jedem Punkt einen Tensor zuordnet. Meist werden auch noch gewisse Differenzierbarkeitseigenschaften gefordert.

Beispiele sind:

Siehe auch: Tensoralgebra, äußere Algebra, symmetrische Algebra.

Ko- und Kontravarianz als Eigenschaften von Abbildungen

Sei V ein fester K-Vektorraum und W ein beliebiger weiterer K-Vektorraum. Eine lineare Abbildung  f:W \to V heißt kovariant bezüglich V, eine lineare Abbildung  g:V \to W heißt kontravariant in V.

Eine Quelle der Verwirrung über diese Begriffe ist, dass in der Physik und älteren Lehrbüchern davon gesprochen wird, dass sich die Matrizen dieser Abbildungen ko- bzw. kontravariant unter Basiswechsel transformieren. Jedoch kehren sich dabei die Zuordnungen um – eine kovariante Abbildung hat eine Matrix, die kontravariant bzgl. Basiswechsel ist und umgekehrt.

Grundlegende Beispiele:

  • Ein Vektor  \mathbf{v} \in V ist mit der Abbildung  i:K \to V zu identifizieren, welche K auf die Gerade  x \mapsto x\cdot \mathbf{v} mit der Richtung  \mathbf{v} abbildet. Ein Vektor ist also kovariant.
  • Ein Kovektor  \mathbf{v}^* \in V^* ist als lineares Funktional  \mathbf{v}^*:V \to K definiert, somit ist er kontravariant in V.

Tensorprodukte eines Vektorraums und Symmetrie

Man kann das Tensorprodukt \mathcal T^2V:=V\otimes V eines Vektorraumes V mit sich selbst bilden. Ohne weiteres Wissen über den Vektorraum kann ein Automorphismus des Tensorprodukts definiert werden, der darin besteht, in den reinen Produkten a\otimes b die Faktoren zu vertauschen,

\Pi_{12}(a\otimes b):=b\otimes a.

Das Quadrat dieser Abbildung ist die Identität, woraus folgt, dass es Eigenvektoren zum Eigenwert 1 und zum Eigenwert -1 gibt.

  • Ein w\in V\otimes V, welches Π12(w): = w erfüllt, heißt symmetrisch. Beispiele sind die Elemente
w=a\otimes b:=\frac12(a\otimes b+b\otimes a).
Die Menge aller symmetrischen Tensoren der Stufe 2 wird mit \mathcal S^2V=(1+\Pi_{12})(V\otimes V) bezeichnet.
  • Ein w\in V\otimes V, welches Π12(w): = − w erfüllt, heißt antisymmetrisch oder alternierend. Beispiele sind die Elemente
w=a\wedge b:=\frac12(a\otimes b-b\otimes a).
Die Menge aller antisymmetrischen Tensoren der Stufe 2 wird mit \Lambda^2V:=(1-\Pi_{12})(V\otimes V) bezeichnet.

Mittels \mathcal T^{n+1}V:=V\otimes \mathcal T^nV können Tensorpotenzen von V beliebiger Stufe gebildet werden. Entsprechend können weitere paarweise Vertauschungen definiert werden. Nur sind diese nicht mehr voneinander unabhängig. So lässt sich jede Vertauschung der Stellen j und k auf Vertauschungen mit der ersten Stelle zurückführen.

\Pi_{jk}=\Pi_{1j}\circ\Pi_{1k}\circ\Pi_{1j}

Anwendungen

Tensoren und Tensorfelder werden in verschiedenen Teilgebieten der Mathematik und Physik angewandt. Diese Anwendungen sind von sehr unterschiedlicher Komplexität:

  • in einigen Fällen genügt es, sich Tensoren als eine Verallgemeinerung von Skalar, Vektor, Matrix vorzustellen; in anderen Fällen steht die Invarianz eines Tensors unter Koordinatentransformationen im Vordergrund;
  • in einigen Fällen ist es erforderlich, zwischen ko- und kontravarianten Tensoren zu unterscheiden (mehr dazu unten), in anderen Fällen ist diese Unterscheidung irrelevant.

Man muss deshalb damit rechnen, dass Tensoren in verschiedenen Anwendungsgebieten verschieden definiert, verschieden notiert und verschieden gehandhabt werden.

Wichtige Anwendungsgebiete umfassen:

f(x+h)\approx f(x)+f'(x)(h)+\frac1{2!} f''(x)(h,h)+\frac1{3!} f'''(x)(h, h, h)+\ldots
auftretenden multilinearen Ableitungen f(n)(x) kann man als symmetrische, rein kovariante Tensoren aufsteigender Stufe auffassen.


Literatur

  • Theodor Bröcker: Lineare Algebra und Analytische Geometrie. Birkhäuser, Basel 2004, ISBN 3-7643-2178-4, Kap. VII: Tensorrechnung.
  • R. Abraham, J.E. Marsden, T. Ratiu: Manifolds, Tensor Analysis, and Applications. Second Edition, Springer-Verlag, Berlin, ISBN 3-540-96790-7.
  • Theodore Frankel: The Geometry of Physics -- An Introduction. Cambridge University Press 1997, Cambridge, ISBN 0-521-38334-X
  • Teichmann Physikalische Anwendungen der Vektor- und Tensorrechnung, BI Hochschultaschenbuch
  • Lichnerowicz Einführung in die Tensoranalysis, BI Hochschultaschenbuch 1966

Weblinks


Wikimedia Foundation.

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Tensor — Levi Civita Symbol im Dreidimensionalen als Beispiel eines besonders einfachen dreistufigen Tensors Der Tensor ist ein mathematisches Objekt aus der Algebra und Differentialgeometrie. Der Begriff wurde ursprünglich in der Physik eingeführt und… …   Deutsch Wikipedia

  • Tensor — Tẹn|sor 〈m. 23〉 gerichtete Größe eines mehrdimensionalen Raumes ● Tensor erster Stufe 〈Anat.〉 Spannungsmuskel; →a. Vektor [zu lat. tendere, Perf. tensus „(an)spannen“] * * * Tẹnsor   [zu lateinisch tendere, tensum »spannen«] der, s/... soren,… …   Universal-Lexikon

  • Alternierende Multilinearform — Eine p Multilinearform ω ist in der Mathematik eine Funktion, die p Argumenten aus K Vektorräumen einen Wert zuordnet und in jeder Komponente linear ist. Inhaltsverzeichnis …   Deutsch Wikipedia

  • Linearform — Die Linearform ist ein Begriff aus dem mathematischen Teilgebiet der linearen Algebra. Man bezeichnet damit eine lineare Abbildung von einem Vektorraum V über dem Körper K in ebendiesen Körper K. Eine Linearform ist also ein lineares Funktional:… …   Deutsch Wikipedia

  • Multilinearform — Eine p Multilinearform ω ist in der Mathematik eine Funktion, die p Argumenten aus K Vektorräumen einen Wert zuordnet und in jeder Komponente linear ist. Im allgemeineren Fall, dass der Bildraum selbst ein Vektorraum ist, oder Bild und Zielräume… …   Deutsch Wikipedia

  • Multilineare Algebra — Dieser Artikel erläutert den mathematischen Begriff Tensor, die Muskeln werden unter Musculus tensor fasciae antebrachii, Musculus tensor fasciae latae, Musculus tensor tympani und Musculus tensor veli palatini erläutert. Dieser Artikel wurde auf …   Deutsch Wikipedia

  • Tensorraum — Dieser Artikel erläutert den mathematischen Begriff Tensor, die Muskeln werden unter Musculus tensor fasciae antebrachii, Musculus tensor fasciae latae, Musculus tensor tympani und Musculus tensor veli palatini erläutert. Dieser Artikel wurde auf …   Deutsch Wikipedia

  • Tensorrechnung — Dieser Artikel erläutert den mathematischen Begriff Tensor, die Muskeln werden unter Musculus tensor fasciae antebrachii, Musculus tensor fasciae latae, Musculus tensor tympani und Musculus tensor veli palatini erläutert. Dieser Artikel wurde auf …   Deutsch Wikipedia

  • Indexnotation von Tensoren — Die Indexnotation ist eine Form, Tensoren schriftlich darzustellen, die vor allem in der Physik und gelegentlich auch im mathematischen Teilgebiet der Differentialgeometrie Anwendung findet. In ihrer verbreiteteren Form gibt die Notation… …   Deutsch Wikipedia

  • Einsteinsche Summationskonvention — Die einsteinsche Summenkonvention ist eine Konvention innerhalb des sogenannten Ricci Kalküls und stellt eine Indexschreibweise dar. Dieser Kalkül wird in der Tensoranalysis, der Differentialgeometrie und insbesondere in der theoretischen Physik… …   Deutsch Wikipedia