Tensor


Tensor
Levi-Civita-Symbol im Dreidimensionalen als Beispiel eines besonders einfachen dreistufigen Tensors

Der Tensor ist ein mathematisches Objekt aus der Algebra und Differentialgeometrie. Der Begriff wurde ursprünglich in der Physik eingeführt und erst später mathematisch präzisiert. Auch heute noch ist die Tensoranalysis ein wichtiges Werkzeug in den physikalischen Disziplinen. Ein Tensor ist eine multilineare Abbildung, also eine Abbildung, welche in jeder Variablen linear ist.

Anschaulich, aber mathematisch unpräzise, kann man sich den Tensor als eine mehrdimensionale Matrix vorstellen:

  • Eine Zahl ist ein Tensor 0-ter Stufe.
  • Ein (Spalten-) Vektor ist ein Tensor erster Stufe.
  • Eine Matrix ist ein Tensor zweiter Stufe.
  • Das Levi-Civita-Symbol \epsilon_{i_1,i_2, ..., i_n} im \mathbb R^n ist ein Beispiel für einen Tensor n-ter Stufe.

Beispielsweise ist der mechanische Spannungstensor in der Physik ein Tensor zweiter Stufe - eine Zahl (Stärke der Spannung) oder ein Vektor (eine Hauptspannungsrichtung) reichen nicht immer aus. Eine Matrix M kann als lineare Abbildung aufgefasst werden. So lässt sich der Spannungstensor als Matrix auffassen, die zu einer gegebenen Richtung v die Spannung M\cdot v in dieser Richtung ausrechnet.

Aber nicht alle Größen mit zwei oder mehr Indizes sind Tensoren (deshalb oben die Bemerkung „... unpräzise“).

Inhaltsverzeichnis

Einleitung

Wort- und Begriffsgeschichte

Das Wort Tensor (lat. tendo „ich spanne“) wurde in den 1840er Jahren von Hamilton in die Mathematik eingeführt; er bezeichnete damit den Absolutbetrag seiner Quaternionen, also noch keinen Tensor im modernen Sinn.

Maxwell scheint den Spannungstensor, den er aus der Elastizitätstheorie in die Elektrodynamik übertrug, selbst noch nicht so genannt zu haben.

In seiner modernen Bedeutung, als Verallgemeinerung von Skalar, Vektor, Matrix, wird das Wort Tensor erstmals von Woldemar Voigt in seinem Buch Die fundamentalen physikalischen Eigenschaften der Krystalle in elementarer Darstellung (Leipzig, 1898) eingeführt.

Unter dem Titel absolute Differentialgeometrie entwickelten Gregorio Ricci-Curbastro und dessen Schüler Tullio Levi-Civita um 1890 die Tensorrechnung auf riemannschen Mannigfaltigkeiten; einem größeren Fachpublikum machten sie ihre Ergebnisse 1900 mit dem Buch Calcolo differenziale assoluto zugänglich, das bald in andere Sprachen übersetzt wurde, und aus dem sich Einstein die mathematischen Grundlagen aneignete, die er zur Formulierung der allgemeinen Relativitätstheorie benötigte. Einstein selbst prägte 1916 den Begriff Tensoranalysis und trug mit seiner Theorie maßgeblich dazu bei, den Tensorkalkül bekannt zu machen; er führte überdies die einsteinsche Summenkonvention ein, nach der über doppelt auftretende Indizes unter Weglassung der Summenzeichen summiert wird.

Unterschiedliche Betrachtungsweisen

Der Begriff des Tensors wird sowohl in der Physik als auch in der Mathematik verwendet. In der Mathematik wird dieses Objekt meistens in der Algebra und der Differentialgeometrie betrachtet. Dabei wird eine koordinatenunabhängige Notation bevorzugt, in den Anwendungen wie in der Physik verwendet man dagegen meist die Indexnotation von Tensoren. Weiterhin werden in der Physik häufig Tensorfelder behandelt, die häufig auch einfach als Tensoren bezeichnet werden. Ein Tensorfeld ist eine Abbildung, die jedem Punkt des Raums einen Tensor zuordnet; viele physikalische Feldtheorien handeln von Tensorfeldern.

Einsteinsche Summenkonvention

Insbesondere in der Tensoranalysis (einem Teilgebiet der Differentialgeometrie) und der Physik ist die einsteinsche Summenkonvention beliebt. Sie verkürzt die Schreibweise von Tensoren. Die Konvention besagt, dass Summenzeichen weggelassen werden können und dabei automatisch über Indizes summiert wird, welche einmal oben und einmal unten stehen. Ein einfaches Beispiel ist die Matrixmultiplikation. Seien A,B zwei Matrizen mit den Komponenten Aik und Bkj. Dann lautet die Komponentendarstellung des Matrixproduktes

(A\cdot B)_{ij}=\sum_{k} A_{ik} B_{kj}.

Mit der einsteinschen Summenkonvention schreibt man

{(A\cdot B)^i}_j={A^i}_k {B^k}\!_j.

Ko- und Kontravarianz

Die Begriffe ko- und kontravariant beziehen sich im Zusammenhang mit der Tensorrechnung auf die Koordinatendarstellungen von Vektoren, Linearformen und Tensoren höherer Stufe. Sie beschreiben, wie sich solche Koordinatendarstellungen bezüglich eines Basiswechsels im zugrundeliegenden Vektorraum verhalten.

Legt man in einem n-dimensionalen Vektorraum V eine Basis (e_1,\dots,e_n) fest, so kann jeder Vektor v dieses Raumes durch ein Zahlentupel (x^1,\dots,x^n), seine Koordinaten, gemessen und dargestellt werden, v=e_k\,x^k. Geht man zu einer anderen Basis von V über, so ändert sich der Vektor selbst nicht, aber die Koordinaten der neuen Basis werden andere sein. Genauer: Ist die neue Basis durch e'_j=e_k\,A^k{}_j in der alten Basis bestimmt, so ergeben sich die neuen Koordinaten durch Vergleich in

v=e_k\,x^k=e'_j\,x'^j=e_k\,A^k{}_j\,x'^j

also x^k=A^k{}_j\,x'^j oder

x'\,^j=(A^{-1})^j{}_k\,x^k.

Dreht man zum Beispiel eine orthogonale Basis in einem dreidimensionalen euklidischen Raum V um 30^\circ um die z-Achse, so drehen sich die Koordinatenvektoren im Koordinatenraum \R^3 ebenfalls um die z-Achse, aber in der entgegengesetzten Richtung um -30^\circ.

Dieses der Basistransformation entgegengesetzte Transformationsverhalten nennt man kontravariant. Oft werden Vektoren zur Abkürzung der Notation mit ihren Koordinatenvektoren identifiziert, so dass Vektoren allgemein als kontravariant bezeichnet werden.

Eine Linearform oder Kovektor \alpha\in V^* ist dagegen eine skalarwertige lineare Abbildung \alpha:V\to\mathbb K auf dem Vektorraum. Man kann ihr als Koordinaten ihre Werte auf den Basisvektoren, αk = α(ek), zuordnen. Die Koordinatenvektoren einer Linearform transformieren sich wie das Basistupel als

\alpha'_j=\alpha(e'_j)=\alpha(e_k\,A^k{}_j)=\alpha_k\,A^k{}_j

weshalb man dieses Transformationsverhalten kovariant nennt. Identifiziert man wieder Linearformen mit ihren Koordinatenvektoren, so bezeichnet man auch allgemein Linearformen als kovariant. Hierbei geht, wie bei Vektoren, die zugrundeliegende Basis aus dem Kontext hervor. Man spricht in diesem Kontext auch von Dualvektoren.

Diese Kurzbezeichnung wird auf Tensorprodukte ausgedehnt (Symbol: Tensormultiplikation \otimes ). Faktoren, die Vektorräume sind, nennt man kontravariant, Faktoren, die Dualräume sind, nennt man kovariant.

Definition

(r,s)-Tensorraum

Im Folgenden sind alle Vektorräume endlichdimensional. Mit L(E;K) bezeichne man die Menge aller Linearformen aus dem K-Vektorraum E in den Körper K. Sind E_1, \dots, E_k Vektorräume über K, so werde der Vektorraum der Multilinearformen E_1 \times E_2 \times \dots \times E_k \to K mit L^{k}(E_1,E_2,\dots,E_k;K) bezeichnet.

Ist E ein K-Vektorraum, so wird mit E * sein Dualraum bezeichnet. Dann ist L^{k}(E_1^*,E_2^*,\dots,E_k^*;K) eine Realisierung des Tensorproduktes

E_1\otimes E_2\otimes \dots\otimes E_k.

Setze nun für einen fixierten Vektorraum E mit Dualraum E *

T^r_s(E,K) = L^{r+s}(E^*,\ldots , E^*,E,\ldots, E;K)

mit r Einträgen von E * und s Einträgen von E. Dieser Vektorraum realisiert das Tensorprodukt


\underbrace{E\otimes\dots\otimes E}_{r\text{ Faktoren}}
\otimes
\underbrace{E^*\otimes\dots\otimes E^*}_{s\text{ Faktoren}}

Elemente dieser Menge heißen Tensoren, kontravariant der Stufe r und kovariant der Stufe s. Kurz spricht man von Tensoren vom Typ (r,s). Die Summe r+s heißt Stufe oder Rang des Tensors.

Äußeres Tensorprodukt

Als (äußeres) Tensorprodukt bezeichnet man eine Verknüpfung \otimes zwischen zwei Tensoren. Sei E ein Vektorraum und seien t_1 \in T_{s_1}^{r_1}(E) und t_2 \in T_{s_2}^{r_2}(E) Tensoren. Das (äußere) Tensorprodukt von t1 und t2 ist der Tensor t_1 \otimes t_2 \in T_{s_1+s_2}^{r_1+r_2}(E), welcher durch

\left(t_1 \otimes t_2)(\beta^1, \ldots \beta^{r_1}, \gamma^1, \ldots , \gamma^{r_2},f_1, \ldots , f_{s_1},g_1, \ldots , g_{s_2}\right) := t_1(\beta^1, \ldots , \beta^{r_1}, f_1, \ldots, f_{s_1}) t_2(\gamma^1, \ldots , \gamma^{r_2},g_1, \ldots , g_{s_2})

definiert ist. Hierbei sind die \beta^j, \gamma^j \in E^* und die f_j,g_j \in E.

Beispiele

Im Folgenden seien E und F endlichdimensionale Vektorräume.

  • Die Menge der (0,0)-Tensoren ist isomorph zum zugrunde liegenden Körper K. Sie ordnen keiner Linearform und keinem Vektor ein Körperelement zu. Deshalb die Bezeichnung als (0,0)-Tensoren.
  • (0,1)-Tensoren ordnen keiner Linearform und einem Vektor eine Zahl zu, entsprechen somit den Linearformen L(E,K) = E * auf E.
  • (1,0)-Tensoren ordnen einer Linearform und keinem Vektor eine Zahl zu. Sie sind somit Elementen des bidualen Vektorraums E * * . Sie entsprechen bei endlichdimensionalen den Ausgangsvektorräumen E, da hier T_0^1(E) \cong E^{**} \cong E gilt (siehe Isomorphismus).
  • Eine lineare Abbildung E\to F zwischen endlichdimensionalen Vektorräumen kann als Element von E^*\otimes F aufgefasst werden und sind dann (1,1)-Tensoren.
  • Eine Bilinearform E \times E \to K lässt sich als ein Element von E^* \otimes  E^* auffassen, also als ein (0,2)-Tensor. Insbesondere lassen sich also Skalarprodukte als (0,2)-Tensor auffassen.
  • Die Determinante von (n\times n)-Matrizen, aufgefasst als alternierende Multilinearform der Spalten, ist ein (0,n)-Tensor.
  • Das Kronecker-Delta δ ist wieder ein (0,2)-Tensor. Es ist ein Element von E^* \otimes  E^*, und somit also eine multilineare Abbildung  \delta : E \times  E \to  \mathbb R. Multilineare Abbildungen sind durch die Wirkung auf die Basisvektoren eindeutig bestimmt. So ist das Kronecker-Delta eindeutig durch
\delta(e_i,e_j) = \left\{\begin{matrix} 1, & \mbox{falls } i=j, \\  0, & \mbox{falls } i \neq j,\end{matrix}\right.
bestimmt.
  • Das Levi-Civita-Symbol oder auch Epsilontensor \varepsilon_{i j k}, welches zur Berechnung des Kreuzprodukts zwischen Vektoren verwendet werden kann, ist ein Tensor dritter Stufe. Es gilt \varepsilon : (\mathbb R^3)^* \times (\mathbb R^3)^* \times (\mathbb R^3)^* \to \mathbb R . Man schreibt auch ε(ei,ej,ek) = εijk. Da die Räume \left(\mathbb R^3\right)^* und \mathbb R^3 natürlich isomorph sind, lässt man oftmals den Stern weg. Das Levi-Civita-Symbol kann man auch für n Dimensionen definieren. Sowohl das Kronecker-Delta als auch das Levi-Civita-Symbol werden häufig verwendet, um Symmetrieeigenschaften von Tensoren zu untersuchen. Das Kronecker-Delta ist symmetrisch bei Vertauschungen der Indizes, das Levi-Civita-Symbol antisymmetrisch, so dass man mit ihrer Hilfe Tensoren in symmetrische und antisymmetrische Anteile zerlegen kann.
  • Ein weiteres Beispiel für einen kovarianten Tensor 2. Stufe ist der Trägheitstensor.
  • Sei (V,g) ein metrischer Vektorraum. Die Metrik g ordnet zwei Vektoren v und w des Vektorraums V eine reelle Zahl g(v,w) zu. Ist die Metrik eine lineare Abbildung in beiden Argumenten, so handelt es sich bei der Metrik g um einen Tensor. Genauer gesagt ist die Metrik g ein zweifach kovarianter Tensor. Eine solche Metrik g wird deshalb auch metrischer Tensor genannt. Mit \,g_{i j} werden die Koordinaten der Metrik bezüglich einer Basis des Vektorraums V bezeichnet;vi und wj seien die Koordinaten der Vektoren v und w bezüglich derselben Basis. Für die Abbildung zweier Vektoren v und w unter der Metrik g gilt deshalb
g(v,w) = gijviwj.
i,j
Der Übergang zwischen ko- und kontravarianten Tensoren lässt sich mittels der Metrik durch
xi = gijxj
j
bewerkstelligen.
Im Fall der allgemeinen Relativitätstheorie ist diese Metrik sogar meist von Punkt zu Punkt verschieden. In diesem Fall hängt diese Funktion noch von einer zusätzlichen Variablen, welche den Ort beschreibt, ab. Ein solches Objekt wird Tensorfeld genannt und weiter unten beschreiben. Dieser metrische Tensor heißt riemannsche Metrik. In der speziellen Relativitätstheorie verwendet man dabei statt der euklidischen Metrik die des Minkowskiraumes. Noch allgemeinere Metriken (allerdings mit derselben Signatur wie die Minkowski-Metrik) werden in der Allgemeinen Relativitätstheorie verwendet. Im Fall der Relativitätstheorie ist dies ein (4,0)-Tensorfeld.

Tensoralgebra

Hauptartikel: Tensoralgebra

Sei E ein Vektorraum über einem Körper K. Dann ist durch

\mathrm T(E)=\bigoplus_{n\geq0}E^{\otimes n}=K\oplus E\oplus(E\otimes E)\oplus(E\otimes E\otimes E)\oplus\ldots

die sogenannte Tensoralgebra definiert. Mit der Multiplikation, die auf den homogenen Bestandteilen durch das Tensorprodukt gegeben ist, wird T(E) zu einer unitären assoziativen Algebra.

Basis

Basis & Dimension

Sei E wie oben ein Vektorraum. Dann sind die Räume T^{r}_s(E) ebenfalls wieder Vektorräume. Weiterhin sei E nun endlichdimensional mit der Basis \{e_1, \ldots, e_n\}. Die duale Basis wird mit \{e^1, \ldots, e^n\} bezeichnet. Der Raum T^{r}_s(E) der Tensoren ist dann ebenfalls endlichdimensional und

\left\{\left.e_{i_1} \otimes \cdots \otimes e_{i_r} \otimes e^{j_1} \otimes \cdots \otimes e^{j_s}\right|i_1, \ldots , i_r, j_1, \ldots, j_s = 1, \ldots , n\right\}

ist eine Basis dieses Raumes. Das heißt, jedes Element t \in T^{r}_s(E) kann durch

\sum_{i_1, \ldots , i_r, j_1, \ldots, j_s = 1, \ldots , n} a_{j_1, \ldots j_s}^{i_1,\ldots,i_r} e_{i_1} \otimes \cdots \otimes e_{i_r} \otimes e^{j_1} \otimes \cdots \otimes e^{j_s}

dargestellt werden. Die Dimension dieses Vektorraums ist T_s^r(E) = n^{r+s}. Wie in jedem endlichdimensionalen Vektorraum reicht es auch im Raum der Tensoren zu sagen, wie eine Funktion auf der Basis operiert.

Da die obige Summendarstellung sehr viel Schreibarbeit mit sich bringt, wird oftmals die einsteinsche Summenkonvention verwendet. In diesem Fall schreibt man also

a_{j_1, \ldots j_s}^{i_1,\ldots,i_r} e_{i_1} \otimes \cdots \otimes e_{i_r} \otimes e^{j_1} \otimes \cdots \otimes e^{j_s}.

Oftmals identifiziert man die Komponenten des Tensors mit dem Tensor an sich. Siehe dafür unter Tensordarstellungen der Physik nach.

Basiswechsel und Koordinatentransformation

Seien { e'_{i_1}, \dots, e'_{i_n} } und { e_{i_1}, \dots, e_{i_n} } jeweils unterschiedliche Basen der Vektorräume  V_1, \dots , V_n \ . Jeder Vektor, also auch jeder Basisvektor { e'_{1_1} } kann als Linearkombination der Basisvektoren { e_{i_1} } dargestellt werden. Der Basisvektor e'_{i_l} werde dargestellt durch:

e'_{i_l} = \sum_{j_l} a_{j_l,i_l} e_{j_l}.

Die Größen a_{j_l,i_l} bestimmen also die Basistransformation zwischen den Basen e'_{i_l} und e_{i_l}. Das gilt für alle l=1,\dots, n. Dieses Verfahren wird Basiswechsel genannt.

Ferner seien T'_{{i_1}, \dots , {i_n}} die Koordinaten des Tensors T bezüglich der Basis  e'_{i_1}, \dots, e'_{i_n} . Dann ergibt sich für das Transformationsverhalten der Tensorkoordinaten die Gleichung

T'_{{i_1}, \dots ,{i_n}} = \sum_{j_1} \dots \sum_{j_n} a_{j_1, i_1} \dots a_{j_n, i_n} T_{{j_1}, \dots , {j_n}}.

Es wird in der Regel zwischen der Koordinatendarstellung des Tensors T'_{{i_1}, \dots ,{i_n}} und der Transformationsmatrix a_{j_1, i_1}\dots a_{j_n, i_n} unterschieden. Die Transformationsmatrix a_{j_1, i_1}\dots a_{j_n, i_n} ist zwar eine indizierte Größe, aber kein Tensor. Im euklidischen Raum sind das Drehmatrizen und in der speziellen Relativitätstheorie z.B. Lorentz-Transformationen, die sich auch als „Drehungen“ in einem vierdimensionalen Minkowskiraum auffassen lassen. Man spricht in diesem Fall auch von Vierertensoren und Vierervektoren.

Operationen auf Tensoren

Neben dem Tensorprodukt gibt es für (r,s)-Tensoren weitere wichtige Operationen.

Inneres Produkt

Das interne Produkt eines Vektors v \in E (bzw. eines (Ko)Vektors \beta \in E^*) mit einem Tensor t \in T^r_s(E;K) ist der (r,s − 1) (bzw. (r − 1,s))-Tensor, welcher durch

(i_vt)\left(\beta^1, \ldots , \beta^r, \cdot ,v_1,\ldots, v_{s-1}\right) = t\left(\beta^1, \ldots , \beta^r,v,v_1,\ldots, v_{s-1}\right)

bzw. durch

(i^\beta t)\left(\cdot , \beta^1, \ldots , \beta^{r-1},v_1,\ldots, v_s\right) = t\left(\beta, \beta^1, \ldots , \beta^{r-1}, v_1,\ldots, v_s\right)

definiert ist. Dies bedeutet, dass der (r,s)-Tensor t an einem festen Vektor v bzw. festen Kovektor β ausgewertet wird.

Tensorverjüngung

Hauptartikel: Tensorverjüngung

Gegeben sei ein (r,s)-Tensor und 1\leq i\leq r und 1\leq j\leq s. Die Tensorverjüngung C^i_j bildet den Tensor

\sum \beta_{i_1} \otimes \cdots \otimes \beta_{i_k} \otimes \cdots \otimes \beta_{i_r} \otimes v^{j_1}\otimes\cdots\otimes v^{j_l}\otimes\cdots\otimes v^{j_s}

auf den Tensor

\begin{align}
&C^k_l\left(\sum \beta_{i_1} \otimes \cdots \otimes \beta_{i_k} \otimes \cdots \otimes \beta_{i_r} \otimes v^{j_1}\otimes\cdots\otimes v^{j_l}\otimes\cdots\otimes v^{j_s}\right)\\
=&\sum \beta_{i_k}(v^{j_l})\cdot(\beta_{i_1}\otimes\cdots\otimes\beta_{i_{k-1}} \otimes\beta_{i_{k+1}}\otimes\cdots\otimes\beta_{i_r}\otimes v^{j_1}\otimes\cdots\otimes v^{j_{l-1}}\otimes v^{j_{l+1}}\otimes\cdots\otimes v^{j_s})
\end{align}

ab. Dieser Vorgang heißt Tensorverjüngung oder Spurbildung. Im Fall von (1,1)-Tensoren entspricht die Tensorverjüngung

C_1^1: V^*\otimes V\to K

unter der Identifizierung V^*\otimes V\cong\mathrm{End}(V) der Spur eines Endomorphismus.

Mit Hilfe der einsteinschen Summenkonvention kann man die Tensorverjüngung sehr kurz darstellen. Seien beispielsweise T_i^j die Koeffizienten (bzw. Koordinaten) des zweistufigen Tensors T bezüglich einer gewählten Basis. Will man diesen (1,1)-Tensor verjüngen, so schreibt man oft anstatt C_1^1 (T) nur die Koeffizienten T_i^i. Die einsteinsche Summenkonvention besagt nun, dass über alle gleichen Indizes summiert wird und somit T_i^i ein Skalar ist, die mit der Spur des Endomorphismus übereinstimmt. Der Ausdruck Biji ist hingegen nicht definiert, weil nur über gleiche Indizes summiert wird, wenn einer oben und einer unten steht. Hingegen ist also Bijj ein Tensor erster Stufe.

Pull-Back (Rücktransport)

Hauptartikel: Rücktransport

Sei \phi \in L(E,F) eine lineare Abbildung zwischen Vektorräumen, welche kein Isomorphismus zu sein braucht. Der Rücktransport von ϕ sei eine Abbildung \phi^* \in L(T^0_s(F),T^0_s(E)), welche durch

\phi^* t(f_1, \ldots , f_s) = t(\phi(f_1), \ldots , \phi(f_s))

definiert ist. Dabei ist t \in T^0_s(F) und f_1 , \ldots , f_s \in E.

Push-Forward

Hauptartikel: Pushforward

Sei \phi : E \to F ein Vektorraumisomorphismus. Definiere den Push-Forward von ϕ durch \phi_* \in L(T^r_s(E),T^r_s(F)) mit

 \phi_* t(\beta^1, \ldots , \beta^r, f_1, \ldots , f_s) = t(\phi^*(\beta^1), \ldots , \phi^*(\beta^r), \phi^{-1}(f_1), \ldots , \phi^{-1}(f_s)).

Dabei ist t \in T^r_s(E), \beta^1, \ldots , \beta^r \in F^* und f_1, \ldots , f_s\in F. Mit ϕ *i) wird der Rücktransport der Linearform βi notiert. Konkret heißt dies ϕ *i(.)) = βi(ϕ(.)). Analog zum Rücktransport kann man beim Push-Forward auf die Isomorphie von ϕ verzichten und diese Operation nur für (r,0)-Tensoren definieren.

Tensorproduktraum

Hauptartikel: Tensorprodukt

In diesem Abschnitt werden Tensorprodukträume definiert. Diese werden typischerweise in der Algebra betrachtet. Diese Definition ist allgemeiner als die der (r,s)-Tensoren, da hier die Tensorräume aus unterschiedlichen Vektorräumen konstruiert werden können.

Die universelle Eigenschaft

Universelle Eigenschaft des Tensorproduktes

Es seien V und W Vektorräume über dem Körper K. Sind X,Y weitere K-Vektorräume, b:V\times W\to X eine beliebige bilineare Abbildung und f:X\to Y eine lineare Abbildung, dann ist auch die Verknüpfung (f\circ b):V\times W\to Y eine bilineare Abbildung. Ist also eine bilineare Abbildung gegeben, so kann man daraus auch beliebig viele weitere bilineare Abbildungen konstruieren. Die Frage, die sich ergibt, ist, ob es eine bilineare Abbildung gibt, aus der auf diese Art, durch Verknüpfung mit linearen Abbildungen, alle bilinearen Abbildungen auf V\times W (auf eindeutige Weise) konstruiert werden können. Ein solches universelles Objekt, d.h. die bilineare Abbildung samt ihrem Bildraum, wird als Tensorprodukt von V und W bezeichnet.

Definition: Als Tensorprodukt der Vektorräume V und W, wird jeder K-Vektorraum X bezeichnet, zu dem es eine bilineare Abbildung \phi\colon V\times W\to X gibt, die die folgende universelle Eigenschaft erfüllt:

Zu jeder bilinearen Abbildung b\colon V\times W\to Y von V \times W in einen Vektorraum Y existiert genau eine lineare Abbildung b'\colon X\to Y, so dass für alle (v,w) \in V \times W gilt
b(v,w) = b'(ϕ(v,w)).

Gibt es einen solchen Vektorraum X, so ist er bis auf Isomorphie eindeutig. Man schreibt X=V\otimes W und \phi(v,w)=v\otimes w. Die universelle Eigenschaft kann also als b(v,w) = b'(v\otimes w) geschrieben werden. Zur Konstruktion solcher Produkträume sei auf den Artikel Tensorprodukt verwiesen.

Tensor als Element des Tensorproduktes

In der Mathematik sind Tensoren Elemente von Tensorprodukten.

Es sei K ein Körper und es seien V_1,V_2,\ldots,V_s Vektorräume über dem Körper K.

Das Tensorprodukt V_1 \otimes \cdots \otimes V_s von V_1,\ldots,V_s ist ein K-Vektorraum, dessen Elemente Summen von Symbolen der Form

v_1\otimes\cdots\otimes v_s,\quad v_i\in V_i,

sind. Dabei gelten für diese Symbole die folgenden Rechenregeln:

  • v_1\otimes\cdots\otimes(v_i'+v_i'')\otimes\cdots\otimes v_s=(v_1\otimes\cdots\otimes v_i'\otimes\cdots\otimes v_s)+(v_1\otimes\cdots\otimes v_i''\otimes\cdots\otimes v_s)
  • v_1\otimes\cdots\otimes(\lambda v_i)\otimes\cdots\otimes v_s
=\lambda(v_1\otimes\cdots\otimes v_i\otimes\cdots\otimes v_s),\quad\lambda\in K

Die Tensoren der Form v_1\otimes\cdots\otimes v_s heißen elementar. Jeder Tensor lässt sich als Summe von elementaren Tensoren schreiben, aber diese Darstellung ist außer in trivialen Fällen nicht eindeutig, wie man an der ersten der beiden Rechenregeln sieht.

Ist \{e_i^{(1)},\ldots,e_i^{(d_i)}\} eine Basis von Vi (für i=1,\ldots,s; di = dim Vi), so ist

\{e_1^{(j_1)}\otimes\cdots\otimes e_s^{(j_s)}\mid 1\leq i\leq s, 1\leq j_i\leq d_i\}

eine Basis von V_1\otimes\cdots\otimes V_s. Die Dimension von V_1\otimes\cdots\otimes V_s ist also das Produkt der Dimensionen der einzelnen Vektorräume V_1,\ldots,V_s.

Tensorprodukte und Multilinearformen

Der Dualraum von V_1\otimes\cdots\otimes V_s kann mit dem Raum der s-Multilinearformen

V_1\times\cdots\times V_s\to K

identifiziert werden:

  • Ist \lambda\colon V_1\otimes\cdots\otimes V_s\to K eine Linearform auf V_1\otimes\cdots\otimes V_s, so ist die entsprechende Multilinearform
(v_1,\ldots,v_s)\mapsto\lambda(v_1\otimes\cdots\otimes v_s).
  • Ist \mu\colon V_1\times\cdots\times V_s\to K eine s-Multilinearform, so ist die entsprechende Linearform auf V_1\otimes\cdots\otimes V_s definiert durch
\sum_{j=1}^kv_1^{(j)}\otimes\cdots\otimes v_s^{(j)}\mapsto\sum_{j=1}^k\mu(v_1^{(j)},\ldots,v_s^{(j)}).

Sind alle betrachteten Vektorräume endlichdimensional, so kann man

(V_1\otimes\cdots\otimes V_s)^*\quad\mathrm{und}\quad V_1^*\otimes\cdots\otimes V_s^*

miteinander identifizieren, d.h. Elemente von V_1^*\otimes\cdots\otimes V_s^* entsprechen s-Multilinearformen auf V_1\times\cdots\times V_s.

Tensorprodukte eines Vektorraums und Symmetrie

Man kann das Tensorprodukt \mathcal T^2V:=V\otimes V eines Vektorraumes V mit sich selbst bilden. Ohne weiteres Wissen über den Vektorraum kann ein Automorphismus des Tensorprodukts definiert werden, der darin besteht, in den reinen Produkten a\otimes b die Faktoren zu vertauschen,

\Pi_{12}(a\otimes b):=b\otimes a.

Das Quadrat dieser Abbildung ist die Identität, woraus folgt, dass es Eigenvektoren zum Eigenwert 1 und zum Eigenwert -1 gibt.

  • Ein w\in V\otimes V, welches Π12(w): = w erfüllt, heißt symmetrisch. Beispiele sind die Elemente
w=a\otimes b:=\frac12(a\otimes b+b\otimes a).
Die Menge aller symmetrischen Tensoren der Stufe 2 wird mit \mathcal S^2V=(1+\Pi_{12})(V\otimes V) bezeichnet.
  • Ein w\in V\otimes V, welches Π12(w): = − w erfüllt, heißt antisymmetrisch oder alternierend. Beispiele sind die Elemente
w=a\wedge b:=\frac12(a\otimes b-b\otimes a).
Die Menge aller antisymmetrischen Tensoren der Stufe 2 wird mit \Lambda^2V:=(1-\Pi_{12})(V\otimes V) bezeichnet.

Mittels \mathcal T^{n+1}V:=V\otimes \mathcal T^nV können Tensorpotenzen von V beliebiger Stufe gebildet werden. Entsprechend können weitere paarweise Vertauschungen definiert werden. Nur sind diese nicht mehr voneinander unabhängig. So lässt sich jede Vertauschung der Stellen j und k auf Vertauschungen mit der ersten Stelle zurückführen.

\Pi_{jk}=\Pi_{1j}\circ\Pi_{1k}\circ\Pi_{1j}

Injektives und projektives Tensorprodukt

Falls die Vektorräume, welche man miteinander tensorieren will, eine Topologie besitzen so ist es wünschenswert, dass ihr Tensorprodukt ebenfalls eine Topologie besitzt. Es gibt natürlich viele Möglichkeiten eine solche Topologie zu definieren. Das injektive beziehungsweise das projektive Tensorprodukt sind dafür jedoch eine natürliche Wahl.

Tensoranalysis

Hauptartikel: Tensoranalysis

Ursprünglich wurde das Tensorkalkül nicht in dem modernen hier vorgestellten algebraischen Konzept untersucht. Das Tensorkalkül entstand aus Überlegungen zur Differentialgeometrie. Insbesondere Gregorio Ricci-Curbastro und seine Schüler Tullio Levi-Civita haben es entwickelt. Man nennt das Tensorkalkül daher auch Ricci-Kalkül. Albert Einstein griff dieses Kalkül in seiner Relativitätstheorie auf, was ihm große Bekanntheit in der Fachwelt einbrachte. Die damaligen Tensoren werden heute als Tensorfelder bezeichnet und spielen in der Differentialgeometrie auch heute noch eine wichtige Rolle. Im Gegensatz zu Tensoren sind Tensorfelder differenzierbare Abbildungen, die jedem Punkt des zugrundeliegenden (oftmals gekrümmten) Raums einen Tensor zuordnen.

Literatur

  • Theodor Bröcker: Lineare Algebra und Analytische Geometrie. Birkhäuser, Basel 2004, ISBN 3-7643-2178-4, Kap. VII: Tensorrechnung.
  • R. Abraham, J. E. Marsden, T. Ratiu: Manifolds, tensor analysis, and applications. 2. Auflage. Springer, New York NY u. a. 1998, ISBN 0-387-96790-7, (Applied mathematical sciences 75).
  • Theodore Frankel: The Geometry of Physics. An Introduction. Cambridge University Press, Cambridge u. a. 1997, ISBN 0-521-38334-X
  • Horst Teichmann: Physikalische Anwendungen der Vektor- und Tensorrechnung. 3. Auflage. Bibliographisches Institut, Mannheim u. a. 1973, ISBN 3-411-00039-2, (BI-Hochschultaschenbücher 39).
  • André Lichnerowicz: Einführung in die Tensoranalysis. Bibliographisches Institut, Mannheim u. a. 1966, (BI Hochschultaschenbuch 77).

Weblinks


Wikimedia Foundation.

Schlagen Sie auch in anderen Wörterbüchern nach:

  • tensor — TENSÓR, tensori, s.m. Obiect matematic definit în cadrul algebrei şi geometriei, frecvent utilizat în fizică, reprezentând o generalizare a noţiunii de vector. – Din fr. tenseur, germ. Tensor. Trimis de LauraGellner, 26.06.2004. Sursa: DEX 98 … …   Dicționar Român

  • tensor — tensor, ra adjetivo,sustantivo masculino y femenino 1. Que tensa o sirve para tensar: músculo tensor, mecanismo tensor. A este dispositivo le falta el tensor. sustantivo masculino 1. Mecanismo o dispositivo para tensar o estirar algo: el tensor… …   Diccionario Salamanca de la Lengua Española

  • tensor — Cualquiera de los músculos corporales que tensan estructuras, tales como el tensor de la fascia lata del muslo. Diccionario Mosby Medicina, Enfermería y Ciencias de la Salud, Ediciones Hancourt, S.A. 1999 …   Diccionario médico

  • tensor — tensor, ra (Del lat. tensor, ōris). 1. adj. Que tensa, origina tensión o está dispuesto para producirla. U. t. c. s.) 2. m. Mecanismo que se emplea para tensar algo. 3. Fís. Sistema de magnitudes, coexistentes y de igual índole, tales que se… …   Diccionario de la lengua española

  • Tensor — Ten sor, n. [NL. See {Tension}.] 1. (Anat.) A muscle that stretches a part, or renders it tense. [1913 Webster] 2. (Geom.) The ratio of one vector to another in length, no regard being had to the direction of the two vectors; so called because… …   The Collaborative International Dictionary of English

  • Tensor — (lat.), Streckmuskel …   Pierer's Universal-Lexikon

  • tensor — muscle that stretches a part, 1704, Modern Latin agent noun of L. tendere to stretch (see TENET (Cf. tenet)) …   Etymology dictionary

  • tensor — |ô| adj. 1.  [Anatomia] Diz se dos músculos que servem para estender um membro ou um órgão qualquer. • s. m. 2. Grandeza matemática de vários componentes definidos no quadro da geometria vetorial e linear. 3.  [Mecânica] Dispositivo destinado a… …   Dicionário da Língua Portuguesa

  • tensor — [ten′sər, ten′sôr΄] n. [ModL < L tensus: see TENSE1] 1. any muscle that stretches, or tenses, some part of the body 2. Math. an abstract object representing a generalization of the vector concept and having a specified system of components… …   English World dictionary

  • Tensor — For other uses, see Tensor (disambiguation). Note that in common usage, the term tensor is also used to refer to a tensor field. Stress, a second order tensor. The tensor s components, in a three dimensional Cartesian coordinate system, form the… …   Wikipedia