Matrix (Mathematik)

Matrix (Mathematik)
Schema für eine allgemeine m×n-Matrix

In der Mathematik versteht man unter einer Matrix (Plural: Matrizen) eine rechteckige Anordnung (Tabelle) von Elementen bzw. mathematischen Objekten, mit denen man in bestimmter Weise rechnen kann (z. B. Matrix-Addition, Matrix-Multiplikation).

Matrizen sind ein Schlüsselkonzept der linearen Algebra und tauchen in fast allen Gebieten der Mathematik auf. Matrizen stellen Zusammenhänge, in denen Linearkombinationen eine Rolle spielen, übersichtlich dar und erleichtern damit Rechen- und Gedankenvorgänge. Sie werden insbesondere dazu benutzt, lineare Abbildungen darzustellen und lineare Gleichungssysteme zu beschreiben.

Die Bezeichnung „Matrix“ wurde 1850 von James Joseph Sylvester eingeführt.

Eine Anordnung, wie in nebenstehender Abbildung, von m \cdot n Elementen  a_{ij}\, erfolgt in m \, Zeilen und n \, Spalten.

Inhaltsverzeichnis

Begriffe und erste Eigenschaften

Notation

Als Notation hat sich die Anordnung der Elemente in Zeilen und Spalten zwischen einer großen öffnenden und einer schließenden Klammer durchgesetzt. In der Regel verwendet man runde Klammern, es werden aber auch eckige verwendet. Zum Beispiel bezeichnen


  \begin{pmatrix} 
    a_{11} & a_{12} & a_{13} \\ 
    a_{21} & a_{22} & a_{23} 
  \end{pmatrix} 
und 
  \begin{bmatrix} 
    a_{11} & a_{12} & a_{13} \\ 
    a_{21} & a_{22} & a_{23} 
  \end{bmatrix}

eine Matrix mit zwei Zeilen und drei Spalten. Die Matrix an sich wird durch (manchmal fettgedruckte) Großbuchstaben, vorzugsweise A, bezeichnet. Eine allgemeine Matrix mit m Zeilen und n Spalten könnte so aussehen:

A=\begin{pmatrix}
a_{1,1} & a_{1,2} & \cdots & a_{1,n}\\
a_{2,1} & a_{2,2} & \cdots & a_{2,n}\\
\vdots & \vdots & \ddots & \vdots\\
a_{m,1} & a_{m,2} & \cdots & a_{m,n}\\
\end{pmatrix} = (a_{ij})

Elemente der Matrix

Die Elemente der Matrix nennt man Einträge oder Komponenten der Matrix. Sie entstammen einer Menge K, in der Regel einem Körper oder einem Ring. Man spricht von einer Matrix über K.

Wählt man für K die Menge der reellen Zahlen, so spricht man von einer reellen Matrix, bei komplexen Zahlen von einer komplexen Matrix.

Ein bestimmtes Element beschreibt man durch zwei Indizes, z. B. ist das Element in der ersten Zeile und der ersten Spalte durch a11 beschrieben. Allgemein bezeichnet aij das Element in der i-ten Zeile und der j-ten Spalte. Deshalb wird die gesamte Matrix manchmal mit (aij) bezeichnet.

Einzelne Zeilen und Spalten werden oft als Spalten- oder Zeilenvektoren bezeichnet. Ein Beispiel:

A = \begin{pmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{pmatrix} , hier sind  \begin{pmatrix} a_{11} \\ a_{21} \end{pmatrix} und  \begin{pmatrix} a_{12} \\ a_{22} \end{pmatrix} die Spalten bzw. Spaltenvektoren und  \begin{pmatrix} a_{11} & a_{12} \end{pmatrix} und  \begin{pmatrix} a_{21} & a_{22} \end{pmatrix} die Zeilen bzw. Zeilenvektoren.

Typ

Der Typ einer Matrix ergibt sich aus der Anzahl ihrer Zeilen und Spalten. Eine Matrix mit m Zeilen und n Spalten nennt man eine  m \times  n -Matrix (sprich: m mal n oder m Kreuz n Matrix). Die Menge der m \times n-Matrizen über K wird mit K^{m \times n} oder Km,n, manchmal auch mit \operatorname{Mat}(m \times n, K) bezeichnet.

Formale Darstellung

Eine Matrix ist eine doppelt indizierte Familie. Formal ist dies eine Funktion

A:\left\{\begin{matrix}\{1,\ldots,m\}\times\{1,\dots,n\}&\to& K\\
(i,j)&\mapsto&a_{i,j}\end{matrix}\right.\,,

die jedem Indexpaar (i,j) als Funktionswert den Eintrag ai,j zuordnet. Beispielsweise wird dem Indexpaar (1,2) als Funktionswert der Eintrag a12 zugeordnet. Der Funktionswert ai,j ist also der Eintrag in der i-ten Zeile und der j-ten Spalte. Die Variablen m und n entsprechen der Anzahl der Zeilen bzw. Spalten. Nicht zu verwechseln mit dieser formalen Definition einer Matrix durch Funktionen ist, dass Matrizen selbst lineare Abbildungen beschreiben.

Die Menge \operatorname{Abb}\left(\{1,\ldots,m\}\times\{1,\ldots,n\},K\right) aller  m \times  n -Matrizen über der Menge K wird in üblicher mathematischer Notation auch K^{\{1,\ldots,m\}\times\{1,\ldots n\}} geschrieben; hierfür hat sich die Kurznotation K^{m\times n} eingebürgert (manchmal werden auch die Schreibweisen Km,n, M(m \times n, K), oder seltener  \,^m K^n benutzt).

Stimmen Zeilen- und Spaltenanzahl überein, so spricht man von einer quadratischen Matrix.

Besteht eine Matrix nur aus einer Spalte, so nennt man sie einen Spaltenvektor; besteht sie nur aus einer Zeile, so nennt man sie einen Zeilenvektor. Einen Vektor aus Kn kann man je nach Kontext als einzeilige oder einspaltige Matrix darstellen (also als Element aus  K^{1 \times n } oder  K^{n \times 1} ).

Addition und Multiplikation

Auf dem Raum der Matrizen werden elementare Rechenoperationen definiert.

Matrizenaddition

Zwei Matrizen können addiert werden, wenn sie vom selben Typ sind, das heißt, wenn sie dieselbe Anzahl von Zeilen und dieselbe Anzahl von Spalten besitzen. Die Summe zweier m \times n-Matrizen berechnet sich, indem man jeweils die Einträge der beiden Matrizen addiert:

A+B := (a_{ij}+b_{ij})_{i=1 , \ldots , m; \ j=1 , \ldots , n}

Rechenbeispiel:


  \begin{pmatrix}
    1 & -3 & 2 \\
    1 & 2 & 7
  \end{pmatrix}
  +
  \begin{pmatrix}
    0 & 3 & 5 \\
    2 & 1 & -1
  \end{pmatrix}
  =
  \begin{pmatrix}
    1+0 & -3+3 & 2+5 \\
    1+2 & 2+1 & 7+(-1)
  \end{pmatrix}
  =
  \begin{pmatrix}
    1 & 0 & 7 \\
    3 & 3 & 6
  \end{pmatrix}


In der linearen Algebra sind die Einträge der Matrizen üblicherweise Elemente eines Körpers, wie z. B. der reellen oder komplexen Zahlen. In diesem Fall ist die Matrizenaddition assoziativ, kommutativ und besitzt mit der Nullmatrix ein neutrales Element. Im Allgemeinen besitzt die Matrizenaddition diese Eigenschaften jedoch nur, wenn die Einträge Elemente einer algebraischen Struktur sind, die diese Eigenschaften hat.

Skalarmultiplikation

Eine Matrix wird mit einem Skalar multipliziert, indem alle Einträge der Matrix mit dem Skalar multipliziert werden:

\lambda\cdot A := (\lambda\cdot a_{ij})_{i=1, \ldots , m; \ j=1, \ldots , n}

Rechenbeispiel:

5 \cdot
  \begin{pmatrix}
    1 & -3 & 2 \\
    1 &  2 & 7
  \end{pmatrix}
  =
  \begin{pmatrix}
   5 \cdot 1 & 5 \cdot (-3) & 5 \cdot 2 \\
   5 \cdot 1 & 5 \cdot   2  & 5 \cdot 7
  \end{pmatrix}
  =
  \begin{pmatrix}
    5 & -15 & 10 \\
    5 & 10  & 35
  \end{pmatrix}

Die Skalarmultiplikation darf nicht mit dem Skalarprodukt verwechselt werden. Um die Skalarmultiplikation durchführen zu dürfen, müssen der Skalar λ und die Einträge der Matrix demselben Ring (K,+,\cdot,0) entstammen. Die Menge der m \times n-Matrizen ist in diesem Fall ein (Links-)Modul über K.

Matrizenmultiplikation

Zwei Matrizen können multipliziert werden, wenn die Spaltenanzahl der linken mit der Zeilenanzahl der rechten Matrix übereinstimmt. Das Produkt einer l \times m-Matrix A = (a_{ij})_{i=1\ldots l,\;j=1\ldots m} und einer m \times n-Matrix B = (b_{ij})_{i=1\ldots m,\;j=1\ldots n} ist eine l \times n-Matrix C = (c_{ij})_{i=1\ldots l,\;j=1\ldots n}, deren Einträge berechnet werden, indem die Produktsummenformel, ähnlich dem Skalarprodukt, auf Paare aus einem Zeilenvektor der ersten und einem Spaltenvektor der zweiten Matrix angewandt wird:

 c_{ij}=\sum_{k=1}^m a_{ik}\cdot b_{kj}

Rechenbeispiel:


  \begin{pmatrix}
    1 & 2 & 3 \\
    4 & 5 & 6 \\
  \end{pmatrix}
  \cdot
  \begin{pmatrix}
    6 & -1 \\
    3 & 2 \\
    0 & -3
  \end{pmatrix}
  =
  \begin{pmatrix}
     1 \cdot 6  +  2 \cdot 3  +  3 \cdot 0 &
     1 \cdot (-1) +  2 \cdot 2 +  3 \cdot (-3) \\
     4 \cdot 6  +  5 \cdot 3  +  6 \cdot 0 &
     4 \cdot (-1) +  5 \cdot 2 +  6 \cdot (-3) \\
  \end{pmatrix}
  =
  \begin{pmatrix}
    12 & -6 \\
    39 & -12
  \end{pmatrix}

Bei der Berechnung von Hand bietet das falksche Schema eine Hilfestellung. Bei der Berechnung mit dem Computer kann sich bei großen Matrizen der Einsatz des Strassen-Algorithmus lohnen.

Die Matrizenmultiplikation ist im Allgemeinen nicht kommutativ, d. h. im Allgemeinen gilt B \cdot A \neq A \cdot B, sofern überhaupt beide Seiten definiert sind, was bedeutet, dass l = n gilt. Ist diese Bedingung erfüllt, dann sind die Produkte auf beiden Seiten der Gleichung quadratische Matrizen; diese sind aber nur vergleichbar, wenn sie "gleich groß" sind, d.h., gleich viele Zeilen und Spalten haben, also auch m = n gilt. Auch bei l = m = n sind aber die beiden Produkte im Allgemeinen verschieden.

Die Matrizenmultiplikation ist assoziativ:

(A \cdot B) \cdot C = A \cdot (B \cdot C)

Die Matrizenaddition und Matrizenmultiplikation genügen zudem den beiden Distributivgesetzen:

(A + B) \cdot C = A \cdot C + B \cdot C

für alle l \times m-Matrizen A,B und m \times n-Matrizen C sowie

A \cdot (B + C) = A \cdot B + A \cdot C

für alle l \times m-Matrizen A und m \times n-Matrizen B,C.

Eine besondere Rolle bezüglich der Matrizenmultiplikation spielen die quadratischen Matrizen über einem Ring R, also  R^{n \times n} . Diese bilden selbst mit der Matrizenaddition und -multiplikation wiederum einen Ring. Ist der Ring R unitär mit dem Eins-Element 1, dann ist die Einheitsmatrix

E =
  \begin{pmatrix}
    1 & 0 & \cdots & 0 \\
    0 & 1 & \cdots & 0 \\
    \vdots & \vdots & \ddots & \vdots \\
    0 & 0 & \dots & 1
  \end{pmatrix}

das Eins-Element des Matrizenrings, d. h. dieser ist auch unitär. Allerdings ist der Matrizenring  K^{n \times n} für n > 1 niemals kommutativ.

Zerlegt man Matrizen in Blockmatrizen, so können diese komponentenweise ausmultipliziert werden:

\begin{align}
\begin{pmatrix}
	a & b & 0 & 0\\
	c & d & 0 & 0\\
	x & y & 1 & 0\\
	z & w & 0 & 1
\end{pmatrix}
\cdot
\begin{pmatrix}
	n & 0\\
	m & 0\\
	q & 1\\
	p & 0
\end{pmatrix}
&= \begin{pmatrix}
	A & 0\\
	X & E_2
\end{pmatrix}
\cdot
\begin{pmatrix}
	N & 0\\
	Q & \left(\begin{smallmatrix}1 \\ 0\end{smallmatrix}\right)
\end{pmatrix}
\\ &= \begin{pmatrix}
	AN + 0    & 0 + 0\\
	XN + E_2Q & 0 + E_2\left(\begin{smallmatrix}1 \\ 0\end{smallmatrix}\right)
\end{pmatrix}
\\ &= \begin{pmatrix}
	\begin{pmatrix}
		a & b\\
		c & d
	\end{pmatrix}\,
	\begin{pmatrix}
		n\\
		m
	\end{pmatrix}
	& 0\\
	\begin{pmatrix}
		x & y\\
		z & w
	\end{pmatrix}
	\begin{pmatrix}
		n\\
		m
	\end{pmatrix}
	+
	\begin{pmatrix}
		q\\
		p 
	\end{pmatrix}
	&
	\begin{pmatrix}
		1\\
		0 
	\end{pmatrix}
\end{pmatrix}
\\ &= \begin{pmatrix}
	an + bm     & 0\\
	cn + dm     & 0\\
	xn + ym + q & 1\\
	zn + wm + p & 0
\end{pmatrix}
\end{align}

Hierbei ist E2 die 2\times2-Einheitsmatrix. Mit 0 ist die jeweils passende Matrix gemeint, deren Komponenten alle 0 sind.

Da die Matrix-Multiplikation assoziativ ist, kann eine Kette von Matrix-Multiplikationen unterschiedlich geklammert werden. Das Problem eine Klammerung zu finden, die zu einer Berechnung mit der minimalen Anzahl von elementaren arithmetischen Operationen führt, ist ein Optimierungsproblem.

Potenzieren von Matrizen

Quadratische Matrizen A\in K^{n\times n} können mit sich selbst multipliziert werden, analog zur Potenz bei den reellen Zahlen führt man abkürzend die Matrixpotenz A^2=A\cdot A oder A^3=A\cdot A\cdot A etc. ein. Damit ist es auch sinnvoll, quadratische Matrizen als Elemente in Polynomen einzusetzen. Zu weitergehenden Ausführungen hierzu siehe unter charakteristisches Polynom. Zur einfacheren Berechnung kann hier die jordansche Normalform verwendet werden.

Quadratische Matrizen über \R oder \mathbb C kann man darüber hinaus sogar in Potenzreihen einsetzen, vgl. Matrixexponential.

Weitere Rechenoperationen

Die transponierte Matrix

Die Transponierte der Matrix A = \left(a_{ij}\right) vom Format m\times n ist die Matrix A^T = \left(a_{ji}\right) vom Format n\times m, das heißt zu


  A=
  \begin{pmatrix}
    a_{11} & \dots &a_{1n} \\
    \vdots &\ddots &\vdots \\
    a_{m1} & \dots &a_{mn}
  \end{pmatrix}

ist die Transponierte


  A^T =
  \begin{pmatrix}
    a_{11} & \dots &a_{m1} \\
    \vdots &\ddots &\vdots \\
    a_{1n} & \dots &a_{mn}
  \end{pmatrix}.

Man schreibt also die erste Zeile als erste Spalte und die zweite Zeile als zweite Spalte usw.

Die Matrix wird sozusagen an ihrer Hauptdiagonale a_{11}, a_{22},\dots gespiegelt.

Beispiel:


  \begin{pmatrix}
    1 & 8  & -3\\
    4 & -2 & 5
  \end{pmatrix}^T
  =
  \begin{pmatrix}
    1 &  4\\
    8 & -2\\
   -3 &  5
  \end{pmatrix}.

Es gelten die folgenden Rechenregeln:

\begin{align}
  (A+B)^T               &= A^T + B^T\\
  (c \cdot A)^T         &= c \cdot A^T\\
  \left(A^T\right)^T    &= A\\
  (A \cdot B)^T         &= B^T \cdot A^T\\
  \left(A^{-1}\right)^T &= \left(A^T\right)^{-1}.
\end{align}

Die transponierte Matrix wird gelegentlich auch gestürzte Matrix genannt.

Bei Matrizen über \R ist die adjungierte Matrix genau die transponierte Matrix.

Inverse Matrix

Hauptartikel: Inverse Matrix

Für manche quadratische Matrizen A gibt es eine Matrix A − 1, für die

AA − 1 = A − 1A = E

gilt, wobei E die Einheitsmatrix ist. A − 1 heißt inverse Matrix von A. Matrizen, die eine inverse Matrix besitzen, bezeichnet man als invertierbare oder reguläre Matrizen. Umgekehrt werden nicht-invertierbare Matrizen als singuläre Matrizen bezeichnet.

Vektor-Vektor-Produkte (Skalarprodukt und Tensorprodukt)

Seien v und w zwei Spaltenvektoren der Länge n, so ist das Matrixprodukt  v \cdot w nicht definiert. Die beiden Produkte  v^T \cdot w und  v \cdot w^T existieren jedoch.

Das erste Produkt ist eine  1 \times 1 -Matrix, die als Zahl interpretiert wird; sie wird das kanonische Skalarprodukt von v und w genannt und mit \langle v, w \rangle bzw. \vec v \cdot \vec w bezeichnet:


  \begin{pmatrix}
     1 \\
     2 \\
     3
  \end{pmatrix}^T
  \cdot
  \begin{pmatrix}
     -2\\
     -1\\
      1
  \end{pmatrix}
  =
  \begin{pmatrix}
     1 &
     2 &
     3
  \end{pmatrix}
  \cdot
  \begin{pmatrix}
     -2\\
     -1\\
      1
  \end{pmatrix}
  =
  1 \cdot (-2) + 2 \cdot (-1) + 3 \cdot 1
  =
  -1

Das zweite Produkt ist eine  n \times n -Matrix vom Rang 1 und heißt Dyadisches Produkt oder Tensorprodukt von v und w (geschrieben v \otimes w):


  \begin{pmatrix}
     1 \\
     2 \\
     3
  \end{pmatrix}
  \cdot
  \begin{pmatrix}
     -2\\
     -1\\
      1
  \end{pmatrix}^T
  =
  \begin{pmatrix}
     1 \\
     2 \\
     3
  \end{pmatrix}
  \cdot
  \begin{pmatrix}
     -2&
     -1&
      1
  \end{pmatrix}
  =
  \begin{pmatrix}
    1\cdot(-2) & 1\cdot(-1) & 1\cdot 1 \\
    2\cdot(-2) & 2\cdot(-1) & 2\cdot 1 \\
    3\cdot(-2) & 3\cdot(-1) & 3\cdot 1
  \end{pmatrix}
  =
  \begin{pmatrix}
    -2 & -1 & 1 \\
    -4 & -2 & 2 \\
    -6 & -3 & 3
  \end{pmatrix}

Vektorräume von Matrizen

Die n \times m-Matrizen über einem kommutativen Ring R mit 1 bilden mit der Matrizenaddition und der Skalarmultiplikation jeweils einen R-Modul. Die Spur des Matrixprodukts A^T \cdot B

\left\langle A,B\right\rangle = \operatorname{spur}(A^TB)
=\sum_{i=1}^n\sum_{j=1}^m a_{ij}b_{ij}

ist dann ein Skalarprodukt auf dem Matrizenraum.

Im Spezialfall K=\R handelt es sich bei diesem Matrizenraum um einen euklidischen Vektorraum. In diesem Raum stehen die symmetrischen Matrizen und die schiefsymmetrischen Matrizen senkrecht aufeinander. Ist A eine symmetrische und B eine schiefsymmetrische Matrix, so gilt \begin{matrix}\left\langle A,B\right\rangle=0\end{matrix}.

Im Spezialfall K=\mathbb C ist die Spur des Matrixproduktes \overline{A}^T \cdot B

\left\langle A,B\right\rangle = \operatorname{spur}(\overline{A^T}B)
=\sum_{i=1}^n\sum_{j=1}^m \overline{a_{ij}}b_{ij}

ein Skalarprodukt, das Hilbert-Schmidt-Skalarprodukt und der Matrizenraum wird zu einem unitären Vektorraum.

Die Einheitsmatrix ist eine spezielle quadratische Matrix, die auf der Hauptdiagonalen nur 1 und sonst nur 0 als Einträge besitzt. Im Matrizenring repräsentiert sie das Einselement. Analog fungiert die Nullmatrix als Nullelement.

Anwendungen

Zusammenhang mit linearen Abbildungen

Das Besondere an Matrizen über einem Ring K ist der Zusammenhang zu linearen Abbildungen. Zu jeder Matrix A \in K^{m\times n} lässt sich eine lineare Abbildung mit Definitionsbereich Kn (Menge der Spaltenvektoren) und Wertebereich Km definieren, indem man jeden Spaltenvektor u\in K^n auf A\cdot u\in K^m abbildet; und jede lineare Abbildung mit diesem Definitions- und Wertebereich entspricht auf diese Weise genau einer m \times  n-Matrix. Diesen Zusammenhang bezeichnet man auch als (kanonischen) Isomorphismus

\operatorname{Hom}_K(K^n,K^m)\simeq K^{m \times n}.

Er stellt bei vorgegebenem K, m, n eine Bijektion zwischen der Menge der Matrizen und der Menge der linearen Abbildungen dar. Das Matrixprodukt geht hierbei über in die Komposition (Hintereinanderausführung) linearer Abbildungen. Weil die Klammerung bei der Hintereinanderausführung dreier linearer Abbildungen keine Rolle spielt, gilt dies dann auch für die Matrixmultiplikation, sie ist also assoziativ.

Ist K sogar ein Körper, kann man statt der Spaltenvektorräume beliebige endlichdimensionale K-Vektorräume V und W (der Dimension n bzw. m) betrachten. (Falls K ein kommutativer Ring mit 1 ist, dann kann man analog freie K-Moduln betrachten.) Diese sind nach Wahl von Basen v=(v_1,\ldots,v_n) von V und w=(w_1,\ldots,w_m)von W zu Kn bzw. Km isomorph, weil zu einem beliebigen Vektor u\in V eine eindeutige Zerlegung in Basisvektoren

u = \sum_{j=1}^n \alpha_j v_j

existiert und die darin vorkommenden Körperelemente αj den Koordinatenvektor

{}_vu=\begin{pmatrix}\alpha_1 \\ \vdots \\ \alpha_n\end{pmatrix} \in K^n

bilden. Jedoch hängt der Koordinatenvektor von der verwendeten Basis v ab, die daher auch in der Bezeichnung vu vorkommt.

Analog verhält es sich im Vektorraum W. Ist eine lineare Abbildung f\colon V\to W gegeben, so lassen sich die Bilder der Basisvektoren von V eindeutig in die Basisvektoren von W zerlegen in der Form

f(v_j) = \sum_{i=1}^m a_{ij}w_i

mit Koordinatenvektor

{}_wf(v_j)=\begin{pmatrix}a_{1j} \\ \vdots \\ a_{mj}\end{pmatrix} \in K^m.

Die Abbildung ist dann vollständig festgelegt durch die sog. Abbildungsmatrix

{}_wf_v = \begin{pmatrix}
  a_{11} & \ldots & a_{1n} \\
  \vdots & \ddots & \vdots \\
  a_{m1} & \ldots & a_{mn}
\end{pmatrix} \in K^{m\times n},

denn für das Bild des o.g. Vektors u gilt

f(u) = \sum_{i=1}^m \sum_{j=1}^n a_{ij}\alpha_j w_i,

also {}_wf(u) = {}_wf_v\cdot {}_vu („Koordinatenvektor = Matrix mal Koordinatenvektor“). (Die Matrix wfv hängt von den verwendeten Basen v und w ab; bei der Multiplikation wird die Basis v, die links und rechts vom Malpunkt steht, „weggekürzt“, und die „außen“ stehende Basis w bleibt übrig.)

Die Hintereinanderausführung zweier linearer Abbildungen f\colon V\to W und g\colon W\to X (mit Basen v, w bzw. x) entspricht dabei der Matrixmultiplikation, also

{}_x(g\circ f)_v = {}_xg_w \cdot {}_wf_v

(auch hier wird die Basis w „weggekürzt“).

Somit ist die Menge der linearen Abbildungen von V nach W wieder isomorph zu K^{m\times n}. Der Isomorphismus f \mapsto {}_wf_v hängt aber von den gewählten Basen v und w ab und ist daher nicht kanonisch: Bei Wahl einer anderen Basis v' für V bzw. w' für W wird derselben linearen Abbildung nämlich eine andere Matrix zugeordnet, die aus der alten durch Multiplikation von rechts bzw. links mit einer nur von den beteiligten Basen abhängigen invertierbaren m \times m- bzw. n \times n-Matrix (sog. Basiswechselmatrix) entsteht. Das folgt durch zweimalige Anwendung der Multiplikationsregel aus dem vorigen Absatz, nämlich

{}_{w'}f_{v'} = {}_{w'}e^W_w \cdot {}_wf_v \cdot {}_ve^V_{v'}

(„Matrix = Basiswechselmatrix mal Matrix mal Basiswechselmatrix“). Dabei bilden die Identitätsabbildungen eV und eW jeden Vektor aus V bzw. W auf sich selbst ab.

Bleibt eine Eigenschaft von Matrizen unberührt von solchen Basiswechseln, so ist es sinnvoll, diese Eigenschaft auch basisunabhängig der entsprechenden linearen Abbildung zuzusprechen.

Im Zusammenhang mit Matrizen oft auftretende Begriffe sind der Rang und die Determinante einer Matrix. Der Rang ist (falls K ein Körper ist) im angeführten Sinne basisunabhängig, und man kann somit vom Rang auch bei linearen Abbildungen sprechen. Die Determinante ist nur für quadratische Matrizen definiert, die dem Fall V = W entsprechen; sie bleibt unverändert, wenn derselbe Basiswechsel im Definitions- und Wertebereich durchgeführt wird, wobei beide Basiswechselmatrizen zueinander invers sind:

{}_{v'}f_{v'} = ({}_ve^V_{v'})^{-1} \cdot {}_vf_v \cdot {}_ve^V_{v'}.

In diesem Sinne ist also auch die Determinante basisunabhängig.

Umformen von Matrizengleichungen

Speziell in den multivariaten Verfahren werden häufig Beweisführungen, Herleitungen usw. im Matrizenkalkül durchgeführt.

Gleichungen werden im Prinzip wie algebraische Gleichungen umgeformt, wobei jedoch die Nichtkommutativität der Matrixmultiplikation sowie die Existenz von Nullteilern beachtet werden muss.

Beispiel: Lineares Gleichungssystem als einfache Umformung

Gesucht ist der Lösungsvektor x eines linearen Gleichungssystems

A \cdot x=b

mit A als  n \times n -Koeffizientenmatrix. Wenn die inverse Matrix A − 1 existiert, kann man mit ihr von links erweitern:

A^{-1} \cdot A \cdot x=A^{-1} \cdot b \Leftrightarrow  E \cdot x=A^{-1} \cdot b

und erhält die Lösung

x=A^{-1} \cdot b .

Spezielle Matrizen

Eigenschaften von Endomorphismen

Die folgenden Eigenschaften quadratischer Matrizen entsprechen Eigenschaften von Endomorphismen, die durch sie dargestellt werden.

Orthogonale Matrizen
Eine reelle Matrix A ist orthogonal, wenn die zugehörige lineare Abbildung das Standard-Skalarprodukt erhält, das heißt wenn
\langle Av,Aw\rangle = \langle v,w\rangle
gilt. Diese Bedingung ist äquivalent dazu, dass A die Gleichung
A − 1 = AT
bzw.
A\,A^T = E
erfüllt.
Diese Matrizen stellen Spiegelungen, Drehungen und Drehspiegelungen dar.
Unitäre Matrizen
Sie sind das komplexe Gegenstück zu den orthogonalen Matrizen. Eine komplexe Matrix A ist unitär, wenn die zugehörige Transformation die Normierung erhält, das heißt wenn
\langle Av,Aw\rangle = \langle v,w\rangle
gilt. Diese Bedingung ist äquivalent dazu, dass A die Gleichung
A − 1 = A *
erfüllt; dabei bezeichnet A * die konjugiert-transponierte Matrix zu A.
Fasst man den n-dimensionalen komplexen Vektorraum als 2n-dimensionalen reellen Vektorraum auf, so entsprechen die unitären Matrizen genau denjenigen orthogonalen Matrizen, die mit der Multiplikation mit i vertauschen.
Projektionsmatrizen
Eine Matrix ist eine Projektionsmatrix, falls
A = A2
gilt, sie also idempotent ist, das heißt, die mehrfache Anwendung einer Projektionsmatrix auf einen Vektor lässt das Resultat unverändert. Eine idempotente Matrix hat keinen vollen Rang, es sei denn, sie ist die Einheitsmatrix.
Beispiel: Es sei X eine (m\times n)-Matrix, und damit selbst nicht invertierbar. Dann ist die (m\times m)-Matrix
A = X \, (X^TX)^{-1}X^T
idempotent. Diese Matrix wird beispielsweise in der Methode der kleinsten Quadrate verwendet.
Geometrisch entsprechen Projektionsmatrizen der Parallelprojektion entlang des Nullraumes der Matrix.
Nilpotente Matrizen
Eine Matrix N heißt nilpotent, falls eine Potenz Nk (und damit auch alle höheren Potenzen) die Nullmatrix ergibt.

Eigenschaften von Bilinearformen

Im folgenden sind Eigenschaften von Matrizen aufgelistet, die Eigenschaften der zugehörigen Bilinearform

(v,w)\mapsto v^T A w

entsprechen. Trotzdem können diese Eigenschaften auch für die dargestellten Endomorphismen eine eigenständige Bedeutung besitzen.

Symmetrische Matrizen 
Eine Matrix A heißt symmetrisch, wenn sie gleich ihrer transponierten Matrix ist:
AT = A
Anschaulich gesprochen sind die Einträge symmetrischer Matrizen symmetrisch zur Hauptdiagonalen.
Beispiel:

  \begin{pmatrix}
    1 & 2 & 3 \\
    2 & 4 & 5 \\
    3 & 5 & 6
  \end{pmatrix}^T
  =
  \begin{pmatrix}
    1 & 2 & 3 \\
    2 & 4 & 5 \\
    3 & 5 & 6
  \end{pmatrix}
Symmetrische Matrizen entsprechen einerseits symmetrischen Bilinearformen:
vTAw = wTAv,
andererseits den selbstadjungierten linearen Abbildungen:
\langle Av,w\rangle = \langle v,Aw\rangle.
Hermitesche Matrizen 
Hermitesche Matrizen sind das komplexe Analogon der symmetrischen Matrizen. Sie entsprechen den hermiteschen Sesquilinearformen und den selbstadjungierten Endomorphismen.
Eine Matrix  A\in\mathbb C^{n\times n} ist hermitesch oder selbstadjungiert, wenn gilt:
A = A * .
Schiefsymmetrische Matrizen 
Eine Matrix A heißt schiefsymmetrisch oder auch antisymmetrisch, wenn gilt:
AT = A.
Um diese Bedingung zu erfüllen muss die Hauptdiagonale in allen Stellen null sein; die restlichen Werte werden über die Hauptdiagonale gespiegelt und negiert.
Beispiel:

  \begin{pmatrix}
    0 & 1 & 2 \\
    -1 & 0 & 3 \\
    -2 & -3 & 0
  \end{pmatrix}
Schiefsymmetrische Matrizen entsprechen antisymmetrischen Bilinearformen:
v^T\cdot A\cdot w = -w^T\cdot A\cdot v
und antiselbstadjungierten Endomorphismen:
\langle Av,w\rangle = -\langle v,Aw\rangle.
Positiv definite Matrizen 
Eine reelle Matrix ist positiv definit, wenn die zugehörige Bilinearform positiv definit ist, das heißt, wenn für alle Vektoren v\ne0 gilt:
v^T\cdot A\cdot v > 0.
Positiv definite Matrizen definieren verallgemeinerte Skalarprodukte. Ist die Bilinearform größer gleich Null, heißt die Matrix positiv semidefinit, analog kann eine Matrix negativ definit beziehungsweise semidefinit heißen, wenn die obige Bilinearform immer kleiner beziehungsweise kleiner gleich Null ist. Matrizen, die keine dieser Eigenschaften erfüllen, heißen indefinit.

Weitere Konstruktionen

Konjugierte und Adjungierte Matrix

Enthält eine Matrix komplexe Zahlen, erhält man die konjugierte Matrix, indem man ihre Komponenten durch die konjugiert komplexen Elemente ersetzt. Die adjungierte Matrix (auch hermitesch konjugierte Matrix) einer Matrix A wird mit A * bezeichnet und entspricht der transponierten Matrix, bei der zusätzlich alle Elemente komplex konjugiert werden.

Adjunkte oder Komplementäre Matrix

Die komplementäre Matrix adj(A) einer quadratischen Matrix A setzt sich aus deren Unterdeterminanten zusammen, wobei eine Unterdeterminante auch Minor genannt wird. Für die Ermittlung der Unterdeterminanten det(Aij) werden die i-te Zeile und j-te Spalte von A gestrichen. Aus der resultierenden  (n-1) \times (n-1) -Matrix wird dann die Determinante det(Aij) berechnet. Die komplementäre Matrix hat dann die Einträge ( − 1)i + jdet(Aji). Diese Matrix wird manchmal auch als Matrix der Kofaktoren bezeichnet.

Man verwendet die komplementäre Matrix beispielsweise zur Berechnung der Inversen einer Matrix A, denn nach dem Laplaceschen Entwicklungssatz gilt
 \operatorname{adj}(A)\cdot A=A\cdot \operatorname{adj}(A)=\det(A)\cdot E_n.
Damit ist die Inverse  A^{-1}=\frac{1}{\det(A)}\cdot \operatorname{adj}(A), wenn \det(A) \neq 0 .

Verallgemeinerungen

Man könnte auch Matrizen mit unendlich vielen Spalten oder Zeilen betrachten. Diese kann man immer noch addieren. Um sie jedoch „multiplizieren“ (bzw. hintereinander ausführen) zu können, muss man zusätzliche Bedingungen an ihre Komponenten stellen (da die auftretenden Summen (unendliche) Reihen sind und nicht konvergieren müssen). Die genaueren Betrachtungen solcher Fragestellungen führten zur Entstehung der Funktionalanalysis, die diese Begriffe behandelt.

Einen speziellen Fall bilden Vektoren im Hilbertraum. Es sei \{|u_i\rangle \} (mit i=1,2, \ldots) eine Orthonormalbasis mit den gerade angedeuteten Einschränkungen. Dann erhält man eine Matrixdarstellung eines linearen Operators \hat A, wenn man die Matrixelemente A_{i,k} :=\langle u_i| \hat A u_k\rangle definiert; dabei ist \langle u|v\rangle das Skalarprodukt im betrachteten Hilbertraum, und der Operator \hat A ist lediglich eine lineare Abbildung einer dichten Teilmenge \mathcal H_d dieses Raumes, also \hat A \colon \mathcal H_{\mathrm d}\stackrel{l}{\to}\mathcal H.

Man erhält so eine „Matrixdarstellung“ des betrachteten Operators.

Das System der Eigenwerte dieser Matrix, in einer endlichdimensionalen Approximation, umfasst approximativ auch eventuelle kontinuierliche Anteile des Spektrums dieser Operatoren (z. B. Orts- oder Impulsoperator), ähnlich wie ein Integral durch endliche Summen approximiert werden kann.

Literatur

Weblinks

Wiktionary Wiktionary: Matrix – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen
 Commons: Matrix – Sammlung von Bildern, Videos und Audiodateien
  • The Matrix Cookbook – Eine englischsprachige, umfangreiche Matrix-Formelsammlung (PDF; 522 kB)

Wikimedia Foundation.

Игры ⚽ Поможем написать курсовую

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Matrix (Mathematik)/Weitere Anwendungen — Bedarfsrechnung Auch in der Bedarfsermittlung – d. h. zur Berechnung der benötigten Menge an Rohstoffen und Ausgangsstoffen zur Erstellung einer bestimmten Menge von Endprodukten – kann die Matrizenrechnung angewendet werden. Beispiel Um das… …   Deutsch Wikipedia

  • Matrix — ([ˈmaːtrɪks], [ˈmaːtriːks]; lat. matrix „Gebärmutter“, eigentl. „Muttertier“; Mehrzahl je nach Bedeutung Matrizes [maˈtriːʦeːs] oder eingedeutscht Matrizen [maˈtrɪʦən], [maˈtriːʦən]) bezeichnet: eine Anordnung in Form einer Tabelle Matri …   Deutsch Wikipedia

  • Matrix — Gitter; Gefüge; Mikrostruktur; Struktur * * * ◆ Ma|trix 〈f.; , trị|zen od. tri|zes od. tri|ces〉 1. 〈Biol.〉 1.1 Mutterboden 1.2 Keimschicht der Haar …   Universal-Lexikon

  • Matrix — 1. (Beton) geschlossene zusammenhängende Phase in einem Mehrphasensystem, z. B. Zementstein, in dem der Betonzuschlag als disperse Phase verteilt ist. 2. (Mathematik) Anordnung von Zahlen im Rechteckformat (zweidimensionale Matrix), wobei… …   Erläuterung wichtiger Begriffe des Bauwesens

  • Matrix — Ma|t|rix, die; , Plural D✓Matrizes, Matrices und Matrizen (Mathematik rechteckiges Schema von Zahlen, für das bestimmte Rechenregeln gelten; EDV System zur Darstellung zusammengehörender Einzelfaktoren; Medizin Keimschicht) …   Die deutsche Rechtschreibung

  • Quadratische Matrix — In der Mathematik ist eine Matrix (Plural: Matrizen) eine Tabelle von Zahlen oder anderen Größen, die addiert und multipliziert werden können. Matrizen unterscheiden sich von einfachen Tabellen dadurch, dass mit ihnen gerechnet werden kann. Wenn… …   Deutsch Wikipedia

  • Transponierte Matrix — In der Mathematik ist eine Matrix (Plural: Matrizen) eine Tabelle von Zahlen oder anderen Größen, die addiert und multipliziert werden können. Matrizen unterscheiden sich von einfachen Tabellen dadurch, dass mit ihnen gerechnet werden kann. Wenn… …   Deutsch Wikipedia

  • Exponent (Mathematik) — Das Potenzieren ist wie das Multiplizieren seinem Ursprung nach eine abkürzende Schreibweise für eine wiederholte mathematische Rechenoperation. Wie beim Multiplizieren ein Summand wiederholt addiert wird, so wird beim Potenzieren ein Faktor… …   Deutsch Wikipedia

  • Inverse Matrix — Die reguläre, invertierbare oder nichtsinguläre Matrix ist ein Begriff aus dem mathematischen Teilgebiet der linearen Algebra. Man bezeichnet damit eine quadratische Matrix A, zu der eine weitere Matrix A − 1 existiert, so dass gilt. Dabei ist E… …   Deutsch Wikipedia

  • Invertierbare Matrix — Die reguläre, invertierbare oder nichtsinguläre Matrix ist ein Begriff aus dem mathematischen Teilgebiet der linearen Algebra. Man bezeichnet damit eine quadratische Matrix A, zu der eine weitere Matrix A − 1 existiert, so dass gilt. Dabei ist E… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”