Invertierbare Matrix

Invertierbare Matrix

Die reguläre, invertierbare oder nichtsinguläre Matrix ist ein Begriff aus dem mathematischen Teilgebiet der linearen Algebra. Man bezeichnet damit eine quadratische Matrix A, zu der eine weitere Matrix A − 1 existiert, so dass

A \cdot A^{-1} = E

gilt. Dabei ist E die Einheitsmatrix, und A − 1 wird als inverse Matrix zu A bezeichnet oder einfach kurz als Inverse.

Invertierbare Matrizen zeichnen sich dadurch aus, dass die durch sie beschriebene lineare Abbildung bijektiv ist. Dies führt dazu, dass ein lineares Gleichungssystem mit einer invertierbaren Koeffizientenmatrix eindeutig lösbar ist.

Nicht zu jeder quadratischen Matrix existiert eine Inverse. Die Menge aller invertierbaren n\times n–Matrizen über einem Grundkörper (oder Grundring) K bildet eine Gruppe bezüglich der Matrixmultiplikation, die allgemeine lineare Gruppe GLn(K).

Das Gegenteil von regulärer Matrix ist eine singuläre Matrix. Matrizen sind singulär, falls sie keine Inverse besitzen (ihre Determinante verschwindet dann). Die Pseudoinverse stellt eine Verallgemeinerung der inversen Matrix auf singuläre und nichtquadratische Matrizen dar.

Inhaltsverzeichnis

Berechnung der inversen Matrix

Zur Berechnung der Inversen stehen zwei Möglichkeiten zur Verfügung: der Gauß-Jordan-Algorithmus und die Adjunkte. Insbesondere mittels der Adjunkte lassen sich prinzipiell Formeln für Matrizen mit festgelegtem Rang herleiten. Diese sind jedoch zu umfangreich, um effizient eingesetzt werden zu können, so dass nur für 2x2- und 3x3-Matrizen gelegentlich die unten aufgeführten Formeln verwendet werden.

Um die numerische Qualität von Algorithmen zur Invertierung von Matrizen zu testen, verwendet man die Hilbert-Matrix, da diese vergleichsweise schlecht konditioniert ist.

Gauß-Jordan-Algorithmus

Die Inverse einer Matrix kann aus der Formel A \cdot A^{-1} = E berechnet werden. Dazu bildet man die Blockmatrix (A | E) und wendet auf diese den Gauß-Jordan-Algorithmus an. Nach Durchführung des Algorithmus hat man eine Blockmatrix (E | A − 1), aus der man A − 1 direkt ablesen kann.

Beispiel:

Gesucht ist die Inverse zur Matrix

A = \begin{pmatrix}
    1 & 2 & 0\\
    2 & 3 & 0\\
    3 & 4 & 1\end{pmatrix}.

Die Blockmatrix (A | E) lautet


  \left(\begin{array}{ccc|ccc}
    1 & 2 & 0 &  1 & 0 & 0 \\
    2 & 3 & 0 &  0 & 1 & 0 \\
    3 & 4 & 1 &  0 & 0 & 1
  \end{array}\right)
.

Die Anwendung des Gauß-Jordan-Algorithmus führt zur Matrix


  \left(\begin{array}{ccc|ccc}
    1 & 0 & 0  & -3 & 2 & 0 \\
    0 & 1 & 0  & 2 & -1 & 0 \\
    0 & 0 & 1  & 1 & -2 & 1
  \end{array}\right)
.

Daraus lässt sich die inverse Matrix direkt ablesen:

A^{-1} = \begin{pmatrix}
    -3 & 2 & 0 \\
    2 & -1 & 0 \\
    1 & -2 & 1
  \end{pmatrix}
.

Adjunkte

Mittels der Adjunkte und der Determinante einer Matrix berechnet sich deren Inverse nach folgender Formel:

A^{-1} = \frac{\operatorname{adj} (A)}{\det(A)}

Daraus leiten sich für 2 \times 2- und 3 \times 3-Matrizen die folgenden Formeln ab:

Formel für 2x2-Matrizen

A^{-1} = \begin{pmatrix}
a & b \\ c & d \\
\end{pmatrix}^{-1} =
\frac{1}{\det(A)} \begin{pmatrix}
d & -b \\ -c & a \\
\end{pmatrix}  =
\frac{1}{ad-bc} \begin{pmatrix}
d & -b \\ -c & a \\
\end{pmatrix}

Formel für 3x3-Matrizen

A^{-1} = \begin{pmatrix}
a & b & c\\ d & e & f \\ g & h & i \\
\end{pmatrix}^{-1} =
\frac{1}{\det(A)} \begin{pmatrix}
ei - fh & ch - bi & bf - ce \\
fg - di & ai - cg & cd - af \\
dh - eg & bg - ah & ae - bd
\end{pmatrix}

Herleitung der Formel

Die Idee, die Inverse einer Matrix mittels der Adjunkten zu berechnen, leitet sich direkt aus der cramerschen Regel ab. Nach dieser lässt sich das Gleichungssystem

Axi = ei

mit dem i-ten Einheitsvektor auf der rechten Seite durch

x_i = \begin{pmatrix}\frac{\det(A_1^{(i)})}{\det(A)} \\ \frac{\det(A_2^{(i)})}{\det(A)} \\ \vdots \\ \frac{\det(A_n^{(i)})}{\det(A)}\end{pmatrix} = \frac{1}{\det(A)} \begin{pmatrix}\det(A_1^{(i)}) \\ \det(A_2^{(i)}) \\ \vdots \\ \det(A_n^{(i)})\end{pmatrix} = \frac{1}{\det(A)} \begin{pmatrix}\tilde a_{1i} \\ \tilde a_{2i} \\ \vdots \\ \tilde a_{ni}\end{pmatrix}

lösen. Dabei entsteht die Matrix A_k^{(i)} aus A, indem man die k-te Spalte durch den i-ten Einheitsvektor ersetzt. Deren Determinante ist auf Grund der einfachen Gestalt des Einheitsvektors mit dem Cofaktor \tilde a_{ki} identisch. Es zeigt sich, dass die xi den Spalten der zu A inversen Matrix entsprechen. Dazu multipliziert man beide Seiten des eingangs gezeigten Gleichungssystems von rechts mit dem transponierten i-ten Einheitsvektor e_i^T und bildet die Summe über alle i.

\begin{matrix}
Ax_ie_i^T & = & e_ie_i^T\\
Ax_1e_1^T + Ax_2e_2^T + \cdots + Ax_ne_n^T & = & e_1e_1^T + e_2e_2^T + \cdots + e_ne_n^T\\
A \cdot (x_1e_1^T + x_2e_2^T + \cdots + x_ne_n^T) & = & E\\
A \cdot \frac{\operatorname{adj} (A)}{\det(A)} & = & E
\end{matrix}

Besondere Klassen von Matrizen

Es gibt einige Klassen von Matrizen, die auf Grund ihrer Struktur besonders einfach zu invertieren sind. Dazu zählen die Diagonalmatrizen und die Dreiecksmatrizen.

Definition

Invertierbare Matrizen über einem Körper

Es sei K ein Körper, also z. B. \mathbb R oder \mathbb C, und A sei eine n\times n-Matrix mit Einträgen aus K.

Dann ist A genau dann invertierbar, wenn eine der folgenden äquivalenten Bedingungen erfüllt ist:

  • Es gibt eine inverse Matrix A − 1, d. h. AA − 1 = A − 1A = In mit der Einheitsmatrix In.
  • Die Determinante von A ist nicht null.
  • 0 ist kein Eigenwert von A.
  • Für alle b\in K^n existiert genau eine Lösung x\in K^n des linearen Gleichungssystems Ax = b.
  • Für alle b\in K^n existiert mindestens eine Lösung x\in K^n des linearen Gleichungssystems Ax = b.
  • Für alle b\in K^n existiert höchstens eine Lösung x\in K^n des linearen Gleichungssystems Ax = b.
  • Die Zeilenvektoren bilden eine Basis von Kn.
  • Die Zeilenvektoren sind linear unabhängig.
  • Die Zeilenvektoren erzeugen Kn.
  • Die Spaltenvektoren bilden eine Basis von Kn.
  • Die Spaltenvektoren sind linear unabhängig.
  • Die Spaltenvektoren erzeugen Kn.
  • Die durch A beschriebene lineare Abbildung K^n\to K^n, x\mapsto Ax, ist bijektiv.
  • Die durch A beschriebene lineare Abbildung K^n\to K^n, x\mapsto Ax, ist injektiv.
  • Die durch A beschriebene lineare Abbildung K^n\to K^n, x\mapsto Ax, ist surjektiv.
  • Die transponierte Matrix AT ist invertierbar.

Invertierbare Matrizen über einem Ring

Es sei R ein kommutativer Ring mit Einselement, und A sei eine n\times n-Matrix mit Einträgen aus R. In dieser allgemeineren Situation sind nicht mehr alle der obigen Kriterien für die Invertierbarkeit gültig.

Die Matrix A ist genau dann invertierbar, wenn eine der folgenden äquivalenten Bedingungen erfüllt ist:

Eigenschaften

Ist λ ein Eigenwert der regulären Matrix A mit Eigenvektor \vec x, so ist \frac{1}{\lambda} Eigenwert der inversen Matrix A − 1 ebenfalls zum Eigenvektor \vec x.

Rechenregeln

Das Produkt zweier invertierbarer Matrizen ist wieder invertierbar. Es gilt

(A \cdot B)^{-1}=B^{-1} \cdot A^{-1} .

Die Inverse der transponierten Matrix entspricht der Transponierten der inversen Matrix:

\left(A^T\right)^{-1} = \left(A^{-1}\right)^T .

Die Inverse einer Matrix A ist ebenfalls invertierbar. Die Inverse der Inversen ist gerade wieder die Matrix selbst:

\left(A^{-1}\right)^{-1} = A .

Die Inverse einer Matrix A multipliziert mit einem Skalar k\ne0 ist

\left(kA\right)^{-1} = k^{-1}A^{-1}.

Weblinks


Wikimedia Foundation.

Игры ⚽ Нужно сделать НИР?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Matrix (Mathematik) — Schema für eine allgemeine m×n Matrix In der Mathematik versteht man unter einer Matrix (Plural: Matrizen) eine rechteckige Anordnung (Tabelle) von Elementen bzw. mathematischen Objekten, mit denen man in bestimmter Weise rechnen kann (z. B …   Deutsch Wikipedia

  • invertierbare Matrize — apgręžiamoji matrica statusas T sritis fizika atitikmenys: angl. invertible matrix vok. invertierbare Matrize, f; umkehrbare Matrix, f rus. обратимая матрица, f pranc. matrice inversible, f …   Fizikos terminų žodynas

  • Trigonalisierbare Matrix — Die Trigonalisierung ist ein Begriff aus der linearen Algebra, einem Teilgebiet der Mathematik. Sie bezeichnet eine Ähnlichkeitsabbildung einer quadratischen Matrix auf eine obere Dreiecksmatrix. Dies ist nicht für jede quadratische Matrix… …   Deutsch Wikipedia

  • Nilpotente Matrix — Die nilpotente Matrix und der nilpotente Endomorphismus sind Begriffe aus dem mathematischen Teilgebiet der linearen Algebra. Dabei bezeichnet man eine quadratische Matrix als nilpotent, wenn eine ihrer Potenzen die Nullmatrix ergibt: An = 0 für… …   Deutsch Wikipedia

  • Kongruenz (Matrix) — In der Linearen Algebra, einem Teilgebiet der Mathematik, nennt man zwei quadratische Matrizen A und B kongruent, wenn es eine invertierbare Matrix P gibt, sodass: B = PTAP. Dabei bedeutet PT die zu P transponierte Matrix. Die Kongruenz von… …   Deutsch Wikipedia

  • Reguläre Matrix — Die reguläre, invertierbare oder nichtsinguläre Matrix ist ein Begriff aus dem mathematischen Teilgebiet der linearen Algebra. Eine quadratische Matrix A ist invertierbar, wenn eine weitere Matrix B existiert, sodass gilt, wobei E die… …   Deutsch Wikipedia

  • Inverse Matrix — Die reguläre, invertierbare oder nichtsinguläre Matrix ist ein Begriff aus dem mathematischen Teilgebiet der linearen Algebra. Man bezeichnet damit eine quadratische Matrix A, zu der eine weitere Matrix A − 1 existiert, so dass gilt. Dabei ist E… …   Deutsch Wikipedia

  • Singuläre Matrix — Die reguläre, invertierbare oder nichtsinguläre Matrix ist ein Begriff aus dem mathematischen Teilgebiet der linearen Algebra. Man bezeichnet damit eine quadratische Matrix A, zu der eine weitere Matrix A − 1 existiert, so dass gilt. Dabei ist E… …   Deutsch Wikipedia

  • Quadratische Matrix — In der Mathematik ist eine Matrix (Plural: Matrizen) eine Tabelle von Zahlen oder anderen Größen, die addiert und multipliziert werden können. Matrizen unterscheiden sich von einfachen Tabellen dadurch, dass mit ihnen gerechnet werden kann. Wenn… …   Deutsch Wikipedia

  • Transponierte Matrix — In der Mathematik ist eine Matrix (Plural: Matrizen) eine Tabelle von Zahlen oder anderen Größen, die addiert und multipliziert werden können. Matrizen unterscheiden sich von einfachen Tabellen dadurch, dass mit ihnen gerechnet werden kann. Wenn… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”