Linear unabhängig

Linear unabhängig

In der linearen Algebra wird eine Familie von Vektoren eines Vektorraums linear unabhängig genannt, wenn sich der Nullvektor nur durch eine Linearkombination der Vektoren erzeugen lässt, in der alle Koeffizienten der Kombination auf den Wert Null gesetzt werden. Man kann zeigen, dass diese Bedingung dazu äquivalent ist, dass sich keiner der Vektoren als Linearkombination der anderen darstellen lässt. Andernfalls heißen sie linear abhängig. Die Bezeichnung „linear voneinander abhängig“ ist unpräzise, da diese fälschlicherweise suggeriert, dass jeder der beteiligten Vektoren sich durch die anderen darstellen lässt.

Zum Beispiel sind im dreidimensionalen Euklidischen Raum \mathbb{R}^3 die Vektoren (1,0,0), (0,1,0) und (0,0,1) linear unabhängig. Die Vektoren (2, − 1,1), (1,0,1) und (3, − 1,2) sind hingegen nicht linear unabhängig, denn der dritte Vektor ist die Summe der beiden ersten, d.h. die Summe der ersten beiden minus den dritten ergibt den Nullvektor. Die Vektoren (1,2, − 3), ( − 2, − 4,6) und (1,1,1) sind wegen 2\cdot(1,2,{-3})+({-2},{-4},6)=(0,0,0) ebenfalls linear abhängig; jedoch ist hier der dritte Vektor nicht als Linearkombination der beiden anderen darstellbar.

Inhaltsverzeichnis

Definition

Es sei V ein Vektorraum über dem Körper K und I eine Indexmenge. Eine durch I indizierte Familie (\mathbf v_i)_{i\in I} heißt linear unabhängig, wenn jede hierin enthaltene endliche Teilfamilie linear unabhängig ist.

Eine endliche Familie  \mathbf{v}_1, \mathbf{v}_2,\dots, \mathbf{v}_n von Vektoren aus V heißt linear unabhängig, wenn die einzig mögliche Darstellung des Nullvektors als Linearkombination

a_1 \cdot \mathbf{v}_1 + a_2 \cdot \mathbf{v}_2 +\ ...\  + a_n \cdot \mathbf{v}_n = \mathbf{0}

mit Koeffizienten a_1, a_2,\dots,a_n aus dem Grundkörper K diejenige ist, bei der alle Koeffizienten ai gleich Null sind. Lässt sich dagegen der Nullvektor auch nichttrivial (mit Koeffizienten ungleich Null) erzeugen, dann sind die Vektoren linear abhängig.

Die Familie (\mathbf v_i)_{i\in I} ist also linear abhängig genau dann, wenn es Koeffizienten (a_i)_{i\in I} gibt, von denen fast alle, aber nicht alle gleich 0 sind, so dass

\sum_{i\in I}a_i\cdot\mathbf v_i=\mathbf 0.

Achtung: Der Nullvektor \mathbf{0} ist ein Element des Vektorraumes V, während 0 ein Element aus dem Körper K ist!

Andere Charakterisierungen und einfache Eigenschaften

  • Die Vektoren \mathbf v_1,\ldots,\mathbf v_n sind genau dann linear unabhängig, wenn sich keiner von ihnen als Linearkombination der anderen darstellen lässt.
    Diese Aussage gilt nicht im allgemeineren Kontext von Moduln über Ringen.
  • Eine Variante dieser Aussage ist das Abhängigkeitslemma: Sind \mathbf v_1,\ldots,\mathbf v_n linear unabhängig und \mathbf v_1,\ldots,\mathbf v_n,\mathbf w linear abhängig, so lässt sich \mathbf w als Linearkombination von \mathbf v_1,\ldots,\mathbf v_n schreiben.
  • Ist eine Familie von Vektoren linear unabhängig, so ist jede Teilfamilie dieser Familie ebenfalls linear unabhängig. Ist eine Familie hingegen linear abhängig, so ist jede Familie, die diese abhängige Familie beinhaltet, ebenso linear abhängig.
  • Elementare Umformungen der Vektoren verändern die lineare Abhängigkeit oder die lineare Unabhängigkeit nicht.
  • Die Anzahl der linear unabhängigen Vektoren in einer Familie von Vektoren \mathbf v_1,\ldots,\mathbf v_n entspricht dem Rang der Matrix \begin{pmatrix}\mathbf v_1\mid\ldots\mid\mathbf v_n\end{pmatrix}. Durch Hinzufügen und Entfernen eines Vektors und Vergleich des Rangs der Matrizen, kann die lineare Abhängigkeit eines Vektors von einer beliebigen Familie geprüft werden.

Bedeutung

Lineare Gleichungssysteme

In einer Linearkombination sind die Koeffizienten eindeutig bestimmt, wenn die Vektoren  \mathbf{v}_1, \mathbf{v}_2,\ ..., \mathbf{v}_n linear unabhängig sind. Dies kann zur Feststellung der Lösbarkeit von linearen Gleichungssystemen benutzt werden. Das lineare Gleichungssystem ist genau dann eindeutig lösbar, wenn die Spaltenvektoren der Koeffizientenmatrix linear unabhängig sind.

Die Überprüfung, ob zum Beispiel drei Vektoren aus \mathbb{R}^3 linear unabhängig sind, entspricht dem Lösen eines linearen Gleichungssystems. Dazu wird aus

 \mathbf{0} = a_1 \cdot \mathbf{u} + a_2 \cdot \mathbf{v} + a_3 \cdot \mathbf{w}

ein homogenes lineares Gleichungssystem gebildet:

 0 = a_1 \cdot u_x + a_2 \cdot v_x + a_3 \cdot w_x
 0 = a_1 \cdot u_y + a_2 \cdot v_y + a_3 \cdot w_y
 0 = a_1 \cdot u_z + a_2 \cdot v_z + a_3 \cdot w_z

und mittels des gaußschen Eliminationsverfahrens nach a1,a2,a3 gelöst. Gibt es nur eine einzige Lösung, nämlich dass a1 = a2 = a3 = 0, dann sind die Vektoren linear unabhängig. Existieren weitere Lösungen, sind sie linear abhängig.

Basen

Wichtig ist das Konzept der linearen Unabhängigkeit in Bezug auf die Basis eines Vektorraums. Eine Basis ist ein linear unabhängiges Erzeugendensystem. Basen erlauben es, in beliebigen Vektorräumen mit Koordinaten zu rechnen.

Beispiele

Beispiel 1: einzelner Vektor

Der Vektor  \mathbf{v} sei ein Element des Vektorraums V über K. Dann ist der einzelne Vektor \mathbf{v} für sich genau dann linear unabhängig, wenn gilt, dass \mathbf{v} \neq \mathbf{0} (d.h. ungleich dem Nullvektor ist).

Denn aus der Definition des Vektorraums folgt, dass wenn

 a \cdot \mathbf{v} = 0 mit  a \isin K, \mathbf{v} \isin V

nur a = 0 oder \mathbf{v}=\mathbf{0} sein kann!

Beispiel 2: zwei bestimmte Vektoren in  \mathbb{R}^2

Die Vektoren \mathbf{u}= \begin{pmatrix}1\\1\end{pmatrix} und \mathbf{v}=\begin{pmatrix}-3\\2\end{pmatrix} sind in  \mathbb{R}^2 linear unabhängig.

Beweis:    für a,b \isin \mathbb{R} gelte

 a \cdot \mathbf{u} + b \cdot \mathbf{v} = \mathbf{0},

d.h.

 a \cdot \begin{pmatrix}1\\1\end{pmatrix} + b \cdot \begin{pmatrix}-3\\2\end{pmatrix} = \begin{pmatrix}0\\0\end{pmatrix}

Dann gilt

\begin{pmatrix}a-3b\\a+2b\end{pmatrix}=\begin{pmatrix}0\\0\end{pmatrix},

also

a-3b=0 \ \wedge \ a+2b=0.

Dieses Gleichungssystem ist nur für die Lösung a = 0, b = 0 (die sogenannte triviale Lösung) erfüllt; d.h. u und v sind linear unabhängig.

Beispiel 3: „natürliche“ Basis in  \mathbb{R}^n

Im Vektorraum  V= \mathbb{R}^n betrachte folgende Elemente (die natürliche oder Standard-Basis von V):

 \mathbf{e}_1=(1,0,0,\ ...,0)
 \mathbf{e}_2=(0,1,0,\ ...,0)
...
 \mathbf{e}_n=(0,0,0,\ ...,1)

Dann ist die Vektorfamilie  (\mathbf{e}_i)_{i \isin I} mit  I=\{1,2,\ ...,n\} linear unabhängig.

Beweis:    Für a_1, a_2,\ ...,a_n \isin \mathbb{R} gelte

 a_1 \cdot \mathbf{e}_1 + a_2 \cdot \mathbf{e}_2 +\ ...\ + a_n \cdot \mathbf{e}_n = \mathbf{0}.

Dann gilt aber auch

 a_1 \cdot \mathbf{e}_1 + a_2 \cdot \mathbf{e}_2 +\ ...\ + a_n \cdot \mathbf{e}_n = (a_1,a_2,\ ...,a_n) = \mathbf{0},

und daraus folgt, dass ai = 0 für alle i \isin \{1,2, ...,n\}.

Beispiel 4: Funktionen als Vektoren

Sei V der Vektorraum aller Funktionen f\colon\mathbb R\to\mathbb R. Die beiden Funktionen et und e2t in V sind linear unabhängig.

Beweis: Es seien a,b \in \mathbb{R} und es gelte

 a \cdot \mathrm{e}^t + b \cdot \mathrm{e}^{2t} = 0

für alle t\in\mathbb R. Leitet man diese Gleichung nach t ab, dann erhält man eine zweite Gleichung

 a \cdot \mathrm{e}^t + 2b \cdot \mathrm{e}^{2t} = 0

Indem man die erste von der zweiten Gleichung subtrahiert, erhält man

 b \cdot \mathrm{e}^{2t} =0

Da diese Gleichung für alle t und damit insbesondere auch für t = 0 gelten muss, folgt daraus durch Einsetzen von t = 0, dass b = 0 sein muss. Setzt man das so berechnete b wieder in die erste Gleichung ein, dann ergibt sich

 a \cdot \mathrm{e}^t + 0 = 0

Daraus folgt wieder, dass (für t = 0) a = 0 sein muss.

Da die erste Gleichung nur für a = 0 und b = 0 lösbar ist, sind die beiden Funktionen et und e2t linear unabhängig.

Siehe auch: Wronski-Determinante

Beispiel 5: Reihen

Sei V der Vektorraum aller reellwertigen stetigen Funktionen f\colon (0,1)\to\mathbb R auf dem offenen Einheitsintervall. Dann gilt zwar

\frac 1{1-x}=\sum_{n=0}^\infty x^n,

aber dennoch sind \tfrac 1{1-x}, 1, x, x^2,\ldots linear unabhängig. Linearkombinationen aus Potenzen von x sind nämlich nur Polynome und keine allgemeinen Potenzreihen, insbesondere also in der Nähe von 1 beschränkt, so dass sich \tfrac1{1-x} nicht als Linearkombination von Potenzen darstellen lässt.

Beispiel 6: Zeilen und Spalten einer Matrix

Interessant ist auch die Frage, ob die Zeilen einer Matrix linear unabhängig sind oder nicht. Dabei werden die Zeilen als Vektoren betrachtet. Falls die Zeilen einer quadratischen Matrix linear unabhängig sind, so nennt man die Matrix regulär, andernfalls singulär. Die Spalten einer quadratischen Matrix sind genau dann linear unabhängig, wenn die Zeilen linear unabhängig sind. Beispiel einer Folge von regulären Matrizen: Hilbert-Matrix.

Beispiel 7: Rationale Unabhängigkeit

Zahlen aus  \mathbb{R}, die sich nicht als Linearkombinationen mit Zahlen aus  \mathbb{Q} darstellen lassen nennt man rational unabhängig oder inkommensurabel (siehe auch Inkommensurabilität (Mathematik)). Die Zahlen  \lbrace 1, \, 1/ \sqrt{2} \rbrace sind rational unabhängig, oder inkommensurabel. Die Zahlen  \lbrace 1, \, 1/ \sqrt{2} , 1 + \sqrt{2} \rbrace sind rational abhängig.

Verallgemeinerung

Der Begriff der linearen Unabhängigkeit lässt sich weiter zu einer Betrachtung von unabhängigen Mengen verallgemeinern, siehe dazu Matroid.


Wikimedia Foundation.

Игры ⚽ Поможем написать реферат

Schlagen Sie auch in anderen Wörterbüchern nach:

  • linear unabhängig — linear unabhängig,   Mathematik: Vektorraum …   Universal-Lexikon

  • Linear abhängig — In der linearen Algebra wird eine Familie von Vektoren eines Vektorraums linear unabhängig genannt, wenn sich der Nullvektor nur durch eine Linearkombination der Vektoren erzeugen lässt, in der alle Koeffizienten der Kombination auf den Wert Null …   Deutsch Wikipedia

  • Linear programming — Dieser Artikel oder Abschnitt ist nicht hinreichend mit Belegen (Literatur, Webseiten oder Einzelnachweisen) versehen. Die fraglichen Angaben werden daher möglicherweise demnächst gelöscht. Hilf Wikipedia, indem du die Angaben recherchierst und… …   Deutsch Wikipedia

  • Linear-elastische Bruchmechanik — Risse in einem Bauteil führen zu einer starken Überhöhung der Spannung in der Nähe der Rissfront. Theoretisch wird diese entsprechend dem Konzept der linear elastischen Bruchmechanik [LEBM] (Englisch: linear elastic fracture mechanics) an der… …   Deutsch Wikipedia

  • Lineare Unabhängigkeit — In der linearen Algebra wird eine Familie von Vektoren eines Vektorraums linear unabhängig genannt, wenn sich der Nullvektor nur durch eine Linearkombination der Vektoren erzeugen lässt, in der alle Koeffizienten der Kombination auf den Wert Null …   Deutsch Wikipedia

  • Lineare Abhängigkeit — In der linearen Algebra wird eine Familie von Vektoren eines Vektorraums linear unabhängig genannt, wenn sich der Nullvektor nur durch eine Linearkombination der Vektoren erzeugen lässt, in der alle Koeffizienten der Kombination auf den Wert Null …   Deutsch Wikipedia

  • Austauschlemma von Steinitz — In der linearen Algebra ist eine Basis eine Teilmenge eines Vektorraumes, mit deren Hilfe sich jeder Vektor des Raumes eindeutig als endliche Linearkombination darstellen lässt. Die Koeffizienten dieser Linearkombination heißen die Koordinaten… …   Deutsch Wikipedia

  • Basis (Vektorraum) — In der linearen Algebra ist eine Basis eine Teilmenge eines Vektorraumes, mit deren Hilfe sich jeder Vektor des Raumes eindeutig als endliche Linearkombination darstellen lässt. Die Koeffizienten dieser Linearkombination heißen die Koordinaten… …   Deutsch Wikipedia

  • Basisfunktion — In der linearen Algebra ist eine Basis eine Teilmenge eines Vektorraumes, mit deren Hilfe sich jeder Vektor des Raumes eindeutig als endliche Linearkombination darstellen lässt. Die Koeffizienten dieser Linearkombination heißen die Koordinaten… …   Deutsch Wikipedia

  • Basisvektor — In der linearen Algebra ist eine Basis eine Teilmenge eines Vektorraumes, mit deren Hilfe sich jeder Vektor des Raumes eindeutig als endliche Linearkombination darstellen lässt. Die Koeffizienten dieser Linearkombination heißen die Koordinaten… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”