Lineare Unabhängigkeit und lineare Abhängigkeit

Lineare Unabhängigkeit und Lineare Abhängigkeit ist ein zentrales Thema der linearen Algebra. Du solltest es daher zu einhundert Prozent verstanden haben. Wir erklären es dir mit einfachen Beispielen und Bildern.

Du möchtest dich ein bisschen zurücklehnen und nicht den ganzen Text zur linearen Abhängigkeit und linearen Unabhängigkeit lesen? Kein Problem! Dann schau dir am besten unser kurzes Video an!

Inhaltsübersicht

Lineare Unabhängigkeit und lineare Abhängigkeit einfach erklärt

Untersuchst du zwei Vektoren auf Lineare Abhängigkeit oder lineare Unabhängigkeit, so erfährst du, wie sie im Vektorraum zueinander stehen. Du kannst somit direkt erkennen, ob sie in dieselbe Richtung zeigen (lineare Abhängigkeit), oder beispielsweise eine Ebene im \mathbb{R}^n aufspannen (lineare Unabhängigkeit).

Betrachtest du mehrere Vektoren, so kann es vorkommen, dass du nicht alle benötigst, um den kompletten Vektorraum aufzuspannen. Dann sind diejenigen Vektoren, die den Raum aufspannen linear unabhängig, insgesamt ist die Familie der Vektoren jedoch linear abhängig.

linear abhängig, linear unabhängig, linear abhängige Vektoren, linear unabhängige Vektoren
direkt ins Video springen
Linear abhängige und linear unabhängige Vektoren

Lineare Abhängigkeit von Vektoren

Hier wird dir die lineare Abhängigkeit erst anhand von zwei beziehungsweise drei Vektoren erklärt, im dritten Unterpunkt findest du das allgemeine Verfahren, um Vektoren auf lineare Abhängigkeit zu prüfen.

Lineare Abhängigkeit von 2 Vektoren

Gegeben sei ein Vektorraum V , der die zwei Vektoren \vec{a} und \vec{b} enthält. Wichtig ist, dass keiner der Nullvektor ist. \vec{a} und \vec{b} sind genau dann linear abhängig, wenn sie parallel sind. Je nach Vektorraum kann es schwierig sein, die Vektoren zu zeichnen. Deswegen wollen wir lineare Abhängigkeit auch algebraisch bestimmen.

Lineare Abhängigkeit zweier Vektoren ist gegeben, wenn einer das Vielfache des anderen Vektors ist. Mathematisch bedeutet das für ein \lambda \in \mathbb{R}

\vec{a} = \lambda \cdot \vec{b}.

Beispiel 

Die Vektoren \vec{a} =  \left(\begin{matrix} -2 \\ 4\end{matrix} \right) und \vec{b} =  \left(\begin{matrix} 1 \\- 2\end{matrix} \right) sind linear abhängig, weil für \lambda = -2 gilt

\left(\begin{matrix} -2 \\ 4\end{matrix} \right)  =   -2\cdot \left(\begin{matrix} 1 \\ -2\end{matrix} \right).

Durch Multiplikation des Vektors \vec{b} mit einer Zahl (hier -2), erhältst du also den Vektor \vec{a}.

Beispiel für zwei linear abhängige Vektoren, Linear Abhängig, Linear Unabhängig, Lambda
direkt ins Video springen
Zwei linear abhängige Vektoren

Lineare Abhängigkeit von 3 Vektoren

Bei drei Vektoren ist die lineare Abhängigkeit schon etwas schwieriger zu zeigen. Hier nennen wir die drei Vektoren \vec{a}, \vec{b} und \vec{c} linear abhängig, wenn sich einer als Linearkombination der anderen beiden darstellen lässt. Das bedeutet, es existieren \lambda_1 und \lambda_2 \in \mathbb{R}, sodass

\vec{a} = \lambda_1 \cdot \vec{b} + \lambda_2 \cdot \vec{c}.

Beispiel

Die drei Vektoren \vec{a} =  \left(\begin{matrix} -1\\ 6\\0\end{matrix} \right), \vec{b} =  \left(\begin{matrix} 1\\ 0\\2\end{matrix} \right)\vec{c} =  \left(\begin{matrix} 0\\3\\ 1\end{matrix} \right) und sind linear abhängig. Das siehst du direkt, wenn du \lambda_1 = -1 und \lambda_2 = 2 wählst

\left( \begin{matrix} -1\\ 6\\0 \end{matrix} \right) = -1 \cdot \left(\begin{matrix} 1\\ 0\\2\end{matrix} \right) + 2 \cdot \left(\begin{matrix} 0\\3\\ 1\end{matrix} \right) .

Du kannst also den Vektor \vec{a} darstellen, indem du die Vektoren \vec{b} und \vec{c} mit einer bestimmten Zahl multiplizierst.

Lineare Abhängigkeit dreier Vektoren
direkt ins Video springen
Lineare Abhängigkeit dreier Vektoren
Achtung!

Drei Vektoren im \mathbb{R}^2 sind immer linear abhängig. Analog sind vier Vektoren im \mathbb{R}^3 immer linear abhängig. Das liegt daran, dass drei Vektoren ausreichen, um den ganzen \mathbb{R}^3 aufzuspannen.

Lineare Abhängigkeit von Vektoren allgemein

Obige Aussagen lassen sich leicht verallgemeinern. Wir definieren lineare Abhängigkeit für n verschiedene Vektoren v_1, \ldots, v_n , wenn es \lambda_i \in \mathbb{R} gibt, sodass der Nullvektor \vec{0} als Linearkombination aller v_i, i = \{1, \ldots, n\} dargestellt werden kann. Es muss also gelten

\vec{0} =\sum\limits_{i=1}^n \lambda_i v_i,

wobei nicht alle \lambda_i =0 sein dürfen.  Alternativ kann man auch sagen, dass  v_1, \ldots, v_n linear abhängig sind, wenn v_k mit k \in \{1, \ldots, n\} als Linearkombination der anderen Vektoren v_1, \ldots, v_{k-1}, v_{k+1}, \dots, v_n dargestellt werden kann

v_k = \sum\limits_{i=1, i \neq k}^n \lambda_i v_i.

Diese Definition siehst du sofort an den Beispielen oben.

Achtung
  • Der Nullvektor ist immer linear abhängig
  • Trivialerweise ist \vec{0} =\sum\limits_{i=1}^n \lambda_i v_i,, wenn alle \lambda_i = 0 sind. Diesen Fall musst du immer ausschließen, wenn du lineare Abhängigkeit prüfst.

Lineare Unabhängigkeit von Vektoren

Lineare Abhängigkeit kannst du jetzt bestimmen, aber wann sind Vektoren linear unabhängig? Ganz einfach: Lineare Unabhängigkeit ist immer gegeben, wenn die Vektoren nicht linear abhängig sind!

Und wie prüft man das am besten? Das siehst du hier direkt am Beispiel oder formal im nächsten Absatz.

Beispiel 1

Die Vektoren \vec{a} =  \left(\begin{matrix} 1\\ 2\\3\end{matrix} \right) und \vec{b} =  \left(\begin{matrix} 4\\8\\ 10\end{matrix} \right) sind linear unabhängig, weil für alle \lambda \in \mathbb{R} gilt

\left(\begin{matrix} 1\\ 2\\3\end{matrix} \right)  \neq \lambda\cdot \left(\begin{matrix}4\\8\\10\end{matrix} \right).

Erhältst du den Nullvektor nur als Linearkombination der Vektoren, wenn alle \lambda_i = 0 sind, bedeutet das die lineare Unabhängigkeit der Vektoren  v_1, \ldots, v_n.

Konkret heißt das

\vec{0} = \sum\limits_{i=1}^n \lambda_i v_i \Longrightarrow \lambda_i = 0 \quad \forall i.

Beispiel 2

Wir wollen die Vektoren \vec{a} =\left( \begin{matrix} 1\\ 0 \\ 0 \end{matrix} \right)  \vec{b}=\left( \begin{matrix} 2\\ 0 \\ 3 \end{matrix} \right) und   \vec{c}=\left( \begin{matrix}0\\ 1 \\ 4 \end{matrix} \right) auf lineare Unabhängigkeit untersuchen. Wir müssen also zeigen, dass aus

\vec{0} = \lambda_1 \cdot \vec{a} + \lambda_2 \cdot \vec{b}+ \lambda_3 \cdot \vec{c}

folgt, dass \lambda_1 = \lambda_2 = \lambda_3 =0 ist.

Im folgenden Abschnitt erfährst du, welche verschiedenen Varianten du dafür verwenden kannst.

Lineare Unabhängigkeit prüfen

Es gibt verschiedene Möglichkeiten, die lineare Unabhängigkeit der Vektoren aus Beispiel 2 nachzurechnen. Zum einen kannst du das zugehörige lineare Gleichungssystem lösen. Das kann je nach Dimension deines Vektorraums etwas ausarten. Schneller geht es mit dem Gaußschen Eliminationsverfahren oder mit der Determinante.

Gleichungssystem lösen

Dazu betrachten wir die Vektoren komponentenweise und lösen das Gleichungssystem:

(I)       0= 1 \cdot \lambda_1 + 2 \cdot\lambda_2 + 0\cdot \lambda_3

(II)      0=  0 \cdot \lambda_1 + 0 \cdot\lambda_2 + 1\cdot \lambda_3

(III)     0=  0 \cdot \lambda_1 + 3 \cdot\lambda_2 + 4\cdot \lambda_3.

Aus (II) sehen wir direkt, dass \lambda_3 = 0 gelten muss. Einsetzen in (III) liefert uns \lambda_2 = 0. Damit ist in (I) auch \lambda_1 = 0. Wir haben lineare Unabhängigkeit gezeigt.

Gaußsches Eliminationsverfahren

Ein Gleichungssystem explizit auszurechnen, ist je nach Vektorraum und Anzahl der Vektoren etwas mühsam. Leichter und schneller geht es mit dem Gaußschen Eliminationsverfahren . Dazu schreibst du deine Vektoren nebeneinander in eine Matrix und formst sie entsprechend um.

 Nullzeile oder -Spalte in der Matrix \Longrightarrow Lineare Abhängigkeit der Vektoren

Keine Nullzeile oder-Spalte in der Matrix \Longrightarrow Lineare Unabhängigkeit der Vektoren.

In Beispiel 2 sieht die Matrix folgendermaßen aus:

A = \left( \begin{matrix} 1 & 2 & 0 \\ 0 & 0 & 1 \\ 0 & 3 & 4 \end{matrix} \right).

Wir sehen sofort, dass sich mit dem Gauß Algorithmus keine Nullzeile beziehungsweise Nullspalte erzeugen lässt. Somit sind unsere Vektoren also linear unabhängig.

Merke

Elementare Umformungen, wie das Gauschen Eliminationsverfahren, verändern die lineare Abhängigkeit oder lineare Unabhängigkeit nicht.

Determinante

Ergeben deine Vektoren eine quadratische Matrix A, so kannst du die lineare Unabhängigkeit über die Determinate prüfen. Es gilt

\det(A) = 0 \Longrightarrow Lineare Abhängigkeit

\det(A) \neq 0 \Longrightarrow Lineare Unabhängigkeit.

Im Beispiel 2 sieht man direkt, dass \det(A) = 3 \neq 0 ist, somit haben wir abermals lineare Unabhängigkeit gezeigt.

Lineare Abhängigkeit und lineare Unabhängigkeit von Matrizen

Nicht nur Vektoren können linear abhängig oder unabhängig sein, sondern alle Elemente, die in einem Vektorraum leben. Betrachten wir also z.B. den Raum aller 2\times 2-Matrizen \mathbb{R}^{2\times 2}. Er enthält zum Beispiel die Matrizen

 A = \left( \begin{matrix} 0 & 1  \\ 1 & 2 \end{matrix} \right), B = \left( \begin{matrix} 0 & 3  \\ 3 & 5 \end{matrix} \right), C = \left( \begin{matrix} 0 & 0  \\ 0 & 1 \end{matrix} \right).

Diese sind linear abhängig, da

\left( \begin{matrix} 0 & 0  \\ 0 & 0 \end{matrix} \right) = -3 \cdot  \left( \begin{matrix} 0 & 1  \\ 1 & 2 \end{matrix} \right) +  \left( \begin{matrix} 0 & 3  \\ 3 & 5 \end{matrix}\right) +\left( \begin{matrix} 0 & 0  \\ 0 & 1 \end{matrix} \right).

Wie du siehst, funktioniert lineare Abhängigkeit und lineare Unabhängigkeit hier genauso!

Lineare Abhängigkeit und Lineare Unabhängigkeit: Bedeutung

Jetzt kannst du lineare Abhängigkeit und lineare Unabhängigkeit von Vektoren bestimmen. Doch wozu braucht man das überhaupt? Die vermutlich wichtigste Anwendung ist die Bestimmung einer Basis des Vektorraums. Für eine Basis brauchst du die maximale Anzahl linear unabhängiger Vektoren. Das sind die Vektoren, die du brauchst, um den ganzen Vektorraum aufzuspannen. Das einfachste Beispiel ist hier die Standardbasis des \mathbb{R}^n. Sie besteht aus den Einheitsvektoren, die nur in einem Eintrag eine 1 stehen haben.

Die Standardbasis des \mathbb{R}^3 sieht zum Beispiel so aus:

\left\{ \left( \begin{matrix} 1\\0\\0\end{matrix} \right), \left( \begin{matrix} 0\\1\\0\end{matrix} \right), \left( \begin{matrix} 0\\0\\1\end{matrix} \right) \right\}.

Hallo, leider nutzt du einen AdBlocker.

Auf Studyflix bieten wir dir kostenlos hochwertige Bildung an. Dies können wir nur durch die Unterstützung unserer Werbepartner tun.

Schalte bitte deinen Adblocker für Studyflix aus oder füge uns zu deinen Ausnahmen hinzu. Das tut dir nicht weh und hilft uns weiter.

Danke!
Dein Studyflix-Team

Wenn du nicht weißt, wie du deinen Adblocker deaktivierst oder Studyflix zu den Ausnahmen hinzufügst, findest du hier eine kurze Anleitung. Bitte .