Lineare Unabhängigkeit von Vektoren – Serlo „Mathe für Nicht-Freaks“

Aus Wikibooks

Motivation [Bearbeiten]

Grundmotivation[Bearbeiten]

Aus der Schule kennen wir Vektoren als Pfeile in der Ebene oder im Raum. Sowohl die Ebene als auch der Raum sind Vektorräume. Aber worin unterscheiden sie sich?

Eine spontane Antwort könnte lauten: „Die Ebene ist zweidimensional und der Raum dreidimensional.“ Das bringt uns aber gleich zu weiteren Fragen:

  • Was ist die Dimension eines Vektorraums?
  • Wie können wir sie definieren?

In der Definition des Vektorraums kommt der Begriff „Dimension“ nämlich nicht vor...

Intuition der Dimension[Bearbeiten]

Eine Kugel ist ein dreidimensionales Objekt

Der Begriff „Dimension“ beschreibt, in wie viele unabhängige Richtungen geometrische Objekte in einem Raum ausgedehnt sein können. Die Objekte können sich auch in genau so vielen unabhängigen Richtungen im Raum bewegen („Freiheitsgrade der Bewegung“).

Die Ebene hat zwei Dimensionen – die Breite und die Länge. Sie ist flach, kein Objekt der Ebene kann in die Höhe reichen. Eine Kugel kann als dreidimensionales Objekt also nicht Teil der Ebene sein. Im Gegensatz dazu besitzt der Raum mit Länge, Breite und Höhe drei Dimensionen. Eine Kugel kann so Teil eines Raums sein.

Wir fassen zusammen: Die Dimension entspricht intuitiv der Anzahl der unabhängigen Richtungen, in die sich ein geometrisches Objekt ausdehnen bzw. bewegen kann. Für die Definition der Dimension müssen wir also folgende Fragen beantworten:

  • Was ist eine Richtung in einem Vektorraum?
  • Wann sind zwei Richtungen unabhängig?
  • Wie kann die Anzahl der unabhängigen Richtungen bestimmt werden?

Herleitung der Definition[Bearbeiten]

Was ist eine Richtung in einem Vektorraum?[Bearbeiten]

Nehmen wir als Beispiel den Vektorraum der Ebene. Eine Richtung können wir mit einem Pfeil darstellen:

Pfeil, der eine Richtung in der Ebene markiert
Pfeil, der eine Richtung in der Ebene markiert

Nun ist ein Pfeil nichts anderes als ein Vektor. Mit Hilfe von Vektoren können also Richtungen repräsentiert werden. Dabei dürfen wir nicht den Nullvektor verwenden. Als Pfeil der Länge Null hat dieser nämlich keine Richtung. Dies können wir auf beliebige Vektorräume verallgemeinern:

Jeder Vektor ungleich dem Nullvektor repräsentiert eine Richtung in einem Vektorraum.

Die Richtung, in die der Vektor zeigt ist , also der Spann des Vektors . Zu diesem Spann gehören alle Streckungen des Richtungsvektor und beschreibt damit die Gerade, die durch aufgespannt wird:

Eine Gerade, die durch den Vektor v beschrieben wird
Eine Gerade, die durch den Vektor v beschrieben wird

Von der Geraden zur Ebene[Bearbeiten]

Um jetzt von der Geraden zur Ebene zu kommen, benötigen wir nicht nur einen Vektor sondern mehrere, genauer gesagt mindestens zwei Vektoren (). Dies erschließt sich ja auch intuitiv, da man eine Ebene nur mit zwei Vektoren eindeutig aufspannen kann. Deshalb brauchen wir einen weiteren, linear unabhängigen Vektor. Was bedeutet in diesem Fall „unabhängig“? Zunächst stellen wir fest, dass der neue Vektor nicht der Nullvektor sein darf. Dieser gibt nämlich keine Richtung an. Weiterhin darf der neue Vektor auch kein Vielfaches des ursprünglichen Vektors sein, also . Dies gilt auch für Spiegelungen des Geradenvektors, also Vielfache mit einem negativen Faktor.

Wir fassen zusammen: Der neue Vektor ist genau dann unabhängig vom Richtungsvektor , wenn dieser nicht auf der Geraden liegt. Es muss also für alle reellen Zahlen sein. Der neue Vektor darf also nicht im Spann des anderen liegen. Die beiden Vektoren haben nur den Nullpunkt als Schnittpunkt.

Von der Ebene zum Raum[Bearbeiten]

Wir haben gesehen, dass wir eine Ebene durch zwei unabhängige Vektoren charakterisieren können. Nun möchten wir von der Ebene zum Raum übergehen. Auch hier müssen wir eine unabhängige Richtung hinzunehmen. Was ist aber eine zur Ebene unabhängige Richtung?

Der neue Vektor darf nicht der Nullvektor sein, weil dieser keine Richtung angibt. Der neue Vektor darf auch nicht in der Ebene liegen, da so keine neue Richtung beschrieben wird. Genau dann wenn der neue Vektor nicht in der Ebene liegt, dann zeigt er in eine neue unabhängige Richtung:

Wie können wir diese Erkenntnis mathematisch formulieren? Seien und die beiden Richtungsvektoren, die die Ebene aufspannen. Diese Ebene ist dann gleich der Menge . Die Ebene ist damit die Menge aller Summen für reelle Zahlen . Damit der neue Vektor nicht in der Ebene liegt, muss für alle sein. Damit ist unabhängig von und genau dann, wenn ist. Mit anderen Worten: .

Verständnisfrage: Wir hatten zuerst gefordert, dass der neue Vektor nicht der Nullvektor sein darf. Warum reicht es aus, dass für alle ist? Warum impliziert dies, dass ist?

Für ist . Da auch für der neue Vektor ungleich sein soll, folgt .

Verständnisfrage: Reicht es aus, dass kein Vielfaches von beziehungsweise ist?

Nein, nehme zum Beispiel . Wenn unabhängig von ist, dann ist weder eine Streckung von noch von . Jedoch liegt dieser Vektor in der von und aufgespannten Ebene und bildet damit keine unabhängige Richtung von und .

Ein erstes Kriterium für lineare Unabhängigkeit[Bearbeiten]

Fassen wir zusammen: Zur Beschreibung einer Geraden benötigten wir einen Vektor ungleich dem Nullvektor. Im Übergang von der Geraden zur Ebene mussten wir einen zu unabhängigen Vektor hinzufügen. Unabhängigkeit von zur Richtung bedeutet hier, dass nicht in der von beschriebenen Geraden liegt. Es musste also für alle sein.

Im zweiten Schritt haben wir der Ebene eine neue Richtung hinzugefügt, die von den beiden Vektoren und unabhängig ist. Hier manifestiert sich Unabhängigkeit darin, dass nicht in der von und aufgespannten Ebene liegt. Es muss also für alle reellen Zahlen und sein. Dies können wir für eine beliebige Anzahl an Vektoren verallgemeinern (jedoch kann man sich das nicht mehr so gut vorstellen):

Der Vektor ist unabhängig von den Vektoren , wenn für alle ist.

In der obigen Beschreibung kommt die Summe vor. Eine solche Summe wird Linearkombination der Vektoren bis genannt. Wir können auch sagen, dass linear unabhängig ist, wenn . Die Beschreibung kann geändert werden zu:

Der Vektor ist unabhängig von den Vektoren , wenn nicht als Linearkombination der Vektoren bis dargestellt werden kann.

Hier haben wir geklärt, wann ein Vektor unabhängig von anderen Vektoren ist. Reicht dies aus, um die Unabhängigkeit von Vektoren zu beschreiben?! Nimm folgende drei Vektoren , und :

Drei Vektoren, die in einer Ebene liegen
Drei Vektoren, die in einer Ebene liegen

Weil kein Vektor ein Vielfaches eines anderen Vektoren ist, zeigen die drei Vektoren paarweise gesehen in unabhängige Richtungen. Beispielsweise ist unabhängig zu und ist unabhängig zu . Insgesamt gesehen sind die drei Vektoren jedoch nicht unabhängig voneinander, weil sie alle in einer Ebene liegen. Es ist und damit ist abhängig zu und . Dementsprechend müssen wir für die lineare Unabhängigkeit zwischen , und fordern:

  • ist unabhängig zu und : Es ist für alle .
  • ist unabhängig zu und : Es ist für alle .
  • ist unabhängig zu und : Es ist für alle .

An dieser Stelle sei betont, dass es nötig ist alle drei Bedingungen zu fordern. Würden wir auf die letzten beiden Bedingungen verzichten, so würde die erste Forderung zwar garantieren, dass der Vektor linear unabhängig von den Vektoren und ist, aus dieser Forderung ist aber nicht klar, dass und linear unabhängig voneinander sind. Dies muss nicht erfüllt sein, wodurch dann die drei Vektoren untereinander wieder nicht linear unabhängig wären.

Es darf also keiner der drei Vektoren als Linearkombination der anderen zwei Vektoren dargestellt werden können. Ansonsten ist nämlich mindestens einer der Vektoren zu den anderen Vektoren abhängig. Dies können wir für eine beliebige Anzahl von Vektoren verallgemeinern:

Definition (Erstes Kriterium für lineare Unabhängigkeit)

Vektoren bis sind linear unabhängig, wenn keiner der Vektoren als Linearkombination der anderen Vektoren dargestellt werden kann. Damit muss gelten:

  • Es ist für alle .
  • Es ist für alle .
  • ...
  • Es ist für alle .

Es sind also bis linear unabhängig, wenn für alle und ist.

Vom ersten Kriterium zur formalen Definition[Bearbeiten]

Mit unserem ersten Kriterium, welches wir oben gefunden haben, haben wir bereits eine passende Definition für die lineare Unabhängigkeit von Vektoren gefunden. Wir wollen im Folgenden versuchen eine knappere äquivalente Definition zu finden, mit Hilfe derer wir die lineare Unabhängigkeit von Vektoren leichter untersuchen können.

Vektoren sind genau dann unabhängig voneinander, wenn sich kein Vektor als Linearkombination der anderen Vektoren darstellen lässt. Daraus werden wir ein weiteres Kriterium für lineare Unabhängigkeit herleiten, welches weniger rechenaufwändig ist. Nehmen wir Vektoren , bis aus einem Vektorraum , die nicht unabhängig sind. Es gibt also einen Vektor, der durch die anderen dargestellt werden kann. Sei dieser Vektor. Es gibt damit Streckungsfaktoren (Skalare) bis , so dass gilt:

Diese Gleichung können wir umstellen, indem wir auf beiden Seiten rechnen ( ist der Nullvektor des Vektorraums ):

Dies ist eine sogenannte nichttriviale Linearkombination des Nullvektors. Eine nichttriviale Linearkombination des Nullvektors ist eine Linearkombination mit dem Ergebnis , bei dem mindestens ein Koeffizient ungleich ist. Für ist nämlich immer . Dies ist die sogenannte triviale Linearkombination des Nullvektors, bei der alle Koeffizienten gleich sind. Diese triviale Linearkombination kannst du stets bilden, egal welche Vektoren bis du wählst. Wenn bis abhängig voneinander sind, gibt es neben der trivialen Linearkombintion noch mindestens eine nichttriviale Linearkombination des Nullvektors (wie wir es oben gesehen haben). Also:

Wenn bis abhängig voneinander sind, dann kann der Nullvektor durch bis durch mindestens eine nichttriviale Linearkombination dargestellt werden.

Anders ausgedrückt:

sind abhängig Es existiert eine nicht triviale Linearkombination von durch

Nun können wir das Prinzip der Kontraposition anwenden. Dieses besagt, dass eine Aussage genau dann gilt, wenn . Also gilt auch:

Es existiert keine nichttriviale Linearkombination von durch sind unabhängig

Damit haben wir ein Kriterium für Unabhängigkeit gefunden. Wenn der Nullvektor nur trivial durch eine Linearkombination von bis dargestellt werden kann, dann sind diese Vektoren unabhängig. Dieses Kriterium kann aber auch als Definition der linearen Unabhängigkeit benutzt werden. Hierzu müssen wir die Rückrichtung der obigen Implikation zeigen. Wenn es eine nichttriviale Linearkombination des Nullvektors gibt, dann sind die betrachteten Vektoren abhängig voneinander.

Seien also bis Vektoren, für die es eine nichttriviale Linearkombination des Nullvektors gibt. Es gibt also Koeffizienten (Skalare) bis , derart dass und mindestens einer der Koeffizienten bis ungleich ist. Sei dieser Koeffizient. Dann ist

Wegen können wir beide Seiten mit multiplizieren. Wir erhalten damit

Auf beiden Seiten können wir nun addieren:

Damit kann als Linearkombination der anderen Vektoren dargestellt werden und somit sind die Vektoren bis abhängig voneinander. Dies beweist insgesamt die formale Definition der linearen Unabhängigkeit:

Definition (Zweites Kriterium für Lineare Unabhängigkeit)

Die Vektoren sind linear unabhängig, wenn mit ihnen der Nullvektor nur durch die triviale Linearkombination dargestellt werden kann, d.h. wenn wir haben mit , dann folgt für alle .

Wenn es mindestens eine nichttriviale Linearkombination des Nullvektors gibt, sind die betrachteten Vektoren linear abhängig voneinander.

Definition des Begriffs Familie[Bearbeiten]

Wir haben oben davon gesprochen, dass eine Ansammlung von Vektoren linear unabhängig ist. Aber was ist diese Ansammlung von Vektoren aus mathematischer Sicht? Wir kennen bereits den Begriff einer Menge. Also ist es naheliegend auch als Menge aufzufassen. Passt diese Auffassung intuitiv zur linearen Unabhängigkeit? Nehmen wir als Beispiel zwei gleiche Vektoren mit . Beide zeigen in die selbe Richtung und spannen keine zwei unabhängigen Richtungen auf. Damit sind sie intuitiv linear abhängig. Und tatsächlich kann man einen als Linearkombination des anderen schreiben und zwar als . Damit sind die Vektoren auch streng mathematisch linear abhängig. Eine Menge darf allerdings nur verschiedene Elemente enthalten. Das heißt, die Menge, die und enthält ist . Die Menge enthält also nur ein Element und erfasst keine Doppelungen von Vektoren.

Wir brauchen also einen neuen mathematischen Begriff, der auch Doppelungen erfasst. Dies ist der Begriff der Familie:

Definition (Familie)

Eine Familie von Elementen einer Menge besteht aus einer Indexmenge , so dass zu jedem Index ein Element gehört.

Ist eine endliche Menge, sprechen wir von einer endlichen Familie.

Ist , so nennt man Teilfamilie von , umgekehrt heißt Oberfamilie zu .

Formal kann man eine Familie als eine Abbildung der Indexmenge in die Menge ansehen. Im Gegensatz zu Mengen dürfen in Familien Elemente mehrfach vorkommen, nämlich wenn sie zu verschiedenen Indizes gehören.

Ist die Menge abzählbar, so lassen sich die Elemente der Familie nummerieren: . Die Indexmenge darf aber auch überabzählbar ein, z.B. . In diesem Fall kann nicht als Folge geschrieben werden. Der Begriff "Familie" enthält also alle "Folgen", und umfasst sogar noch größere Ansammlungen von mathematischen Objekten.

Wenn wir also sagen die Vektoren und sind linear abhängig können wir es dadurch ausdrücken, dass die Familie mit linear abhängig ist.

Oft schreibt man (nicht ganz exakt) , wenn die Elemente von sind und aus dem Zusammenhang klar ist, wie die Indexmenge aussieht. Analog bedeutet , dass es ein gibt mit .

Hiermit können wir die zweite Definition der linearen Unabhängigkeit neu aufschreiben:

Definition (Zweites Kriterium für Lineare Unabhängigkeit, Neufassung)

Die Familie von Vektoren ist linear unabhängig, wenn mit ihnen der Nullvektor nur durch die triviale Linearkombination dargestellt werden kann, d.h. wenn wir haben mit , dann folgt für alle .

Allgemeine Definition der linearen Unabhängigkeit[Bearbeiten]

Motivation[Bearbeiten]

Wir haben oben zwei Definitionen dafür kennen gelernt, dass endlich viele Vektoren linear unabhängig sind:

  1. Eine etwas sperrige: Die Vektoren sind unabhängig, wenn sich kein Vektor als Linearkombination der anderen schreiben lässt. Also darf nicht vorkommen.
  2. Eine etwas kompaktere: Der Nullvektor lässt sich nur als triviale Linearkombination darstellen. Also aus folgt .

Bisher haben wir nur endlich viele Vektoren betrachtet. Was passiert bei unendlich vielen Vektoren? Kann es überhaupt unendlich viele linear unabhängige Vektoren geben? Wir bräuchten einen Vektorraum, der unendlich viele linear unabhängige Richtungen hat. Wir wissen intuitiv, dass der Vektorraum höchstens zwei und der höchstens drei unabhängige Richtungen hat. Wir brauchen also einen viel "größeren" Vektorraum, um unendlich viele unabhängige Richtungen zu bekommen. Wir betrachten also einen Vektorraum , in dem jeder Vektor unendlich viele Koordinaten besitzt: mit . Demnach entspricht einer reellen Folge und ist der Folgen-Vektorraum, oder kurz Folgenraum.

Im haben wir die linear unabhängigen Einheitsvektoren . Wir können diese Konstruktion fortsetzen und erhalten für die Vektoren mit der an der -ten Stelle und sonst .

Die unendlich vielen Vektoren bilden eine Familie . Diese Familie repräsentiert intuitiv "unendlich viele verschiedene Richtungen" in und ist damit intuitiv gesehen linear unabhängig. Es ergibt also Sinn, lineare Unabhängigkeit für unendlich viele Vektoren so zu definieren, dass eine linear unabhängige Familie ist. Die "etwas sperrige Definition 1." in der Aufzählung wäre dafür prinzipiell geeignet: Wir könnten sie einfach kopieren und sagen "eine Familie von Vektoren ist linear unabhängig, wenn sich kein als Linearkombination der anderen schreiben lässt". Tatsächlich kann in keiner der als Linearkombination der anderen Vektoren geschrieben werden. Daher ergibt die Definition an dieser Stelle schon einmal Sinn. Allerdings gibt es unendlich viele und damit unendlich viele Bedingungen!

Wir betrachten lieber die "etwas kompaktere Definition 2.": "Vektoren sind linear unabhängig, wenn nur durch die triviale Linearkombination dargestellt werden kann." Was bedeutet diese Formulierung in diesem Beispiel explizit? Wir haben also eine Linearkombination der gegeben. Linearkombinationen sind endlich, das heißt wir haben endlich viele Vektoren und , sodass

Wir müssen nun zeigen, dass alle sind, da dann die obige Linearkombination die triviale Linearkombination der ist. Dies geht genauso wie im , nur dass wir hier unendlich viele Einträge miteinander vergleichen müssen.

Was müssen wir nun tun, um eine allgemeine Definition für allgemeine Familien und allgemeine Vektorräume zu bekommen? Die "etwas kompaktere Definition 2." überträgt sich fast wortwörtlich: "Eine Familie von Vektoren ist linear unabhängig, wenn nur durch die triviale Linearkombination dargestellt werden kann." Für die ausgeschriebene Implikation, können wir für die Endlichkeit der Linearkombination von unserer Sprache von Familien gebrauch machen: Wir ersetzen die Doppelindizes durch das Wort "Teilfamilie".

Definition[Bearbeiten]

Definition (Lineare Abhängigkeit und Unabhängigkeit von Vektoren)

Seien ein Körper, ein -Vektorraum und eine Familie von Vektoren aus .

heißt linear unabhängig, wenn für jede endliche Teilfamilie und alle mit folgendes gilt:

Eine Familie heißt linear abhängig, wenn sie nicht linear unabhängig ist.

Warnung

Linearkombinationen aus Elemeten einer Menge bestehen immer aus endlich vielen Summanden, auch wenn die Menge unendlich ist.

Z.B. ist die Familie linear unabhängig im Vektorraum , obwohl . Denn die Exponentialfunktion ist keine endliche Linearkombination der Monome.

Hinweis

Häufig spricht man von "linear unabhängigen Mengen" statt von "linear unabhängigen Familien". Wir haben uns oben schon überlegt, dass es sinnvoll ist hier Familien zu verwenden, da Familien anders als Mengen auch Doppelungen von Elementen erfassen. Man kann aus jeder Menge die Familie konstruieren. Damit überträgt sich der Begriff linear (un-)abhängig auch auf Mengen. Linear unabhängige Familien enthalten keinen Vektor doppelt. Familien ohne doppelte Elemente korrespondieren über obige Konstruktion zu Mengen. Will man nun eine Familie von linear unabhängigen Vektoren haben (z.B. in den Voraussetzungen eines Satzes), kann man auch gleich nach einer Menge linear unabhängiger Vektoren fragen. Wenn wir nun testen wollen, ob eine Familie von Vektoren linear unabhängig ist, können wir diese nicht erst in eine Menge umwandeln. Denn dort verschwinden Dopplungen und diese sorgen für lineare Abhängigkeit.

Hinweis

Die Definition der linearen (Un-)Abhängigkeit bezieht sich auf Teilfamilien eines Vektorraums. Diese dürfen Vektoren merfach enthalten und sogar überabzählbar sein.

Bei endlichen Familie sprechen wir alternativ über die Elemente, d.h. die Aussage "Die Familie ist linear (un-)abhängig" wird zu " sind linear (un-)abhängig".

Folgerungen aus der Definition[Bearbeiten]

Umformulierung der Definition für endliche Teilfamilien [Bearbeiten]

Wir haben eine Definition von linearer Unabhängigkeit von beliebeigen Teilfamilien eines Vektorraums . Stimmt diese mit unserer alten Definition für endliche Teilfamilien überein? Intuitiv sollten sie für endliche Teilfamilien übereinstimmen, da wir die allgemeine Definition aus unserer alten Definition hergeleitet haben. Der folgende Satz zeigt das nochmal formal:

Satz (Lineare Unabhängigkeit bei endlich vielen Vektoren)

  1. Die Vektoren sind genau dann linear unabhängig, wenn aus mit folgt, dass ist.
  2. Die Vektoren sind genau dann linear abhängig, wenn es Elemente des Körpers bis gibt, die nicht alle sind, aber ist.

Beweis (Lineare Unabhängigkeit bei endlich vielen Vektoren)

Wir beweisen zuerst die erste Aussage. Wir müssen eine Äquivalenz zeigen.

Sei zunächst linear unabhängig. Mit der Defintion der linearen Unabhängigkeit folgt, dass für jede endliche Teilfamilie von und für alle Skalare mit folgendes gilt:

ist eine endliche Teilfamilie von sich selbst. Deshalb folgt für alle aus , dass für alle .

Gelte nun umgekehrt, dass für alle aus folgt, dass ist. Wir wollen zeigen, dass linear unabhängig ist. Sei dafür eine endliche Teilfamilie von . Das heißt . Seien mit Skalare mit

Wir erweitern diese Summe, so dass sie über alle läuft. Dafür definieren wir für alle . Dann

Aus unserer Voraussetzung folgt, dass und damit auch für alle . Also ist linear unabhängig.

Die zweite Aussage ist genau die logische Kontraposition der ersten. Denn wir haben gezeigt mit den zwei Aussagen

" ist linear unabhängig"

""

Der zweite Punkt ist die Aussage . Das ist aber äquivalent zu und damit äquivalent zu der ersten Aussage.

Zurückführen der Definition auf endliche Teilfamilien[Bearbeiten]

Wir haben lineare Unabhängigkeit für eine beliebige Familie von Vektoren definiert, also auch für unendlich viele Vektoren. Aber in der Definition müssen wir nur eine Aussage für endliche Teilfamilien zeigen: Für alle mit gilt folgendes:

Im vorherigen Satz haben wir gesehen, dass diese Aussage genau lineare Unabhängigkeit von ist.

Satz (Kriterium mit endlichen Teilfamilien)

  1. Eine Familie ist genau dann linear unabhängig, wenn jede endliche Teilfamilie linear unabhängig ist.
  2. Eine Familie ist genau dann linear abhängig, wenn sie eine endliche linear abhängige Teilfamilie enthält.

Beweis (Kriterium mit endlichen Teilfamilien)

Zuerst beweisen wir die erste Aussage. Wir müssen eine Äquivalenz zeigen. Sei eine linear unabhängige Familie von Vektoren aus . Wir zeigen, dass jede endliche Teilfamilie von linear unabhängig ist.

Sei dafür eine endliche Teilfamilie von . Aus unserer Definition für lineare Unabhängigkeit folgt, dass für alle Skalare mit folgendes gilt:

Mit dem vorherigen Satz folgt, dass linear unabhängig ist.

Gelte nun umgekehrt, dass jede endliche Teilfamilie von linear unabhängig ist. Wir zeigen, dass . Sei dafür eine endliche Teilfamilie von . Wir wollen zeigen, dass für alle Skalare mit folgendes gilt:

Nach unserer Voraussetzung ist linear unabhängig. Also folgt wieder mit dem vorherigen Satz, dass für alle Skalare mit die Aussage

gilt.

Die zweite Aussage ist genau die logische Kontraposition der ersten. Denn wir haben gezeigt mit den zwei Aussagen

" ist linear unabhängig"

"jede endliche Teilfamilie von ist linear unabhängig"

Der zweite Punkt ist die Aussage . Das ist aber äquivalent zu und damit äquivalent zu der ersten Aussage.

Übersicht[Bearbeiten]

Folgende Eigenschaften können mit wenigen Beweisschritten aus der Definition der linearen Unabhängigkeit hergeleitet werden. Dabei sei im Folgenden ein Körper und ein -Vektorraum:

  1. Jede Teilfamilie einer Familie linear unabhängiger Vektoren ist linear unabhängig. Umgekehrt ist jede Oberfamilie einer Familie linear abhängiger Vektoren wieder linear abhängig.
  2. Sei ein einzelner Vektor. Dann ist genau dann linear unabhängig, wenn ist. Also "fast immer". Umgekehrt ist jede Familie (egal wie groß) linear abhängig, sobald sie den Nullvektor enthält.
  3. Seien . Die Vektoren und sind genau dann linear abhängig, wenn es ein mit der Eigenschaft oder gibt.
  4. Ist eine Familie von Vektoren linear abhängig, so kann einer von ihnen als Linearkombination der anderen dargestellt werden.

Teilfamilien linear unabhängiger Vektoren sind linear unabhängig[Bearbeiten]

Eine linear unabhängige Familie bleibt linear unabhängig, wenn man Vektoren wegnimmt. Lineare Abhängigkeit bleibt hingegen erhalten, wenn man weitere Vektoren hinzufügt. Intuitiv zerstört also das Hinzufügen von Vektoren tendenziell die lineare Unabhängigkeit und kann durch weiteres Hinzufügen auch nicht wiederhergestellt werden.

Satz

  1. Jede Teilfamilie einer Familie linear unabhängiger Vektoren ist linear unabhängig.
  2. Jede Oberfamilie einer Familie linear abhängiger Vektoren ist linear abhängig.

Beweis

Wir zeigen zuerst die erste Aussage. Sei eine Familie von linear unabhängigen Vektoren aus und eine beliebige Teilfamilie von . Seien und mit

Wegen liegen die Vektoren auch in . Da linear unabhängig ist, gilt . Also ist linear unabhängig.

Daraus folgern wir die zweite Aussage. Sei eine Familie von linear abhängigen Vektoren aus und eine beliebige Oberfamilie von . Angenommen ist linear unabhängig. Dann folgt mit der vorherigen Aussage, dass auch als Teilfamilie von linear unabhängig ist. Das ist aber ein Widerspruch, weil linear abhängig ist.

Familie mit Nullvektor ist linear abhängig[Bearbeiten]

Wann ist eine Familie mit genau einem Vektor linear unabhängig? Diese Frage lässt sich leicht beantworten: immer dann, wenn dieser Vektor nicht der Nullvektor ist. Umgekehrt ist jede Familie mit dem Nullvektor linear abhängig. Inklusive die, die nur den Nullvektor selbst enthält.

Satz (Familie mit Nullvektor ist linear abhängig)

  1. Der Nullvektor ist linear abhängig.
  2. Wenn linear abhängig ist, so ist .
  3. Eine Familie von Vektoren, die den Nullvektor enthält, ist linear abhängig.

Beweis (Familie mit Nullvektor ist linear abhängig)

  1. Es ist . Es gibt also eine nicht triviale Linearkombination des Vektors , die als Ergebnis hat. Damit ist der Nullvektor linear abhängig.
  2. Ist linear abhängig, so gibt es mit . Da , gibt es ein multiplikatives Inverses . Multiplizieren wir die Gleichung mit so erhalten wir . Also muss der Nullvektor sein.
  3. Diese Behauptung folgt einfach aus 1. und dem Satz über die lineare Abhängigkeit von Oberfamilien linear abhängiger Familien.

Bei zwei Vektoren sind genau die Streckungen linear abhängig[Bearbeiten]

Wann ist eine Familie mit zwei Vektoren linear unabhängig? Wir können die Frage beantworten, indem wir sagen, wann das Gegenteil der Fall ist. Also wann sind zwei Vektoren linear abhängig? Lineare Abhängigkeit zweier Vektoren gilt genau dann, wenn beide "auf einer Geraden liegen", d.h. der eine Vektor eine Streckung des anderen ist.

Satz

Seien . Die Vektoren und sind genau dann linear abhängig, wenn es ein mit der Eigenschaft oder gibt.

Beweis

Wir müssen folgende zwei Implikationen beweisen:

  1. und sind linear abhängig
  2. und sind linear abhängig

Beweisschritt: Erste Implikation

Ist einer der beiden Vektoren der Nullvektor, dann sind nach dem vorherigen Satz und linear abhängig. Seien also und . Es sei so gewählt, dass ist. Dies ist o.B.d.A. möglich, denn falls das nicht geht, vertauschen wir die Bezeichnungen der beiden Vektoren. Wir verwenden also anstelle von und anstelle von . Laut Voraussetzung muss ein existieren, sodass die Gleichung mit den neuen Bezeichnungen gilt.

Nun gilt . Damit haben wir den Nullvektor als nichttriviale Linearkombination dargestellt. Das bedeutet, dass und linear abhängig sind.

Beweisschritt: Zweite Implikation

Seien dafür und linear abhängig. Dann gibt es nach Definition eine nichttriviale Linearkombination des Nullvektors. Es existieren also so, dass und nicht beide Null sind und die Gleichung gilt. Wir betrachten den Fall, dass ist. Dann folgt aus der Gleichung und damit

Falls jedoch ist, dann muss sein. Analog zur Rechnung von eben kannst du nachrechnen, dass dann ist mit .

Von linear abhängigen Vektoren kann einer als Linearkombination der anderen dargestellt werden[Bearbeiten]

Bei endliche vielen Vektoren hatten wir mit der Definition begonnen, dass Vektoren linear abhängig sind, wenn einer der Vektoren als Linearkombination der anderen geschrieben werden kann (erste Definition). Wir haben schon gesehen, dass diese Definition äquivalent dazu ist, dass der Nullvektor als Linearkombination der Vektoren geschrieben werden kann (zweite Definition). Bei der allgemeinen Definition mit möglicherweise unendlich vielen Vektoren haben wir die Version mit dem Nullvektor (die zweite) als unsere Definition genutzt. Und man kann tatsächlich zeigen, dass auch im allgemeinen Fall die erste Definition dazu äquivalent ist:

Satz

Sei ein -Vektorraum und seien linear abhängige Vektoren, aber seien linear unabhängig. Dann gibt es derart, dass ist.

Wie kommt man auf den Beweis?

Wegen der linearen Abhängigkeit von gibt es , die nicht alle gleich sind, so dass . Wir wollen als Linearkombination der schreiben. Also wollen wir die Gleichung nach auflösen. Wir können umformen zu

Nun wollen wir durch teilen. Das geht nur, wenn . Also zeigen wir, dass der Fall nicht auftreten kann. Angenommen . Dann folgt

Wir wissen, dass linear unabhängig sind. Also sind alle gleich . Dadurch sind alle gleich . Das ist ein Widerspruch. Deshalb kann nicht passieren.

Beweis

Da linear abhängig sind, gibt es mit , wobei nicht alle gleich sind. Daher gilt

Wir zeigen zuerst . Nehmen wir also an, es wäre . Dann wäre

Wegen der linearen Unabhängigkeit der folgt daraus auch für alle . Das kann aber nicht sein, da nicht alle Null sind. Also gilt . Wir können damit durch dividieren und die gesuchte Linearkombination ist

Setze nun , dann ist und genau das war zu zeigen.

Lineare Unabhängigkeit und eindeutige Linearkombinationen [Bearbeiten]

Wir betrachten in diesem Abschnitt den Zusammenhang zwischen Linearer Unabhängigkeit und Linearkombinationen genauer. Dafür machen wir uns klar, was es bedeutet, wenn die Vektoren linear abhängig oder unabhängig sind. Angenommen die Vektoren sind linear abhängig. Aus unserer Definition der linearen Unabhängigkeit wissen wir, dass es dann eine nicht triviale Nulldarstellung geben muss, da mindestens ein Skalar für ein ist. Wir machen uns dies anhand des folgenden Beispiels klar

Beispiel (Lineare Abhängigkeit und nicht triviale Nulldarstellung)

Betrachten wir die Vektoren . Diese sind linear abhängig, da

Durch Umformung dieser Gleichung erhalten wir eine Darstellung des Nullvektors:

Neben dieser Darstellung gibt es auch die sogenannte triviale Darstellung des Nullvektors, bei der jeder Vorfaktor gleich Null ist:

Wegen der linearen Abhängigkeit kann der Nullvektor über zwei Wege über eine Linearkombination dargestellt werden.

Unabhängig davon, ob die betrachtete Familie von Vektoren linear unabhängig ist oder nicht, gibt es stets die triviale Nulldarstellung, in dem alle Skalare den Wert haben:

Bei linearer Abhängigkeit der Vektoren ist die Darstellung der Null nicht mehr eindeutig. Wir können unsere Ergebnisse bisher in einem Satz zusammenfassen und verallgemeinern:

Satz (Lineare Unabhängigkeit und eindeutige Linearkombinationen)

Sei ein Vektorraum und .

Alle Linearkombinationen von Vektoren aus sind eindeutig linear unabhängig.

Beweis (Lineare Unabhängigkeit und eindeutige Linearkombinationen)

Wir zeigen die Kontraposition:

Es gibt eine Linearkombination von Vektoren aus , die nicht eindeutig ist ist linear abhängig.

Beweisschritt: ""

Wir nehmen an, dass es gibt, so dass es verschiedene Darstellungen von durch Vektoren aus gibt:

Sei mit und mit und . Subtraktion der beiden Gleichungen liefert

Da die Darstellungen von unterschiedlich sind, gibt es mindestens einen Faktor für . Damit sind die Vektoren nach Definition linear abhängig und damit ist auch linear abhängig.

Beweisschritt: " "

Wenn linear abhängig ist, enthält eine linear abhängige Teilmenge .

Dann gibt es außer der trivialen Darstellung der Null mindestens eine weitere: wegen der linearen Abhängigkeit gibt es Faktoren , die nicht alle Null sind, mit

Also haben wir gezeigt, dass es dann zwei Darstellungen von als Linearkombination dieser Vektoren gibt. Damit sind Linearkombinationen nicht eindeutig.

Übungsaufgaben[Bearbeiten]

Aufgabe 1[Bearbeiten]

Aufgabe (Lineare Unabhängigkeit)

Zeige, dass die Vektoren linear unabhängig sind.

Lösung (Lineare Unabhängigkeit)

Wir müssen zeigen, dass durch die gegebenen Vektoren der Nullvektor nur trivial dargestellt werden kann. Dies bedeutet, dass die folgende Gleichung mit den reellen Zahlen nur die Lösung besitzt:

Hieraus ergibt sich:

Nun sind zwei Spaltenvektoren genau dann gleich, wenn jede Komponente gleich ist. Also müssen folgende Gleichungen gelten:

Es ist also . Wenn wir dies in einsetzen, erhalten wir . Damit haben wir gezeigt, dass aus der Gleichung folgt, dass alle Koeffizienten , und gleich sind. Somit sind die drei Vektoren linear unabhängig.

Aufgabe 2[Bearbeiten]

Aufgabe (Lineare Abhängigkeit)

Zeige dass die folgende Menge von vier Vektoren linear abhängig ist:

Lösung (Lineare Abhängigkeit)

Nach Definition sind die Vektoren und genau dann linear abhängig, wenn wir eine nichttriviale Linearkombination der Null mit ihnen finden. Eine solche ist beispielsweise durch

gegeben. Also sind die Vektoren linear abhängig.

Lösung (Lineare Abhängigkeit, Alternative)

Vektoren sind linear abhängig, wenn einer sich als Linearkombination der anderen drei darstellen lässt. Nun kann der Vektor als Linearkombination der anderen dargestellt werden:

Damit sind die Vektoren linear abhängig.

Aufgabe 3[Bearbeiten]

Aufgabe (Trigonometrische Polynome)

Sei mit für alle . Das heißt, dass eine -periodische Funktion ist. Wir betrachten die Menge der -periodischen Funktionen. Diese bilden einen -Vektorraum.

Sind die Funktionen linear unabhängig?

Wie kommt man auf den Beweis? (Trigonometrische Polynome)

Wir untersuchen, wie man die Nullfunktion als Linearkombination der drei Funktionen schreiben kann. Dazu bestimmen wir die Werte von in der Gleichung . Das können wir tun, indem wir drei verschiedene Werte für einsetzen und dann das entstehende Gleichungssystem lösen.

Dafür eignen sich Werte, für die wir die Werte des Kosinus explizit kennen – zum Beispiel und . Denn es gilt und .

Lösung (Trigonometrische Polynome)

Seien , sodass

für alle gilt. Wir wollen zeigen, dass gelten muss. Indem wir für die Werte und einsetzen, erhalten wir folgendes Gleichungssystem für die :

Das Gleichungssystem kann nun auf verschiedene Arten gelöst werden. Wir stellen zunächst die erste Gleichung um und erhalten . Das können wir in die zweite Gleichung einsetzen und erhalten , also . Wenn wir unsere Ergebnisse jetzt in die dritte Gleichung einsetzen, haben wir . Dies ist äquivalent dazu, dass gilt. Daraus folgt direkt .

Damit haben wir die Koeffizienten und eindeutig bestimmt. Das heißt, es gibt keine nichttriviale Linearkombination der . Die Funktionen sind also linear unabhängig.

Aufgabe 4[Bearbeiten]

Aufgabe (Lineare (Un-)abhängigkeit?)

Beweise oder widerlege die folgende Aussage:

Seien . Die Menge ist genau dann linear abhängig, wenn jeder der Vektoren eine Linearkombination der anderen beiden ist.

Wie kommt man auf den Beweis? (Lineare (Un-)abhängigkeit?)

Damit die Menge linear abhängig ist, reicht es, wenn zwei der drei Vektoren ein Vielfaches des jeweils anderen sind, während der Dritte linear unabhängig von den beiden sein kann. Mit dieser Überlegung können wir uns ein Gegenbeispiel zu der Aussage konstruieren.

Lösung (Lineare (Un-)abhängigkeit?)

Die Aussage ist nicht richtig. Wir betrachten die Menge

Dann können wir den Nullvektor als nichttriviale Linearkombination der drei Vektoren darstellen:

Damit ist die Menge linear abhängig. Allerdings ist der Vektor keine Linearkombination der anderen beiden.

Aufgabe 5[Bearbeiten]

Aufgabe (Linear unabhängige Vektoren im )

Beweise: Im Vektorraum der -Tupel über dem Körper sind die Vektoren , bis linear unabhängig.

Lösung (Linear unabhängige Vektoren im )

Wir müssen zeigen, dass wir den Nullvektor eindeutig als Linearkombination der Vektoren darstellen können. Betrachten wir also die Linearkombination der Vektoren mit für . Es soll gelten

Dies können wir als lineares Gleichungssystem auffassen als

Damit haben wir gezeigt, dass die eindeutig bestimmt sind und den Wert besitzen. Nach Definition der linearen Unabhängigkeit haben wir damit gezeigt, dass die Vektoren linear unabhängig sind.

Aufgabe 6[Bearbeiten]

Aufgabe (Linear unabhängige Vektoren bei Endomorphismus)

Sei ein Körper und ein Endomorphismus des -Vektorraums . Sei , sodass für eine feste natürliche Zahl gilt: für und . Hierbei bedeutet das -malige Anwenden der Abbildung auf den Vektor . Beweise, dass dann die Vektoren linear unabhängig sind.

Wie kommt man auf den Beweis? (Linear unabhängige Vektoren bei Endomorphismus)

Wir müssen zeigen, dass für mit

schon gilt. Wir können dafür versuchen, die einzelnen aus dieser Gleichung zu erhalten: Wir wissen, dass gilt. Wenden wir nun auf diese Gleichung an, so erhalten wir

Wir haben damit erreicht, dass wir einen Summanden verloren haben. Damit haben wir unser Problem auf einen Fall mit Summanden reduziert. Das heißt, indem wir mit einer Induktion vorgehen, können wir die Aussage jetzt folgern.

Lösung (Linear unabhängige Vektoren bei Endomorphismus)

Wir führen eine Induktion nach durch, um obige Idee, die Anzahl der Vektoren um einen Vektor zu reduzieren anwenden zu können.

Aussageform, deren Allgemeingültigkeit für bewiesen werden soll:

Ist mit für alle und , so ist linear unabhängig.

1. Induktionsanfang:

Wir müssen zeigen, dass und linear unabhängig sind, wenn und gelten. Das heißt wir müssen zeigen, dass für mit schon erfüllt sein muss. Nun ist

Weil gilt, muss gelten. Dann ist nach Wahl von und auch . Mit dem gleichen Argument folgt nun .

2. Induktionsschritt:

2a. Induktionsvoraussetzung:

Ist mit für alle und , so ist linear unabhängig.

2b. Induktionsbehauptung:

Ist mit für alle und , so ist linear unabhängig.

2c. Beweis des Induktionsschritts:

Seien , sodass gilt. Dann ist

Indem wir die Induktionsvoraussetzung auf anwenden, erhalten wir, dass gilt. Damit ist . Weil ist, muss gelten. Also ist linear unabhängig.