Lineare Unabhängigkeit von Vektoren – Serlo „Mathe für Nicht-Freaks“

Aus Wikibooks
Zur Navigation springen Zur Suche springen

Motivation [Bearbeiten]

Grundmotivation[Bearbeiten]

Aus der Schule kennen wir Vektoren als Pfeile in der Ebene oder im Raum. Sowohl die Ebene als auch der Raum sind Vektorräume. Aber worin unterscheiden sie sich?

Eine spontane Antwort könnte lauten: „Die Ebene ist zweidimensional und der Raum dreidimensional.“ Das bringt uns aber gleich zu weiteren Fragen:

  • Was ist die Dimension eines Vektorraums?
  • Wie können wir sie definieren?

In der Definition des Vektorraums kommt der Begriff „Dimension“ nämlich nicht vor...

Intuition der Dimension[Bearbeiten]

Eine Kugel ist ein dreidimensionales Objekt

Der Begriff „Dimension“ beschreibt, in wie viele unabhängige Richtungen geometrische Objekte in einem Raum ausgedehnt sein können. Die Objekte können sich auch in genau so vielen unabhängigen Richtungen im Raum bewegen („Freiheitsgrade der Bewegung“).

Die Ebene hat zwei Dimensionen – die Breite und die Länge. Sie ist flach, kein Objekt der Ebene kann in die Höhe reichen. Eine Kugel kann als dreidimensionales Objekt also nicht Teil der Ebene sein. Im Gegensatz dazu besitzt der Raum mit Länge, Breite und Höhe drei Dimensionen. Eine Kugel kann so Teil eines Raums sein.

Wir fassen zusammen: Die Dimension entspricht intuitiv der Anzahl der unabhängigen Richtungen, in die sich ein geometrisches Objekt ausdehnen bzw. bewegen kann. Für die Definition der Dimension müssen wir also folgende Fragen beantworten:

  • Was ist eine Richtung in einem Vektorraum?
  • Wann sind zwei Richtungen unabhängig?
  • Wie kann die Anzahl der unabhängigen Richtungen bestimmt werden?

Herleitung der Definition[Bearbeiten]

Was ist eine Richtung in einem Vektorraum?[Bearbeiten]

Nehmen wir als Beispiel den Vektorraum der Ebene. Eine Richtung können wir mit einem Pfeil darstellen:

Pfeil, der eine Richtung in der Ebene markiert

Nun ist ein Pfeil nichts anderes als ein Vektor. Mit Hilfe von Vektoren können also Richtungen repräsentiert werden. Dabei dürfen wir nicht den Nullvektor verwenden. Als Pfeil der Länge Null hat dieser nämlich keine Richtung. Dies können wir auf beliebige Vektorräume verallgemeinern:

Jeder Vektor ungleich dem Nullvektor repräsentiert eine Richtung in einem Vektorraum.

Die Richtung, in die der Vektor zeigt ist , also der Spann des Vektors . Zu diesem Spann gehören alle Streckungen des Richtungsvektor und beschreibt damit die Gerade, die durch aufgespannt wird:

Eine Gerade, die durch den Vektor v beschrieben wird

Von der Geraden zur Ebene[Bearbeiten]

Um jetzt von der Geraden zur Ebene zu kommen, benötigen wir nicht nur einen Vektor sondern mehrere, genauer gesagt mindestens zwei Vektoren (). Dies erschließt sich ja auch intuitiv, da man eine Ebene nur mit zwei Vektoren eindeutig aufspannen kann. Deshalb brauchen wir einen weiteren, linear unabhängigen Vektor. Was bedeutet in diesem Fall „unabhängig“? Zunächst stellen wir fest, dass der neue Vektor nicht der Nullvektor sein darf. Dieser gibt nämlich keine Richtung an. Weiterhin darf der neue Vektor auch kein Vielfaches des ursprünglichen Vektors sein, also . Dies gilt auch für Spiegelungen des Geradenvektors, also Vielfache mit einem negativen Faktor.

Wir fassen zusammen: Der neue Vektor ist genau dann unabhängig vom Richtungsvektor , wenn dieser nicht auf der Geraden liegt. Es muss also für alle reellen Zahlen sein. Der neue Vektor darf also nicht im Spann des anderen liegen. Die beiden Vektoren haben nur den Nullpunkt als Schnittpunkt.

Von der Ebene zum Raum[Bearbeiten]

Wir haben gesehen, dass wir eine Ebene durch zwei unabhängige Vektoren charakterisieren können. Nun möchten wir von der Ebene zum Raum übergehen. Auch hier müssen wir eine unabhängige Richtung hinzunehmen. Was ist aber eine zur Ebene unabhängige Richtung?

Der neue Vektor darf nicht der Nullvektor sein, weil dieser keine Richtung angibt. Der neue Vektor darf auch nicht in der Ebene liegen, da so keine neue Richtung beschrieben wird. Genau dann wenn der neue Vektor nicht in der Ebene liegt, dann zeigt er in eine neue unabhängige Richtung:

Wie können wir diese Erkenntnis mathematisch formulieren? Seien und die beiden Richtungsvektoren, die die Ebene aufspannen. Diese Ebene ist dann gleich der Menge . Die Ebene ist damit die Menge aller Summen für reelle Zahlen . Damit der neue Vektor nicht in der Ebene liegt, muss für alle sein. Damit ist unabhängig von und genau dann, wenn ist. Mit anderen Worten: .

Verständnisfrage: Wir hatten zuerst gefordert, dass der neue Vektor nicht der Nullvektor sein darf. Warum reicht es aus, dass für alle ist? Warum impliziert dies, dass ist?

Für ist . Da auch für der neue Vektor ungleich sein soll, folgt .

Verständnisfrage: Reicht es aus, dass kein Vielfaches von beziehungsweise ist?

Nein, nehme zum Beispiel . Wenn unabhängig von ist, dann ist weder eine Streckung von noch von . Jedoch liegt dieser Vektor in der von und aufgespannten Ebene und bildet damit keine unabhängige Richtung von und .

Ein erstes Kriterium für lineare Unabhängigkeit[Bearbeiten]

Fassen wir zusammen: Zur Beschreibung einer Geraden benötigten wir einen Vektor ungleich dem Nullvektor. Im Übergang von der Geraden zur Ebene mussten wir einen zu unabhängigen Vektor hinzufügen. Unabhängigkeit von zur Richtung bedeutet hier, dass nicht in der von beschriebenen Geraden liegt. Es musste also für alle sein.

Im zweiten Schritt haben wir der Ebene eine neue Richtung hinzugefügt, die von den beiden Vektoren und unabhängig ist. Hier manifestiert sich Unabhängigkeit darin, dass nicht in der von und aufgespannten Ebene liegt. Es muss also für alle reellen Zahlen und sein. Dies können wir für eine beliebige Anzahl an Vektoren verallgemeinern (jedoch kann man sich das nicht mehr so gut vorstellen):

Der Vektor ist unabhängig von den Vektoren , wenn für alle ist.

In der obigen Beschreibung kommt die Summe vor. Eine solche Summe wird Linearkombination der Vektoren bis genannt. Wir können auch sagen, dass linear unabhängig ist, wenn . Die Beschreibung kann geändert werden zu:

Der Vektor ist unabhängig von den Vektoren , wenn nicht als Linearkombination der Vektoren bis dargestellt werden kann.

Hier haben wir geklärt, wann ein Vektor unabhängig von anderen Vektoren ist. Reicht dies aus, um die Unabhängigkeit von Vektoren zu beschreiben?! Nimm folgende drei Vektoren , und :

Drei Vektoren, die in einer Ebene liegen

Weil kein Vektor ein Vielfaches eines anderen Vektoren ist, zeigen die drei Vektoren paarweise gesehen in unabhängige Richtungen. Beispielsweise ist unabhängig zu und ist unabhängig zu . Insgesamt gesehen sind die drei Vektoren nicht unabhängig voneinander, weil sie alle in einer Ebene liegen. Es ist und damit ist abhängig zu und . Dementsprechend müssen wir für die lineare Unabhängigkeit zwischen , und fordern:

  • ist unabhängig zu und : Es ist für alle .
  • ist unabhängig zu und : Es ist für alle .
  • ist unabhängig zu und : Es ist für alle .

An dieser Stelle sei betont, dass es nötig ist alle drei Bedingungen zu fordern. Würden wir auf die letzten beiden Bedingungen verzichten, so würde die erste Forderung zwar garantieren, dass der Vektor linear unabhängig von den Vektoren und ist, aus dieser Forderung ist aber nicht klar, dass und linear unabhängig voneinander sind. Dies muss nicht erfüllt sein, wodurch dann die drei Vektoren untereinander wieder nicht linear unabhängig wären.

Es darf also keiner der drei Vektoren als Linearkombination der anderen zwei Vektoren dargestellt werden können. Ansonsten ist nämlich mindestens einer der Vektoren zu den anderen Vektoren abhängig. Dies können wir für eine beliebige Anzahl von Vektoren verallgemeinern:

Definition (Erstes Kriterium für lineare Unabhängigkeit)

Vektoren bis sind linear unabhängig, wenn keiner der Vektoren als Linearkombination der anderen Vektoren dargestellt werden kann. Damit muss gelten:

  • Es ist für alle .
  • Es ist für alle .
  • ...
  • Es ist für alle .

Es sind also bis linear unabhängig, wenn für alle und ist.

Vom ersten Kriterium zur formalen Definition[Bearbeiten]

Mit unserem ersten Kriterium, welches wir oben gefunden haben, haben wir bereits eine passende Definition für die lineare Unabhängigkeit von Vektoren gefunden. Wir wollen im Folgenden versuchen eine knappere äquivalente Definition zu finden, mit Hilfe derer wir die lineare Unabhängigkeit von Vektoren leichter untersuchen können.

Vektoren sind genau dann unabhängig voneinander, wenn sich kein Vektor als Linearkombination der anderen Vektoren darstellen lässt. Daraus werden wir ein weiteres Kriterium für lineare Unabhängigkeit herleiten, welches weniger rechenaufwändig ist. Nehmen wir Vektoren , bis aus einem Vektorraum , die nicht unabhängig sind. Es gibt also einen Vektor, der durch die anderen dargestellt werden kann. Sei dieser Vektor. Es gibt damit Streckungsfaktoren (Skalare) bis , so dass gilt:

Diese Gleichung können wir umstellen, indem wir auf beiden Seiten rechnen ( ist der Nullvektor des Vektorraums ):

Dies ist eine sogenannte nichttriviale Linearkombination des Nullvektors. Eine nichttriviale Linearkombination des Nullvektors ist eine Linearkombination mit dem Ergebnis , bei dem mindestens ein Koeffizient ungleich ist. Für ist nämlich immer . Dies ist die sogenannte triviale Linearkombination des Nullvektors, bei der alle Koeffizienten gleich sind. Diese triviale Linearkombination kannst du stets bilden, egal welche Vektoren bis du wählst. Wenn bis abhängig voneinander sind, gibt es neben der trivialen Linearkombintion noch mindestens eine nichttriviale Linearkombination des Nullvektors (wie wir es oben gesehen haben). Also:

Wenn bis abhängig voneinander sind, dann kann der Nullvektor durch bis durch mindestens eine nichttriviale Linearkombination dargestellt werden.

Anders ausgedrückt:

sind abhängig Es existiert eine nicht triviale Linearkombination von durch

Nun können wir das Prinzip der Kontraposition anwenden. Dieses besagt, dass eine Aussage genau dann gilt, wenn . Also gilt auch:

Es existiert keine nichttriviale Linearkombination von durch sind unabhängig

Damit haben wir ein Kriterium für Unabhängigkeit gefunden. Wenn der Nullvektor nur trivial durch eine Linearkombination von bis dargestellt werden kann, dann sind diese Vektoren unabhängig. Dieses Kriterium kann aber auch als Definition der linearen Unabhängigkeit benutzt werden. Hierzu müssen wir die Rückrichtung der obigen Implikation zeigen. Wenn es eine nichttriviale Linearkombination des Nullvektors gibt, dann sind die betrachteten Vektoren abhängig voneinander.

Seien also bis Vektoren, für die es eine nichttriviale Linearkombination des Nullvektors gibt. Es gibt also Koeffizienten (Skalare) bis , derart dass und mindestens einer der Koeffizienten bis ungleich ist. Sei dieser Koeffizient. Dann ist

Wegen können wir beide Seiten mit multiplizieren. Wir erhalten damit

Auf beiden Seiten können wir nun addieren:

Damit kann als Linearkombination der anderen Vektoren dargestellt werden und somit sind die Vektoren bis abhängig voneinander. Dies beweist insgesamt die formale Definition der linearen Unabhängigkeit:

Definition (Zweites Kriterium für Lineare Unabhängigkeit)

Die Vektoren sind linear unabhängig, wenn mit ihnen der Nullvektor nur durch die triviale Linearkombination dargestellt werden kann, d.h. wenn wir haben mit , dann folgt für alle .

Wenn es mindestens eine nichttriviale Linearkombination des Nullvektors gibt, sind die betrachteten Vektoren linear abhängig voneinander.


Definition des Begriffs Familie[Bearbeiten]

Wenn wir sagen: die Vektoren und sind linear unabhängig, dann können wir für diese Aussage die beiden Vektoren nicht zu einer Menge zusammenfassen: im Fall würde diese Menge nur aus dem einen Vektor bestehen, da in einer Menge alle Elemente verschieden sein müssen.

Wir haben dann die Situation, dass die Vektoren und linear abhängig sind, aber die Menge nur einen linear unabhängigen Vektor enthält.

Hier hilft uns der Begriff der Familie:

Definition (Familie)

Eine Familie von Elementen einer Menge besteht aus einer Indexmenge , so dass zu jedem Index ein Element gehört.

Ist eine endliche Menge, sprechen wir von einer endlichen Familie.

Ist , so nennt man Teilfamilie von , umgekehrt heißt Oberfamilie zu .

Formal kann man eine Familie als eine Abbildung der Indexmenge in die Menge ansehen. Im Gegensatz zu Mengen dürfen in Familien Elemente mehrfach vorkommen, nämlich wenn sie zu verschiedenen Indices gehören.

Wenn wir also sagen die Vektoren und sind linear abhängig können wir es dadurch ausdrücken, dass die Familie mit linear abhängig ist.

Hiermit können wir die zweite Definition sprachlich neu fassen:

Definition (Zweites Kriterium für Lineare Unabhängigkeit, Neufassung)

Die Familie von Vektoren ist linear unabhängig, wenn mit ihnen der Nullvektor nur durch die triviale Linearkombination dargestellt werden kann, d.h. wenn wir haben mit , dann folgt für alle .

Oft schreibt man (nicht ganz exakt) , wenn die Elemente von sind und aus dem Zusammenhang klar ist, wie die Indexmenge aussieht. Analog bedeutet , dass es ein gibt mit .

Allgemeine Definition der linearen Unabhängigkeit[Bearbeiten]

Motivation[Bearbeiten]

  • Wir haben oben festgestellt, dass Vektoren linear unabhängig sind, wenn keiner der Vektoren als Linearkombination der anderen Vektoren dargestellt werden kann.
  • In unserem zweiten Kriterium haben wir festgestellt, dass es reicht, zu überprüfen, dass der Nullvektor nicht als nicht-triviale Linearkombination der Vektoren aus der Menge dargestellt werden kann
  • Bisher haben wir nur endlich viele Vektoren betrachtet
  • Diese Kriterien ergeben aber auch für unendlich viele Vektoren Sinn.
  • Kann der Fall von unendlich vielen linear unabhängigen Vektoren überhaupt eintreffen?
  • Betrachten wir den Vektorraum der Folgen über
  • Wir definieren mit der an der -ten Stelle und sonst für
  • Dann gibt es nur die triviale Linearkombination der von den Vektoren
  • Also ist die Familie der Vektoren linear unabhängig

Alter Inhalt:

Oben haben wir für eine endliche Familie lineare Unabhängigkeit eingeführt. Dazu sind wir induktiv vorgegangen. Wir haben uns zunächst überlegt, dass wir eine Richtung nur durch einen Vektor, der nicht Null ist, sinnvoll angeben können. Nehmen wir nun an, dass wir bereits linear unabhängige Vektoren haben. Wir können uns fragen, welche Eigenschaft ein weiterer Vektor erfüllen muss, damit die Familie von Vektoren linear unabhängig ist. Nach der obigen Definition und Motivation wissen wir, dass nicht als Linearkombination der geschrieben werden darf.

Die Frage, die dieser Prozess nun aufwirft ist: Was ist, wenn wir immer einen solchen Vektor hinzunehmen können? Eine erste Teilantwort könnte sein, dass wir eine Folge erhalten, für welche gilt: Egal wie viele Vektoren , für eine natürliche Zahl , vom Anfang der Folge wir betrachten, sie werden immer linear unabhängig sein. Wir wollen weiter unten eine Definition für lineare Unabhängigkeit geben, so dass eine so konstruierte Folge wieder linear unabhängig ist.

Aber bevor wir uns solche Mühen machen, sollten wir auch sichergehen, dass ein solcher Fall überhaupt auftreten kann. Dazu betrachten wir im Folgenden den Vektorraum aller Polynome über einem Körper . Weiter halten wir die Untervektorräume

für alle fest. Ein enthält genau die Polynome von Grad .

Für ein nennt man das Polynom Monom. (Das Monom zu ist damit gerade .) Halten wir ein fest, so weisen wir nun nach, dass die Monome linear unabhängig sind.

Dazu müssen wir zeigen, dass eine Linearkombination mit nur dann Null wird, wenn bereits alle sind. Wir können dies aus der Definition des Vektorraumes ableiten. Denn die Polynome in sind nicht die polynomiellen Funktionen . Stattdessen ist ein Polynom schlicht eine Schreibweise für die Koeffizientenreihe , wobei die sind. In der Form einer Koeffizientenreihe sieht man auch die Vektorraumstruktur von gut: Addition und skalare Multiplikation sind komponentenweise erklärt. Hat man also zwei Reihen und mit , so ist deren Summe gegeben durch

gegeben. Damit entspricht die Null aus der Koeffizientenreihe der Länge eins mit Eintrag . Unsere oben fixierte Linearkombination ist somit genau dann Null, wenn alle sind.

Was haben wir nun erreicht? Die Monome von Grad liegen in und sind linear unabhängig. Und weiterhin sehen wir, dass gilt, da das Monom nicht in enthalten ist. Damit können wir in jedem Schritt einen Vektor finden, der linear unabhängig zu den bereits gefundenen ist. Also haben wir eine entsprechendes Beispiel gefunden.

Die oben angesprochene verallgemeinerte Definition linearer Unabhängigkeit überprüft nun genau das, was wir uns erarbeitet haben: Haben wir eine (potentiell unendliche) Familie an Vektoren gegeben. Dann werden wir fordern, dass jede endliche Teilfamilie bereits eine Familie linear unabhängiger Vektoren bildet. Es sei hier noch bemerkt, dass wir in unserem Beispiel jeweils endliche Teilfamilien von betrachtet haben, die ineinander enthalten waren und immer größer wurden. Jede endliche Teilfamilie ist aber bereits in enthalten. Da nun nach unserem Beweis bereits linear unabhängig ist, gilt dies auch für .

Definition[Bearbeiten]

  • Das erste Kriterium ist für unendliche Familien wieder schwer nachzuweisen, denn wir müssen zeigen, dass unendlich viele Gleichungen nicht erfüllbar sind
  • Können wir das zweite Kriterium anpassen, so dass es auch für unendliche Familien funktioniert?
  • Das zweite Kriterium besagt, dass es keine nicht-triviale Linearkombination der Null von Vektoren aus der Familie geben soll.
  • Das funktioniert auch für eine unendlich große Familie
  • Dieses Kriterium formal aufzuschreiben ist im unendlichen Fall sehr schwer, anders als im endlichen Fall
  • Wie können wir anders diese Definition aufschreiben?
  • Das Kriterium ist eine verneinte Aussage: Für eine linear unabhängige Familie M gilt, dass die Null nicht als nicht-triviale Linearkombination von Vektoren aus M geschrieben werden kann.
  • Die Aussage vor der Verneinung ist "Es gibt eine nicht-triviale Linearkombination der 0 von Vektoren aus M"
  • Das ist genau unsere Definition für M ist linear abhängig
  • Diese Aussage können wir einfach formalisieren zu: Es gibt Vektoren und Skalare , sodass und mindestens ein .
  • Die lineare Unabhängigkeit können wir dann als die Negation der linearen Abhängigkeit definieren.

Definition (Lineare Abhängigkeit und Unabhängigkeit von Vektoren)

Seien ein Körper, ein -Vektorraum und eine Familie von Elementen aus .

heißt linear abhängig, wenn es Vektoren gibt, so dass man daraus eine nicht triviale Linearkombination des Nullvektors bilden kann, also wenn es Skalare gibt mit

, aber mindestens ein .

Eine Familie heißt linear unabhängig, wenn sie nicht linear abhängig ist.

Warnung

Linearkombinationen aus Elemeten einer Menge bestehen immer aus endlich vielen Summanden, auch wenn die Menge unendlich ist.

Z.B. ist die Familie linear unabhängig im Vektorraum , obwohl . Denn die Exponentialfunktion ist keine endliche Linearkombination der Monome.

Hinweis

Die Definition der linearen (Un-)Abhängigkeit bezieht sich auf Teilfamilien eines Vektorraums.

Bei endlichen Familie sprechen wir alternativ über die Elemente, d.h. die Aussage "Die Familie ist linear (un-)abhängig" wird zu " sind linear (un-)abhängig".

Folgerungen aus der Definition[Bearbeiten]

Satz (Kriterium mit endlichen Teilfamilien)

  1. Eine Familie ist genau dann linear abhängig, wenn sie eine endliche linear abhängige TeilFamilie enthält.
  2. Eine Familie ist genau dann linear unabhängig, wenn jede endliche Teilfamilie linear unabhängig ist.

Beweis (Kriterium mit endlichen Teilfamilien)

Ist linear abhängig, dann enthält nach der Definition Vektoren , aus denen sich der Nullvektor als nicht triviale Linearkombination darstellen lässt. Definiert man , dann ist linear abhängig und endlich.
Gibt es andererseits eine linear abhängige endliche Teilfamilie , dann enthält Vektoren , aus denen sich der Nullvektor als nicht triviale Linearkombination darstellen lässt. Da diese Vektoren auch in liegen, ist auch linear abhängig.

Die zweite Aussage ist genau die logische Kontraposition der ersten.

Umformulierung der Definition für endliche Teilfamilien[Bearbeiten]

Ist endlich, also , so kann man im letzen Satz einfach setzen:

Satz (Lineare Unabhängigkeit bei endlich vielen Vektoren)

Die Vektoren sind linear unabhängig, wenn aus folgt, dass ist.

Die Vektoren sind linear abhängig, wenn es Elemente des Körpers bis gibt, die nicht alle sind, aber ist.

Übersicht[Bearbeiten]

Folgende Eigenschaften können mit wenigen Beweisschritten aus der Definition der linearen Unabhängigkeit hergeleitet werden. Dabei sei im Folgenden ein Körper und ein -Vektorraum:

  1. Jede Teilfamilie einer Familie linear unabhängiger Vektoren ist linear unabhängig, und jede OberFamilie einer Familie linear abhängiger Vektoren ist linear abhängig.
  2. Sei . Dann ist linear unabhängig genau dann, wenn ist. Jede Familie, die den Nullvektor enthält, ist linear abhängig.
  3. Seien . und sind genau dann linear abhängig, wenn es ein mit der Eigenschaft oder gibt.
  4. Ist eine Familie von Vektoren linear abhängig, so kann einer von ihnen als Linearkombination der anderen dargestellt werden.

Teilfamilien linear unabhängiger Vektoren sind linear unabhängig[Bearbeiten]

Satz

Jede Teilfamilie einer Familie linear unabhängiger Vektoren ist linear unabhängig.

Jede Oberfamilie einer Familie linear abhängiger Vektoren ist linear abhängig.

Beweis

Da die Aussagen logische Kontrapositionen voneinander sind, reicht es, die zweite zu beweisen.

Sei und eine linear abhängige Familie von Vektoren.

Dann gibt es Vektoren und , die nicht alle Null sind mit der Eigenschaft, dass

.

Wegen liegen diese Vektoren auch in , und somit ist auch linear abhängig.


Familie mit Nullvektor ist linear abhängig[Bearbeiten]

Satz

Der Nullvektor ist linear abhängig.

Wenn linear abhängig ist, so ist .

Eine Familie von Vektoren, die den Nullvektor enthält, ist linear abhängig.

Beweis

Es ist . Es gibt also eine nicht triviale Linearkombination des Vektos , die als Ergebnis hat. Damit ist der Nullvektor linear abhängig.

Ist linear abhängig, so gibt es mit . Multiplizieren wir das mit dem multiplikativen Inversen von so ehalten wir , also muss schon der Nullvektor sein.

Die dritte Behauptung folgt einfach aus dem Satz über die lineare Abhängigkeit von Oberfamilien linear abhängiger Familie.

Bei zwei Vektoren sind genau die Streckungen linear abhängig[Bearbeiten]

Satz

Seien . und sind genau dann linear abhängig, wenn es ein mit der Eigenschaft oder gibt.

Beweis

Ist einer der beiden Vektoren der Nullvektor, dann sind nach obiger Bemerkung und linear abhängig. Seien also und . Es sei so gewählt, dass ist. (Dies ist o.B.d.A. möglich, denn falls das nicht geht, vertauschen wir die Bezeichnungen der Vektoren. Wir verwenden also anstelle von und anstelle von . Laut Voraussetzung muss ein existieren, sodass die Gleichung mit den neuen Bezeichnungen gilt.) Nun gilt . Damit haben wir den Nullvektor als nichttriviale Linearkombination dargestellt. Das bedeutet, dass und linear abhängig sind.

Seien umgekehrt und linear abhängig. Dann gibt es nach Definition eine nichttriviale Linearkombination des Nullvektors. Es existieren also so, dass und nicht beide Null sind und die Gleichung gilt. Wir betrachten den Fall, dass ist. Dann folgt aus der Gleichung und damit

Falls jedoch ist, dann muss sein. Analog zur Rechnung von eben kannst du nachrechnen, dass dann ist mit .


Von linear abhängigen Vektoren kann einer als Linearkombination der anderen dargestellt werden[Bearbeiten]

Satz

Sei ein -Vektorraum und seien linear abhängige Vektoren, aber seien linear unabhängig, dann gibt es derart, dass ist mit nicht alle Null.

Beweis

Da linear abhängig sind, gibt es mit . Daher gilt

Wüssten wir, dass , dann könnten wir die durch teilen und wir hätten unser gewünschtes Ergebnis. Also bleibt zu zeigen, dass ist.

Dafür nehmen wir an, es sei . Dann wäre

Wegen der linearen Unabhängigkeit der folgt daraus auch für alle . Das kann aber nicht sein, da nicht alle Null sind.

Wir können damit durch dividieren und die gesuchte Linearkombination ist

Setze nun , dann ist und genau das war zu zeigen.

Qsicon inArbeit.png
To-Do:

Beweise überarbeiten->verständlicher machen

Lineare Unabhängigkeit und eindeutige Linearkombinationen [Bearbeiten]

Wir betrachten in diesem Abschnitt den Zusammenhang zwischen Linearer Unabhängigkeit und Linearkombinationen genauer. Dafür machen wir uns klar, was es bedeutet, wenn die Vektoren linear abhängig oder unabhängig sind. Angenommen die Vektoren sind linear abhängig. Aus unserer Definition der linearen Unabhängigkeit wissen wir, dass es dann eine nicht triviale Nulldarstellung geben muss, da mindestens ein Skalar für ein ist. Wir machen uns dies anhand des folgenden Beispiels klar

Beispiel (Lineare Abhängigkeit und nicht triviale Nulldarstellung)

Betrachten wir die Vektoren . Diese sind linear abhängig, da

Durch Umformung dieser Gleichung erhalten wir eine Darstellung des Nullvektors:

Neben dieser Darstellung gibt es auch die sogenannte triviale Darstellung des Nullvektors, bei der jeder Vorfaktor gleich Null ist:

Wegen der linearen Abhängigkeit kann der Nullvektor über zwei Wege über eine Linearkombination dargestellt werden.

Unabhängig davon, ob die betrachtete Familie von Vektoren linear unabhängig ist oder nicht, gibt es stets die triviale Nulldarstellung, in dem alle Skalare den Wert haben:

Bei linearer Abhängigkeit der Vektoren ist die Darstellung der Null nicht mehr eindeutig. Wir können unsere Ergebnisse bisher in einem Satz zusammenfassen und verallgemeinern:

Satz (Lineare Unabhängigkeit und eindeutige Linearkombinationen)

Sei ein Vektorraum und .

Alle Linearkombinationen von Vektoren aus sind eindeutig linear unabhängig.

Beweis (Lineare Unabhängigkeit und eindeutige Linearkombinationen)

Wir zeigen die Kontraposition:

Es gibt eine Linearkombination von Vektoren aus , die nicht eindeutig ist ist linear abhängig.

"" Wir nehmen an, dass es gibt, so dass es verschiedene Darstellungen von durch Vektoren aus gibt:

Sei mit und mit und . Subtraktion der beiden Gleichungen liefert

Da die Darstellungen von unterschiedlich sind, gibt es mindestens einen Faktor für . Damit sind die Vektoren nach Definition linear abhängig und damit ist auch linear abhängig.

"" Wenn linear abhängig ist, enthält eine linear abhängige Teilmenge .

Dann gibt es außer der trivialen Darstellung der Null mindestens eine weitere: wegen der linearen Abhängigkeit gibt es Faktoren , die nicht alle Null sind, mit

Also haben wir gezeigt, dass es dann zwei Darstellungen von als Linearkombination dieser Vektoren gibt. Damit sind Linearkombinationen nicht eindeutig.

Übungsaufgaben[Bearbeiten]

Aufgabe 1[Bearbeiten]

Aufgabe (Lineare Unabhängigkeit)

Zeige, dass die Vektoren linear unabhängig sind.

Lösung (Lineare Unabhängigkeit)

Wir müssen zeigen, dass durch die gegebenen Vektoren der Nullvektor nur trivial dargestellt werden kann. Dies bedeutet, dass die folgende Gleichung mit den reellen Zahlen nur die Lösung besitzt:

Hieraus ergibt sich:

Nun sind zwei Spaltenvektoren genau dann gleich, wenn jede Komponente gleich ist. Also müssen folgende Gleichungen gelten:

Es ist also . Wenn wir dies in einsetzen, erhalten wir . Damit haben wir gezeigt, dass aus der Gleichung folgt, dass alle Koeffizienten , und gleich sind. Somit sind die drei Vektoren linear unabhängig.

Aufgabe 2[Bearbeiten]

Aufgabe (Lineare Abhängigkeit)

Zeige dass die folgende Menge von vier Vektoren linear abhängig ist:

Lösung (Lineare Abhängigkeit)

Nach Definition sind die Vektoren und genau dann linear abhängig, wenn wir eine nichttriviale Linearkombination der Null mit ihnen finden. Eine solche ist beispielsweise durch

gegeben. Also sind die Vektoren linear abhängig.

Lösung (Lineare Abhängigkeit, Alternative)

Vektoren sind linear abhängig, wenn einer sich als Linearkombination der anderen drei darstellen lässt. Nun kann der Vektor als Linearkombination der anderen dargestellt werden:

Damit sind die Vektoren linear abhängig.

Aufgabe 3[Bearbeiten]

Aufgabe (Trigonometrische Polynome)

Sei mit für alle . Das heißt, dass eine -periodische Funktion ist. Wir betrachten die Menge der -periodischen Funktionen. Diese bilden einen -Vektorraum.

Sind die Funktionen linear unabhängig?

Wie kommt man auf den Beweis? (Trigonometrische Polynome)

Wir untersuchen, wie man die Nullfunktion als Linearkombination der drei Funktionen schreiben kann. Dazu bestimmen wir die Werte von in der Gleichung . Das können wir tun, indem wir drei verschiedene Werte für einsetzen und dann das entstehende Gleichungssystem lösen.

Dafür eignen sich Werte, für die wir die Werte des Kosinus explizit kennen – zum Beispiel und . Denn es gilt und .

Lösung (Trigonometrische Polynome)

Seien , sodass

für alle gilt. Wir wollen zeigen, dass gelten muss. Indem wir für die Werte und einsetzen, erhalten wir folgendes Gleichungssystem für die :

Das Gleichungssystem kann nun auf verschiedene Arten gelöst werden. Wir stellen zunächst die erste Gleichung um und erhalten . Das können wir in die zweite Gleichung einsetzen und erhalten , also . Wenn wir unsere Ergebnisse jetzt in die dritte Gleichung einsetzen, haben wir . Dies ist äquivalent dazu, dass gilt. Daraus folgt direkt .

Damit haben wir die Koeffizienten und eindeutig bestimmt. Das heißt, es gibt keine nichttriviale Linearkombination der . Die Funktionen sind also linear unabhängig.

Aufgabe 4[Bearbeiten]

Aufgabe (Lineare (Un-)abhängigkeit?)

Beweise oder widerlege die folgende Aussage:

Seien . Die Menge ist genau dann linear abhängig, wenn jeder der Vektoren eine Linearkombination der anderen beiden ist.

Wie kommt man auf den Beweis? (Lineare (Un-)abhängigkeit?)

Damit die Menge linear abhängig ist, reicht es, wenn zwei der drei Vektoren ein Vielfaches des jeweils anderen sind, während der Dritte linear unabhängig von den beiden sein kann. Mit dieser Überlegung können wir uns ein Gegenbeispiel zu der Aussage konstruieren.

Lösung (Lineare (Un-)abhängigkeit?)

Die Aussage ist nicht richtig. Wir betrachten die Menge

Dann können wir den Nullvektor als nichttriviale Linearkombination der drei Vektoren darstellen:

Damit ist die Menge linear abhängig. Allerdings ist der Vektor keine Linearkombination der anderen beiden.

Aufgabe 5[Bearbeiten]

Aufgabe (Linear unabhängige Vektoren im )

Beweise: Im Vektorraum der -Tupel über dem Körper sind die Vektoren , bis linear unabhängig.

Lösung (Linear unabhängige Vektoren im )

Wir müssen zeigen, dass wir den Nullvektor eindeutig als Linearkombination der Vektoren darstellen können. Betrachten wir also die Linearkombination der Vektoren mit für . Es soll gelten

Dies können wir als lineares Gleichungssystem auffassen als

Damit haben wir gezeigt, dass die eindeutig bestimmt sind und den Wert besitzen. Nach Definition der linearen Unabhängigkeit haben wir damit gezeigt, dass die Vektoren linear unabhängig sind.

Aufgabe 6[Bearbeiten]

Aufgabe (Linear unabhängige Vektoren bei Endomorphismus)

Sei ein Körper und ein Endomorphismus des -Vektorraums . Sei , sodass für eine feste natürliche Zahl gilt: für und . Hierbei bedeutet das -malige Anwenden der Abbildung auf den Vektor . Beweise, dass dann die Vektoren linear unabhängig sind.

Wie kommt man auf den Beweis? (Linear unabhängige Vektoren bei Endomorphismus)

Wir müssen zeigen, dass für mit

schon gilt. Wir können dafür versuchen, die einzelnen aus dieser Gleichung zu erhalten: Wir wissen, dass gilt. Wenden wir nun auf diese Gleichung an, so erhalten wir

Wir haben damit erreicht, dass wir einen Summanden verloren haben. Damit haben wir unser Problem auf einen Fall mit Summanden reduziert. Das heißt, indem wir mit einer Induktion vorgehen, können wir die Aussage jetzt folgern.

Lösung (Linear unabhängige Vektoren bei Endomorphismus)

Wir führen eine Induktion nach durch, um obige Idee, die Anzahl der Vektoren um einen Vektor zu reduzieren anwenden zu können.

Aussageform, deren Allgemeingültigkeit für bewiesen werden soll:

Ist mit für alle und , so ist linear unabhängig.

1. Induktionsanfang:

Wir müssen zeigen, dass und linear unabhängig sind, wenn und gelten. Das heißt wir müssen zeigen, dass für mit schon erfüllt sein muss. Nun ist

Weil gilt, muss gelten. Dann ist nach Wahl von und auch . Mit dem gleichen Argument folgt nun .

2. Induktionsschritt:

2a. Induktionsvoraussetzung:

Ist mit für alle und , so ist linear unabhängig.

2b. Induktionsbehauptung:

Ist mit für alle und , so ist linear unabhängig.

2c. Beweis des Induktionsschritts:

Seien , sodass gilt. Dann ist

Indem wir die Induktionsvoraussetzung auf anwenden, erhalten wir, dass gilt. Damit ist . Weil ist, muss gelten. Also ist linear unabhängig.