Kern einer linearen Abbildung – Serlo „Mathe für Nicht-Freaks“

Aus Wikibooks
Zur Navigation springen Zur Suche springen

Einführung[Bearbeiten]

  • Wir haben strukturerhaltende Abbildungen zwischen VR kennengelernt, sogenannte lineare Abbildungen
  • weil lineare Abbildungen strukturerhaltend sind, kann man sie sich als “Transport von Struktur” vorstellen.

Einleitende Beispiele[Bearbeiten]

(Hier mit reinbringen, dass die linearen Abbildungen Information transportieren und dabei evtl. verlieren)

  • Summe Konten (x,y)\mapsto x+y
    • Man hat zwei Konten.
    • Man kann den Gesamtkontostand ausrechnen, indem man die obige Funktion anwendet.
    • Information geht verloren, wie das Geld auf die Konten verteilt ist. Man kann also z.B. die Einzelkontostände (500,0) und (200,300) nicht mehr unterscheiden. Dafür erhalten wir die Information, wie viel Geld insgesamt auf dem Konto liegt.
  • Betrachte \R[X]\to \R[X], \ p(X)\mapsto p’(X)
    • Man bestimmt die Steigung eines Polynoms in jedem Punkt, also die Ableitung.
    • Damit weiß man noch, wie das Polynom “aussieht”, aber nicht mehr, wo auf der y-Achse es sich befindet, denn die Information, was der konstante Teil ist, geht verloren.
    • Man kann also Polynome, die eine Verschiebung voneinander sind, nicht mehr unterscheiden. Z.B. p=x^2-x+1 und q=x^2-x+42
  • (x,y)\mapsto (-y,x)
    • Wir drehen das Koordinatensystem im \R^2
    • Diese Drehung können wir rückgängig machen. Damit geht nichts verloren.
    • Keine Information geht verloren, da es ein Isomorphismus ist. Insbesondere lineare Unabhängigkeit, und EZS.
  • (x,y) \mapsto (-y , x, 0)
    • Wir betten den \R^2 gedreht in den \R^3 ein. Dass Vektoren verschieden oder linear unabhängig sind, bleibt wie im vorherigen Beispiel erhalten, obwohl wir (anders als im vorherigen Beispiel) nicht mehr bijektiv sind. Ein Erzeugendensystem bleibt hingegen nicht erhalten. Das scheint damit zu tun zu haben, dass lineare Unabhängigkeit nicht vom umliegenden Raum abhängt, also eine “intrinsische” Eigenschaft ist, während ads bei EZS nicht der Fall ist.

Herleitung[Bearbeiten]

  • Wir haben in den Beispielen verschiedene Situationen gesehen, bei denen verschieden viel “intrinsische” Information verloren geht. Das letzte Beispiel legt nahe, dass eine injektive Abbildung von dieser Information nichts verliert.
  • Andererseits sehen wir: Wenn f nicht injektiv ist, und v,v’\in V mit f(v) = f(v’) sind, so geht unter f die Verschiedenheit von v und v’ verloren.
  • Dies können wir etwas umformulieren: Wenn f(v) = f(v’) ⇔ 0 = f(v)-f(v’) = f(v-v’). Also geht der Unterschied von v und v’ unter f genau dann verloren, wenn v-v’ \in f^{-1}(0).
  • Damit können wir messen, welche Unterschiede f verliert: Das ist genau f^{-1}(0)
  • Weil f strukturerhaltend ist, wissen wir, wenn der Unterschied von v1, v2 verloren geht, dann auch von lambda v1, lambda v2. Genauso für Summen. f^{-1}(0) ist also ein Unterraum.

--> Lasst uns dem einen Namen geben

Definition[Bearbeiten]

  • Definition Kern
  • Satz: Kern ist ein Unterraum (wie in der Einleitung erklärt)

Beispiele[Bearbeiten]

  • Beispiele: Den Kern der einleitenden Beispiele bestimmen
  • Vielleicht noch ein weiteres/anderes Beispiel, wo der Kern nicht nur eindimensional ist?

Kern und Injektivität[Bearbeiten]

  • Wir haben gesehen: Der Unterschied von Vektoren geht genau dann verloren, wenn Kern nicht =0 ist. Andererseits ist die Eigenschaft “Unterschied von Vektoren geht nicht verloren” ja gerade die Injektivität (bei linearen Abbildungen). Wir haben also:
  • Satz: Kern = {0} gdw. injektiv
  • Je größer der Kern ist, desto mehr Information geht verloren und desto “weniger injektiv” ist die Abbildung. Der Kern ist damit ein Maß für die “Nicht-Injektivität” von f.

Injektive Abbildungen und Untervektorräume[Bearbeiten]

  • In der Einleitung haben wir vermutet, dass injektive Abbildungen (also Abildungen mit Kern 0, wie wir jetzt wissen) Eigenschaften erhalten, die “intrinsisch” sind, also nicht vom umliegenden VR abhängen.
  • Was heißt, dass eine Eigenschaft nicht vom umliegenden VR abhängt?
  • Haben wir Vektoren in einer Menge N\subseteq V, was ist eine “intrinsische” Eigenschaft von N
  • Eigenschaften von Elementen (z.b. l.u.) eines VRs benötigen oft die Vektorraumstruktur (Addition, skalare Multiplikation). Daher braucht man zum überprüfen von Eigenschaften einen Vektorraum, in dem sie liegen. Damit brauchen wir dafür einen möglichst kleinen Vektorraum.
  • Der kleinste VR, der N enthält, ist span(N)
  • Die intrinsische Eigenschaft von N, darf also von span(N) abhängen, aber nicht von V
  • Intrinsisch = Eigenschaft von N hängt nur von span(N) ab.
  • Wenn f keine “intrinsische” Information verliert, so verliert es insb. keine Unterschiede von Vektoren (da dies eine intrinsische Information ist) und ist damit nach dem letzten Abschnitt injektiv.
  • Umgekehrt gilt, wenn f injektiv ist, dann bettet f V in W ein und schickt V bijektiv und strukturerhaltend auf eine Kopie von V in W, also auf eine Unterraum von W. Damit ist V via f isomorph zu einem Unterraum von W. Insbesondere ist auch jeder UR von V isomorph zu einem UR von W, also auch jeder UR der Form Span(N) einer Teilmenge N von V. Damit erhält f alle “intrinsischen” Eigenschaften von Teilmengen von VR.
  • Wir haben also gesehen, dass Kern = 0 ⇔ f ist injektiv ⇔ f erhält alle “intrinsischen” Eigenschaften von Teilmengen von VR.

Kern und lineare Unabhängigkeit[Bearbeiten]

  • Ein Beispiel für eine solche “intrinsische” Eigenschaft ist die lineare Unabhängigkeit einer Familie von Vektoren, denn: Die Frage ob v_1, \dots, v_n l.u. sind, ist eine Frage, die nur die Vektoren v_1, \dots, v_n und 0 betrifft. Also sollten injektive lineare Abbildungen die lineare Unabhängigkeit erhalten (nach den Überlegungen im vorherigen Abschnitt)
  • Zum Beispiel haben wir im einleitenden Beispiel (Einbettung der gedrehten Ebene) gesehen, dass dort die lineare Unabhängigkeit erhalten bleibt.
  • Umgekehrt ist die lineare Unabhängigkeit von v_1,...,v_n eine “intrinsische” Information. Sollte diese nun für das Bild von v_1,...,v_n nicht gelten, so erhält die lineare Abbildung nicht alle intrinsische Information. Insbesondere kann sie nicht injektiv sein.
  • Genauso funktioniert das auch für unendliche Familien von Vektoren
  • Wenn wir die beiden Aussagen zusammen packen, erhalten wir somit eine Äquivalenz:
  • Satz: Ker f = 0 ⇔ für jede l.u. Familie ist das Bild wieder l.u.
  • Wenn keine Information verloren geht, finden wir also V durch f in W wieder (als Unterraum der gleichen Dimension wie V)
  • Insbesondere kann es keine injektive lineare Abbildung in einen VR kleinerer Dimension geben

Kern und lineare Gleichungssysteme[Bearbeiten]

  • Ein LGS Ax=b zu lösen ist das gleiche, wie bei der zugehörigen linearen Abbildung nach Urbildern zu suchen. (Da x\mapsto Ax linear ist)
  • Wir können uns nun fragen, wie viele Urbilder ein Punkt hat. Genau dann, wenn alle Urbilder höchstens einelementig sind, ist die Abbildung injektiv. Wir wissen inzwischen, das ist gdw der Kern =0 ist.
  • Lösungen sind genau dann eindeutig, wenn die Matrix A Kern Null hat
  • Wir können noch mehr darüber sagen, wie die Lösungsmenge aussieht, wenn das nicht der Fall ist: Wir wissen, dass die Differenz zweier Vektoren mit gleichem Bild im Kern liegt. Damit ist das Urbild f^{-1}(p) = q + Ker(f), wo q ein beliebiges Urbild von p ist (also wenn das LGS mit rechter Seite p lösbar ist, andernfalls haben wir keine Urbilder.)
  • Damit erhalten wir eine stärkere Aussage:
  • Satz: \hat{x} \in V mit A\hat{x} = b Lösung des LGS. Dann ist L(A,b)=\hat{x}+Kern(A). Insbesondere ist \hat{x} genau dann die eind. Lösung von Ax = b, wenn die Koeffizientenmatrix Kern Null hat.
  • Der Kern gibt also ein Kriterium zur Eindeutigkeit von Lösungen von LGS. Es gibt allerdings keine Aussage über die Existenz einer Lösung (dazu siehe Bild).

Aufgaben[Bearbeiten]

Aufgabe (Injektivität und Dimension von und )

Seien und zwei endlichdimensionale Vektorräume. Zeige, dass es genau dann eine injektive lineare Abbildung gibt, wenn gilt.

Qsicon inArbeit.png
To-Do:

Wie kommt man auf den Beweis noch ergänzen. Dort noch genauer erklären, was die Aussage anschaulich bedeutet. Evtl. im Beweis auf die entsprechenden Resultate zum Thema "lineare Unabhängigkeit und Injektivität" verlinken.

Lösung (Injektivität und Dimension von und )

Beweisschritt: ""

Es gebe eine solche injektive lineare Abbildung . Wir wissen, dass injektive lineare Abbildungen lineare Unabhängigkeit von Vektoren erhalten. Daraus folgt direkt die Aussage: Ist eine Basis von , also insbesondere linear unabhängig, so sind wegen der Injektivität von ebenfalls linear unabhängig. Es folgt .

Beweisschritt: ""

Es gelte umgekehrt . Wir benutzen, dass eine lineare Abbildung durch die Bilder der Basisvektoren schon eindeutig bestimmt ist. Sei eine Basis von und eine Basis von . Definiere die gesuchte injektive lineare Abbildung durch für . Das geht, da nach Annahme gilt. Die so konstruierte Abbildung ist injektiv: Sei , dann ist für gewisse und es gilt

woraus wegen der linearen Unabhängigkeit der folgt, dass ist. Also ist und da beliebig war, folgt . Also ist injektiv.


Alter Inhalt[Bearbeiten]

Qsicon inArbeit.png
To-Do:

Wir haben schon im Artikel Monomorphismus den Kern definiert. Hier sollten wir auch darauf eingehen, dass wir den Kern schon definiert haben, damit Leser*innen nicht verwirrt sind, warum wir den Kern mehrmals definieren.

Motivation[Bearbeiten]

Definition[Bearbeiten]

Der Kern einer linearen Abbildung enthält wichtige Informationen über diese Abbildung. Beim Kern handelt es sich um das Urbild des Nullvektors.

Definition (Kern einer linearen Abbildung)

Es seien und zwei -Vektorräume und linear. Dann nennen wir den Kern von .

Warum ist es wichtig, sich mit dem Kern zu beschäftigen?[Bearbeiten]

Die linearen Abbildungen werden auch "strukturerhaltende Abbildungen" zwischen Vektorräumen genannt. Durch sie kann man Vektorräume miteinander in Beziehung setzen und ihre strukturellen Eigenschaften vergleichen. Dabei interessieren uns zum Beispiel die Unterstrukturen, die durch eine lineare Abbildung sichtbar werden. Beispiele dafür sind der Kern und das Bild der linearen Abbildung, welche Untervektorräume des Start- bzw. Zielvektorraums sind. Später werden wir den Kern und das Bild noch mit den Dimensionen des Start- und Zielvektorraums in Beziehung setzen und durch lineare Abbildungen neue Informationen über diese Dimensionen gewinnen.

Analog zum Kern eines Vektorraumhomomorphismus wird auch bei anderen algebraischen Strukturen der Kern von strukturerhaltenden Abbildungen untersucht. Der Begriff "Kern" wird dir daher später noch an anderen Stellen in der Mathematik mit einer sehr ähnlichen Bedeutung wieder begegnen.

Daneben macht der Kern eine Aussage über die lineare Abbildung selbst. An ihm kann man zum Beispiel erkennen, ob eine Abbildung injektiv ist. Man nennt die lineare Abbildung dann auch einen Monomorphismus.

Der Kern ist ein Untervektorraum [Bearbeiten]

Wir zeigen jetzt, dass der Kern einer linearen Abbildung ein Untervektorraum des Startvektorraums ist:

Satz

Es sei eine lineare Abbildung zwischen den -Vektorräumen und . Dann ist ein Untervektorraum von .

Beweis

Um die Behauptung zu überprüfen, müssen wir vier Dinge zeigen:

  1. Für alle gilt .
  2. Für alle und für alle gilt .

Beweisschritt:

Die erste Behauptung folgt direkt aus der Definition.

Beweisschritt:

Da linear ist, wissen wir, dass für alle und alle gilt: . Insbesondere gilt dann auch

Also ist und damit ist der Kern von nicht leer.

Beweisschritt: gilt .

Nun zeigen wir den dritten Punkt. Es gilt für alle , dass

Damit ist auch im Kern von .

Beweisschritt: und gilt .

Der vierte Schritt funktioniert analog zum dritten Schritt. Für alle und alle gilt

Das heißt, dass .

Zusammenhang Injektivität und Kern[Bearbeiten]

Betrachten wir nun eine lineare Abbildung , wobei und zwei -Vektorräume sind. Angenommen, wir wissen, dass der Kern von mehr als ein Element hat. Können wir eine Aussage darüber treffen, ob die Abbildung injektiv ist?

Ja. Wenn der Kern von mehr als ein Element enthält, dann gibt es zwei verschiedene Elemente und von , so dass sind. Per Definition des Kerns ist dann und folglich ist nicht injektiv, da zwei verschiedene Argumente auf denselben Funktionswert abgebildet werden.

Nun wissen wir bereits, dass der Kern von mindestens das neutrale Element des Startvektorraums enthalten muss. Gerade haben wir gezeigt, dass jede lineare Abbildung mit mehr als einem Element im Kern nicht injektiv ist. Gleich werden wir auch die Umkehrung zeigen, also: Wenn der Kern nur ein Element besitzt, muss die Abbildung injektiv sein. Das fassen wir zusammen im folgenden Satz:

Satz (Zusammenhang zwischen Kern und Injektivität)

Seien und zwei -Vektorräume und sei linear. Dann ist genau dann injektiv, wenn ist. Insbesondere ist genau dann injektiv, wenn .

Zusammenfassung des Beweises (Zusammenhang zwischen Kern und Injektivität)

Für den Satz müssen wir zwei Richtungen zeigen:

  • Wenn injektiv ist, dann ist .
  • Aus folgt, dass injektiv ist.

Die erste Richtung kann mit einem direkten Beweis gezeigt werden. Für die andere Richtung müssen wir zeigen, dass für beliebige und mit folgt , wenn . Wenn wir nun wissen, dass für schon gilt, was gilt dann für ? Und was bedeutet das für ? Außerdem benutzen wir, dass nur Vektorräume der Form die Dimension Null haben.

Beweis (Zusammenhang zwischen Kern und Injektivität)

Beweisschritt: Wenn injektiv ist, dann ist .

Nehmen wir zunächst an, dass injektiv ist. Wir wissen bereits, dass ist. Da injektiv ist, kann kein anderer Vektor auf abgebildet werden (bei injektiven Funktionen wird maximal ein Argument auf einen Funktionswert abgebildet). Damit ist , denn der Kern ist ja definiert als die Menge aller Vektoren, die auf den Nullvektor abgebildet werden.

Beweisschritt: Aus folgt, dass injektiv ist.

Sei . Um zu zeigen, dass injektiv ist, betrachten wir zwei Vektoren und aus mit . Dann ist

Also ist . Da wir angenommen haben, dass , ist und damit . Folglich gilt für alle . Dies ist genau die Definition dafür, dass injektiv ist.

Beweisschritt: ist genau dann injektiv, wenn ist.

Wir haben schon gezeigt, dass genau dann injektiv ist, wenn ist. Es bleibt zu zeigen, dass dies äquivalent dazu ist, dass ist. Der Kern von ist ein Untervektorraum von . Ein Untervektorraum von ist genau dann gleich , wenn seine Dimension Null beträgt. Also ist genau dann injektiv, wenn .

Alternativer Beweis (Zusammenhang zwischen Kern und Injektivität)

Man kann diesen Satz auch mit nur einer Kette von äquivalenten Aussagen zeigen:


Lösungsmethode und Beispielaufgaben zur Bestimmung des Kerns[Bearbeiten]

Qsicon inArbeit.png
To-Do:

Nicht über Matrizen zeigen, sondern direkt über Abbildungen

Lösungsmethode[Bearbeiten]

Wenn wir nun den Kern einer linearen Abbildung direkt bestimmen wollen, kann man wie folgt vorgehen: Seien und endlich-dimensionale Vektorräume und eine lineare Abbildung. Wir möchten nun den Kern von bestimmen:

  1. Die darstellende Matrix von aufstellen (Wenn sie noch nicht angegeben ist).
  2. Gauß-Jordan-Algorithmus auf die Matrix anwenden.
  3. bestimmen und mit der Dimensionsformel (diese werden wir später noch kennenlernen) die Dimension des Kerns bestimmen.
  4. Mittels eines linearen Gleichungssystems die Basisvektoren des Kerns finden.

Beispielaufgaben in endlich-dimensionalen Vektorräumen[Bearbeiten]

Hierzu zunächst ein einfaches Beispiel.

Beispiel

Gegeben sei eine lineare Abbildung mit folgender darstellenden Matrix: .

Bestimmen wir zunächst die Dimension des Kerns. Hierzu benutzen wir die Dimensionsformel und den Rang einer Matrix, welche später eingeführt werden. Die Vektoren und sind linear unabhängig, da sie kein Vielfaches voneinander sind. Daher ist und folglich .

Finden wir also einen Vektor mit und , so sind wir fertig und es gilt . Betrachten wir die darstellende Matrix von , so fällt auf, dass . Damit ist .

Nun versuchen wir in einem etwas komplizierteren Fall den Kern zu bestimmen.

Beispiel

Sei linear mit der darstellenden Matrix .

Wir wollen also die Lösungsmenge von

Dazu wenden wir den Gauß-Jordan-Algorithmus an. Wir betrachten nur die Matrix, da sich die rechte Seite durch die elementaren Zeilenumformungen nicht ändert.

Als erstes ziehen wir das 3-fache der 1. Zeile von der zweiten ab und wir ziehen das 4-fache der ersten Zeile von der dritten Zeile ab. Damit erhalten wir folgende Matrix:

Nun subtrahieren wir von der dritten Zeile das 2,5-fache der zweiten Zeile. Das ergibt

.

Jetzt addieren wir die zweite Zeile zur ersten Zeile und erhalten

.

Das bedeutet, dass der Kern von genau die enthält, für die folgendes gilt:

.

Damit muss sein und . Also können wir um einen Vektor im Kern zu finden zum Beispiel frei wählen und dann sind und bereits fest bestimmt. Daher ist der Kern in diesem Fall ein-dimensional.

Der Kern unserer linearen Abbildung ist also .

Beispiel

Sei eine lineare Lineare Abbildung mit .


1. Die darstellende Matrix bezüglich der Standardbasis, sieht folgendermaßen aus: , da und , sowie .

2. Jetzt wenden wir den Gauß-Jordan-Algorithmus an: Wir suchen , so dass

.

Da nun die rechte Seit Null ist können wir die linke Seite verändern ohne die Nuller zu beachten:

Zuerst ziehen wir das 2-fache der 1.Zeile von der 4.Zeile ab und subtrahieren das 2-fache der 2.Zeile von der 3.Zeile, dann erhalten wir:

Als nächstes addieren wir das 0,5-fache der 1.Zeile zur 3.Zeile und tauschen anschließend 1. und 2. Zeile. Dadurch entsteht die folgende Matrix:

.

Diese Matrix lässt sich nicht viel weiter vereinfachen, da die Zeilenvektoren und linear unabhängig sind. Die restlichen Zeilen sind Nullzeilen, also sind wir mit dem Gauß-Jordan-Algorithmus fertig.


3. Diese Matrix hat genau zwei linear unabhängige Vektoren. Also ist . Dann gilt mit der Dimensionsformel:

.

Somit brauchen wir einen Vektor , so dass , dann können wir den Kern darstellen als .

4. Wir wissen, dass für dieses gilt:



Daraus folgt direkt und . Also ist ein mögliches . Damit ist und wir sind fertig.

Beispielaufgaben in unendlich-dimensionalen Vektorräumen[Bearbeiten]

Die bisherigen Beispiele waren Beispiele in endlich-dimensionalen Vektorräumen. Der Vorteil hierbei ist, dass man die darstellende Matrix der Abbildung aufschreiben kann und anschließend nach der oben beschriebenen Lösungsmethode vorgehen kann. In unendlich-dimensionalen Vektorräumen ist das etwas komplizierter.

Wir fangen mit einem einfachen Beispiel in einem unendlich-dimensionalen Vektorraum an.

Beispiel

Wir betrachten die Ableitung als linear Abbildung von Polynomen über . Die Menge ist eine Basis von . Wir definieren durch für alle .

Nun wollen wir den Kern von bestimmen. Jedes Element aus können wir darstellen als eine Linearkombination , wobei und für alle ist. Es gilt also .

Wir wissen, dass die linear unabhängig sind, da sie eine Basis bilden. Somit ist eine Linearkombination der genau dann Null, wenn alle Koeffizienten Null sind. Das können wir benutzen, um den Kern zu bestimmen. Nehmen wir also an, dass für ein beliebiges Element mit und für alle gilt, dass . Dann folgt, dass für alle . Für alle diese gilt, dass . Folglich ist für alle .

Damit ist genau dann , wenn für alle . Der Kern von ist somit .

Hinweis

Wir können dieses Resultat verallgemeinern, indem wir durch einen beliebigen Körper ersetzen. Wir müssen dann 2 Fälle unterscheiden:

:

Hier erhalten wir wie für :


:

Hier erhalten wir: