Abstellraum/ Kern, Matrizen und Reihendarstellung Arkkosinus – Serlo „Mathe für Nicht-Freaks“

Aus Wikibooks
Zur Navigation springen Zur Suche springen

Hinweis

Hier werden Texte abgelegt, die vielleicht für spätere Ausarbeitungen noch gebraucht werden können.

Analysis 1[Bearbeiten]

Reihendarstellung Arkossinus und Arkuskosinus[Bearbeiten]

Äuqivalent ist es natürlich auch möglich, die Arkusfunktionen als Reihendarstellung zu definieren:

Definition (Arkussinus und -cosinus als Reihendarstellung)

Wir definieren die Funktionen (Arkussinus} und (Arkuscosinus) durch


Lineare Abbildung: Kern[Bearbeiten]

Motivation[Bearbeiten]

Definition[Bearbeiten]

Der Kern einer linearen Abbildung enthält wichtige Informationen über diese Abbildung. Wir wiederholen zunächst die Definition des Kerns:

Definition (Kern einer linearen Abbildung)

Es seien und zwei -Vektorräume und linear. Dann nennen wir den Kern von .

Warum ist es wichtig, sich mit dem Kern zu beschäftigen?[Bearbeiten]

Die linearen Abbildungen werden auch "strukturerhaltende Abbildungen" zwischen Vektorräumen genannt. Durch sie kann man Vektorräume miteinander in Beziehung setzen und ihre strukturellen Eigenschaften vergleichen. Dabei interessieren uns zum Beispiel die Unterstrukturen, die durch eine lineare Abbildung sichtbar werden. Beispiele dafür sind der Kern und das Bild der linearen Abbildung, welche Untervektorräume des Start- bzw. Zielvektorraums sind. Später werden wir den Kern und das Bild noch mit den Dimensionen des Start- und Zielvektorraums in Beziehung setzen und durch lineare Abbildungen neue Informationen über diese Dimensionen gewinnen.

Analog zum Kern eines Vektorraumhomomorphismus wird auch bei anderen algebraischen Strukturen der Kern von strukturerhaltenden Abbildungen untersucht. Der Begriff "Kern" wird dir daher später noch an anderen Stellen in der Mathematik mit einer sehr ähnlichen Bedeutung wieder begegnen.

Daneben macht der Kern eine Aussage über die lineare Abbildung selbst. An ihm kann man zum Beispiel erkennen, ob eine Abbildung injektiv ist. Man nennt die lineare Abbildung dann auch einen Monomorphismus.

Der Kern ist ein Untervektorraum[Bearbeiten]

Wir zeigen jetzt, dass der Kern einer linearen Abbildung ein Untervektorraum des Startvektorraums ist:

Satz

Es sei eine lineare Abbildung zwischen den -Vektorräumen und . Dann ist ein Untervektorraum von .

Beweis

Um die Behauptung zu überprüfen, müssen wir vier Dinge zeigen:

  1. Für alle gilt .
  2. Für alle und für alle gilt .

Beweisschritt:

Die erste Behauptung folgt direkt aus der Definition.

Beweisschritt:

Da linear ist, wissen wir, dass für alle und alle gilt: . Insbesondere gilt dann auch

Also ist und damit ist der Kern von nicht leer.

Beweisschritt: gilt .

Nun zeigen wir den dritten Punkt. Es gilt für alle , dass

Damit ist auch im Kern von .

Beweisschritt: und gilt .

Der vierte Schritt funktioniert analog zum dritten Schritt. Für alle und alle gilt

Das heißt, dass .

Der Zusammenhang zwischen der Injektivität und dem Kern einer linearen Abbildung[Bearbeiten]

Betrachten wir nun eine lineare Abbildung , wobei und zwei -Vektorräume sind. Angenommen, wir wissen, dass der Kern von mehr als ein Element hat.

Frage: Können wir eine Aussage darüber treffen, ob die Abbildung injektiv ist?

Ja. Wenn der Kern von mehr als ein Element besitzt, dann gibt es zwei verschiedene Elemente und von , so dass sind. Per Definition des Kerns ist dann und folglich ist nicht injektiv, da zwei verschiedene Argumente auf denselben Funktionswert abgebildet werden.

Nun wissen wir bereits, dass der Kern von mindestens das neutrale Element des Startvektorraums besitzen muss. Der Kern muss also mindestens ein Element (nämlich ) besitzen. Gerade haben wir gezeigt, dass jede lineare Abbildung mit mehr als einem Element im Kern nicht injektiv ist. Gleich werden wir auch die Umkehrung zeigen, also: Wenn der Kern nur ein Element besitzt, muss die Abbildung injektiv sein. Das fassen wir zusammen im folgenden Satz:

Satz (Zusammenhang zwischen Kern und Injektivität)

Seien und zwei -Vektorräume und sei linear. Dann gilt:

ist genau dann injektiv, wenn ist.

Insbesondere ist genau dann injektiv, wenn .

Zusammenfassung des Beweises (Zusammenhang zwischen Kern und Injektivität)

Für den Satz müssen wir zwei Richtungen zeigen:

  • Wenn injektiv ist, dann ist .
  • Aus folgt, dass injektiv ist.

Die erste Richtung kann mit einem direkten Beweis gezeigt werden. Für die andere Richtung müssen wir zeigen, dass für beliebige und mit folgt , wenn . Wenn wir nun wissen, dass für schon gilt, was gilt dann für ? Und was bedeutet das für ?

Für den Zusatz müssen wir uns überlegen, wann ein Vektorraum die Dimension Null hat.

Beweis (Zusammenhang zwischen Kern und Injektivität)

Beweisschritt: Wenn injektiv ist, dann ist .

Nehmen wir zunächst an, dass injektiv ist. Wir wissen bereits, dass ist. Da injektiv ist, kann kein anderer Vektor auf abgebildet werden (bei injektiven Funktionen wird maximal ein Argument auf einen Funktionswert abgebildet). Damit ist , denn der Kern ist ja definiert als die Menge aller Vektoren, die auf den Nullvektor abgebildet werden.

Beweisschritt: Aus folgt, dass injektiv ist.

Sei . Um zu zeigen, dass injektiv ist, betrachten wir zwei Vektoren und aus mit . Dann ist

Also ist . Da wir angenommen haben, dass , ist und damit . Folglich gilt für alle . Dies ist genau die Definition dafür, dass injektiv ist.

Beweisschritt: ist genau dann injektiv, wenn ist.

Wir haben schon gezeigt, dass genau dann injektiv ist, wenn ist. Es bleibt zu zeigen, dass dies äquivalent dazu ist, dass . Der Kern von ist ein Untervektorraum von . Ein Untervektorraum von ist genau dann gleich , wenn seine Dimension Null beträgt. Also ist genau dann injektiv, wenn .

Alternativer Beweis (Zusammenhang zwischen Kern und Injektivität)

Man kann diesen Satz auch mit nur einer Kette von äquivalenten Aussagen zeigen:

Lösungsmethode und Beispielaufgaben zur Bestimmung des Kerns[Bearbeiten]

Qsicon inArbeit.png
To-Do:

Diese Lösungsmethode später noch ins Kapitel über Gleichungssysteme verschieben

Für unendlich dimensionale Vektorräume kann die Lösung hier bereits angegeben werden. Noch genau ausarbeiten.

Lösungsmethode[Bearbeiten]

Wenn wir nun den Kern einer linearen Abbildung direkt bestimmen wollen, kann man wie folgt vorgehen: Seien und endlich-dimensionale Vektorräume und eine lineare Abbildung. Wir möchten nun der Kern von bestimmen:

  1. Die darstellende Matrix von aufstellen (Wenn sie noch nicht angegeben ist).
  2. Gauß-Jordan-Algorithmus auf die Matrix anwenden.
  3. bestimmen und mit der Dimensionsformel (diese werden wir später noch kennenlernen) die Dimension des Kerns bestimmen.
  4. Mittels eines linearen Gleichungssystems die Basisvektoren des Kerns finden.

Beispielaufgaben in endlich-dimensionalen Vektorräumen[Bearbeiten]

Hierzu zunächst ein einfaches Beispiel.

Beispiel

Gegeben sei eine lineare Abbildung mit folgender darstellenden Matrix: .

Bestimmen wir zunächst die Dimension des Kerns. Hierzu benutzen wir die Dimensionsformel und den Rang einer Matrix, welche später eingeführt werden. Die Vektoren und sind linear unabhängig, da sie kein Vielfaches voneinander sind. Daher ist und folglich .

Finden wir also einen Vektor mit und , so sind wir fertig und es gilt . Betrachten wir die darstellende Matrix von , so fällt auf, dass . Damit ist .

Nun versuchen wir in einem etwas komplizierteren Fall den Kern zu bestimmen.

Beispiel

Sei linear mit der darstellenden Matrix .

Wir wollen also die Lösungsmenge von

Dazu wenden wir den Gauß-Jordan-Algorithmus an. Wir betrachten nur die Matrix, da sich die rechte Seite durch die elementaren Zeilenumformungen nicht ändert.

Als erstes ziehen wir das 3-fache der 1. Zeile von der zweiten ab und wir ziehen das 4-fache der ersten Zeile von der dritten Zeile ab. Damit erhalten wir folgende Matrix:

Nun subtrahieren wir von der dritten Zeile das 2,5-fache der zweiten Zeile. Das ergibt

.

Jetzt addieren wir die zweite Zeile zur ersten Zeile und erhalten

.

Das bedeutet, dass der Kern von genau die enthält, für die folgendes gilt:

.

Damit muss sein und . Also können wir um einen Vektor im Kern zu finden zum Beispiel frei wählen und dann sind und bereits fest bestimmt. Daher ist der Kern in diesem Fall ein-dimensional.

Der Kern unserer linearen Abbildung ist also .

Beispiel

Sei eine lineare Lineare Abbildung mit .

1. Die darstellende Matrix bezüglich der Standardbasis, sieht folgendermaßen aus: , da und , sowie .

2. Jetzt wenden wir den Gauß-Jordan-Algorithmus an: Wir suchen , so dass

.

Da nun die rechte Seit Null ist können wir die linke Seite verändern ohne die Nuller zu beachten:

Zuerst ziehen wir das 2-fache der 1.Zeile von der 4.Zeile ab und subtrahieren das 2-fache der 2.Zeile von der 3.Zeile, dann erhalten wir:

Als nächstes addieren wir das 0,5-fache der 1.Zeile zur 3.Zeile und tauschen anschließend 1. und 2. Zeile. Dadurch entsteht die folgende Matrix:

.

Diese Matrix lässt sich nicht viel weiter vereinfachen, da die Zeilenvektoren und linear unabhängig sind. Die restlichen Zeilen sind Nullzeilen, also sind wir mit dem Gauß-Jordan-Algorithmus fertig.

3. Diese Matrix hat genau zwei linear unabhängige Vektoren. Also ist . Dann gilt mit der Dimensionsformel:

.

Somit brauchen wir einen Vektor , so dass , dann können wir den Kern darstellen als .

4. Wir wissen, dass für dieses gilt:

Daraus folgt direkt und . Also ist ein mögliches . Damit ist und wir sind fertig.

Beispielaufgaben in unendlich-dimensionalen Vektorräumen[Bearbeiten]

Die bisherigen Beispiele waren Beispiele in endlich-dimensionalen Vektorräumen. Der Vorteil hierbei ist, dass man die darstellende Matrix der Abbildung aufschreiben kann und anschließend nach der oben beschriebenen Lösungsmethode vorgehen kann. In unendlich-dimensionalen Vektorräuemn ist das etwas komplizierter.

Wir fangen mit einem einfachen Beispiel in einem unendlich-dimensionalen Vektorraum an.

Beispiel

Wir betrachten die Ableitung als linear Abbildung von Polynomen über . Die Menge ist eine Basis von . Wir definieren durch für alle .

Nun wollen wir den Kern von bestimmen. Jedes Element aus können wir darstellen als eine Linearkombination , wobei und für alle ist. Es gilt also .

Wir wissen, dass die linear unabhängig sind, da sie eine Basis bilden. Somit ist eine Linearkombination der genau dann Null, wenn alle Koeffizienten Null sind. Das können wir benutzen, um den Kern zu bestimmen. Nehmen wir also an, dass für ein beliebiges Element mit und für alle gilt, dass . Dann folgt, dass für alle . Für alle diese gilt, dass . Folglich ist für alle .

Damit ist genau dann , wenn für alle . Der Kern von ist somit .

Dimension eines Vektorraums als Invariante[Bearbeiten]

Der folgende Text sollte in einen eigenen Artikel mit dem Titel „Dimension eines Vektorraums als Invariante“ ausgelagert werden!

Eine fundamentale Frage der linearen Algebra lautet: Wann sind zwei vorgegebene -Vektorräume zueinander isomorph? Ist beispielsweise die Ebene isomorph zum Raum ? Dies sollte nicht der Fall sein in einer so grundlegenden Theorie wie der linearen Algebra, die unsere konkrete Anschauung des Raumbegriffs sinnvoll abstrakt abbilden soll.

Aber wie nähert man sich der Frage, ob und zueinander isomorph sind, mathematisch? Es liegt nahe, dass die Antwort etwas mit der Verschiedenheit der „Dimension“ der Räume zu tun haben sollte. Dahinter steht das in der Mathematik weit verbreitete Prinzip, eine sogenannte Invariante für die Objekte unseres Interesses einzuführen. Stelle dir konkret vor, wir könnten jedem -Vektorraum eine „Kennzahl“ zuordnen, sodass sich die Kennzahlen zweier zueinander isomorpher -Vektorräume stets gleichen. Eine derartige Zuordnung wird dann als Invariante bezeichnet. Sind nun zwei vorgegebene -Vektorräume nicht isomorph, dann unterscheiden sind mit etwas Glück (also wenn die Invariante „gut“ gewählt ist) auch die zugehörigen Werte der Invarianten. (Jedem -Vektorraum die Kennzahl Null zuzuordnen wäre also ebenso einfach wie uninteressant!) Ist eine Invariante einmal erfolgreich definiert worden, so gilt also:

Wenn eine Invariante zwei vorgegebenen -Vektorräumen unterschiedliche Zahlen zuordnet, dann sind diese -Vektorräume nicht zueinander isomorph.

Warnung

Wenn sich die Werte einer Invarianten auf zwei -Vektorräumen gleichen, sagt unsere Methode garnichts aus!

Die große Kunst besteht somit darin, eine möglichst geschickte Invariante zu finden, mit deren Hilfe man möglichst viele -Vektorräume auseinander halten kann. Motiviert durch unsere Ausgangsfrage würden wir nun gerne unsere Invariante, die Dimension, derart definieren, dass sie dem euklidischen Raum für jede ganze Zahl die Zahl zuordnet. Dabei gibt es jedoch die folgenden beiden Probleme:

  1. Wir müssen bereits wissen, dass und für nicht zueinander isomorph sind, um eine wohldefinierte Invariante zu erhalten.
  2. Es ist unklar wie die Definition der Dimension auf einen abstrakt gegebenen -Vektorraum ausgedehnt werden kann.

Folglich müssen wir unsere Vorgehensweise ändern: Wir benötigen eine alternative Charakterisierung der Dimension, die einerseits im Fall des euklidischen Raums das Gewünschte liefert und andererseits offensichtlich invariant unter Isomorphismus ist. Zu diesem Zweck kehren wir zu den Räumen und vom Anfang zurück und überlegen, worin sie sich in Bezug auf ihre Dimension unterscheiden. Eine wichtige Beobachtung ist, dass sich die beiden Räume in Bezug auf die Vielfalt ihrer Untervektorräume unterscheiden: Die einzige Ebene im ist selbst, wohingegen man in offensichtlich sehr viele verschiedene Ebenen findet, wie beispielsweise die drei paarweise verschiedenen Koordinatenebenen , , definiert durch die Gleichung . Der Grund ist, dass die genannten Ebenen im echte Untervektorräume bilden, d.h. .

Man könnte also auf die Idee kommen, die Dimension eines -Vektorraums als maximale Schachtelungstiefe von Untervektorräumen von zu definieren. In der Tat gilt der folgende

Satz (Dimension als Schachtelungstiefe)

Sei ein -Vektorraum der Dimension . Dann ist die maximale Schachtelungstiefe von Untervektorräumen von .