Mathe für Nicht-Freaks: Buchanfang lineare Algebra/Grundvorstellungen zur linearen Algebra

Aus Wikibooks

Begriffe der Didaktik[Bearbeiten]

  • Aspekt: Ein Aspekt ist ein Teilbereich eines Begriffs, mit dem dieser fachlich charakterisiert werden kann.
  • Grundvorstellungen: Grundvorstellungen sind inhaltliche Deutungen eines Begriffs, die diesem Sinn geben.

Wozu braucht man lineare Algebra?[Bearbeiten]

  • Lösen von linearen Gleichungssysteme / Gleichungen
  • Analytische Geometrie
  • Stochastik (z.B. Markov-Ketten)
  • Kryptologie
  • Codierungstheorie
  • Lineare Optimierung
  • Input Output Analyse
  • Spieltheorie
  • Physik (Schwingung, Eigenschwingung)

Wiederholungsartikel: Vektorraumbegriff in der Schule[Bearbeiten]

Vektoren werden in der Schule oft als „Pfeile im Raum“ verstanden. In einem Kapitel muss deswegen der Begriff des Vektors aus der Schule wiederholt und konkretisiert werden. Hier sollten folgende Intuitionen vermittelt werden:

  • Vektoren sind Äquivalenzklassen von Pfeile (Pfeile repräsentieren einen konkreten Vektor und sind kein Vektor, hier haben Pfeile beliebigen Start- und Endpunkt)
    • Vektoren sind Äquivalenzklassen von Tupel , wobei der Startpunkt und der Endpunkt ist. Dies entspricht der Schreibweise
    • Vektoraddition:
  • Vektoren sind Punkte im Raum (können repräsentiert werden durch Pfeile im Raum, die beim Nullpunkt beginnen)
  • Vektoren sind Verschiebungen. Ein Vektor entspricht der Verschiebung

Vektorraum[Bearbeiten]

  • Grundvorstellungen: Vektorräume sind Verallgemeinerungen vom , insbesondere des und des
    • Man sollte hier erklären, warum Verallgemeinerungen/ Abstrahierungen notwendig sind
      • Beispiel aus der Physik: Zur Beschreibung von zwei Teilchen im brauchen wir insgesamt
    • Man sollte weitere Vektorräume kennen lernen und erkennen, dass diese eine ähnliche Struktur wie der bzw aufweisen. Beispiel: Menge der quadratischen Polynome hat eine ähnliche Struktur wie
    • Anmerkung: Auch für andere Begriffe wie lineare Unabhängigkeit sollte man auf Beispiele aus dem bzw aufsetzen.
  • Grundvorstellung: Vektoren sind Objekte, die man addieren und skalieren (strecken und verkürzen) kann.
  • Grundvorstellung bei endlichdimensionalen Vektorräumen: Jeder endlichdimensionale Vektorraum ist isomorph zum
    • Vektorräume sind Koordinatensysteme (Man fängt mit der Geraden an und packt immer neue unabhängige Richtungen dazu.
    • Vektorräume sind Verallgemeinerungen des kartesischen Koordinatensystems.
  • These: Vektoren sind solche Objekte zwischen denen Linearkombinationen gebildet werden können.
    • Unterstützung der These: Graßmann (Gründer des Vektorraumbegriffs) führte Vektoren als formale Linearkombinationen ein, wobei er Elemente nannte (modern würde man von einer Basis sprechen)
    • Wenn diese These stimmt, dann kann die Vektorraumstrukurerhaltung bei linearen Abbildungen mit dem Erhalt von Linearkombinationen ersetzt werden.
  • Richtungsaspekt: Jeder Vektor (ungleich dem Nullvektor) repräsentiert eine Richtung.
    • Wenn ein Vektor ist, dann ist bzw. in reellen die von aufgespannte Richtung. Jeder Vektor aus dieser Menge ungleich dem Nullvektor aus dieser Menge repräsentiert dieselbe Richtung.
  • Aspekt: Man kann mit Vektoren Gleichungen / Gleichungssysteme aufstellen und diese lösen.
  • Grundvorstellung: Vektoren sind Objekte mit einer Richtung und einer Weite (wie weit man geht.). Die Weite muss hier keine Länge des Vektors sein (in metrischen Räumen kann dies so interpretiert werden).
To-Do:

Wozu braucht man den Vektorraumbegriff? Wieso führt man ihn ein?

  • Herangehensweisen: Grundsätzlich gibt es zwei Herangehensweisen an die lineare Algebra:
    • Herangehensweise mit Koordinaten: Vektoren sind Tupel von n Zahlen (aus oder einem anderen Körper), Tupel lassen sich komponentenweise addieren, und man kann skalare Vielfache nehmen. Solche Vektoren besitzen auch eine Anschauung als Punkte (bzw. Pfeile) in einem n-dimensionalen Raum. Für den Anfänger dürfte diese Einführung von Vektoren als Tupel etwas naheliegender sein, weil sofort eine Anschauung da ist, was diese Vektoren und Vektorräume eigentlich sind.
    • Abstrakte Herangehensweise: Vektoren sind Elemente eines Vektorraums, diese Vektorraum besitzt eine Addition und eine Skalarmultiplikation. Was diese Vektoren sind, ist erstmal egal. Die abstrakte Herangehensweise hat dagegen den Vorteil, dass man sich 1) keine Gedanken machen muss, wie man Vektoren konkret als Koordinaten darstellt. Nicht in allen Fällen gibt es eine naheliegende Basis, in der Vektoren als Koordinaten dargestellt werden (z.B. wenn Untervektorräume als Lösung von linearen Gleichungen entstehen). Außerdem kann man andere Beispiele für Vektorräume (z.B. Funktionenräume) sofort in dieses Schema pressen.

Anmerkungen[Bearbeiten]

  • Einige Grundgedanken zu Vektoren in der räumlichen Geometrie bei Graßmann:
    • Beziehungen zwischen räumlichen Größen können mit Hilfe algebraischer Verknüpfungsgesetze beschrieben werden
    • Auffassung der geometrischen Strecken AB und BA als entgegengesetzte Größen (Betrachtung des Negativen in der Geometrie), neben der Länge einer Strecke ist nun deren Richtung von Bedeutung
    • Graßmann ist daran interessiert, seine Gedanken auf n Dimensionen auszudehnen
    • Es gilt AB+BC=AC auch dann, wenn A, B, C nicht in einer geraden Linie liegen
    • wenn man alle Elemente einer Strecke denselben Änderungen (heute: Parallelverschiebungen) unterwirft, so ist die dadurch entstehende Strecke der ursprünglichen gleich. (in der Schule nennt man das parallelgleich)

Untervektorraum[Bearbeiten]

  • Teilmenge von Vektorräumen, die wieder eine Vektorraumstruktur besitzen.
  • Teilmenge von Vektorräumen, die abgeschlossen sind bzgl. Linearkombinationsbildung.
  • Hat man eine Liste von Vektoren gegeben, so kann man sich den davon erzeugten Untervektorraum anschauen (welcher aus allen möglichen Linearkombinationen besteht)
  • Wozu braucht man Untervektorräume?
    • Kern und Bild einer Linearen Abbildung sind Untervektorräume
    • Für den Begriff des Faktorraums braucht man Untervektorräume
    • Teilmengenbeziehung gibt eine Ordnungsstruktur auf Vektorräume
      • Untervektorräume sind "kleiner gleich" dem großen Raum. Der Untervektorraumbegriff hat damit Ähnlichkeiten mit der Dimension (ein "zweidimensionaler" Untervektorraum ist kleiner als ein dreidimensionaler)
      • Als Beispiel identifiziert mit einem UV des und damit ist der "kleiner"
    • Zusammenhang zur direkten Summe: Die Direkte Summe von Vektorräumen ist ein Oberraum seiner Summanden (ähnlich wie bei der Summe der natürlichen Zahlen)
To-Do:

Ergänzungen zur Frage: Worzu braucht man Untervektorräume?

Linearkombinationen[Bearbeiten]

  • Definition des Vektorraums garantiert, dass Linearkombination von Vektoren wieder im Vektorraum landen
    • Noch mehr: Definition des Vektorraums besagt, dass jede Kombination von Additionen und Skalierungen in eine Linearkombination umgewandelt werden kann. Damit ist die Linearkombination eine Art Normalform für beliebige Operationen mit Vektoren.
      • Skalare und vektorielles Distributivgesetz: Reihenfolge Addition und skalare Multiplikaton ist egal
  • Grundvorstellung: Linearkombination ist die Summe von Kombinationen Weite + Richtungsrepräsentant
    • Enge Verbindung zur Vorstellung, dass Vektoren durch Weite + Richtung charakterisiert werden kann.
  • Anwendungen von Linearkombinationen:
    • Bestimmung des Schwerpunktes von Punkten mit Masse ist die Linearkombination (wobei die Gesamtmasse ist).
    • Bestimmung des Gesamtpreises mit Preise und Anzahl gekaufter Einheiten von .
    • Kräftezerlegung ist eine Linearkombination
    • Zwei Richtungen: Vektor in Linearkombination zerlegen (Kräftezerlegung) und Vektoren über Linearkombination zu neuen Vektor zusammenfügen (Schwerpunktsbestimmung)
  • Über Linearkombinationen können Vektoren dargestellt werden
    • Metapher für Darstellung: Primfaktorzerlegung als Darstellung für ganze Zahlen um Teilbarkeit zu untersuchen
  • Wozu braucht man Linearkombinationen?
    • Definition von linearen Abbildungen
    • Beschreibung von Vektoren: heißt: „ liegt bei 2x in Richtung und dann zweimal in Richtung .
    • Lösen von Gleichungssystemen: Gleichungssysteme können so umformuliert werden, dass sie einer Linearkombination mit unbekannten Skalaren entspricht.
    • Bei endlichdimensionalen Vektorräumen: Isomorphismus zum wofür man den Linearkombinationsbegriff braucht.

Erzeugendensystem[Bearbeiten]

  • Vektor = Richtung (Besser Vektor repräsentiert eine Richtung)
  • Feststellung: Mehrere Richtungen spannen einen Vektorraum auf.
  • Frage: Wie bestimmt man durch Vorgabe mehrerer Richtungen (= Vektoren) den dadurch aufgespannten Vektorraum? -> ... -> Definition des Spans
  • Frage: Wann ist Span gleich dem kompletten Vektorraum? -> ... -> Definition des Erzeugendensystems

Lineare Unabhängigkeit[Bearbeiten]

  • Grundfrage: Worin unterscheidet sich Ebene und Raum? Sie sind intuitiv unterschiedlich, erfüllen aber beide die Vektorraumaxiome. -> Antwort: Ihre Dimension -> Motivation: Was ist eine Dimension? Wie kann man diesen intuitiven Begriff formal definieren?
  • Vorstellung: Dimension = Anzahl der maximal unabhängigen Richtungen -> Definition der unabhängigen Richtungen führt zum Begriff der linearen Abhängigkeit / Unabhängigkeit.

Basis[Bearbeiten]

  • Ausgangspunkt: Erzeugendensystem -> Es gibt den Wunsch, dass das Erzeugendensystem möglichst klein ist. -> Dies führt zum Begriff des „minimales Erzeugendensystem“ (welches eine Basis ist).
  • Ausgangspunkt: Dimension ist gleich der maximalen Anzahl unabhängiger Richtungen. -> Wir haben den Wunsch, dass das unabhängige System möglichst groß ist. -> Dies führt zum Begriff des „maximalen Systems unabhängiger Vektoren“ (welches eine Basis ist).
  • Zusammenführung von Begriffen linearer Unabhängigkeit und von Erzeugendensystem: Basis = lineare Unabhängigkeit + Erzeugendensystem
  • Wahl einer Basis liefert eine Möglichkeit Vektoren als Tupel von Koordinaten darzustellen.
  • Alle Basen von einem Vektorraum sind gleich groß

Faktorräume[Bearbeiten]

  • Grundvorstellungen:
    • Man löscht Dimensionen / Richtungen des Untervektorraums - Umkehroperation zur (konstruierten) direkten Summe
    • Man kippt alle Elemente der Nebenklassen (Untervektorraum + affine Verschiebungen) zusammen
    • Nebenklasse = affiner Untervektorraum (Man kommt von a nach b über Elemente des Untervektorraums)
    • Man reduziert Informationen / löscht Informationen
  • Definition: Faktorräume bestehen aus Äquivalenzklassen von Vektoren. Auf diesen Äquivalenzklassen können wir ebenfalls eine sinnvolle Addition und Skalarmultiplikation definieren.
  • Aspekt: Alles was ursprünglich im Untervektorraum lag, wird im Faktorraum zum Nullvektor zusammengestaucht.
  • Motivation 1: Oft kommt es bei einer Berechnung nicht darauf an, einen genauen Lösungenvektor zu bestimmen, sondern lediglich einen Vektor, der bis auf eine Abweichung in einem Untervektorraum genau bestimmt wurde (z.B. wenn man eine Element einer Lösungsschar für ein lineares Gleichungssystem sucht)
  • Motivation 2: Dadurch, dass man Untervektorräume ignoriert, reduzieren sich die Dimensionen, wodurch Berechnungen effizienter werden.
  • Weiteres: Dimensionsformel für Faktorräume, ist isomorph zu .
  • Geometrische Vorstellung: Man betrachtet alle Vektoren, die einen festgelegten Abstand in eine festgelegte Richtung von unserem Untervektorraum haben. Man könnte Beispiele im machen mit parallelen Geraden und Ebenen.

Lineare Abbildungen[Bearbeiten]

  • Aspekt 1: Lineare Abbildungen sind Abbildungen, die Linearkombinationen erhalten. Da Linearkombinationen die Vektorraumstruktur kodieren, werden durch diese Abbildungen Vektorraumstrukturen erhalten. Man fordert also . Aus dieser Forderung leitet man die Definition der linearen Abbildung her.
    • Interpretation von Aspekt 1: Es ist egal, ob man erst skaliert, addiert und dann abbildet, oder ob man erst abbildet und dann dieselben Skalierungen / Additionen durchführt.
  • Aspekt 2: Lineare Abbildungen erhalten Untervektorräume.
    • Idee zur Motivation des Begriffs: Man hat verschiedene Vektorräume, wie kann man sie vergleichen? Wie findet man Zusammenhänge zwischen diesen? -> Abbildungen zwischen diesen Räumen schaffen, die die Vektorraumstruktur erhalten -> Weiter wie in Aspekt 1
  • Grundvorstellung: Lineare Abbildung als Verallgemeinerung der direkten Proportionalität. Hier gelten aber besondere Regeln: Wenn alle Einträge doppelt so groß sind, ist der Endbetrag auch doppelt so groß.
  • Nutzen Lineare Abbildungen:
    • Man kann lineare Abbildungen eindeutig auf der Basis des Vektorraums definieren
    • zwei Vektorräume werden miteinander in Beziehung gesetzt, wobei deren Strukturen erhalten bleiben
  • Ein anschauliches Beispiel für eine Lineare Abbildung aus dem Alltag:
    • Handel an der Börse von beispielsweise Weizen, Mais und Reis. Ein Vektor (hier im ) gibt an, wie viel z.B. in Tonnen ein Händler von den jeweiligen Produkten kauft bzw. verkauft (wenn der Eintrag negativ ist).
    • Wenn die Preise für die einzelnen Produkte festgelegt sind, ist klar, dass für alle Möglichkeiten des Handelns ein Preis feststeht. Also sind die Werte der Abbildung überall bereits durch die Werte auf den Basisvektoren festgelegt. Außerdem ist die Abbildung Produktportfolio in Tonnen Preis in Euro linear.
To-Do:

Wozu braucht man lineare Abbildungen?

Monomorphismus (injektive lineare Abbildung)[Bearbeiten]

  • Grundvorstellung 1: Die Forderung nach Erhaltung von linearer Unabhängigkeit führt zum Begriff des Monomorphismus.
  • Grundvorstellung 2: Monomorphismen erhalten Dimensionen von Untervektorräumen.
  • Aspekt: Kern linearer Abbildungen ist trivial.

Epimorphismus (surjektive lineare Abbildungen)[Bearbeiten]

  • Grundvorstellung: Die Forderung nach Erhaltung von Erzeugendensystem führt zum Begriff des Epimorphismus.
  • Aspekt: Bild ist voll
To-Do:

Wie kann man Epimorphismen mit Untervektorraumerhaltung beschreiben?

Isomorphismus[Bearbeiten]

Die Forderung nach Erhaltung von Basen (lineare Unabhängigkeit + Erzeugendensystem) führt zum Begriff des Isomorphismus (Monomorphismus + Epimorphismus). Durch die Erhaltung der Basen haben Definitions- und Zielbereich diesselbe Vektorraumsktruktur.

Endomorphismuns[Bearbeiten]

  • Anmerkung: Es ist einfacher die anderen Begriffe (Epi- und Monomorphismus) erst einmal bei Endomorphismen einzuführen.
  • Bei endlich-dimensionalen Vektorräumen sind injektivität, Surjektivität und Bijektivität des Epimorphismus äquivalent.

Vorstellungen zu Homomorphismen, Endomorphismen, Automorphismen[Bearbeiten]

  • Homomorphismen transportieren von einem Vektorraum in den anderen (f:V\to W)
  • Endomorphismen bleiben in demselben Raum, transformieren also etwas (f:V\to V) (z. B. skalieren, drehen, spiegeln, verzerren, ...) und erhalten dabei die Vektorraumstruktur. Die Determinante ist ein Maß für die Transformation (wie stark wird etwas verzerrt/die Orientierung verändert/...)
  • [Isomorphismus transportiert eine Basis auf eine andere]
  • Automorphismen erhalten die räumliche Ausdehnung eines Objekts (es wird nicht plattgedrückt in eine Ebene) "Automorphismen sind Endomorphismen, die nicht böse sind und alles zusammenfalten"
  • Automorphismen transformieren eine Basis in eine andere -> Koordinatensystem wird verändert, und das Objekt darin mit

Lineare Abbildung als Matrix[Bearbeiten]

  • Matrizen kodieren eine lineare Abbildungen / stellen diese dar
  • Spalten der Matrix = Bilder des Basisvektoren

Struktur linearer Abbildungen[Bearbeiten]

Siehe Mathe für Nicht-Freaks: Intuition hinter Isomorphiesatz und Dimensionsformel für erste Ideen

To-Do:

Abschnitte ergänzen

Kern[Bearbeiten]

Bild[Bearbeiten]

Isomorphiesatz + Dimensionsformel[Bearbeiten]

Gleichungssysteme[Bearbeiten]

Gleichungssysteme und Matrizen[Bearbeiten]

  • Die Lösungsmenge eines (lösbaren) linearen Gleichungssystems bestehen aus Summen , wobei ein Urbild von b ist und y im Kern von A liegt

Lösbarkeit linearer Gleichungssysteme mit Determinanten[Bearbeiten]

  • Der Rang einer Matrix
    • Der Rang (rang(A)) einer Matrix A ist die Anzahl linear unabhängiger Zeilenvektoren oder Spaltenvektoren der (n×m)-Matrix A, und rang([A,b]) ist der Rang der erweiterten Koeffizienten Matrix ( der Matrix des Gleichungssystems wird die rechte Seite als letzte Spalte angefügt).
    • Mögliche Fälle: : unendlich viele Lösungen
    • Mögliche Fälle: : keine Lösung
    • Mögliche Fälle: : eindeutige Lösung

Brainstorming: Ideen zu anderen Konzepte der linearen Algebra[Bearbeiten]

Diverses[Bearbeiten]

  • Auch Multilinearabbildungen sind Verallgemeinerungen von direkter Proportionalität. Hier gilt aber: Ist ein Teil doppel so groß, ist es die Gesamtgröße. Bei linearen Abbildungen gilt: Sind alle Teilgrößen doppelt so groß, ist es das Endergebnis. (Teilgrößen meint die Einträge des Vektors in Tupelschreibweise).

Allgemeine Quellen[Bearbeiten]

  • Aus FAZ 14.09.2009:
    • « …. Vektoren sind ein Beispiel dafür, was Graßmann „extensive Größen“ nannte: algebraische Objekte, denen man räumlich-geometrische Bedeutung geben kann (aber nicht muss). So lassen sich mit Vektoren einzelnen Raumpunkten nicht nur Zahlwerte, sondern auch Richtungen zuordnen und damit gerichtete Phänomene wie Bewegungen oder Kraftfelder beschreiben. Um das Rechnen mit Vektoren in der Ebene und im dreidimensionalen Raum kommt man daher schon als Gymnasiast nicht herum. »
    • « Graßmann allerdings untersuchte Vektoren in abstrakten Räumen mit beliebig vielen Dimensionen. Damit steht er auch am Anfang eines Mathematikzweiges, ohne den später Albert Einstein seine Relativitätstheorie nicht hätte entwickeln können. Doch Graßmann befasste sich auch mit noch seltsameren Räumen, in denen es Größen gibt, bei denen das Ergebnis einer Multiplikation ein anderes Vorzeichen bekommt, wenn man die Reihenfolge umdreht (also: a·b = - b·a). Solcher mathematischen Strukturen bedient sich die moderne Quantenphysik, und eine davon, die „Graßmann-Algebra“, besitzt große Bedeutung bei den aktuellen Bemühungen einer Vereinigung von Quanten- und Relativitätstheorie durch die Idee der sogenannten „Supersymmetrie“. »