Wir haben Matrizen eingeführt, um lineare Abbildungen
zwischen Vektorräumen
und
zu beschreiben.
Dabei haben wir uns schon überlegt, wie wir durch die Matrix-Vektor-Multiplikation das Bild
eines Vektors
aus der Abbildungsmatrix berechnen können.
Wie man von z.B. Ableitungen schon weiß, ist es oft hilfreich, eine Abbildung oder Funktion als Verkettung einfacherer Abbildungen zu bilden. Da es sich bei der Verkettung zweier linearer Abbildungen wieder um eine lineare Abbildung handelt, lässt sich auch diese als Multiplikation mit einer Matrix darstellen. Diese Matrix wollen wir jetzt anhand der Matrizen der beiden verketteten Abbildungen herausfinden. In anderen Worten wollen wir die Komposition linearer Abbildungen auf Matrizenebene verstehen.
Komposition im
[Bearbeiten]
Zunächst wollen wir uns diese Frage in einem einfachen Setting stellen: Sei
ein Körper. Seien
und
lineare Abbildungen und
bzw.
die Darstellenden Matrizen von
bzw.
bezüglich der Standardbasen von
und
. Aus dem Einführungsartikel zu Matrizen wissen wir, dass wir in diesem Fall
und
als
und
schreiben können. Uns interessiert die Darstellungsmatrix von
bezüglich den Standardbasen von
und
.
Der allgemeine Fall ist eine kleine Index-Schlacht. Daher kann es helfen sich diese Abhängigkeit erst einmal in niedrigen Dimensionen zu überlegen. Es gibt eine Aufgabe, die dir dabei helfen kann.
Um den allgemeinen Fall zu berechnen, schreiben wir
und
zunächst als Summen, indem wir die Definition der Matrix-Vektor-Multiplikation einsetzen, und setzen dann
in
ein, um den Term für
zu finden:
Dies setzen wir nun ein:
Hierbei sind
und
die Komponenten der Matrizen
und
. Nun können wir mit Hilfe der Abbildungsmatrix
von
bezüglich der Standardbasis auch
als Summe ausdrücken
Aus dem Vergleich der beiden Terme für
kann man jetzt erkennen, dass
Damit haben wir einen Zusammenhang zwischen den Abbildungsmatrizen von
und
gefunden.
Komposition in allgemeinen Vektorräumen[Bearbeiten]
Nachdem wir Komposition im
durch Matrizen ausgedrückt haben, wollen wir dies auf allgemeine Vektorräume übertragen. Dazu wollen wir uns zunächst ein sinnvolles, allgemeines Setting überlegen. Seien
und
endlichdimensionale Vektorräume mit Basen
und
sowie
eine lineare Abbildung. Im Artikel Abbildungsmatrizen haben wir gesehen, dass wir zu
eine Darstellung von
zur Basis
, als die Matrix-Vektor-Multiplikation
erhalten. Da
zu
die Basisdarstellung bezüglich
liefert, können wir uns vorstellen, dass
Vektoren aus
, die bezüglich
dargestellt sind, durch Matrix-Vektor-Multiplikation in Vektoren aus
überführt werden, die zur Basis
dargestellt sind. Moralisch gesehen gehören also die Basen, die zum darstellen der linearen Abbildung verwendet wurden, zu den Ein- und Ausgabedaten der Abbildungsmatrix.
To-Do:
Diese (eher kategorientheoretische) Argumentation "die Basisdarstellung ist Teil der Daten einer Abbildungsmatrix" noch etwas Erstsemestlerfreundlich verfeinern.
Für unser gesuchtes Setting bedeutet dies nun folgendes: Sei
einen dritten endlichdimensionalen Vektorraum mit Basis
und
eine lineare Abbildung. Wenn wir
bezüglich einer Basis
von
und
darstellen, das heißt
betrachten, erwartet die Abbildungsmatrix einen bezüglich
dargestellten Vektor, um ihn in einen Vektor zu überführen, der bezüglich
dargestellt ist. Da die Abbildungsmatrix
Vektoren liefert, die bezüglich
dargestellt sind, sollten wir
annehmen, um etwas über die Darstellungsmatrix
aussagen zu können.
Wir befinden uns also in folgendem Setting: Seien
ein Körper und
und
endlichdimensionale
-Vektorräume mit gewählten Basen
von
,
von
und
von
. Ferner seien
und
lineare Abbildungen mit Abbildungen mit Darstellungsmatrizen
und
. Uns interessiert, wie wir die Darstellungsmatrix von
in Abhängigkeit von
und
schreiben können.
To-Do:
Ausrechnen, was passiert.
- Die Darstellungsmatrix von
bezüglich den Basen
und
ist die eindeutige Matrix
mit
für alle
.
- Auflösen der linken Seite gibt:
- Die letzte Zeile ist genau der Fall im
. Daher können wir die Ergebnisse des Letzten Abschnitts anwenden:
- Wir haben gesehen, wie wir eine Matrix
durch die Matrizen
und
ausdrücken können, damit
für alle
gilt.
- Also ist
und die Beziehung von
,
und
ist die gleiche, wie im
.
Somit haben wir einen Weg gefunden, für beliebige endlichdimensionale Vektorräume von
und
die Elemente der Abbildungsmatrix von
aus den Abbildungsmatrizen von
und
zu berechnen. Diese Operation wird als Matrixmultiplikation oder Matrizenprodukt bezeichnet.
Definition und Merkregel[Bearbeiten]
Mathematisch können wir die Matrizenmultiplikation auch als Verknüpfung (ähnlich wie die Multiplikation von reellen Zahlen) auffassen.
Definition (Matrixmultiplikation)
Die Matrixmultiplikation ist eine Verknüpfung
.
Sie bildet zwei Matrizen
auf die Matrix
mit
ab.
Allerdings gibt es einen wichtigen Unterschied zur Multiplikation von reellen Zahlen: Bei Matrizen müssen wir beachten, dass die Dimensionen der Matrizen, die wir multiplizieren wollen, zusammenpassen.
Warnung
Die beiden Matrizen
mit
können nicht miteinander multipliziert werden.
Zur Berechnung des Matrizenprodukts wird das Schema Zeile mal Spalte angewandt.
Merkregel: Zeile mal Spalte
Nach der Definition ist jeder Eintrag im Produkt
die komponentenweise Multiplikation der Elemente der
-ten Zeile von
mit der
-ten Spalte von
und die Summation all dieser Produkte.
Dieses Vorgehen kann man sich merken als Zeile mal Spalte, wie es in der Abbildung rechts gezeigt ist. Beim Rechnen kann das Falksche Schema helfen, um mit Zeilen und Spalten nicht durcheinander zu kommen.
Seien
und
zwei lineare Abbildungen. Damit ist
eine verkettete lineare Abbildung. Wir nehmen als Basen jeweils die kanonischen Standardbasen
des
bzw.
des
. Für die Abbildung
gilt:
und damit gilt für die Abbildungsmatrix
Für die Abbildung
gilt:
und damit gilt für die Abbildungsmatrix
Wir wollen nun die Abbildungsmatrix der Abbildung
bestimmen. Für diese Abbildung gilt:
und damit gilt für die Abbildungsmatrix
Die Matrix der Hintereinanderausführung der beiden Abbildungen
und
ist aber gerade das Produkt der beiden Abbildungsmatrizen
und
:
Dabei kann das Produkt nach der Regel "Zeile mal Spalte berechnet werden.
To-Do:
evtl. genauere Erläuterungen, wie man das Matrixprodukt hier berechnet, z.B. eintragsweise aufschlüsseln
Eigenschaften der Matrizenmultiplikation[Bearbeiten]
To-Do:
In diesem Gesamten Abschnitt überleitende Texte einfügen.
Kürzungsregel für Darstellungsmatrizen[Bearbeiten]
Beweis (Kürzungsregel für Darstellungsmatrizen)
TODO
Assoziativität der Matrizenmultiplikation[Bearbeiten]
Satz (Assoziativität der Matrixmultiplikation)
Für
gilt
Beweis (Assoziativität der Matrixmultiplikation)
Zunächst überprüfen wir, dass die Typen der Matrizen, die wir jeweils multiplizieren möchten, zusammenpassen. Für die Produkte
und
ist dies direkt sichtbar. Nun ist
und
, also sind die Produkte auf beiden Seiten des Assoziativgesetzes definiert, beide Ergebnisse liegen in
.
Nun betrachten wir die einzelnen Komponenten der Matrizen, um die Gleichheit festzustellen. Es sei
.
Assoziativität der Skalarmultiplikation[Bearbeiten]
To-Do:
Die letzte Gleichung ist etwas unklar, weil bei uns das Skalarprodukt immer von links kommt, und damit der letzte Term überhaupt nicht definiert ist.
Satz (Assoziativität der Skalarmultiplikation)
Seien
und
, dann gilt:
Beweis (Assoziativität der Skalarmultiplikation)
To-Do:
Anordnung der Formel verbessern
Distributivität der Matrizenmultiplikation[Bearbeiten]
Hier müssen wir besonders darauf achten, dass die Matrizen, die wir multiplizieren wollen, jeweils vom Typ zusammenpassen.
Satz (Erstes Distributivgesetz)
Für
gilt
Beweis (Erstes Distributivgesetz)
Satz (Zweites Distributivgesetz)
Für
gilt
Beweis (Zweites Distributivgesetz)
Einheiten der Matrizenmultiplikation[Bearbeiten]
- Erklären und Herleiten, dass die Einheitsmatrix eine Einheit bzgl. der Matrizenmultiplikation ist.
Satz (Die Einheitsmatrix ist eine Einheit der Matrixmultiplikation)
Sei
. Dann gilt
Beweis (Die Einheitsmatrix ist eine Einheit der Matrixmultiplikation)
TODO
Keine Kommutativität[Bearbeiten]
Beispiel (Nicht-Kommutativität der
-Matrizen)
In den
-Matrizen können wir die fehlschlagende Kommutativität an folgendem Beispiel sehen: Einerseits ist
und andererseits ist
Also spielt die Reihenfolge bei der Matrizenmultiplikation eine Rolle.
Warnung
Im Allgemeinen gilt
, das Matrixprodukt ist also nicht kommutativ.
Das Kommutativgesetz gilt nur in wenigen Spezialfällen (z.B. Produkte von Diagonalmatrizen).
Da die Anzahl der Zeilen und Spalten der Matrizen zusammenpassen muss, kann es sogar sein, dass eines der beiden Produkte nicht einmal definiert ist! Zum Beispiel ist für
das Produkt
definiert, aber das Produkt
ist nicht definiert.
- Wir erhalten einen (i.d.R.) nicht-kommutativen Ring!