Matrizenmultiplikation – Serlo „Mathe für Nicht-Freaks“

Aus Wikibooks
Zur Navigation springen Zur Suche springen

Einführung[Bearbeiten]

Wir haben Matrizen eingeführt, um lineare Abbildungen zwischen Vektorräumen und zu beschreiben. Dabei haben wir uns schon überlegt, wie wir durch die Matrix-Vektor-Multiplikation das Bild eines Vektors aus der Abbildungsmatrix berechnen können.

Wie man von z.B. Ableitungen schon weiß, ist es oft hilfreich, eine Abbildung oder Funktion als Verkettung einfacherer Abbildungen zu bilden. Da es sich bei der Verkettung zweier linearer Abbildungen wieder um eine lineare Abbildung handelt, lässt sich auch diese als Multiplikation mit einer Matrix darstellen. Diese Matrix wollen wir jetzt anhand der Matrizen der beiden verketteten Abbildungen herausfinden. In anderen Worten wollen wir die Komposition linearer Abbildungen auf Matrizenebene verstehen.

Komposition im [Bearbeiten]

Zunächst wollen wir uns diese Frage in einem einfachen Setting stellen: Sei ein Körper. Seien und lineare Abbildungen und bzw. die Darstellenden Matrizen von bzw. bezüglich der Standardbasen von und . Aus dem Einführungsartikel zu Matrizen wissen wir, dass wir in diesem Fall und als und schreiben können. Uns interessiert die Darstellungsmatrix von bezüglich den Standardbasen von und .

Der allgemeine Fall ist eine kleine Index-Schlacht. Daher kann es helfen sich diese Abhängigkeit erst einmal in niedrigen Dimensionen zu überlegen. Es gibt eine Aufgabe, die dir dabei helfen kann. Um den allgemeinen Fall zu berechnen, schreiben wir und zunächst als Summen, indem wir die Definition der Matrix-Vektor-Multiplikation einsetzen, und setzen dann in ein, um den Term für zu finden:

Dies setzen wir nun ein:

Hierbei sind und die Komponenten der Matrizen und . Nun können wir mit Hilfe der Abbildungsmatrix von bezüglich der Standardbasis auch als Summe ausdrücken

Aus dem Vergleich der beiden Terme für kann man jetzt erkennen, dass

Damit haben wir einen Zusammenhang zwischen den Abbildungsmatrizen von und gefunden.

Komposition in allgemeinen Vektorräumen[Bearbeiten]

Nachdem wir Komposition im durch Matrizen ausgedrückt haben, wollen wir dies auf allgemeine Vektorräume übertragen. Dazu wollen wir uns zunächst ein sinnvolles, allgemeines Setting überlegen. Seien und endlichdimensionale Vektorräume mit Basen und sowie eine lineare Abbildung. Im Artikel Abbildungsmatrizen haben wir gesehen, dass wir zu eine Darstellung von zur Basis , als die Matrix-Vektor-Multiplikation erhalten. Da zu die Basisdarstellung bezüglich liefert, können wir uns vorstellen, dass Vektoren aus , die bezüglich dargestellt sind, durch Matrix-Vektor-Multiplikation in Vektoren aus überführt werden, die zur Basis dargestellt sind. Moralisch gesehen gehören also die Basen, die zum darstellen der linearen Abbildung verwendet wurden, zu den Ein- und Ausgabedaten der Abbildungsmatrix.

Qsicon inArbeit.png
To-Do:

Diese (eher kategorientheoretische) Argumentation "die Basisdarstellung ist Teil der Daten einer Abbildungsmatrix" noch etwas Erstsemestlerfreundlich verfeinern.

Für unser gesuchtes Setting bedeutet dies nun folgendes: Sei einen dritten endlichdimensionalen Vektorraum mit Basis und eine lineare Abbildung. Wenn wir bezüglich einer Basis von und darstellen, das heißt betrachten, erwartet die Abbildungsmatrix einen bezüglich dargestellten Vektor, um ihn in einen Vektor zu überführen, der bezüglich dargestellt ist. Da die Abbildungsmatrix Vektoren liefert, die bezüglich dargestellt sind, sollten wir annehmen, um etwas über die Darstellungsmatrix aussagen zu können.

Hinweis

Man kann auch im Fall etwas über den Zusammenhang von , und aussagen. Dafür muss man sich ansehen, wie man Vektoren, die bezüglich dargestellt sind, in Vektoren, die bezüglich dargestellt sind, überführt. Dies passiert im Artikel Basiswechselmatrizen.

Wir befinden uns also in folgendem Setting: Seien ein Körper und und endlichdimensionale -Vektorräume mit gewählten Basen von , von und von . Ferner seien und lineare Abbildungen mit Abbildungen mit Darstellungsmatrizen und . Uns interessiert, wie wir die Darstellungsmatrix von in Abhängigkeit von und schreiben können.

Qsicon inArbeit.png
To-Do:

Ausrechnen, was passiert.

  • Die Darstellungsmatrix von bezüglich den Basen und ist die eindeutige Matrix mit für alle .
  • Auflösen der linken Seite gibt:
  • Die letzte Zeile ist genau der Fall im . Daher können wir die Ergebnisse des Letzten Abschnitts anwenden:
  • Wir haben gesehen, wie wir eine Matrix durch die Matrizen und ausdrücken können, damit für alle gilt.
  • Also ist und die Beziehung von , und ist die gleiche, wie im .

Somit haben wir einen Weg gefunden, für beliebige endlichdimensionale Vektorräume von und die Elemente der Abbildungsmatrix von aus den Abbildungsmatrizen von und zu berechnen. Diese Operation wird als Matrixmultiplikation oder Matrizenprodukt bezeichnet.

Definition und Merkregel[Bearbeiten]

Mathematisch können wir die Matrizenmultiplikation auch als Verknüpfung (ähnlich wie die Multiplikation von reellen Zahlen) auffassen.

Definition (Matrixmultiplikation)

Die Matrixmultiplikation ist eine Verknüpfung . Sie bildet zwei Matrizen auf die Matrix mit ab.

Allerdings gibt es einen wichtigen Unterschied zur Multiplikation von reellen Zahlen: Bei Matrizen müssen wir beachten, dass die Dimensionen der Matrizen, die wir multiplizieren wollen, zusammenpassen.

Hinweis

Die beiden Matrizen müssen nicht gleich groß sein, es muss nur die Spaltenanzahl der linken Matrix gleich der Zeilenanzahl der rechten Matrix sein. Das Ergebnis hat dann die Zeilenanzahl linken Matrix und die Spaltenanzahl der rechten Matrix . Das bedeutet, zwei Matrizen können nur dann miteinander multipliziert werden, wenn ist.

Warnung

Die beiden Matrizen mit können nicht miteinander multipliziert werden.

Zur Berechnung des Matrizenprodukts wird das Schema Zeile mal Spalte angewandt.

Merkregel: Zeile mal Spalte

Nach der Definition ist jeder Eintrag im Produkt die komponentenweise Multiplikation der Elemente der -ten Zeile von mit der -ten Spalte von und die Summation all dieser Produkte. Dieses Vorgehen kann man sich merken als Zeile mal Spalte, wie es in der Abbildung rechts gezeigt ist. Beim Rechnen kann das Falksche Schema helfen, um mit Zeilen und Spalten nicht durcheinander zu kommen.

Konkretes Beispiel[Bearbeiten]

Seien und zwei lineare Abbildungen. Damit ist eine verkettete lineare Abbildung. Wir nehmen als Basen jeweils die kanonischen Standardbasen des bzw. des . Für die Abbildung gilt:

und damit gilt für die Abbildungsmatrix

Für die Abbildung gilt:

und damit gilt für die Abbildungsmatrix

Wir wollen nun die Abbildungsmatrix der Abbildung bestimmen. Für diese Abbildung gilt:

und damit gilt für die Abbildungsmatrix

Die Matrix der Hintereinanderausführung der beiden Abbildungen und ist aber gerade das Produkt der beiden Abbildungsmatrizen und :

Dabei kann das Produkt nach der Regel "Zeile mal Spalte berechnet werden.

Qsicon inArbeit.png
To-Do:

evtl. genauere Erläuterungen, wie man das Matrixprodukt hier berechnet, z.B. eintragsweise aufschlüsseln

Eigenschaften der Matrizenmultiplikation[Bearbeiten]

Qsicon inArbeit.png
To-Do:

In diesem Gesamten Abschnitt überleitende Texte einfügen.

Kürzungsregel für Darstellungsmatrizen[Bearbeiten]

Satz (Kürzungsregel für Darstellungsmatrizen)

Seien und endlich dimensionale -Vektorräume mit gewählten Basen von , von und von . Ferner seien und lineare Abbildungen. Dann gilt

Beweis (Kürzungsregel für Darstellungsmatrizen)

TODO

Assoziativität der Matrizenmultiplikation[Bearbeiten]

Satz (Assoziativität der Matrixmultiplikation)

Für gilt

Beweis (Assoziativität der Matrixmultiplikation)

Zunächst überprüfen wir, dass die Typen der Matrizen, die wir jeweils multiplizieren möchten, zusammenpassen. Für die Produkte und ist dies direkt sichtbar. Nun ist und , also sind die Produkte auf beiden Seiten des Assoziativgesetzes definiert, beide Ergebnisse liegen in .

Nun betrachten wir die einzelnen Komponenten der Matrizen, um die Gleichheit festzustellen. Es sei .

Assoziativität der Skalarmultiplikation[Bearbeiten]

Qsicon inArbeit.png
To-Do:

Die letzte Gleichung sit etwas unklar, weil bei uns das Skalarprodukt immer von links kommt, und damit der letzte Term überhauot nicht definiert ist.

Satz (Assoziativität der Skalarmultiplikation)

Seien und , dann gilt:

Beweis (Assoziativität der Skalarmultiplikation)

Qsicon inArbeit.png
To-Do:

Anordnung der Formel verbessern

Distributivität der Matrizenmultiplikation[Bearbeiten]

Hier müssen wir besonders darauf achten, dass die Matrizen, die wir multiplizieren wollen, jeweils vom Typ zusammenpassen.

Satz (Erstes Distributivgesetz)

Für gilt

Beweis (Erstes Distributivgesetz)

Satz (Zweites Distributivgesetz)

Für gilt

Beweis (Zweites Distributivgesetz)

Einheiten der Matrizenmultiplikation[Bearbeiten]

  • Erklären und Herleiten, dass die Einheitsmatrix eine Einheit bzgl. der Matrizenmultiplikation ist.

Satz (Die Einheitsmatrix ist eine Einheit der Matrixmultiplikation)

Sei . Dann gilt

Beweis (Die Einheitsmatrix ist eine Einheit der Matrixmultiplikation)

TODO

Keine Kommutativität[Bearbeiten]

Beispiel (Nicht-Kommutativität der -Matrizen)

In den -Matrizen können wir die fehlschlagende Kommutativität an folgendem Beispiel sehen: Einerseits ist

und andererseits ist

Also spielt die Reihenfolge bei der Matrizenmultiplikation eine Rolle.

Warnung

Im Allgemeinen gilt , das Matrixprodukt ist also nicht kommutativ.

Das Kommutativgesetz gilt nur in wenigen Spezialfällen (z.B. Produkte von Diagnoalmatrizen).

Da die Anzahl der Zeilen und Spalten der Matrizen zusammenpassen muss, kann es sogar sein, dass eines der beiden Produkte nicht einmal definiert ist! Zum Beispiel ist für das Produkt definiert, aber das Produkt ist nicht definiert.

Weiterführendes[Bearbeiten]

  • Wir erhalten einen (i.d.R.) nicht-kommutativen Ring!