Matrizenmultiplikation – Serlo „Mathe für Nicht-Freaks“

Aus Wikibooks
Zur Navigation springen Zur Suche springen

Einführung[Bearbeiten]

Meta-Plan:

  • Wir haben Matrizen eingeführt, um lineare Abbildungen zwischen Vektorräumen zu beschreiben.
  • Dabei haben wir uns schon überlegt, wie wir durch die Matrix-Vektor-Multiplikation das Bild eines Vektors aus der Matrix berechnen können.
  • Nachdem wir die VR-Struktur von linearen Abbildungen auf Matrizen übertragen haben, wollen wir nun die Komposition von linearen Abbildungen auf Matrizenebene verstehen.
  • Verweis auf Aufgabe
  • Setting formal hinschreiben
  • Matrizenmultiplikation durchrechenen (ähnlich wie momentan unten nur allgemein)

Alter Inhalt:

  • Wir haben Matrizen eingeführt, um lineare Abbildungen zwischen Vektorräumen und zu beschreiben.
  • Dabei haben wir uns schon überlegt, wie wir durch die Matrix-Vektor-Multiplikation das Bild eines Vektors aus der Abbildungsmatrix berechnen können.

Wie wir gerade gesehen haben, lässt sich eine lineare Abbildung auch als Multiplikation zwischen einer Matrix und dem Koordinatenvektor von darstellen:

  • Nachdem wir die VR-Struktur von linearen Abbildungen auf Matrizen übertragen haben, wollen wir nun die Komposition von linearen Abbildungen auf Matrizenebene verstehen.

Wie man von z.B. Ableitungen schon weiß, ist es oft hilfreich, eine Abbildung oder Funktion als Verkettung einfacherer Abbildungen zu bilden. Da es sich bei der Verkettung zweier linearer Abbildungen wieder um eine lineare Abbildung handelt, lässt sich auch diese als Multiplikation mit einer Matrix darstellen. Diese Matrix wollen wir jetzt anhand der Matrizen der beiden verketteten Abbildungen herausfinden.

  • Verweis auf Aufgabe
  • Der allgemeine Fall ist eine ziemliche Index-Schlacht. Daher kann es helfen sich diese Multiplikation erst einmal in niedrigen Dimensionen zu überlegen. Es gibt eine Aufgabe (TODO Link), die dir dabei helfen kann.

Dazu betrachten wir einen Köper , -Vektorräume und die Abbildung , die Verkettung der zwei Abbildungen , deren Matrizen bzw. sind. Somit ist die gesuchte Matrix.

Aufgabe (Herleitung Matrizenmultiplikation)

Sei ein Körper und seien . Ferner sei und . Sei die Standardbasis von . Beschreibe in Abhängigkeit von den Einträgen von und .

Lösung (Herleitung Matrizenmultiplikation)

Wir wissen schon aus dem Einführungsartikel zu Abbildungsmatrizen, dass und gilt.

Qsicon inArbeit.png
To-Do:

Notation an aktuelles Setting anpassen.

Wir wollen nun den allgemeinen Fall betrachten:

Dazu schreiben wir und zunächst als Summen, indem wir die Definition der Matrix-Vektor-Multiplikation einsetzen, und setzen dann in ein, um den Term für zu finden:

Nun können wir aber auch als Summe ausdrücken:

Aus dem Vergleich der beiden Terme für kann man jetzt erkennen, dass:

Somit haben wir einen Weg gefunden, für beliebige Dimensionen von und die Elemente der Abbildungsmatrix von aus den Abbildungsmatrizen von und zu berechnen. Diese Operation wird als Matrixmultiplikation oder Matrizenprodukt bezeichnet.

Definition und Merkregel[Bearbeiten]

Mathematisch können wir die Matrizenmultiplikation auch als Verknüpfung (ähnlich wie die Multiplikation von reellen Zahlen) auffassen.

Definition (Matrixmultiplikation)

Die Matrixmultiplikation ist eine Verknüpfung . Sie bildet zwei Matrizen auf die Matrix mit ab.

Allerdings gibt es einen wichtigen Unterschied zur Multiplikation von reellen Zahlen: Bei Matrizen müssen wir beachten, dass die Dimensionen der Matrizen, die wir multiplizieren wollen, zusammenpassen.

Hinweis

Die beiden Matrizen müssen nicht gleich groß sein, es muss nur die Spaltenanzahl der linken Matrix gleich der Zeilenanzahl der rechten Matrix sein. Das Ergebnis hat dann die Zeilenanzahl linken Matrix und die Spaltenanzahl der rechten Matrix . Das bedeutet, zwei Matrizen können nur dann miteinander multipliziert werden, wenn ist.

Warnung

Die beiden Matrizen mit können nicht miteinander multipliziert werden.

Zur Berechnung des Matrizenprodukts wird das Schema Zeile mal Spalte angewandt.

Merkregel: Zeile mal Spalte

Nach der Definition ist jeder Eintrag im Produkt die komponentenweise Multiplikation der Elemente der -ten Zeile von mit der -ten Spalte von und die Summation all dieser Produkte. Dieses Vorgehen kann man sich merken als Zeile mal Spalte, wie es in der Abbildung rechts gezeigt ist. Beim Rechnen kann das Falksche Schema helfen, um mit Zeilen und Spalten nicht durcheinander zu kommen.

Konkretes Beispiel[Bearbeiten]

Seien und zwei lineare Abbildungen. Damit ist eine verkettete lineare Abbildung. Wir nehmen als Basen jeweils die kanonischen Standardbasen des bzw. des . Für die Abbildung gilt:

und damit gilt für die Abbildungsmatrix

Für die Abbildung gilt:

und damit gilt für die Abbildungsmatrix

Wir wollen nun die Abbildungsmatrix der Abbildung bestimmen. Für diese Abbildung gilt:

und damit gilt für die Abbildungsmatrix

Die Matrix der Hintereinanderausführung der beiden Abbildungen und ist aber gerade das Produkt der beiden Abbildungsmatrizen und :

Dabei kann das Produkt nach der Regel "Zeile mal Spalte berechnet werden.

Qsicon inArbeit.png
To-Do:

evtl. genauere Erläuterungen, wie man das Matrixprodukt hier berechnet, z.B. eintragsweise aufschlüsseln

Eigenschaften der Matrizenmultiplikation[Bearbeiten]

Qsicon inArbeit.png
To-Do:

In diesem Gesamten Abschnitt überleitende Texte einfügen.

Kürzungsregel für Darstellungsmatrizen[Bearbeiten]

Satz (Kürzungsregel für Darstellungsmatrizen)

Seien und endlich dimensionale -Vektorräume mit gewählten Basen von , von und von . Ferner seien und lineare Abbildungen. Dann gilt

Beweis (Kürzungsregel für Darstellungsmatrizen)

TODO

Assoziativität der Matrizenmultiplikation[Bearbeiten]

Satz (Assoziativität der Matrixmultiplikation)

Für gilt

Beweis (Assoziativität der Matrixmultiplikation)

Zunächst überprüfen wir, dass die Typen der Matrizen, die wir jeweils multiplizieren möchten, zusammenpassen. Für die Produkte und ist dies direkt sichtbar. Nun ist und , also sind die Produkte auf beiden Seiten des Assoziativgesetzes definiert, beide Ergebnisse liegen in .

Nun betrachten wir die einzelnen Komponenten der Matrizen, um die Gleichheit festzustellen. Es sei .

Assoziativität der Skalarmultiplikation[Bearbeiten]

Qsicon inArbeit.png
To-Do:

Die letzte Gleichung sit etwas unklar, weil bei uns das Skalarprodukt immer von links kommt, und damit der letzte Term überhauot nicht definiert ist.

Satz (Assoziativität der Skalarmultiplikation)

Seien und , dann gilt:

Beweis (Assoziativität der Skalarmultiplikation)

Qsicon inArbeit.png
To-Do:

Anordnung der Formel verbessern

Distributivität der Matrizenmultiplikation[Bearbeiten]

Hier müssen wir besonders darauf achten, dass die Matrizen, die wir multiplizieren wollen, jeweils vom Typ zusammenpassen.

Satz (Erstes Distributivgesetz)

Für gilt

Beweis (Erstes Distributivgesetz)

Satz (Zweites Distributivgesetz)

Für gilt

Beweis (Zweites Distributivgesetz)

Einheiten der Matrizenmultiplikation[Bearbeiten]

  • Erklären und Herleiten, dass die Einheitsmatrix eine Einheit bzgl. der Matrizenmultiplikation ist.

Satz (Die Einheitsmatrix ist eine Einheit der Matrixmultiplikation)

Sei . Dann gilt

Beweis (Die Einheitsmatrix ist eine Einheit der Matrixmultiplikation)

TODO

Keine Kommutativität[Bearbeiten]

Beispiel (Nicht-Kommutativität der -Matrizen)

In den -Matrizen können wir die fehlschlagende Kommutativität an folgendem Beispiel sehen: Einerseits ist

und andererseits ist

Also spielt die Reihenfolge bei der Matrizenmultiplikation eine Rolle.

Warnung

Im Allgemeinen gilt , das Matrixprodukt ist also nicht kommutativ.

Das Kommutativgesetz gilt nur in wenigen Spezialfällen (z.B. Produkte von Diagnoalmatrizen).

Da die Anzahl der Zeilen und Spalten der Matrizen zusammenpassen muss, kann es sogar sein, dass eines der beiden Produkte nicht einmal definiert ist! Zum Beispiel ist für das Produkt definiert, aber das Produkt ist nicht definiert.

Weiterführendes[Bearbeiten]

  • Wir erhalten einen (i.d.R.) nicht-kommutativen Ring!