Management Science: Matrizen

Aus Wikibooks

In diesem Abschnitt sollen Matrizen kurz erläutert werden, damit wir eine Basis für unsere linearen Verfahren haben.

Definition[Bearbeiten]

Eine Matrix ist eine Zusammenstellung von Objekten in einer Tabelle, die aus m Zeilen und n Spalten besteht. Ein Objekt in der Matrix nennt man Element, Komponente oder Eintrag. Die Tabelle wird mit einer Klammer links und rechts abgeschlossen. Eine Matrix mit m Zeilen und n Spalten nennt man eine (m×n)-Matrix. Allgemein betrachtet sieht eine Matrix A mit dem Element aij (i = 1, ..., m; j = 1, ... ,n) so aus:



Man bezeichnet eine (m×n)-Matrix A auch mit Am×n oder (aij)m×n.

Die Elemente werden Hauptdiagonalelemente genannt. Sie liegen auf der Hauptdiagonalen der Matrix.

Spezielle Matrizen[Bearbeiten]

Vektoren[Bearbeiten]

Eine (m×1)-Matrix ist ein Spaltenvektor, eine (1×n)-Matrix ein Zeilenvektor. Vektoren werden i.a. kleinbuchstabig bezeichnet und häufig, vor allem im physikalischen Kontext, mit einem Pfeil hervorgehoben. Meistens geht man bei einem Vektor von einem Spaltenvektor aus und betrachtet den Zeilenvektor als transponierten Spaltenvektor.

Skalar[Bearbeiten]

Ein Skalar ist eine Matrix mit nur einem Element:

.

Ein Skalar kann wie eine reelle Zahl behandelt werden.


Transponierte Matrix AT zur Matrix A[Bearbeiten]

Die Transponierte der Matrix

ist die Matrix

.

Die ite Zeile von wird die ite Spalte von .


Beispiel:

Quadratische Matrix A[Bearbeiten]

A hat n Zeilen und n Spalten.


Beispiel:


Diagonalmatrix A[Bearbeiten]

Diese Matrix ist von der Ordnung n×n und besitzt nur auf der Hauptdiagonalen Elemente ungleich Null.


Beispiel:


Ein Spezialfall der Diagonalmatrix ist die Einheitsmatrix, die auf der Hauptdiagonalen nur Nullen hat.


Beispiel:


Matrix mit Trapezgestalt[Bearbeiten]

Alle Elemente unterhalb der Hauptdiagonalen sind 0 und die untersten Zeilen können auch Nullzeilen sein.


Beispiele:

  


Dreiecksmatrix[Bearbeiten]

Obere Dreiecksmatrix An×n: Alle Elemente unterhalb der Hauptdiagonalen sind 0. A ist ein Spezialfall der Trapezmatrix.

Beispiel:


Untere Dreiecksmatrix: Alle Elemente oberhalb der Hauptdiagonalen sind 0.

Beispiel:


Ein Spezialfall der Dreiecksmatrix ist die Diagonalmatrix


Symmetrische Matrix An×n[Bearbeiten]

Die ite Zeile ist gleich der jten Spalte. Es gilt

bzw.

Die Elemente der Matrix spiegeln sich bezüglich der Hauptdiagonalen.


Beispiel:


Nullmatrix Om×n[Bearbeiten]

Die Nullmatrix enthält nur Nullen. Sie entspricht der Null mit Matrizenkalkül:


Beispiel:


Inverse Matrix A_1[Bearbeiten]

Als A-1n×n bezeichnet man als die zur Matrix A inverse Matrix, wobei invertierbar sein muss. Es gilt dann

Im Matrizenkalkül bezeichnet also das zu inverse Element.


Beispiel:

Die Inverse zu

ist


Die Probe ergibt

Rechenregeln für Matrizen[Bearbeiten]

Größenrelationen[Bearbeiten]

Gegeben sind die Matrizen Am×n und Bm×n mit den Elementen aij und bij (i = 1, ... , m; j = 1, ... , n). Es ist

und

Entsprechendes gilt auch für <, >, ≥. Vergleiche sind nur für Matrizen gleicher Ordnung definiert.


Addition und Subtraktion[Bearbeiten]

Gegeben sind Am×n, Bm×n und Cm×n. Es soll C = A + B sein bzw.

.

Es werden also zwei Matrizen addiert, indem ihre entsprechenden Elemente addiert werden. Es können nur Matrizen gleicher Ordnung addiert werden.


Beispiel:

Addition:


Subtraktion:


Multiplikation[Bearbeiten]

Multiplikation mit einem Skalar[Bearbeiten]

Wird eine Matrix mit einem Skalar a multipliziert, werden alle Elemente aij mit a multipliziert:


Beispiel:


Multiplikation zweier Matrizen[Bearbeiten]

Gegeben sind Am×r, Br×n. Das Element cij des Produktes C = A B ergibt sich, indem man die ite Zeile von A mit der jten Spalte von B elementweise multipliziert und die Produkte aufaddiert:

.

Es muss also die Spaltenzahl von A gleich der Zeilenzahl von B sein.


Beispiele:


Es gilt speziell bei einem Zeilenvektor und einem Spaltenvektor der Ordnung n:

Man nennt diese Art des Produkts Skalarprodukt, weil das Produkt der Vektoren ein Skalar ergibt.


Beispiele:

Es ist ,

aber

.

Umformung von Matrizengleichungen[Bearbeiten]

Additive Erweiterung[Bearbeiten]

Man kann eine Matrizengleichung additiv von links oder rechts erweitern, wobei die Ordung der Matrizen übereinstimmen muss.

Beispiel

Gegeben sind und . Es ist

          


Multiplikative Erweiterung[Bearbeiten]

Man kann eine Matrizengleichung multiplikativ erweitern, wobei die Ordung der Matrizen den Multiplikationsgesetzen entsprechend sein muss.

Von links:

Beispiel

Gegeben sind und . Es ist

   


Ausklammern:

Es ist auch


Von rechts:

Beispiel

Gegeben sind und . Es ist

   


Ausklammern:


Umformungen wie sind im allgemeinen nicht zulässig und auch oft gar nicht definiert.


Spezielle Rechenregeln

Gegeben sind und invertierbar, und invertierbar, und .

Skalare werden wie Zahlen behandelt. Insbesondere können die Seiten der Gleichung wahlweise von links und von rechts mit einem Skalar multipliziert werden.

Beispiel:


Beispiele für Umformungen


Gegeben ist die Gleichung ist invertierbar. Gesucht ist :

          


Gegeben ist   wobei invertierbar ist. Gesucht ist :


                  


Gegeben ist   mit . Gesucht ist :

Es ist

Mit erhalten wir

Es ist also . Man nennt die Matrix idempotent.

Rang einer Matrix[Bearbeiten]

Man kann sich eine Matrix als aus Spaltenvektoren zusammengesetzt vorstellen. Es ist dann die Matrix

mit einem Vektor .


Linearkombinationen von Vektoren[Bearbeiten]

Gegeben sind n Spaltenvektoren (j = 1, ..., n) der Ordnung m. Kann man beispielsweise darstellen als

() wobei mindestens ein Vektor ungleich dem Nullvektor sein soll, (j = 1, ..., n-1), nennt man eine Linearkombination der .


Beispiel

Der linke Vektor ist eine Linearkombination aus den beiden rechten Vektoren.


Allgemein nennt man die Vektoren (j = 1, ..., n) der Ordnung m linear abhängig, wenn sich der Nullvektor als Linearkombination der xj darstellen lässt:

wobei mindestens ein x-Vektor ungleich dem Nullvektor sein soll.


Äquivalent dazu ist die Aussage:

Die n Vektoren nennt man linear unabhängig, wenn

nur dann gilt, wenn alle sind.

Beispiel:

Die Vektoren und sind linear unabhängig. Wir wollen also untersuchen, ob ist. Dazu zerlegen wir die Gleichung in Einzelgleichungen:



Die erste Gleichung ergibt . In die zweite eingesetzt erhalten wir . Das ist nur wahr, wenn ist. Dann muss aber auch sein. Also sind die beiden Vektoren unabhängig.


Der Rang einer Matrix gibt an, wie viel linear unabhängige Vektoren eine Matrix hat. Man könnte sagen, der Rang informiert uns über den Informationsgehalt einer Matrix.

Der Rang einer (m×n)-Matrix kann maximal betragen. So hat eine quadratische Matrix der Ordung n maximal den Rang n, sie kann also aus n linear unabhängigen Vektoren bestehen.

Den Rang einer Matrix kann man beispielsweise ermitteln, indem man mit Hilfe der Zeilentransformationen die Matrix auf Trapezgestalt bringt. Dann ist der Rang der Matrix die Zahl der Zeilen minus Zahl der Nullzeilen.


Beispiele:

hat den Rang 3. hat den Rang 3.


hat den Rang 2. hat den Rang 2.


hat den Rang 1.


Sind genau n Vektoren der Ordnung n linear unabhängig, nennt man sie eine Basis. D.h. mit einer Linearkombination dieser n Vektoren kann man alle anderen Vektoren der gleichen Ordnung erzeugen. Eine spezielle Basis sind die n Einheitsvektoren, das sind die Vektoren , die zusammengefasst die Einheitsmatrix ergeben.


Beispiele:

Die Vektoren der Ordnung 3, , und


bilden eine Basis, denn sie sind linear unabhängig, es lässt sich also jeder Vektor der Ordnung 3 aus diesen drei Vektoren erzeugen:

Wir erhalten

,
und
.

So ist dann etwa der Vektor mit den Koeffizienten

,
und

eine Linearkombination aus


Die Berechnung der Koeffizienten ist bei Verwendung der Einheitsvektoren als Basis besonders einfach:


Hier ist also


Wie berechnen sich nun die Koeffizienten, wenn die Basis gegen eine andere eingetauscht wird?

Wir fassen nun die Basisvektoren , zur nxn-Matrix und die Koeffizienten zum Vektor zusammen und können den Vektor schreiben als

.


Rechnen Sie zur Übung nach, ob das äquivalent zu unserer obigen Darstellung von ist.

Es ist also

bzw.
.

Wenn wir die Gleichung von links mit multiplizieren, ergibt sich für

Invertierbarkeit[Bearbeiten]

Die obige Gleichung funktioniert natürlich nur, wenn vor allem , aber auch letztlich, wenn invertierbar sind. Wann sind sie invertierbar?

Eine Matrix ist invertierbar, wenn sie vollen Rang hat, d.h. wenn ihr Rang n ist.

Äquivalent dazu ist:

  • Die Vektoren der Matrix A bilden eine Basis.
  • Die Determinante ist ungleich Null. (Die Determinante wird hier nicht behandelt)
  • Die Matrix kann durch elementare Zeilenoperationen in eine Dreiecksmatrix oder Diagonalmatrix transformiert werden.

Man nennt eine invertierbare Matrix auch regulär oder nichtsingulär.

Mit einer invertierbaren Matrix kann man also ein Gleichungssystem der Art

lösen und wir erhalten mit

genau eine Lösung. Praktisch verfährt man so, dass man A und b zu einer Matrix zusammenfasst und diese Matrix transformiert, bis A Dreiecksgestalt hat. Will man die Lösungen sofort ablesen, transformiert man die Matrix weiter, bis statt die Einheitsmatrix entsteht. Jetzt steht rechts die Lösung .


Beispiel:

Es ist das lineare Gleichungssystem

gegeben. Mit der Koeffizientenmatrix erhalten wir die erweiterte Matrix , die dann ergibt.

Kein voller Rang[Bearbeiten]

Eine (mxn)-Matrix () kann keinen vollen Rang haben. Hat beispielsweise den Rang r, kann man durch Zeilentransformationen den oberen linken Teil von in eine Einheitsmatrix mit dem Rang r erzeugen. Es ergibt sich dann die so genannte kanonische Form als



oder, wenn man die Blöcke als Matrizen bezeichnet


Selbstverständlich gilt die Beziehung auch für singuläre quadratische Matrizen.

Wir wollen anhand eines Beispiel erkunden, was wir dieser kanonischen Form entnehmen können.

Es ist die Koeffizientenmatrix


gegeben. Wir wollen zunächst den Rang von A ermitteln. Wir erhalten durch elementare Zeilentransformationen



und sehen, dass A den Rang 3 hat. Nun werden wir diese Matrix in die kanonische Form bringen. D.h. wir transformieren A weiter, bis wir oben links eine 3x3-Matrix erhalten:


Die erste Zeile dient nur zur Bezeichnung der Spalten und ist nicht Inhalt der Matrix. Betrachten wir nun ein lineares Gleichungssystem, das die obige Matrix A enthält:

.

Wenn wir nun mit Hilfe elementarer Zeilentransformationen dieses System so umformen, dass A in die kanonische Form überführt wird, erhalten wir

.

Wir wollen nun, analog zur invertierbaren Matrix A, mit Hilfe von die Lösungen direkt ablesen:


Als Lösungsvektor ergäbe das eine Basislösung



Man sieht, dass die Variablen , und frei variierbar sind. Je nachdem, welche Werte sie annehmen, errechnen sich die Werte von bis . Eine spezielle Basislösung ergibt sich, wenn man die Variablen , und Null setzt. Dann erhalten wir den Lösungsvektor


.

Wir könnten nun andere Vektoren von zu Basisvektoren erklären und dann durch wieder die kanonische Form ermitteln. Wir ersetzen beispielsweise den Basisvektor von x3 durch einen neuen Basisvektor von x5. Dazu sortieren wir zunächst die Vektoren um, was kein Problem ist, wenn man nicht vergisst, was sie bedeuten.

Wir formen nun A* so um, dass links oben wieder die Einheitsmatrix steht. Das lässt sich hier leicht bewerkstelligen, wenn man die dritte Zeile von der zweiten subtrahiert und das Ergebnis als neue zweite Zeile einträgt:

Wenn wir zugleich den Vektor b transformieren, erhalten wir das neue LGS

Dass der Vektor b hier unverändert ist, ist nur Zufall.

Wir wollen nun wieder mit Hilfe von die Lösungen direkt ablesen:


Als Lösungsvektor ergäbe das eine Basislösung


Eine spezielle Basislösung ergibt sich, wenn man die Variablen , und Null setzt. Dann erhalten wir den Lösungsvektor


.


Eine kleine Übung:

Zeigen Sie, dass sich die letzte Lösung auch direkt ergibt, wenn man im LGS

die Koeffizientenmatrix A zur kanonischen Form umformt.