Zum Inhalt springen

Matrizenmultiplikation – Serlo „Mathe für Nicht-Freaks“

Aus Wikibooks

In diesem Artikel überlegen wir uns, wie man eine Multiplikation für Matrizen definieren kann. Wir werden sehen, dass die Matrizenmultiplikation der Komposition linearer Abbildungen entspricht. Außerdem beweisen wir einige Eigenschaften der Matrixmultiplikation.

Einführung

[Bearbeiten]

Wie können wir Matrizen verknüpfen?

[Bearbeiten]

Im Artikel zu Abbildungsmatrizen haben wir gelernt, wie wir mithilfe von Matrizen lineare Abbildungen zwischen endlichdimensionalen Vektorräumen und beschreiben können. Dafür wählen wir zuerst eine Basis von und von und bilden dann die Abbildungsmatrix . Diese beschreibt auf der Ebene von Koordinaten, was die lineare Abbildung mit einem Vektor macht: Es gilt

wobei die Koordinatenabbildung bzgl. ist, die einen Vektor auf den Koordinatenvektor bzgl. abbildet. Analog ist die Koordinatenabbildung bzgl. .

Lineare Abbildungen und können wir durch Hintereinanderausführung miteinander verknüpfen und erhalten eine lineare Abbildung . Können wir eine passende Verknüpfung auf Matrizen definieren? Mit passend ist gemeint, dass die Verknüpfung der entsprechenden Abbildungsmatrizen die verknüpfte lineare Abbildung beschreiben soll.

Betrachten wir zum Beispiel zwei Matrizen und mit den entsprechenden linearen Abbildungen

und

gegeben durch Matrix-Vektor-Multiplikation. Dann ist die Abbildungsmatrix von (bzgl. der Standardbasen in und ) und ist die Abbildungsmatrix von (bzgl. der Standardbasen in und ). Die Verknüpfung von und sollte die Abbildungsmatrix von sein.

Um jedoch die Abbildungen und hintereinander ausführen zu können, muss der Zielraum von gleich der Definitionsmenge von sein. Das heißt, es soll , also sein. Also muss die Anzahl der Spalten von gleich der Anzahl der Zeilen von sein, damit wir die Matrizen zu einer neuen Matrix verknüpfen können.

Berechnung der neuen Matrix

[Bearbeiten]

Wir wollen uns überlegen, wie die Verknüpfung von und aussehen sollte, indem wir die Abbildungsmatrix von bestimmen. Dafür müssen wir die Bilder der Standardbasisvektoren unter der Abbildung berechnen. Sie bilden dann die Spalten der Abbildungsmatrix von .

Wir bezeichnen die Einträge von mit und die von mit , das heißt und . Außerdem bezeichnen wir die gesuchte Abbildungsmatrix von mit .

Für und ist der Eintrag per Definition der darstellenden Matrix von gegeben durch den -ten Eintrag des Vektors . Diesen können wir mithilfe der Definition von und unter Verwendung der Definition der Matrix-Vektor-Multiplikation leicht berechnen:

Damit sind alle Einträge der Matrix definiert und es gilt

Wir nennen das Produkt der beiden Matrizen und und schreiben für die Matrixmultiplikation.

Definition und Merkregel

[Bearbeiten]

Mathematisch können wir die Matrizenmultiplikation auch als Verknüpfung (ähnlich wie die Multiplikation von reellen Zahlen) auffassen.

Definition (Matrixmultiplikation)

Die Matrixmultiplikation ist eine Verknüpfung

.

Sie bildet zwei Matrizen und auf die Matrix ab, wobei

für und .

Allerdings gibt es einen wichtigen Unterschied zur Multiplikation von reellen Zahlen: Bei Matrizen müssen wir beachten, dass die Dimensionen der Matrizen, die wir multiplizieren wollen, zusammenpassen.

Hinweis

Die beiden Matrizen müssen nicht gleich groß sein, es muss nur die Spaltenanzahl der linken Matrix gleich der Zeilenanzahl der rechten Matrix sein. Das Ergebnis hat dann die Zeilenanzahl linken Matrix und die Spaltenanzahl der rechten Matrix . Das bedeutet, zwei Matrizen können nur dann miteinander multipliziert werden, wenn ist.

Warnung

Die beiden Matrizen mit können nicht miteinander multipliziert werden.

Zur Berechnung des Matrizenprodukts wird das Schema Zeile mal Spalte angewandt.

Merkregel: Zeile mal Spalte

Nach der Definition ist jeder Eintrag im Produkt die komponentenweise Multiplikation der Elemente der -ten Zeile von mit der -ten Spalte von und die Summation all dieser Produkte. Dieses Vorgehen kann man sich merken als Zeile mal Spalte, wie es in der Abbildung rechts gezeigt ist. Beim Rechnen kann das Falksche Schema helfen, um mit Zeilen und Spalten nicht durcheinander zu kommen.

Konkretes Beispiel

[Bearbeiten]

Beispiel 1

[Bearbeiten]

Wir betrachten die folgenden zwei Matrizen und :

Wir suchen das Matrixprodukt . Diese Matrix hat die Form

Wir müssen die einzelnen Einträge berechnen. Das machen wir hier einmal ausführlich für den Eintrag . Die Berechnung der anderen Einträge funktioniert ähnlich.

Laut Formel gilt

Diese Berechnung kann man sich auch als "Multiplikation" der 2. Zeile von mit der 3.Spalte von merken. Um das zu veranschaulichen markieren wir die Einträge aus der Summe in den Matrizen. Wir haben die Summe

In den Matrizen sind das folgende Einträge:

So kann man auch die anderen Einträge von bestimmen und erhält

Beispiel 2

[Bearbeiten]

Wir betrachten folgende Matrizen und :

In diesem Fall können wir sowohl als auch berechnen. Sei . Dann ist eine -Matrix . Wir berechnen den Eintrag:

Also ist .

Sei . Dann ist eine -Matrix. Wir können die Einträge von durch "Zeile mal Spalte" berechnen. Zum Beispiel ist der erste Eintrag von die erste Zeile von mal die erste Spalte von , d.h. . Machen wir das mit jedem Eintrag, erhalten wir

Beispiel 3

[Bearbeiten]

In diesem Beispiel wollen wir uns klarmachen, dass die Matrixmulitplikation tatsächlich die Verknüpfung der einzelnen Abbildungen ist. Was ist damit gemeint? Wenn wir zwei Matrizen und haben, die wir miteinander verknüpfen können, und einen Vektor , dann sollte sein. Um uns das verständlicher zu machen, betrachten wir folgendes Beispiel: Seien und die folgenden Matrizen mit Einträgen in :

Sei außerdem . Wir prüfen nach, dass . Dafür berechnen wir zunächst das Matrixprodukt :

Nun multiplizieren wir diese Matrix mit :

Als nächstes berechnen wir .

Auf diesen Vektor wenden wir jetzt an:

Tatsächlich gilt hier .

Eigenschaften der Matrizenmultiplikation

[Bearbeiten]

Wir sammeln ein paar Eigenschaften der Matrixmultiplikation.

Kürzungsregel für Darstellungsmatrizen

[Bearbeiten]

Der folgende Satz zeigt, dass die Matrixmultiplikation tatsächlich die Verknüpfung linearer Abbildungen widerspiegelt.

Satz (Abbildungsmatrizen und Komposition linearer Abbildungen)

Seien und lineare Abbildungen zwischen endlichdimensionalen Vektorräumen. Seien ferner eine Basis von , eine Basis von und eine Basis von . Dann gilt

Beweis (Abbildungsmatrizen und Komposition linearer Abbildungen)

Sei und sei . Seien außerdem bzw. die darstellenden Matrizen von bzw. .

Nach Definition der darstellenden Matrix wissen wir, dass die die eindeutigen Skalare sind, sodass

für alle gilt. Um zu beweisen, müssen wir

nachrechnen. In der Tat sehen wir:

Wegen der Eindeutigkeit der Koordinaten in der Linearkombination der folgt .

Warnung

Für die Kürzungsregel ist es wichtig, dass bei den darstellenden Matrizen von und in beiden Fällen dieselbe geordnete Basis von gewählt wird. Bildet man für eine andere Basis von , dann gilt die Kürzungsregel nicht mehr: Die Gleichung

ist im Allgemeinen falsch. Weil darstellende Matrizen von der Reihenfolge der Basisvektoren abhängen, gilt das auch dann, wenn nur eine Umordnung von ist.

Assoziativität der Matrizenmultiplikation

[Bearbeiten]

Satz (Assoziativität der Matrixmultiplikation)

Für gilt

Beweis (Assoziativität der Matrixmultiplikation)

Zunächst überprüfen wir, dass die Typen der Matrizen, die wir jeweils multiplizieren möchten, zusammenpassen. Für die Produkte und ist dies direkt sichtbar. Nun ist und , also sind die Produkte auf beiden Seiten des Assoziativgesetzes definiert, beide Ergebnisse liegen in .

Nun betrachten wir die einzelnen Komponenten der Matrizen, um die Gleichheit festzustellen. Es sei .

Verträglichkeit mit Skalarmultiplikation

[Bearbeiten]

Satz (Verträglichkeit mit Skalarmultiplikation)

Seien und , dann gilt:

Beachte, dass hier "" sowohl die Skalarmultiplikation ("Skalar mal Matrix") als auch die Matrixmultiplikation ("Matrix mal Matrix") bezeichnet.

Beweis (Verträglichkeit mit Skalarmultiplikation)

Distributivität der Matrizenmultiplikation

[Bearbeiten]

Hier müssen wir besonders darauf achten, dass die Matrizen, die wir multiplizieren wollen, jeweils vom Typ zusammenpassen.

Satz (Erstes Distributivgesetz)

Für gilt

Beweis (Erstes Distributivgesetz)

Satz (Zweites Distributivgesetz)

Für gilt

Beweis (Zweites Distributivgesetz)

[Bearbeiten]

Wir bezeichnen die Einträge der Einheitsmatrix mit , d.h. . Es gilt

Beweis (Die Einheitsmatrix ist ein links- und rechtsneutrales Element der Matrixmultiplikation)

Beweisschritt:

Wir beweisen diese Gleichheit durch direkte Multiplikation. Es gilt für alle und für alle :

Wir haben bei der letzten Gleichheit verwendet, dass wenn und . Da jeder Eintrag von mit dem Eintrag von an der gleichen Stelle übereinstimmt, sind die beiden Matrizen gleich.

Beweisschritt:

Wir gehen wie im ersten Beweisschritt vor. Für alle und für alle gilt:

Also ist auch diese Gleichheit bewiesen.

Somit sind die Einheitsmatrizen der entsprechenden Größe links- bzw. rechtsneutrale Elemente bezüglich der Matrizenmultiplikation.

Keine Kommutativität

[Bearbeiten]

Beispiel (Nicht-Kommutativität der -Matrizen)

In den -Matrizen können wir die fehlschlagende Kommutativität an folgendem Beispiel sehen: Einerseits ist

und andererseits ist

Also spielt die Reihenfolge bei der Matrizenmultiplikation eine Rolle.

Warnung

Im Allgemeinen gilt , das Matrixprodukt ist also nicht kommutativ.

Das Kommutativgesetz gilt nur in wenigen Spezialfällen (z.B. Produkte von Diagonalmatrizen).

Da die Anzahl der Zeilen und Spalten der Matrizen zusammenpassen muss, kann es sogar sein, dass eines der beiden Produkte nicht einmal definiert ist! Zum Beispiel ist für das Produkt definiert, aber das Produkt ist nicht definiert.

Weiterführendes

[Bearbeiten]

Hinweis

Multiplizieren wir zwei -Matrizen, so ist das Ergebnis wieder eine -Matrix. Wir kennen nun also zwei innere Verknüpfungen auf der Menge : die Addition von Matrizen

sowie die Matrixmultiplikation

Aus dem Artikel zur Vektorraumstruktur für Matrizen wissen wir bereits, dass eine abelsche Gruppe ist. Aus Eigenschaften der Matrixmultiplikation folgt, dass sogar ein Ring mit Eins ist: Die Multiplikation ist assoziativ, es gibt ein neutrales Element und es gelten die Distributivgesetze.

Der Ring der Matrizen ist jedoch im Allgemeinen nicht kommutativ, wie wir oben gesehen haben. Beachte auch, dass wir eine solche Ringstruktur nur für quadratische Matrizen haben, da andernfalls die Multiplikation zweier Elemente nicht definiert ist.