Inverse Matrix
Die inverse Matrix, Kehrmatrix oder kurz Inverse einer quadratischen Matrix ist in der Mathematik eine ebenfalls quadratische Matrix, die mit der Ausgangsmatrix multipliziert die Einheitsmatrix ergibt. Nicht jede quadratische Matrix besitzt eine Inverse; die invertierbaren Matrizen werden reguläre Matrizen genannt. Eine reguläre Matrix ist die Darstellungsmatrix einer bijektiven linearen Abbildung und die inverse Matrix stellt dann die Umkehrabbildung dieser Abbildung dar. Die Menge der regulären Matrizen fester Größe bildet mit der Matrizenmultiplikation als Verknüpfung die allgemeine lineare Gruppe. Die inverse Matrix ist dann das inverse Element in dieser Gruppe.
Die Berechnung der Inverse einer Matrix wird auch als Inversion oder Invertierung der Matrix bezeichnet. Die Invertierung einer Matrix kann mit dem Gauß-Jordan-Algorithmus oder über die Adjunkte der Matrix erfolgen. Die inverse Matrix wird in der linearen Algebra unter anderem bei der Lösung linearer Gleichungssysteme, bei Äquivalenzrelationen von Matrizen und bei Matrixzerlegungen verwendet.
Definition
Ist
eine reguläre
Matrix mit Einträgen aus einem unitären Ring
(in der Praxis meist dem Körper
der reellen Zahlen), dann ist
die zugehörige inverse Matrix diejenige Matrix
,
für die
gilt, wobei der Malpunkt
die Matrizenmultiplikation
darstellt und
die Einheitsmatrix
der Größe
ist. Ist
ein kommutativer
Ring, Körper oder Schiefkörper,
so sind die beiden Bedingungen äquivalent, das heißt eine rechtsinverse Matrix
ist auch linksinvers und umgekehrt.
Beispiele
Die Inverse der reellen -Matrix
ist
,
denn es gilt
.
Die Inverse einer reellen Diagonalmatrix
mit Diagonalelementen
ergibt sich durch Bildung der Kehrwerte
aller Diagonalelemente, denn
.
Eigenschaften
Gruppeneigenschaften
Die Menge der regulären Matrizen fester Größe über einem unitären Ring
bildet mit der Matrizenmultiplikation als Verknüpfung eine (im Allgemeinen nichtkommutative) Gruppe,
die allgemeine
lineare Gruppe
.
In dieser Gruppe ist die Einheitsmatrix das neutrale
Element und die inverse Matrix das inverse
Element. Als solches ist die Inverse einer Matrix eindeutig definiert und
sowohl links-, als auch rechtsinvers. Insbesondere ergibt die Inverse der
Einheitsmatrix wieder die Einheitsmatrix, also
,
und die Inverse der inversen Matrix wieder die Ausgangsmatrix, das heißt
.
Die Matrizen
und
werden daher auch zueinander invers genannt. Das Produkt zweier regulärer
Matrizen ist wieder regulär und die Inverse des Produkts ist das Produkt der
jeweiligen Inversen, allerdings in umgekehrter Reihenfolge:
.
Kann eine Matrix als Produkt leicht invertierbarer Matrizen dargestellt werden, so kann auf diese Weise die Inverse der Matrix schnell ermittelt werden. Für die Inverse des Produkts mehrerer Matrizen gilt die allgemeine Produktformel
mit .
Damit gilt speziell für die Inverse einer Matrixpotenz
.
Diese Matrix wird auch durch
notiert.
Weitere Eigenschaften
Für die Inverse einer Matrix mit Einträgen aus einem Körper
gelten folgende weitere Eigenschaften. Für die Inverse des Produkts einer
Matrix mit einem Skalar
mit
gilt
.
Die Inverse der transponierten Matrix ist gleich der Transponierten der Inversen, also
.
Gleiches gilt auch für die Inverse einer adjungierten komplexen Matrix
.
Diese beiden Matrizen werden gelegentlich auch durch
und
notiert.
Für den Rang
der Inversen gilt
und für ihre Determinante
.
Ist
ein Eigenwert
von
zum Eigenvektor
,
so ist
ein Eigenwert von
ebenfalls zum Eigenvektor
.
Invarianten
Manche reguläre Matrizen behalten ihre Zusatzeigenschaften unter Inversion. Beispiele hierfür sind:
- obere und untere Dreiecksmatrizen sowie strikt obere und untere Dreiecksmatrizen
- positiv definite und negativ definite Matrizen
- symmetrische, persymmetrische, bisymmetrische und zentralsymmetrische Matrizen
- unimodulare und ganzzahlige unimodulare Matrizen
Berechnung
Zur Berechnung der Inversen einer Matrix
(auch als Inversion oder Invertierung der Matrix bezeichnet) nutzt man, dass
deren
-ten
Spalten
jeweils die Lösungen der linearen Gleichungssysteme
mit dem
-ten
Einheitsvektor als rechter Seite sind. Numerische Verfahren wie der
Gauß-Jordan-Algorithmus führen dann zu effizienten Algorithmen zur Berechnung
der Inversen. Daneben lassen sich unter Verwendung der Adjunkten einer Matrix
auch explizite Formeln für die Inverse herleiten.
Im Folgenden wird angenommen, dass die Einträge der Matrix aus einem Körper stammen, damit die entsprechenden Rechenoperationen stets durchführbar sind.
Gauß-Jordan-Algorithmus
Gleichungsdarstellung
Ausgeschrieben lautet die Matrixgleichung
mit
und
.
Die -te
Spalte der Inversen
ergibt sich damit als Lösung des linearen
Gleichungssystems
,
wobei
der
-te
Einheitsvektor ist. Die
Inverse einer Matrix
ist demnach spaltenweise in der Form
aus den Lösungen
linearer Gleichungssysteme mit jeweils
als Koeffizientenmatrix und einem Einheitsvektor als rechter Seite
zusammengesetzt.
Verfahren
Die Inverse einer Matrix kann nun effizient mit dem Gauß-Jordan-Algorithmus
berechnet werden. Die Idee bei diesem Verfahren ist es, die
linearen Gleichungssysteme
simultan zu lösen. Hierzu wird zunächst die Koeffizientenmatrix
um die Einheitsmatrix
erweitert und man schreibt dann
.
Nun wird die Matrix
mit Hilfe elementarer
Zeilenumformungen auf obere Dreiecksgestalt
gebracht, wobei die Einheitsmatrix
mit umgeformt wird:
.
An dieser Stelle kann entschieden werden, ob die Matrix
überhaupt eine Inverse besitzt. Die Matrix
ist nämlich genau dann invertierbar, wenn die Matrix
keine Null auf der Hauptdiagonalen enthält. Ist dies der Fall, so kann die
Matrix
mit weiteren elementaren Zeilenumformungen zunächst auf Diagonalgestalt gebracht
werden und dann durch entsprechende Skalierungen in die Einheitsmatrix überführt
werden. Schließlich erhält man die Form
,
wobei auf der rechten Seite dann die gesuchte Inverse
steht.
Beispiele
Als Beispiel werde die Inverse der reellen -Matrix
gesucht. Mit dem Gauß-Jordan-Algorithmus ergeben sich die Rechenschritte
.
Hierbei wird zunächst die
unterhalb der Diagonale eliminiert, was durch Subtraktion des Doppelten der
ersten Zeile von der zweiten Zeile erfolgt. Anschließend wird die
oberhalb der Diagonale zu null gesetzt, was durch Addition des Doppelten der
zweiten Zeile zur ersten Zeile geschieht. Im letzten Schritt wird dann das
zweite Diagonalelement auf eins normiert, was eine Multiplikation der zweiten
Zeile mit
erfordert. Die Inverse von
ist demnach
.
Als weiteres Beispiel werde die Inverse der reellen -Matrix
gesucht. Zunächst werden hier die beiden -en
in der ersten Spalte eliminiert, was jeweils durch Subtraktion des Doppelten der
ersten Zeile erfolgt. Nachdem in der zweiten Spalte nun das Pivotelement gleich
ist, wird zur Elimination der
die zweite mit der dritten Zeile vertauscht und man erhält die obere
Dreiecksform:
.
Auch diese Matrix ist also invertierbar. Nun muss lediglich die verbleibende
oberhalb der Diagonalen zu null gesetzt werden, was durch Addition des Doppelten
der zweiten Zeile zum Dreifachen der ersten Zeile geschieht. Schließlich muss
noch die zweite Zeile durch
dividiert werden und man erhält als Ergebnis:
.
Die Inverse von
ist demnach
.
Korrektheit
Dass durch den Gauß-Jordan-Algorithmus tatsächlich die inverse Matrix
berechnet wird, kann wie folgt nachgewiesen werden. Sind
Elementarmatrizen, mit
denen die Matrix
in die Einheitsmatrix umgeformt wird, dann gilt
.
Werden nun beide Seiten dieser Gleichung
von rechts mit der Matrix
multipliziert, folgt daraus
.
Wird demnach eine Matrix
durch Multiplikation von links mit einer Reihe von Elementarmatrizen in die
Einheitsmatrix umgewandelt, so ergibt die Multiplikation der Einheitsmatrix mit
diesen Elementarmatrizen in der gleichen Reihenfolge gerade die Inverse
.
Darstellung über die Adjunkte
Herleitung
Mit Hilfe der Cramerschen
Regel lässt sich die Lösung des linearen Gleichungssystems
auch explizit durch
angeben, wobei die Matrix
durch Ersetzen der
-ten
Spalte mit dem Einheitsvektor
entsteht. Wird nun die Determinante im Zähler mit Hilfe des Laplaceschen
Entwicklungssatzes nach der
-ten
Spalte entwickelt, ergibt sich
,
wobei
die Untermatrix von
ist, die durch Streichung der
-ten
Zeile und
-ten
Spalte entsteht (man beachte in obiger Formel die Vertauschung der Reihenfolge
von
und
).
Die Unterdeterminanten
werden auch als Minoren
von
bezeichnet. Die Zahlen
heißen auch Kofaktoren von
und bilden als Matrix zusammengefasst die Kofaktormatrix
.
Die Transponierte der Kofaktormatrix wird auch Adjunkte
von
genannt. Mit der Adjunkten hat die Inverse einer Matrix dann die explizite
Darstellung
.
Diese Darstellung gilt auch für Matrizen mit Einträgen aus einem kommutativen Ring mit
Eins, sofern
eine Einheit
in dem Ring darstellt.
Explizite Formeln
Für -Matrizen
ergibt sich damit die explizite Formel
.
Für -Matrizen
ergibt sich entsprechend die Formel
,
wobei
mit der Regel
von Sarrus angegeben werden kann. Auch für größere Matrizen können auf diese
Weise explizite Formeln für die Inverse hergeleitet werden; ihre Darstellung und
Berechnung erweist sich jedoch schnell als sehr aufwändig.
Beispiele
Die Inverse der folgenden reellen -Matrix
ergibt sich zu
und die Inverse der folgenden reellen -Matrix
zu
.
Blockweise Inversion
Die Inverse einer -Blockmatrix mit
Blockbreiten- und -höhen
ergibt sich zu
,
sofern die Teilmatrix
und das Schurkomplement
invertierbar sind. Analog ergibt sich
,
sofern
und
invertierbar sind.
Darstellung mithilfe des charakteristischen Polynoms
Speziell für eine quadratische, reguläre Matrix lässt sich das Inverse mithilfe ihres charakteristischen Polynomes berechnen:
Sei
eine quadratische Matrix, und
das charakteristische
Polynom von
.
Dann ist
genau dann regulär, wenn
ist, da
gleich der Determinante
von
ist, und es gilt
Das Einsetzen der Matrix in das Polynom verläuft analog zum Einsetzen einer
reellen Zahl, nur dass hier die Rechenregeln
für Matrizen gelten.
bezeichnet die Einheitsmatrix
mit
Zeilen und Spalten.
Herleitung
Ausgenutzt wurde hierbei der Satz
von Cayley-Hamilton, welcher besagt, dass sich immer
ergibt, wenn man eine Matrix in ihr charakteristisches
Polynom einsetzt. Für
mit ihrem charakteristischen Polynom
gilt also immer:
Beispiel
Sei .
Dann ist ihr charakteristisches Polynom
.
Einsetzen in die Formel ergibt:
Wobei hier die Zusammenhänge
(siehe charakteristisches
Polynom) sowie
(siehe
Einheitsmatrix)
ausgenutzt wurden.
Numerische Berechnung
Generell werden in der Numerik
lineare Gleichungssysteme der Form
nicht über die Inverse durch
,
sondern mit speziellen Verfahren für lineare Gleichungssysteme gelöst (siehe Numerische lineare Algebra). Der Berechnungsweg über die Inverse ist zum einen wesentlich aufwändiger und zum anderen weniger stabil. Gelegentlich kann es jedoch erforderlich sein, die Inverse einer Matrix explizit zu ermitteln. Insbesondere bei sehr großen Matrizen wird dann auf Näherungsverfahren zurückgegriffen. Ein Ansatz hierfür ist die Neumann-Reihe, mit der die Inverse einer Matrix durch die unendliche Reihe
dargestellt werden kann, sofern die Reihe konvergiert. Wird diese Reihe nach endlich vielen Termen abgeschnitten, erhält man eine näherungsweise Inverse. Für spezielle Matrizen, wie Bandmatrizen oder Toeplitz-Matrizen, gibt es eigene effiziente Berechnungsverfahren zur Ermittlung der Inversen.
Verwendung
Spezielle Matrizen
Mit Hilfe der inversen Matrix können folgende Klassen von Matrizen charakterisiert werden:
- Für eine selbstinverse
Matrix ist die Inverse gleich der Ausgangsmatrix, das heißt
.
- Für eine orthogonale
Matrix ist die Inverse gleich der Transponierten, das heißt
.
- Für eine unitäre
Matrix ist die Inverse gleich der Adjungierten, das heißt
.
Weitere Matrizen, deren Inverse explizit angegeben werden kann, sind neben Diagonalmatrizen unter anderem Frobeniusmatrizen, Hilbertmatrizen und Tridiagonal-Toeplitz-Matrizen.
Inverse Abbildungen
Sind
und
zwei
-dimensionale
Vektorräume über dem Körper
,
dann wird die zu einer gegebenen bijektiven
linearen
Abbildung
zugehörige inverse
Abbildung
durch
charakterisiert, wobei
die identische
Abbildung darstellt. Ist nun
eine Basis
für
und
eine Basis für
,
dann gilt für die zugehörigen Abbildungsmatrizen
und
die Beziehung
.
Die Abbildungsmatrix der inversen Abbildung ist demnach gerade die Inverse der Abbildungsmatrix der Ausgangsabbildung.
Duale Basen
Ist
ein endlichdimensionaler Vektorraum über dem Körper
,
dann ist der zugehörige Dualraum
der Vektorraum der linearen
Funktionale
.
Ist
eine Basis für
,
dann wird die zugehörige duale
Basis
von
mit Hilfe des Kronecker-Deltas
durch
für
charakterisiert. Ist nun
die Matrix bestehend aus den Koordinatenvektoren
der Basisvektoren, dann ergibt sich die zugehörige duale Matrix
als
.
Die Basismatrix der dualen Basis ist demnach gerade die Inverse der Basismatrix der primalen Basis.
Weitere Anwendungen
Inverse Matrizen werden in der linearen Algebra unter anderem auch verwendet:
- bei Äquivalenzrelationen, beispielsweise der Ähnlichkeit und der Äquivalenz von Matrizen
- bei Normalformen von Matrizen, beispielsweise der Jordan-Normalform oder der Frobenius-Normalform
- bei Matrixzerlegungen, beispielsweise der Singulärwertzerlegung
- bei der Berechnung der Kondition regulärer Matrizen
Siehe auch
- Pseudoinverse, eine Verallgemeinerung der Inversen auf singuläre und nichtquadratische Matrizen
- Diagonalisierung, die Umwandlung einer Matrix in Diagonalform durch eine Ähnlichkeitstransformation
Literatur
- Siegfried Bosch: Lineare Algebra. Springer, 2006, ISBN 3-540-29884-3.
- Jörg Liesen, Volker Mehrmann: Lineare Algebra. Springer, 2012, ISBN 978-3-8348-8290-5.
- Hans Rudolf Schwarz, Norbert Köckler: Numerische Mathematik. 8. Auflage. Vieweg & Teubner, 2011, ISBN 978-3-8348-1551-4.



© biancahoegel.de
Datum der letzten Änderung: Jena, den: 11.02. 2023