Orthogonale Matrix

Durch Multiplikation mit einer orthogonalen Matrix Q können Vektoren gedreht (links) oder gespiegelt (rechts) werden. Die Länge der Vektoren und der Winkel zwischen den Vektoren bleiben dabei erhalten.   Durch Multiplikation mit einer orthogonalen Matrix Q können Vektoren gedreht (links) oder gespiegelt (rechts) werden. Die Länge der Vektoren und der Winkel zwischen den Vektoren bleiben dabei erhalten.
Durch Multiplikation mit einer orthogonalen Matrix Q können Vektoren gedreht (links) oder gespiegelt (rechts) werden. Die Länge der Vektoren und der Winkel zwischen den Vektoren bleiben dabei erhalten.

Eine orthogonale Matrix ist in der linearen Algebra eine quadratische, reelle Matrix, deren Zeilen- und Spaltenvektoren orthonormal bezüglich des Standardskalarprodukts sind. Damit ist die Inverse einer orthogonalen Matrix gleichzeitig ihre Transponierte.

Orthogonale Matrizen stellen Kongruenzabbildungen im euklidischen Raum, also Drehungen, Spiegelungen und Kombinationen daraus, dar. Jede orthogonale Abbildung zwischen zwei endlichdimensionalen Skalarprodukträumen kann nach Wahl je einer Orthonormalbasis durch eine orthogonale Matrix dargestellt werden. Die Menge der orthogonalen Matrizen fester Größe bildet mit der Matrizenmultiplikation als Verknüpfung die orthogonale Gruppe.

Orthogonale Matrizen werden beispielsweise bei der numerischen Lösung linearer Gleichungssysteme oder Eigenwertprobleme eingesetzt. Der analoge Begriff bei komplexen Matrizen ist die unitäre Matrix.

Definition

Eine reelle quadratische Matrix Q \in \R^{n \times n} heißt orthogonal, wenn das Produkt mit ihrer transponierten Matrix Q^T die Einheitsmatrix I ergibt, also

Q^T \cdot Q = I

gilt. Werden die Spaltenvektoren der Matrix Q mit q_1, \ldots , q_n bezeichnet, dann ist diese Bedingung gleichbedeutend damit, dass das Standardskalarprodukt zweier Spaltenvektoren

q_{i}^{T}\cdot q_{j}=\delta _{{ij}}={\begin{cases}1&{\text{falls}}~i=j\\0&{\text{sonst}}\end{cases}}

ergibt, wobei \delta _{ij} das Kronecker-Delta ist. Die Spaltenvektoren einer orthogonalen Matrix bilden damit eine Orthonormalbasis des Koordinatenraums \mathbb {R} ^{n}. Dies trifft auch für die Zeilenvektoren einer orthogonalen Matrix zu, denn mit Q ist auch Q^T orthogonal, das heißt

Q \cdot Q^T = I.

Auch wenn die Bezeichnung „orthogonale Matrix“ so verstanden werden könnte, reicht es nicht aus, wenn die Zeilen- oder Spaltenvektoren lediglich paarweise orthogonal sind; sie müssen zusätzlich normiert sein, also die Länge eins aufweisen.

Beispiele

Konkrete Beispiele

Q = \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}
ist orthogonal, denn es gilt
Q^{T}\,Q={\begin{pmatrix}0&1\\1&0\end{pmatrix}}\cdot {\begin{pmatrix}0&1\\1&0\end{pmatrix}}={\begin{pmatrix}0\cdot 0+1\cdot 1&0\cdot 1+1\cdot 0\\1\cdot 0+0\cdot 1&1\cdot 1+0\cdot 0\end{pmatrix}}={\begin{pmatrix}1&0\\0&1\end{pmatrix}}=I.
Q={\frac  {1}{5}}{\begin{pmatrix}3&4\\-4&3\end{pmatrix}}
ist orthogonal, denn es gilt
Q^{T}\,Q={\frac  {1}{5}}{\begin{pmatrix}3&-4\\4&3\end{pmatrix}}\cdot {\frac  {1}{5}}{\begin{pmatrix}3&4\\-4&3\end{pmatrix}}={\frac  {1}{25}}{\begin{pmatrix}9+16&12-12\\12-12&16+9\end{pmatrix}}={\frac  {1}{25}}{\begin{pmatrix}25&0\\0&25\end{pmatrix}}={\begin{pmatrix}1&0\\0&1\end{pmatrix}}=I.

Allgemeine Beispiele

P_{\pi }^{T}\,P_{\pi }=P_{{\pi ^{{-1}}}}\,P_{\pi }=P_{{\pi ^{{-1}}\circ \pi }}=P_{{{\mathrm  {id}}}}=I,
denn die transponierte Permutationsmatrix ist gleich der Permutationsmatrix der inversen Permutation, die alle Vertauschungen rückgängig macht, und das Produkt von Permutationsmatrizen entspricht der Hintereinanderausführung der Permutationen. Die vorzeichenbehafteten Permutationsmatrizen, bei denen in jeder Zeile und Spalte genau ein Eintrag plus oder minus eins ist und alle übrigen Einträge null sind, sind genau die ganzzahligen orthogonalen Matrizen.
R_\alpha = \begin{pmatrix} \cos\alpha & -\sin\alpha \\ \sin\alpha & \cos\alpha \end{pmatrix}
die Drehmatrix einer Drehung um einen Winkel \alpha , die den Ursprung festlässt, dann gilt mit dem „trigonometrischen Pythagoras
R_{\alpha }^{T}\,R_{\alpha }={\begin{pmatrix}\cos ^{2}\alpha +\sin ^{2}\alpha &-\cos \alpha \sin \alpha +\sin \alpha \cos \alpha \\-\sin \alpha \cos \alpha +\cos \alpha \sin \alpha &\sin ^{2}\alpha +\cos ^{2}\alpha \end{pmatrix}}=I.
Allgemeiner sind auch Drehmatrizen, die eine Drehung in einer beliebigen Ursprungsebene im n-dimensionalen Raum beschreiben, orthogonal.
S_n = I - 2 n n^T
die Spiegelungsmatrix einer Spiegelung an einer Ursprungsgerade mit Einheits-Normalenvektor n, dann gilt
S_{n}^{T}\,S_{n}=S_{n}\,S_{n}=(I-2nn^{T})\,(I-2nn^{T})=I-4nn^{T}+4n(n^{T}n)n^{T}=I,
denn Spiegelungsmatrizen sind nach Definition symmetrisch und für einen Einheitsvektor gilt n^T n = 1. Allgemeiner sind auch Matrizen, die Spiegelungen an einem beliebigen Untervektorraum im n-dimensionalen Raum (beispielsweise einer Hyperebene) beschreiben, orthogonal.

Eigenschaften

Inverse

Eine orthogonale Matrix Q \in \R^{n \times n} ist aufgrund der linearen Unabhängigkeit ihrer Zeilen- und Spaltenvektoren stets regulär. Die Inverse einer orthogonalen Matrix ist dabei gleich ihrer Transponierten, das heißt, es gilt

Q^T = Q^{-1}.

Die Inverse einer Matrix Q ist nämlich gerade diejenige Matrix Q^{-1}, für die

Q \, Q^{-1} = Q^{-1} \, Q = I

gilt. Aus der zweiten Gleichung folgt weiterhin, dass die Transponierte einer orthogonalen Matrix orthogonal ist. Es gilt auch die Umkehrung und jede Matrix Q, deren Transponierte gleich ihrer Inversen ist, ist orthogonal, denn es gilt dann

Q^{T}\,Q=Q^{{-1}}\,Q=I.

Längen- und Winkeltreue

Wird ein Vektor x\in \mathbb {R} ^{n} mit einer orthogonalen Matrix Q \in \R^{n \times n} multipliziert, ändert sich die Länge (euklidische Norm) des Vektors nicht, das heißt

 \| Q \, x \|_2 = \| x \|_2.

Weiter ist das Standardskalarprodukt zweier Vektoren x,y\in \mathbb {R} ^{n} invariant bezüglich der Multiplikation mit einer orthogonalen Matrix Q, also

\left\langle Q \, x, Q \, y \right\rangle = \left\langle x,y \right\rangle.

Damit bleibt auch der Winkel zwischen den beiden Vektoren erhalten. Beide Eigenschaften folgen direkt aus der Verschiebungseigenschaft des Standardskalarprodukts. Aufgrund dieser Längen- und Winkeltreue stellt die lineare Abbildung

f \colon \R^n \to \R^n, x \mapsto Q \, x

eine Kongruenzabbildung im euklidischen Raum dar. Umgekehrt ist die Abbildungsmatrix bezüglich der Standardbasis jeder winkeltreuen linearen Abbildung im euklidischen Raum orthogonal. Aufgrund der Polarisationsformel ist auch jede längentreue Abbildung winkeltreu.

Determinante

Für den Betrag der Determinante einer orthogonalen Matrix Q \in \R^{n \times n} gilt

| \det Q | = 1,

was mit Hilfe des Determinantenproduktsatzes über

{\displaystyle (\operatorname {det} Q)^{2}=\det Q\cdot \det Q=\det Q^{T}\cdot \det Q=\det(Q^{T}Q)=\det I=1}

folgt. Damit kann die Determinante einer orthogonalen Matrix nur die Werte eins oder minus eins annehmen. Es gibt allerdings auch nicht-orthogonale Matrizen, deren Determinante plus oder minus eins ist, zum Beispiel unimodulare Matrizen. Orthogonale Matrizen, deren Determinante eins ist, entsprechen Drehungen. Man spricht dann auch von einer eigentlich orthogonalen Matrix. Orthogonale Matrizen, deren Determinante minus eins ist, stellen Drehspiegelungen dar. Man spricht dann auch von einer uneigentlich orthogonalen Matrix.

Eigenwerte

Die Eigenwerte einer orthogonalen Matrix Q \in \R^{n \times n} sind nicht notwendigerweise alle reell. Sie haben jedoch den komplexen Betrag eins, sind also von der Form

\lambda = e^{it}

mit t \in \R. Ist nämlich x ein zu \lambda gehöriger Eigenvektor, dann gilt aufgrund der Längentreue und der absoluten Homogenität einer Norm

\| x \|_2 = \| Q \, x \|_2 = \| \lambda \, x \|_2 = | \lambda | \, \| x \|_2

und daher | \lambda | = 1. Eine orthogonale Matrix besitzt demnach höchstens die reellen Eigenwerte \pm 1. Die komplexen Eigenwerte treten immer paarweise komplex konjugiert auf, das heißt mit \lambda = e^{it} ist auch \bar\lambda = e^{-it} ein Eigenwert, denn

Q \bar{x} = \overline{Q x} = \overline{\lambda x} = \bar{\lambda} \bar{x}.

Demnach besitzt eine orthogonale Matrix ungerader Dimension n mindestens einen reellen Eigenwert (siehe auch den Satz vom Fußball).

Diagonalisierbarkeit

Eine orthogonale Matrix Q \in \R^{n \times n} ist normal, das heißt, es gilt

Q \, Q^T = Q^T \, Q,

und damit über den komplexen Zahlen unitär diagonalisierbar. Nach dem Spektralsatz gibt es nämlich eine unitäre Matrix {\displaystyle U\in \mathbb {C} ^{n\times n}}, sodass

U^{-1} \, Q \, U = D

gilt, wobei {\displaystyle D\in \mathbb {C} ^{n\times n}} eine Diagonalmatrix mit den Eigenwerten von Q ist. Die Spaltenvektoren von U sind dann paarweise orthonormale Eigenvektoren von Q. Damit sind auch die Eigenräume einer orthogonalen Matrix paarweise orthogonal.

Im Allgemeinen ist eine orthogonale Matrix Q \in \R^{n \times n} jedoch nicht reell diagonalisierbar. Es existiert allerdings eine orthogonale Matrix V \in \R^{n \times n}, sodass

V^{-1} \, Q \, V = \begin{pmatrix} D_1 & & 0 \\ & \ddots & \\ 0 & & D_s \end{pmatrix}

eine Blockdiagonalmatrix ergibt, bei der die einzelnen Blöcke entweder Drehmatrizen der Größe 2\times 2 sind oder aus der Zahl +1 oder -1 bestehen. Diese Darstellung wird auch Normalform einer orthogonalen Matrix genannt.

Normen

Die Spektralnorm einer orthogonalen Matrix Q \in \R^{n \times n} ist

\| Q \|_2 = \max_{\| x \|_2 = 1} \| Q \, x \|_2 = \max_{\| x \|_2 = 1} \| x \|_2 = 1.

Für die Frobeniusnorm gilt mit dem Frobenius-Skalarprodukt entsprechend

\|Q\|_{F}={\sqrt  {\langle Q,Q\rangle _{F}}}={\sqrt  {\langle I,I\rangle _{F}}}={\sqrt  {n}}.

Das Produkt mit einer orthogonalen Matrix erhält sowohl die Spektralnorm, als auch die Frobeniusnorm einer gegebenen Matrix A\in \mathbb {R} ^{n\times n}, denn es gilt

\| Q \, A \|_2 = \max_{\| x \|_2 = 1} \| Q \, A \, x \|_2 = \max_{\| x \|_2 = 1} \| A \, x \|_2  = \| A \|_2

und

\|Q\,A\|_{F}={\sqrt  {\langle Q\,A,Q\,A\rangle _{F}}}={\sqrt  {\langle A,A\rangle _{F}}}=\|A\|_{F}.

Damit bleibt auch die Kondition einer Matrix bezüglich dieser Normen nach Multiplikation mit einer orthogonalen Matrix erhalten.

Orthogonale Matrizen als Gruppe

Hauptartikel: Orthogonale Gruppe

Die Menge der regulären Matrizen fester Größe bildet mit der Matrizenmultiplikation als Verknüpfung eine Gruppe, die allgemeine lineare Gruppe \mathrm {GL} (n,\mathbb {R} ). Als neutrales Element dient dabei die Einheitsmatrix I. Die orthogonalen Matrizen bilden eine Untergruppe der allgemeinen linearen Gruppe, die orthogonale Gruppe \mathrm O(n). Das Produkt zweier orthogonaler Matrizen P, Q \in \R^{n \times n} ist nämlich wieder orthogonal, denn es gilt

(P\,Q)^{T}\,(P\,Q)=Q^{T}\,(P^{T}\,P)\,Q=Q^{T}\,Q=I.

Weiter ist die Inverse einer orthogonalen Matrix Q \in \R^{n \times n} ebenfalls orthogonal, denn es gilt

Q^{{-T}}\,Q^{{-1}}=Q^{{-T}}\,Q^{T}=(Q\,Q^{{-1}})^{T}=I^{T}=I.

Die orthogonalen Matrizen mit Determinante eins, also die Drehmatrizen, bilden wiederum eine Untergruppe der orthogonalen Gruppe, die Drehgruppe (oder spezielle orthogonale Gruppe) \mathrm{SO}(n). Dabei handelt es sich um eine Lie-Gruppe, d.h. die Gruppenoperationen sind verträglich mit dem Differenzieren in der Gruppe, und Elemente von \mathrm{SO}(n) lassen sich als Exponentiale von Matrizen aus der zugehörigen Lie-Algebra darstellen. Die orthogonalen Matrizen mit Determinante minus eins, also die Drehspiegelungen, bilden keine Untergruppe der orthogonalen Gruppe, sondern lediglich eine Nebenklasse, denn ihnen fehlt das neutrale Element.

Verwendung

Lineare Gleichungssysteme

Die Lösung linearer Gleichungssysteme der Form

Q \, x = b

mit einer orthogonalen Matrix Q \in \R^{n \times n} und einer rechten Seite b \in \R^n lässt sich numerisch effizient durch

x = Q^T \, b

berechnen. Die Ermittlung der Lösung x\in \mathbb {R} ^{n} erfordert also lediglich eine Matrix-Vektor-Multiplikation, die mit einem Aufwand der Ordnung O(n^2) durchgeführt werden kann. Im Vergleich dazu benötigt die Lösung allgemeiner linearer Gleichungssysteme beispielsweise mit Hilfe der Gauß-Elimination einen Aufwand O(n^{3}). Dieser Vorteil wird beispielsweise bei der (reellen) diskreten Fourier-Transformation und der diskreten Kosinus-Transformation genutzt.

Matrixzerlegungen

Eine weitere Anwendung orthogonaler Matrizen ist die QR-Zerlegung einer gegebenen Matrix A\in \mathbb {R} ^{m\times n} als Produkt

A = Q \, R

einer orthogonalen Matrix Q \in \R^{m \times m} und einer oberen Dreiecksmatrix R \in \R^{m \times n}. Die Konstruktion der Matrix Q kann dabei mit Givens-Rotationen, die Drehungen entsprechen, oder Householdertransformationen, die Spiegelungen entsprechen, durchgeführt werden. QR-Zerlegungen werden in der Numerik bei der Lösung schlecht konditionierter, überbestimmter oder unterbestimmter linearer Gleichungssysteme eingesetzt. Ein weiteres Anwendungsfeld besteht in der Berechnung von Eigenwertproblemen mit dem QR-Algorithmus.

Mit Hilfe der Singulärwertzerlegung lässt sich jede reelle Matrix A\in \mathbb {R} ^{m\times n} auch als Produkt

A = U \, \Sigma \, V^T

einer orthogonalen Matrix U \in \R^{m \times m}, einer Diagonalmatrix \Sigma \in \R^{m \times n} und der Transponierten einer weiteren orthogonalen Matrix V \in \R^{n \times n} darstellen. Die Diagonaleinträge der Matrix \Sigma sind dann die Singulärwerte von A. Die Singulärwertzerlegung wird beispielsweise in der Geometrie bei der Hauptachsentransformation von Quadriken und in der Statistik bei der Hauptkomponentenanalyse multivariater Datensätze eingesetzt.

Eine quadratische Matrix A\in \mathbb {R} ^{n\times n} kann mittels der Polarzerlegung auch als Produkt

A=Q\,P

einer orthogonalen Matrix Q \in \R^{n \times n} und einer positiv semidefiniten symmetrischen Matrix P\in \mathbb{R} ^{{n\times n}} faktorisiert werden.

Orthogonale Abbildungen

Ist (V, \langle \cdot, \cdot \rangle) ein n-dimensionaler reeller Skalarproduktraum, dann lässt sich jede lineare Abbildung f \colon V \to V nach Wahl einer Orthonormalbasis \{ e_1, \ldots , e_n \} für V durch die Abbildungsmatrix

A_{f}=(a_{{ij}})\in \mathbb{R} ^{{n\times n}}

darstellen, wobei {\displaystyle f(e_{j})=a_{1j}e_{1}+\dotsb +a_{nj}e_{n}} für {\displaystyle j=1,\dotsc ,n} ist. Die Abbildungsmatrix A_{f} ist nun genau dann orthogonal, wenn f eine orthogonale Abbildung ist. Dies folgt aus

\langle f(v),f(w)\rangle =(A_{f}x)^{T}(A_{f}y)=x^{T}A_{f}^{T}A_{f}y=x^{T}y=\langle v,w\rangle ,

wobei {\displaystyle v=x_{1}e_{1}+\dotsb +x_{n}e_{n}} und {\displaystyle w=y_{1}e_{1}+\dotsb +y_{n}e_{n}} sind.

Siehe auch

Literatur

Trenner
Basierend auf einem Artikel in: Extern Wikipedia.de
Seitenende
Seite zurück
© biancahoegel.de
Datum der letzten Änderung: Jena, den: 21.02. 2021