Orthogonalprojektion

Orthogonalprojektion eines Punkts P auf eine Ebene  E: Der Verbindungsvektor zwischen dem Punkt und seinem Abbild {\displaystyle P'} bildet mit der Ebene einen rechten Winkel.

Eine Orthogonalprojektion (von gr. ὀρθός orthós gerade, γωνία gōnía Winkel und lat. prōicere, PPP prōiectum vorwärtswerfen), orthogonale Projektion oder senkrechte Projektion ist eine Abbildung, die in vielen Bereichen der Mathematik eingesetzt wird. In der Geometrie ist eine Orthogonalprojektion die Abbildung eines Punkts auf eine Gerade oder eine Ebene, sodass die Verbindungslinie zwischen dem Punkt und seinem Abbild mit dieser Gerade oder Ebene einen rechten Winkel bildet. Das Abbild hat dann von allen Punkten der Gerade oder Ebene den kürzesten Abstand zum Ausgangspunkt. Eine Orthogonalprojektion ist damit ein Spezialfall einer Parallelprojektion, bei der die Projektionsrichtung gleich der Normalenrichtung der Gerade oder Ebene ist.

In der linearen Algebra wird dieses Konzept auf höherdimensionale Vektorräume über den reellen oder komplexen Zahlen und allgemeinere Winkel- und Abstandsbegriffe erweitert. Eine Orthogonalprojektion ist dann die Projektion eines Vektors auf einen Untervektorraum, sodass der Differenzvektor aus Abbild und Ausgangsvektor in dessen orthogonalem Komplement liegt. In der Funktionalanalysis wird der Begriff noch weiter in unendlichdimensionalen Skalarprodukträumen gefasst und insbesondere auf Funktionen angewandt. Die Existenz und Eindeutigkeit solcher Orthogonalprojektionen stellt dann der Projektionssatz sicher.

Orthogonalprojektionen besitzen vielfältige Einsatzbereiche innerhalb der Mathematik, beispielsweise in der darstellenden Geometrie, dem Gram-Schmidtschen Orthogonalisierungsverfahren, der Methode der kleinsten Quadrate, dem Verfahren der konjugierten Gradienten, der Fourier-Analysis oder der Bestapproximation. Sie besitzen Anwendungen unter anderem in der Kartografie, der Architektur, der Computergrafik und der Physik.

Darstellende Geometrie

Prinzip einer Dreitafelprojektion

In der darstellenden Geometrie und im technischen Zeichnen dienen Projektionen dazu, zweidimensionale Abbildungen von dreidimensionalen geometrischen Körpern herzustellen. Neben der Zentralprojektion kommen hierbei häufig Parallelprojektionen zum Einsatz. Eine Parallelprojektion ist eine Abbildung, die Punkte des dreidimensionalen Raums auf Punkte einer gegebenen Bildebene abbildet, wobei die Projektionsstrahlen zueinander parallel sind. Treffen die Projektionsstrahlen im rechten Winkel auf die Projektionsebene, so spricht man von einer Orthogonalprojektion.

Werden statt einer Bildebene drei Projektionsebenen verwendet, die aufeinander senkrecht stehen, dann handelt es sich um eine Dreitafelprojektion oder Normalprojektion. Meist liegen dabei die Projektionsebenen parallel zu den Achsen des verwendeten (kartesischen) Koordinatensystems. Besitzt ein Punkt im Raum dann die Koordinaten (x,y,z), so erhält man die Orthogonalprojektionen des Punkts auf die drei Koordinatenebenen durch

(x,y,z) \rightarrow (x,y,0)   (Projektion auf die xy-Ebene)
(x,y,z) \rightarrow (x,0,z)   (Projektion auf die xz-Ebene)
(x,y,z) \rightarrow (0,y,z)   (Projektion auf die yz-Ebene)

Verläuft eine Projektionsebene zwar parallel zu zwei der Koordinatenachsen, aber nicht durch den Nullpunkt des Koordinatensystems, so erhält man den projizierten Punkt durch Ersetzen des Werts {\displaystyle 0} durch den Schnittpunkt der Ebene mit der dritten Koordinatenachse. Bei einer orthogonalen Axonometrie, beispielsweise einer Isometrie oder einer Dimetrie, wird das abzubildende Objekt vor der Projektion auf spezifische Weise gedreht.

Analytische Geometrie

Die analytische Geometrie beschäftigt sich mit der Berechnung und den mathematischen Eigenschaften von Orthogonalprojektionen im zwei- und dreidimensionalen Raum, insbesondere für den Fall, dass die Projektionsebene nicht parallel zu den Koordinatenachsen liegt.

Projektion auf eine Gerade

Orthogonalprojektion eines Punkts P auf eine Gerade g. Das Lot {\overline {PP'}} steht auf der Gerade senkrecht.

Definition

In der euklidischen Ebene ist eine Orthogonalprojektion die Abbildung eines Punkts P auf eine Gerade g, derart dass die Verbindungslinie zwischen dem Punkt und seinem Abbild P' einen rechten Winkel mit der Gerade bildet. Eine Orthogonalprojektion muss demnach die beiden Bedingungen

erfüllen. Die Linie {\overline {PP'}} heißt Lot des Punkts auf die Gerade und der projizierte Punkt P' wird Lotfußpunkt genannt. Die zeichnerische Konstruktion des Lots mit Zirkel und Lineal ist eine Standardaufgabe der euklidischen Geometrie und man spricht dabei vom Fällen des Lots.

Herleitung

Orthogonalprojektion P_g(\vec x) eines Vektors {\vec {x}} auf eine Gerade g mit Stützvektor {\vec {r}}_{0} und Richtungsvektor {\vec {u}}

In der analytischen Geometrie werden Punkte im kartesischen Koordinatensystem durch Ortsvektoren {\displaystyle {\vec {x}}={\begin{pmatrix}x_{1}\\x_{2}\end{pmatrix}}} beschrieben und Geraden typischerweise als Geradengleichung in Parameterform \vec r = \vec r_0 + \lambda \, \vec u, wobei {\vec {r}}_{0} der Ortsvektor eines Geradenpunkts, {\vec {u}} der Richtungsvektor der Geraden und \lambda ein reeller Parameter ist. Zwei Vektoren {\vec {x}} und {\vec {y}} bilden dabei einen rechten Winkel, wenn ihr Skalarprodukt \vec x \cdot \vec y = 0 ist. Die Orthogonalprojektion P_g(\vec x) auf die Gerade g muss die beiden Bedingungen

für ein \lambda \in \mathbb {R} erfüllen.

Wird die erste Gleichung in die zweite eingesetzt, so erhält man

{\displaystyle ({\vec {r}}_{0}+\lambda \,{\vec {u}}-{\vec {x}})\cdot {\vec {u}}=0},

was nach \lambda aufgelöst

{\displaystyle \lambda ={\frac {{\vec {x}}\cdot {\vec {u}}-{\vec {r}}_{0}\cdot {\vec {u}}}{{\vec {u}}\cdot {\vec {u}}}}={\frac {({\vec {x}}-{\vec {r}}_{0})\cdot {\vec {u}}}{{\vec {u}}\cdot {\vec {u}}}}}

ergibt.

Verläuft die Gerade als Ursprungsgerade durch den Nullpunkt, dann gilt {\displaystyle {\vec {r}}_{0}={\begin{pmatrix}0\\0\end{pmatrix}}} und die Formel vereinfacht sich zu

P_g(\vec x) = \frac{ \vec x \cdot \vec u }{ \vec u \cdot \vec u } \, \vec u.

Ist zudem der Richtungsvektor der Gerade ein Einheitsvektor, gilt also \vec u \cdot \vec u = 1, so erhält man die einfachere Darstellung

P_g(\vec x) = ( \vec x \cdot \vec u ) \, \vec u.

Der Faktor \vec x \cdot \vec u gibt dann an, wie weit der projizierte Punkt auf der Gerade vom Nullpunkt entfernt ist. Analog kann auch ein Punkt {\displaystyle {\vec {x}}={\begin{pmatrix}x_{1}\\x_{2}\\x_{3}\end{pmatrix}}} im euklidischen Raum auf eine Gerade im Raum orthogonal projiziert werden, es wird lediglich mit drei statt zwei Komponenten gerechnet.

Beispiele

Die Orthogonalprojektion des Punkts mit {\displaystyle {\vec {x}}={\begin{pmatrix}4\\3\end{pmatrix}}} auf die Ursprungsgerade mit Richtung {\displaystyle {\vec {u}}={\begin{pmatrix}1\\2\end{pmatrix}}} in der euklidischen Ebene ist

{\displaystyle P_{g}({\vec {x}})={\frac {4\cdot 1+3\cdot 2}{1\cdot 1+2\cdot 2}}\cdot {\begin{pmatrix}1\\2\end{pmatrix}}={\frac {10}{5}}\cdot {\begin{pmatrix}1\\2\end{pmatrix}}={\begin{pmatrix}2\\4\end{pmatrix}}}.

Die Orthogonalprojektion des Punkts mit {\displaystyle {\vec {x}}={\begin{pmatrix}3\\9\\6\end{pmatrix}}} auf die Ursprungsgerade mit Richtung {\displaystyle {\vec {u}}={\begin{pmatrix}2\\1\\2\end{pmatrix}}} im euklidischen Raum ist

{\displaystyle P_{g}({\vec {x}})={\frac {3\cdot 2+9\cdot 1+6\cdot 2}{2\cdot 2+1\cdot 1+2\cdot 2}}\cdot {\begin{pmatrix}2\\1\\2\end{pmatrix}}={\frac {27}{9}}\cdot {\begin{pmatrix}2\\1\\2\end{pmatrix}}={\begin{pmatrix}6\\3\\6\end{pmatrix}}}.

Eigenschaften

Befindet sich der zu projizierende Punkt {\vec {x}} bereits auf der Gerade, dann gibt es eine Zahl \lambda mit \vec x = \lambda \vec u und die Orthogonalprojektion

P_g(\vec x) = \frac{ \lambda \vec u \cdot \vec u }{ \vec u \cdot \vec u } \, \vec u = \frac{ \lambda ( \vec u \cdot \vec u ) }{ \vec u \cdot \vec u } \, \vec u = \lambda \vec u = \vec x

verändert den Punkt nicht. Andernfalls minimiert die Orthogonalprojektion den Abstand zwischen dem Ausgangspunkt und allen Geradenpunkten, da für das Quadrat dieses Abstands nach dem Satz des Pythagoras

| \lambda \vec u - \vec x |^2 = | \lambda \vec u - P_g(\vec x) |^2 + | P_g(\vec x) - \vec x |^2 \geq  | P_g(\vec x) - \vec x |^2

für alle Zahlen \lambda \in \mathbb {R} gilt. Das Minimum wird dabei eindeutig an dem orthogonal projizierten Punkt angenommen, da der erste Term der Summe genau für \lambda = \tfrac{\vec x \cdot \vec u}{\vec u \cdot \vec u} null wird. Bilden die Vektoren {\vec {x}} und {\vec {u}} einen rechten Winkel, so ist der projizierte Punkt der Nullpunkt.

Berechnung

Die Orthogonalprojektion eines Punkts {\vec {x}} auf eine Gerade g, die keine Ursprungsgerade ist, ist durch

P_g(\vec x) =  \vec r_0 + \frac{( \vec x - \vec r_0 ) \cdot \vec u}{\vec u \cdot \vec u} \, \vec u.

gegeben, was durch Einsetzen der allgemeinen Geradengleichung in die Orthogonalitätsbedingung und durch Auflösen nach dem freien Parameter \lambda ermittelt werden kann. Aus dem Allgemeinfall erhält man die obigen Spezialfälle, indem der Stützvektor der Gerade in den Nullpunkt verschoben wird und ihr Richtungsvektor normiert wird, also durch seinen Betrag geteilt wird. In dem Beispiel der obigen Abbildung ist {\displaystyle {\vec {x}}={\begin{pmatrix}5\\2\end{pmatrix}}}, {\displaystyle {\vec {r}}_{0}={\begin{pmatrix}1\\2\end{pmatrix}}} sowie {\displaystyle {\vec {u}}={\begin{pmatrix}1\\1\end{pmatrix}}} und damit {\displaystyle P_{g}({\vec {x}})={\begin{pmatrix}3\\4\end{pmatrix}}}.

Alternativ kann eine Orthogonalprojektion im zweidimensionalen Fall auch durch Ermittlung des Schnittpunkts der Ausgangsgeraden mit der Lotgeraden berechnet werden. Ist {\vec {n}} ein Normalenvektor der Ausgangsgeraden, so folgt aus den beiden Bedingungen

durch Einsetzen der ersten Gleichung in die zweite Gleichung und Auflösen nach dem freien Parameter \mu für die Orthogonalprojektion

P_g(\vec x) = \vec x - \frac{( \vec x - \vec r_0 ) \cdot \vec n}{\vec n \cdot \vec n} \, \vec n.

Einen Normalenvektor kann man durch Vertauschen der beiden Komponenten des Richtungsvektors der Geraden und durch Umkehrung des Vorzeichens einer der beiden Komponenten ermitteln. In dem obigen Beispiel ist ein solches \vec n = (1,-1). Da eine Gerade im dreidimensionalen Raum keine ausgezeichnete Normalenrichtung besitzt, ist dieser einfache Ansatz aber nur in zwei Dimensionen möglich.

Projektion auf eine Ebene

Orthogonalprojektion eines Punkts P auf eine Ebene E. Das Lot {\displaystyle {\overline {PP'}}} steht senkrecht auf allen Geraden g der Ebene durch den Lotfußpunkt P'.

Definition

Im dreidimensionalen Raum kann ein Punkt P auch auf eine Ebene E orthogonal projiziert werden. Eine Orthogonalprojektion muss dann die beiden Bedingungen

erfüllen. Auch hier spricht man von Lot und Lotfußpunkt. Die Orthogonalität impliziert dabei, dass das Lot senkrecht auf allen Geraden der Ebene durch den Lotfußpunkt P' steht.

Herleitung

Orthogonalprojektion {\displaystyle P_{E}({\vec {x}})} eines Vektors {\vec {x}} auf eine Ebene E mit Stützvektor {\vec {r}}_{0} und orthogonalen Richtungsvektoren {\vec {u}} und {\vec {v}}

Ein Punkt im euklidischen Raum werde wieder durch einen Ortsvektor

{\displaystyle {\vec {x}}={\begin{pmatrix}x_{1}\\x_{2}\\x_{3}\end{pmatrix}}}
beschrieben und die Ebene sei in Parameterform
{\displaystyle {\vec {r}}={\vec {r}}_{0}+\lambda {\vec {u}}+\mu {\vec {v}}}
gegeben, wobei \lambda und \mu reelle Parameter sind sowie {\vec {u}} und {\vec {v}} die Spannvektoren der Ebene, welche nicht kollinear sein dürfen.

Aufgrund der Linearität des Skalarprodukts reicht es dabei aus, Orthogonalität bezüglich der beiden Spannvektoren statt bezüglich aller Vektoren der Ebene nachzuweisen.

Handelt es sich bei der Ebene um eine Ursprungsebene, das heißt {\displaystyle {\vec {r}}_{0}={\begin{pmatrix}0\\0\\0\end{pmatrix}}}, dann muss die Orthogonalprojektion P_E(\vec x) des Punkts {\vec {x}} auf die Ebene E die folgenden drei Bedingungen erfüllen:

  1. P_E(\vec x) = \lambda \, \vec u + \mu \, \vec v
  2. (P_E(\vec x) - \vec x) \cdot \vec u = 0
  3. (P_E(\vec x) - \vec x) \cdot \vec v = 0

Setzt man die erste Gleichung in die anderen beiden Gleichungen ein, erhält man mit


\begin{align}
\lambda \, \vec u \cdot \vec u + \mu \, \vec v \cdot \vec u & = \vec x \cdot \vec u \\
\lambda \, \vec u \cdot \vec v + \mu \, \vec v \cdot \vec v & = \vec x \cdot \vec v 
\end{align}

ein lineares Gleichungssystem mit zwei Gleichungen und den beiden Unbekannten \lambda und \mu . Falls die Spannvektoren zueinander orthogonal sind, das heißt \vec u \cdot \vec v = \vec v \cdot \vec u = 0 gilt, dann zerfällt dieses Gleichungssystem in zwei voneinander unabhängige Gleichungen und seine Lösung kann direkt angegeben werden. Die Orthogonalprojektion P_E(\vec x) des Punkts {\vec {x}} auf die Ebene E ist dann gegeben durch:

{\displaystyle P_{E}({\vec {x}})={\frac {{\vec {x}}\cdot {\vec {u}}}{{\vec {u}}\cdot {\vec {u}}}}\,{\vec {u}}+{\frac {{\vec {x}}\cdot {\vec {v}}}{{\vec {v}}\cdot {\vec {v}}}}\,{\vec {v}}}

Sind die Spannvektoren sogar orthonormal, gilt also zusätzlich \vec u \cdot \vec u = \vec v \cdot \vec v = 1, dann hat man die einfachere Darstellung

{\displaystyle P_{E}({\vec {x}})=({\vec {x}}\cdot {\vec {u}})\,{\vec {u}}+({\vec {x}}\cdot {\vec {v}})\,{\vec {v}}}
.

Man erhält die Orthogonalprojektion eines Punkts auf eine Ebene also durch Ermittlung der Orthogonalprojektionen P_g(\vec x) und P_h(\vec x) des Punkts auf die beiden von den Spannvektoren gebildeten Geraden g und h und durch Addition der Resultate (siehe Abbildung).

Beispiel

Die Orthogonalprojektion des Punkts {\displaystyle {\vec {x}}={\begin{pmatrix}3\\9\\6\end{pmatrix}}} auf die Ursprungsebene, die durch die orthogonalen Vektoren {\displaystyle {\vec {u}}={\begin{pmatrix}2\\1\\2\end{pmatrix}}} und {\displaystyle {\vec {v}}={\begin{pmatrix}2\\-2\\-1\end{pmatrix}}} aufgespannt wird, ist

{\displaystyle P_{E}({\vec {x}})={\frac {6+9+12}{4+1+4}}\cdot {\begin{pmatrix}2\\1\\2\end{pmatrix}}+{\frac {6-18-6}{4+4+1}}\cdot {\begin{pmatrix}2\\-2\\-1\end{pmatrix}}={\begin{pmatrix}6\\3\\6\end{pmatrix}}+{\begin{pmatrix}-4\\4\\2\end{pmatrix}}={\begin{pmatrix}2\\7\\8\end{pmatrix}}}.

Eigenschaften

Befindet sich der zu projizierende Punkt {\vec {x}} bereits auf der Ebene, dann gibt es Zahlen \lambda und \mu mit \vec x = \lambda \vec u + \mu \vec v und die Orthogonalprojektion

P_E(\vec x) = \frac{ \lambda ( \vec u \cdot \vec u ) + \mu ( \vec v \cdot \vec u ) }{ \vec u \cdot \vec u } \, \vec u + \frac{ \lambda ( \vec u \cdot \vec v ) + \mu ( \vec v \cdot \vec v ) }{ \vec v \cdot \vec v } \, \vec v = \lambda \vec u + \mu \vec v = \vec x

verändert den Punkt nicht. Andernfalls minimiert der orthogonal projizierte Punkt den Abstand zwischen dem Ausgangspunkt und allen Punkten der Ebene, da für das Quadrat dieses Abstands mit dem Satz des Pythagoras

| ( \lambda \vec u + \mu \vec v ) - \vec x |^2 = | ( \lambda \vec u + \mu \vec v ) - P_E(\vec x) |^2 + | P_E(\vec x) - \vec x |^2 \geq  | P_E(\vec x) - \vec x |^2

für alle Zahlen \lambda,\mu \in \R gilt. Das Minimum wird dabei eindeutig für \lambda = \tfrac{\vec x \cdot \vec u}{\vec u \cdot \vec u} und \mu = \tfrac{\vec x \cdot \vec v}{\vec v \cdot \vec v} an dem orthogonal projizierten Punkt angenommen. Bildet {\vec {x}} sowohl mit {\vec {u}}, als auch mit {\vec {v}} einen rechten Winkel, dann ist der projizierte Punkt der Nullpunkt.

Berechnung

Verläuft eine Ebene nicht durch den Ursprung, so kann sie durch Translation um {\vec {r}}_{0} in den Ursprung verschoben werden. Sind ihre Spannvektoren nicht orthogonal, so können diese mit Hilfe des Gram-Schmidtschen Orthogonalisierungsverfahrens orthogonalisiert werden. Hierzu ermittelt man (beispielsweise) einen zu {\vec {u}} orthogonalen Vektor {\vec {w}} als Verbindungsvektor von {\vec {v}} zur Orthogonalprojektion von {\vec {v}} auf die Gerade in Richtung {\vec {u}}

\vec w = \vec v - \frac{\vec v \cdot \vec{u}}{\vec u \cdot \vec{u}} \, \vec{u}

und erhält somit den Allgemeinfall einer Orthogonalprojektion eines Punkts {\vec {x}} auf eine Ebene E durch

P_E(\vec x) = \vec r_0 + \frac{( \vec x - \vec r_0 ) \cdot \vec u}{\vec u \cdot \vec u} \, \vec u + \frac{( \vec x - \vec r_0 ) \cdot \vec w}{\vec w \cdot \vec w} \, \vec w .

Alternativ dazu kann eine Orthogonalprojektion auch durch Berechnung des Schnitts der Lotgeraden mit der Ebene berechnet werden. Ein Normalenvektor {\vec {n}} der Ebene kann, sofern sie nicht in Normalenform gegeben ist, über das Kreuzprodukt der (nicht notwendigerweise orthogonalen, aber nichtkollinearen) Spannvektoren durch {\vec {n}}={\vec {u}}\times {\vec {v}} berechnet werden. Man erhält dann wie im zweidimensionalen Fall als Orthogonalprojektion

P_E(\vec x) = \vec x - \frac{( \vec x - \vec r_0 ) \cdot \vec n}{\vec n \cdot \vec n} \, \vec n.

Lineare Algebra

In der linearen Algebra wird das Konzept der Orthogonalprojektion auf allgemeine Vektorräume V mit endlicher Dimension n über dem Körper \mathbb {K} der reellen oder komplexen Zahlen, sowie allgemeine Skalarprodukte \langle \cdot ,\cdot \rangle und damit Orthogonalitätsbegriffe verallgemeinert. Zwei Vektoren v,w\in V sind definitionsgemäß genau dann orthogonal, wenn ihr Skalarprodukt \langle v,w\rangle =0 ist.[1]

Algebraische Darstellung

Definition

Eine Orthogonalprojektion auf einen Untervektorraum U eines Vektorraums V ist eine lineare Abbildung P_U \colon V \rightarrow V, die für alle Vektoren v\in V die beiden Eigenschaften

erfüllt. Der Differenzvektor P_U(v)-v liegt damit im orthogonalen Komplement U^\perp von U. Das orthogonale Komplement ist selbst ein Untervektorraum bestehend aus denjenigen Vektoren in V, die orthogonal zu allen Vektoren in U sind.

Darstellung

Ist \{ u_1, \ldots , u_k \} eine Basis des Untervektorraums U mit der Dimension k, dann hat jeder Vektor u\in U eine eindeutige Darstellung als Linearkombination u = c_1 u_1 + \ldots + c_k u_k. Aufgrund der Sesquilinearität des Skalarprodukts reicht es daher aus, Orthogonalität lediglich bezüglich der Basisvektoren statt bezüglich aller Vektoren des Untervektorraums nachzuweisen. Eine Orthogonalprojektion P_U muss demnach die Bedingungen

erfüllen. Setzt man die erste Gleichung in die anderen Gleichungen ein, erhält man mit

\sum_{i=1}^k c_i \, \langle u_i , u_j \rangle = \langle v, u_j \rangle   für   j=1, \ldots , k

ein lineares Gleichungssystem mit k Gleichungen und den k Unbekannten c_1, \ldots , c_k. Die dabei zugrunde liegende Gramsche Matrix ( \, \langle u_i , u_j \rangle \, )_{i,j} ist aufgrund der linearen Unabhängigkeit der Basisvektoren regulär und damit ist dieses Gleichungssystem eindeutig lösbar. Ist nun \{ u_1, \ldots , u_k \} eine Orthogonalbasis von U, das heißt \langle u_i, u_j \rangle = 0 für i\neq j, dann ist die zugehörige Gramsche Matrix eine Diagonalmatrix und das Gleichungssystem hat eine direkt angebbare Lösung. Die Orthogonalprojektion P_U des Vektors v auf den Untervektorraum U ist dann durch

P_U(v) = \sum_{i=1}^k \frac{ \langle v , u_i \rangle }{ \langle u_i, u_i \rangle } u_i

gegeben. Bildet \{ u_1, \ldots , u_k \} sogar eine Orthonormalbasis, das heißt \langle u_i, u_j \rangle = \delta_{ij} mit dem Kronecker-Delta \delta _{ij}, dann hat die Orthogonalprojektion die einfachere Darstellung

P_U(v) = \sum_{i=1}^k \langle v , u_i \rangle u_i.

Beispiele

Wählt man als Vektorraum V den Standardraum \mathbb {R} ^{n} und als Skalarprodukt \langle \cdot ,\cdot \rangle das Standardskalarprodukt, so ist ein Untervektorraum eine lineare Mannigfaltigkeit (etwa eine Gerade, Ebene oder Hyperebene) durch den Nullpunkt und die Orthogonalprojektionen des vorangegangenen Geometrie-Abschnitts entsprechen gerade den Spezialfällen

Der Fall k=0 entspricht in jeder Dimension der Abbildung eines Vektors auf den Nullpunkt und der Fall k=n lässt den Vektor immer unverändert, da eine Orthogonalprojektion dann die identische Abbildung ist.

Eigenschaften

Eine Orthogonalprojektion ist eine Projektion, das heißt eine idempotente lineare Abbildung des Vektorraumes V in sich selbst (genannt Endomorphismus). Ist der zu projizierende Vektor v nämlich bereits Element des Untervektorraums, dann gibt es Skalare c_1, \ldots , c_k, sodass v = c_1 u_1 + \ldots + c_k u_k ist, und die Orthogonalprojektion

P_U(v) = \sum_{i=1}^k \left\langle \sum_{j=1}^k c_j u_j , u_i \right\rangle \, u_i = \sum_{i=1}^k \sum_{j=1}^k c_j \langle u_j , u_i \rangle \, u_i = c_1 u_1 + \ldots + c_k u_k = v

verändert den Vektor nicht, woraus die Idempotenz folgt. Die Linearität der Abbildung folgt direkt aus der Sesquilinearität des Skalarprodukts. Zudem gilt die Selbstadjungiertheit

\langle P_U(v), w \rangle = \left\langle \sum_{i=1}^k \langle v , u_i \rangle u_i , w \right\rangle = \sum_{i=1}^k \langle v , u_i \rangle \langle u_i , w \rangle = \left\langle v, \sum_{i=1}^k \langle w , u_i \rangle u_i \right\rangle = \langle v, P_U(w) \rangle

für alle Vektoren v,w\in V. Der orthogonal projizierte Vektor minimiert den Abstand zwischen dem Ausgangsvektor und allen Vektoren des Untervektorraums bezüglich der von dem Skalarprodukt abgeleiteten Norm \|\cdot \|, denn es gilt mit dem Satz des Pythagoras für Skalarprodukträume

\| u - v \|^2 = \| u - P_U(v) \|^2 + \| P_U(v) - v \|^2 \geq \| P_U(v) - v \|^2.

für alle u\in U. Das Minimum wird dabei eindeutig an dem orthogonal projizierten Vektor angenommen. Liegt der Vektor v im orthogonalen Komplement des Untervektorraums, dann ist der projizierte Vektor der Nullvektor.

Allgemeinfall

Ist die Basis \{ u_1, \ldots , u_k \} des Unterraums nicht orthogonal, so kann sie mit dem Gram-Schmidtschen Orthogonalisierungsverfahren orthogonalisiert und so eine Orthogonalbasis \{ w_1, \ldots , w_k \} von U erhalten werden. Weiterhin kann ein Vektor auch auf einen affinen Unterraum U_0 = r_0 + U mit r_0 \in V orthogonal projiziert werden. Man erhält dann den Allgemeinfall einer Orthogonalprojektion eines Vektors v auf einen affinen Unterraum U_{0} durch

P_{U_0}(v) = r_0 + \sum_{i=1}^k \frac{\langle v - r_0, w_i \rangle}{\langle w_i, w_i \rangle} w_i.

Komplementäre Darstellung

Ist nun \{ w_{k+1}, \ldots , w_n \} eine orthogonale Komplementärbasis von U, also eine Orthogonalbasis des Komplements U^\perp, dann erhält man aufgrund von

v = \sum_{i=1}^k \frac{ \langle v, w_i \rangle }{ \langle w_i, w_i \rangle } w_i + \sum_{i=k+1}^n \frac{ \langle v, w_i \rangle }{ \langle w_i, w_i \rangle } w_i = P_U(v) + P_{U^\perp}(v)

die komplementäre Darstellung einer Orthogonalprojektion P_{U_0} auf einen affinen Unterraum U_0 = r_0 + U als

P_{U_0}(v) = v - \sum_{i=k+1}^n \frac{ \langle v - r_0, w_i \rangle }{ \langle w_i, w_i \rangle } w_i.

Matrixdarstellung

Koordinaten

Wählt man für den Vektorraum V eine Orthonormalbasis \{ e_1, \ldots , e_n \} bezüglich des Skalarprodukts \langle \cdot ,\cdot \rangle , dann kann jeder Vektor v\in V als Koordinatenvektor x = (x_1, \ldots , x_n)^T \in {\mathbb K}^n über

v = \sum_{i=1}^n x_i e_i   mit   x_i = \langle v, e_i \rangle

dargestellt werden. Die Koordinaten x_{1},\ldots ,x_{n} sind dabei genau die Längen der Orthogonalprojektionen des Vektors auf die Basisvektoren. Das Skalarprodukt \langle v, w \rangle zweier Vektoren v, w \in V ist in Koordinatendarstellung dann das Standardskalarprodukt y^H x der zugehörigen Koordinatenvektoren x,y \in {\mathbb K}^n, wobei y^H der adjungierte Vektor (im reellen Fall der transponierte Vektor) zu y ist.

Darstellung

Sind nun y_1, \ldots , y_k \in {\mathbb K}^n die Koordinatenvektoren einer Orthogonalbasis \{ u_1, \ldots , u_k \} eines Untervektorraums U und x der Koordinatenvektor eines zu projizierenden Vektors v, dann ist die Koordinatendarstellung einer Orthogonalprojektion

P_U(v) = \sum_{i=1}^k \frac{ y_i^H x }{ y_i^H y_i } y_i = \sum_{i=1}^k \frac{ y_i y_i^H }{ y_i^H y_i } x.

Eine Orthogonalprojektion ist in Koordinatendarstellung damit einfach ein Matrix-Vektor-Produkt Q_U x mit der Abbildungsmatrix Q_U \in {\mathbb K}^{n \times n} gegeben durch

Q_U = \sum_{i=1}^k \frac{ y_i y_i^H }{ y_i^H y_i }.

Sind y_1, \ldots , y_k die Koordinatenvektoren einer Orthonormalbasis von U, so hat die Orthogonalprojektionsmatrix Q_U die einfachere Darstellung

Q_U = \sum_{i=1}^k y_i y_i^H.

Jeder Summand ist dabei das dyadische Produkt eines Koordinatenvektors mit sich selbst.

Beispiele

Im Koordinatenraum \mathbb {R} ^{3} ist die Orthogonalprojektionsmatrix auf die Ursprungsgerade mit Richtung y_1 = (2,1,2)^T gegeben durch

Q_U = \frac{1}{9} \begin{pmatrix} 2 \\ 1 \\ 2 \end{pmatrix} \begin{pmatrix} 2 & 1 & 2 \end{pmatrix} = \frac{1}{9} \begin{pmatrix} 4 & 2 & 4 \\ 2 & 1 & 2 \\ 4 & 2 & 4 \end{pmatrix}.

Die Orthogonalprojektionsmatrix auf die Ursprungsebene, die durch y_1 = (2,1,2)^T und y_2 = (2,-2,-1)^T aufgespannt wird, ist entsprechend

Q_U = \frac{1}{9} \begin{pmatrix} 4 & 2 & 4 \\ 2 & 1 & 2 \\ 4 & 2 & 4 \end{pmatrix} + \frac{1}{9} \begin{pmatrix} 4 & -4 & -2 \\ -4 & 4 & 2 \\ -2 & 2 & 1 \end{pmatrix} = \frac{1}{9} \begin{pmatrix} 8 & -2 & 2 \\ -2 & 5 & 4 \\ 2 & 4 & 5 \end{pmatrix}.

Eigenschaften

Eine Orthogonalprojektionsmatrix ist idempotent, das heißt, es gilt

(Q_U)^2 = \left( \sum_{i=1}^k y_i y_i^H \right) \left( \sum_{j=1}^k y_j y_j^H \right) = \sum_{i=1}^k \sum_{j=1}^k ( y_i y_i^H ) ( y_j y_j^H ) = \sum_{i=1}^k \sum_{j=1}^k y_i ( y_i^H y_j ) y_j^H =  \sum_{i=1}^k y_i y_i^H = Q_U.

Weiterhin ist sie selbstadjungiert (im reellen Fall symmetrisch), da

(Q_U)^H = \left( \sum_{i=1}^k y_i y_i^H \right)^H = \sum_{i=1}^k ( y_i y_i^H )^H = \sum_{i=1}^k y_i y_i^H = Q_U

ist. Für den Rang und die Spur einer Orthogonalprojektionsmatrix gilt

\operatorname{rang} Q_U = \operatorname{spur} Q_U = k,

da für idempotente Matrizen Rang und Spur übereinstimmen und die Einzelmatrizen y_iy_i^H jeweils Rang eins besitzen. Die Eigenwerte einer Orthogonalprojektionsmatrix sind \lambda_1 = \ldots = \lambda_k = 1 und \lambda_{k+1} = \ldots = \lambda_n = 0, wobei die zugehörigen Eigenräume gerade der Untervektorraum U und sein orthogonales Komplement U^\perp sind. Die Spektralnorm einer Orthogonalprojektionsmatrix ist damit, sofern U nicht der Nullvektorraum \{0\} ist, gleich eins.

Allgemeinfall

Bilden die Koordinatenvektoren y_1, \ldots , y_k zwar eine Basis, aber keine Orthogonalbasis des Untervektorraums, so kann man sie zur Berechnung einer Orthogonalprojektion orthogonalisieren oder ein entsprechendes lineares Gleichungssystem lösen. Fasst man die Basisvektoren spaltenweise zu einer Matrix A = ( y_1, \ldots , y_k ) \in \mathbb{K}^{n \times k} zusammen, dann hat dieses Gleichungssystem die Gestalt der Normalgleichungen

A^H A c = A^H x

mit dem Koeffizientenvektor c = (c_1, \ldots , c_k)^T. Die Matrixdarstellung einer Orthogonalprojektion ist dann aufgrund von Q_U x = A c gegeben durch

Q_U = A ( A^H A )^{-1} A^H.

Diese Matrix findet breite Anwendung in der Statistik (siehe Projektionsmatrix (Statistik)). Eine Orthogonalprojektion auf einen affinen Unterraum U_0 = r_0 + U ist in Matrixdarstellung dann die affine Abbildung

P_{U_0}(v) = Q_U x + ( I - Q_U ) s

mit der Einheitsmatrix I und mit s = (s_1, \ldots , s_n)^T als dem Koordinatenvektor von r_{0}. Unter Verwendung homogener Koordinaten lässt sich jede Orthogonalprojektion auch als ein einfaches Matrix-Vektorprodukt darstellen.

Komplementäre Darstellung

Eine Orthogonalprojektion auf einen affinen Unterraum U_{0} hat die komplementäre Matrixdarstellung

P_{U_0}(v) = (I - Q_{U^\perp}) x + Q_{U^\perp} s

mit der Orthogonalprojektionsmatrix auf den Komplementärraum Q_{U^\perp} \in {\mathbb K}^{n \times n} gegeben durch

Q_{U^\perp} = I - Q_U.

Bilden die Koordinatenvektoren y_{k+1}, \ldots , y_n eine Orthogonalbasis des Komplementärraums U^\perp, so hat die komplementäre Orthogonalprojektionsmatrix die Darstellung

Q_{U^\perp} = \sum_{i=k+1}^n \frac{ y_i y_i^H }{ y_i^H y_i }.

Funktionalanalysis

In der Funktionalanalysis wird das Konzept der Orthogonalprojektion auf unendlichdimensionale Skalarprodukträume über den reellen oder komplexen Zahlen verallgemeinert und insbesondere auf Funktionenräume angewandt.

Definition

Ist (V, \langle \cdot, \cdot \rangle) ein Skalarproduktraum und ist U ein Untervektorraum von V mit orthogonalem Komplement U^\perp, dann ist eine Orthogonalprojektion ein Operator P_U \colon V \rightarrow V (auch orthogonaler Projektor genannt), mit den beiden Eigenschaften

wobei \operatorname{im} das Bild und \operatorname{ker} der Kern des Operators ist. Der komplementäre Operator I-P_U besitzt dann als Bild U^\perp und als Kern U.

Existenz und Eindeutigkeit

Orthogonale Zerlegung eines Vektors v in einen Teil u in einer Ebene  U und einen Teil {\displaystyle u^{\perp }} im orthogonalen Komplement U^\perp der Ebene

Damit solche Orthogonalprojektionen auch existieren und eindeutig sind, müssen die betrachteten Räume jedoch eingeschränkt werden. Ist V ein Hilbertraum, also ein vollständiger Skalarproduktraum, und ist U ein abgeschlossener Untervektorraum von V, dann stellt der Projektionssatz die Existenz und Eindeutigkeit von Orthogonalprojektionen sicher. Zu jedem Vektor v\in V gibt es dann eindeutige Vektoren u\in U und u^\perp \in U^\perp, sodass dieser Vektor die Darstellung

v = u + u^\perp

besitzt. Damit bilden U und U^\perp eine orthogonale Zerlegung von V, das heißt, der gesamte Raum V lässt sich als orthogonale Summe U \oplus U^\perp darstellen. Ein endlichdimensionaler Untervektorraum ist immer abgeschlossen und auf die Vollständigkeit von V kann dann auch verzichtet werden.

Darstellung

Jeder Hilbertraum besitzt eine Orthonormalbasis, die sich allerdings nicht immer explizit angeben lässt. Ist allerdings V ein separabler Hilbertraum, dann ist eine solche Orthonormalbasis \{ e_1, e_2, \ldots \} als Schauderbasis abzählbar, sodass jeder Vektor v\in V in eine Reihe

v = \sum_{i=1}^\infty \langle v, e_i \rangle e_i

entwickelt werden kann. Eine solche Orthonormalbasis kann stets aus einer linear unabhängigen Teilmenge von V mit Hilfe des Gram-Schmidtschen Orthogonalisierungsverfahrens erhalten werden. Ist nun \{ u_1, u_2, \ldots \} eine (ebenfalls abzählbare) Orthonormalbasis eines abgeschlossenen Untervektorraums U, dann hat eine Orthogonalprojektion die Reihendarstellung

P_U = \sum_{i=1}^\infty \langle \cdot , u_i \rangle u_i.

Diese Darstellung lässt sich auch auf nicht-separable, also überabzählbar-dimensionale Hilberträume verallgemeinern. Ist U ein abgeschlossener Untervektorraum eines allgemeinen Hilbertraums und \{u_i\}_{i \in I} mit einer beliebigen Indexmenge I eine Orthonormalbasis dieses Untervektorraums, dann hat eine Orthogonalprojektion die entsprechende Darstellung

P_U = \sum_{i\in I} \langle \cdot , u_i \rangle u_i,

wobei nur abzählbar viele Summenglieder dieser Summe ungleich null sind. Diese Reihen sind nach der Besselschen Ungleichung unbedingt konvergent und nach der Parsevalschen Gleichung wird dabei tatsächlich jedes Element von U auf sich selbst abgebildet.

Beispiel

L2-Bestapproximationen der Exponentialfunktion im Intervall {\displaystyle [-1,1]} durch konstante, lineare und quadratische Polynome

Gegeben sei der Raum L2 der quadratisch integrierbaren reellen Funktionen im Intervall [-1,1] mit dem L2-Skalarprodukt

\langle f, g \rangle = \int_{-1}^1 f(x) g(x)~dx

Für diesen Raum bilden die Legendre-Polynome ein vollständiges Orthogonalsystem. Gesucht ist nun die Orthogonalprojektion der Exponentialfunktion f(x) = e^x auf den Untervektorraum der linearen Funktionen. Für diesen Unterraum bilden die beiden Monome \{ 1, x \} eine Orthogonalbasis, was nach Normierung die Orthonormalbasis

\{ u_1(x) = \tfrac{1}{\sqrt{2}}, u_2(x) = \tfrac{\sqrt{3}}{\sqrt{2}} \, x\}

ergibt. Die Orthogonalprojektion von f auf den Untervektorraum der linearen Funktionen ist dann gegeben durch

P_U f = \langle f, u_1 \rangle u_1 + \langle f, u_2 \rangle u_2 = \tfrac{1}{\sqrt{2}}(e-\tfrac{1}{e}) \cdot \tfrac{1}{\sqrt{2}} + \tfrac{\sqrt{6}}{e} \cdot \tfrac{\sqrt{3}}{\sqrt{2}} x = \tfrac{1}{2}(e-\tfrac{1}{e}) + \tfrac{3}{e} x.

Eigenschaften

Ist V ein Hilbertraum und U ein abgeschlossener Unterraum von V, dann ist P_U ein stetiger linearer Operator mit den folgenden Eigenschaften:

Umgekehrt ist eine stetige lineare Projektion P \neq 0, die selbstadjungiert oder normal oder positiv oder auf eins normiert ist, eine Orthogonalprojektion auf den Bildraum P(V).

Anwendungen

Orthogonalprojektionen besitzen vielfältige Anwendungen, von denen hier nur einige herausgestellt werden:

Geometrie
Lineare Algebra
Funktionalanalysis
Statistik und Wahrscheinlichkeitstheorie

Siehe auch

Literatur

Anmerkungen

  1. Im Folgenden wird diejenige Variante des komplexen Skalarprodukts verwendet, die linear im ersten und semilinear im zweiten Argument ist.
  2. Eine dazu äquivalente Bedingung ist {\displaystyle \langle P_{U}(v),u\rangle =\langle v,u\rangle } für alle u\in U.
Trenner
Basierend auf einem Artikel in: Extern Wikipedia.de
Seitenende
Seite zurück
© biancahoegel.de
Datum der letzten Änderung: Jena, den: 14.01. 2024