Orthogonalprojektion - LinkFang.de





Orthogonalprojektion


Eine Orthogonalprojektion (von gr. ὀρθός orthós gerade, γωνία gōnía Winkel und lat. prōicere, PPP prōiectum vorwärtswerfen), orthogonale Projektion oder senkrechte Projektion ist eine Abbildung, die in vielen Bereichen der Mathematik eingesetzt wird. In der Geometrie ist eine Orthogonalprojektion die Abbildung eines Punkts auf eine Gerade oder eine Ebene, sodass die Verbindungslinie zwischen dem Punkt und seinem Abbild mit dieser Gerade oder Ebene einen rechten Winkel bildet. Das Abbild hat dann von allen Punkten der Gerade oder Ebene den kürzesten Abstand zum Ausgangspunkt. Eine Orthogonalprojektion ist damit ein Spezialfall einer Parallelprojektion, bei der die Projektionsrichtung gleich der Normalenrichtung der Gerade oder Ebene ist.

In der linearen Algebra wird dieses Konzept auf höherdimensionale Vektorräume über den reellen oder komplexen Zahlen und allgemeinere Winkel- und Abstandsbegriffe erweitert. Eine Orthogonalprojektion ist dann die Projektion eines Vektors auf einen Untervektorraum, sodass der Differenzvektor aus Abbild und Ausgangsvektor in dessen orthogonalem Komplement liegt. In der Funktionalanalysis wird der Begriff noch weiter in unendlichdimensionalen Skalarprodukträumen gefasst und insbesondere auf Funktionen angewandt. Die Existenz und Eindeutigkeit solcher Orthogonalprojektionen stellt dann der Projektionssatz sicher.

Orthogonalprojektionen besitzen vielfältige Einsatzbereiche innerhalb der Mathematik, beispielsweise in der darstellenden Geometrie, dem Gram-Schmidtschen Orthogonalisierungsverfahren, der Methode der kleinsten Quadrate, dem Verfahren der konjugierten Gradienten, der Fourier-Analysis oder der Bestapproximation. Sie besitzen Anwendungen unter anderem in der Kartografie, der Architektur, der Computergrafik und der Physik.

Darstellende Geometrie

In der darstellenden Geometrie und im technischen Zeichnen dienen Projektionen dazu, zweidimensionale Abbildungen von dreidimensionalen geometrischen Körpern herzustellen. Neben der Zentralprojektion kommen hierbei häufig Parallelprojektionen zum Einsatz. Eine Parallelprojektion ist eine Abbildung, die Punkte des dreidimensionalen Raums auf Punkte einer gegebenen Bildebene abbildet, wobei die Projektionsstrahlen zueinander parallel sind. Treffen die Projektionsstrahlen im rechten Winkel auf die Projektionsebene, so spricht man von einer Orthogonalprojektion.

Werden statt einer Bildebene drei Projektionsebenen verwendet, die aufeinander senkrecht stehen, dann handelt es sich um eine Dreitafelprojektion oder Normalprojektion. Meist liegen dabei die Projektionsebenen parallel zu den Achsen des verwendeten (kartesischen) Koordinatensystems. Besitzt ein Punkt im Raum dann die Koordinaten [math](x,y,z)[/math], so erhält man die Orthogonalprojektionen des Punkts auf die drei Koordinatenebenen durch

[math](x,y,z) \rightarrow (x,y,0)[/math]   (Projektion auf die xy-Ebene)
[math](x,y,z) \rightarrow (x,0,z)[/math]   (Projektion auf die xz-Ebene)
[math](x,y,z) \rightarrow (0,y,z)[/math]   (Projektion auf die yz-Ebene)

Verläuft eine Projektionsebene zwar parallel zu zwei der Koordinatenachsen, aber nicht durch den Nullpunkt des Koordinatensystems, so erhält man den projizierten Punkt durch Ersetzen des Werts [math]0[/math] durch den Schnittpunkt der Ebene mit der dritten Koordinatenachse. Bei einer orthogonalen Axonometrie, beispielsweise einer Isometrie oder einer Dimetrie, wird das abzubildende Objekt vor der Projektion auf spezifische Weise gedreht.

Analytische Geometrie

Die analytische Geometrie beschäftigt sich mit der Berechnung und den mathematischen Eigenschaften von Orthogonalprojektionen im zwei- und dreidimensionalen Raum, insbesondere für den Fall, dass die Projektionsebene nicht parallel zu den Koordinatenachsen liegt.

Projektion auf eine Gerade

Definition

In der euklidischen Ebene ist eine Orthogonalprojektion die Abbildung eines Punkts [math]P[/math] auf eine Gerade [math]g[/math], derart dass die Verbindungslinie zwischen dem Punkt und seinem Abbild [math]P'[/math] einen rechten Winkel mit der Gerade bildet. Eine Orthogonalprojektion muss demnach die beiden Bedingungen

  • [math]P' \in g[/math]   (Projektion)
  • [math]\overline{PP'} \perp g[/math]   (Orthogonalität)

erfüllen. Die Linie [math]\overline{PP'}[/math] heißt Lot des Punkts auf die Gerade und der projizierte Punkt [math]P'[/math] wird Lotfußpunkt genannt. Die zeichnerische Konstruktion des Lots mit Zirkel und Lineal ist eine Standardaufgabe der euklidischen Geometrie und man spricht dabei vom Fällen des Lots.

Herleitung

In der analytischen Geometrie werden Punkte im kartesischen Koordinatensystem durch Ortsvektoren [math]\vec x = (x_1,x_2)[/math] beschrieben und Geraden typischerweise als Geradengleichung in Parameterform [math]\vec r = \vec r_0 + \lambda \, \vec u[/math], wobei [math]\vec r_0[/math] der Ortsvektor eines Geradenpunkts, [math]\vec u[/math] der Richtungsvektor der Geraden und [math]\lambda[/math] ein reeller Parameter ist. Zwei Vektoren [math]\vec x[/math] und [math]\vec y[/math] bilden dabei einen rechten Winkel, wenn ihr Skalarprodukt [math]\vec x \cdot \vec y = 0[/math] ist. Verläuft die Gerade als Ursprungsgerade durch den Nullpunkt, dann gilt [math]\vec r_0 = (0,0)[/math] und die Orthogonalprojektion [math]P_g(\vec x)[/math] des Punkts [math]\vec x[/math] auf die Gerade [math]g[/math] muss die beiden Bedingungen

  • [math]P_g(\vec x) = \lambda \, \vec u[/math]
  • [math](P_g(\vec x) - \vec x) \cdot \vec u = 0[/math]

für ein [math]\lambda \in \R[/math] erfüllen. Wird die erste Gleichung in die zweite eingesetzt, so erhält man

[math]( \lambda \, \vec u - \vec x) \cdot \vec u = 0[/math],

was nach [math]\lambda[/math] aufgelöst

[math]\lambda = \frac{\vec x \cdot \vec u}{\vec u \cdot \vec u}[/math]

ergibt. Eine Orthogonalprojektion hat somit die Darstellung

[math]P_g(\vec x) = \frac{ \vec x \cdot \vec u }{ \vec u \cdot \vec u } \, \vec u[/math].

Ist zudem der Richtungsvektor der Gerade ein Einheitsvektor, gilt also [math]\vec u \cdot \vec u = 1[/math], dann erhält man die einfachere Darstellung

[math]P_g(\vec x) = ( \vec x \cdot \vec u ) \, \vec u[/math].

Der Faktor [math]\vec x \cdot \vec u[/math] gibt dann an, wie weit der projizierte Punkt auf der Gerade vom Nullpunkt entfernt ist. Auf analoge Weise kann auch ein Punkt [math]\vec x = (x_1,x_2,x_3)[/math] im euklidischen Raum auf eine Gerade im Raum orthogonal projiziert werden, es wird lediglich mit drei- statt zweikomponentigen Vektoren gerechnet.

Beispiele

Die Orthogonalprojektion des Punkts [math]\vec x = (4,3)[/math] auf die Ursprungsgerade mit Richtung [math]\vec u = (1,2)[/math] in der euklidischen Ebene ist

[math]P_g(\vec x) = \frac{ 4 \cdot 1 + 3 \cdot 2 }{ 1 \cdot 1 + 2 \cdot 2 } \, ( 1,2 ) = \frac{10}{5} \, ( 1,2 ) = (2,4)[/math].

Die Orthogonalprojektion des Punkts [math]\vec x = (3,9,6)[/math] auf die Ursprungsgerade mit Richtung [math]\vec u = (2,1,2)[/math] im euklidischen Raum ist

[math]P_g(\vec x) = \frac{ 3 \cdot 2 + 9 \cdot 1 + 6 \cdot 2 }{ 2 \cdot 2 + 1 \cdot 1 + 2 \cdot 2 } ( 2,1,2 ) = \frac{ 27 }{ 9 } ( 2,1,2 ) = (6,3,6)[/math].

Eigenschaften

Befindet sich der zu projizierende Punkt [math]\vec x[/math] bereits auf der Gerade, dann gibt es eine Zahl [math]\lambda[/math] mit [math]\vec x = \lambda \vec u[/math] und die Orthogonalprojektion

[math]P_g(\vec x) = \frac{ \lambda \vec u \cdot \vec u }{ \vec u \cdot \vec u } \, \vec u = \frac{ \lambda ( \vec u \cdot \vec u ) }{ \vec u \cdot \vec u } \, \vec u = \lambda \vec u = \vec x[/math]

verändert den Punkt nicht. Andernfalls minimiert die Orthogonalprojektion den Abstand zwischen dem Ausgangspunkt und allen Geradenpunkten, da für das Quadrat dieses Abstands nach dem Satz des Pythagoras

[math]| \lambda \vec u - \vec x |^2 = | \lambda \vec u - P_g(\vec x) |^2 + | P_g(\vec x) - \vec x |^2 \geq | P_g(\vec x) - \vec x |^2[/math]

für alle Zahlen [math]\lambda \in \R[/math] gilt. Das Minimum wird dabei eindeutig an dem orthogonal projizierten Punkt angenommen, da der erste Term der Summe genau für [math]\lambda = \tfrac{\vec x \cdot \vec u}{\vec u \cdot \vec u}[/math] null wird. Bilden die Vektoren [math]\vec x[/math] und [math]\vec u[/math] einen rechten Winkel, so ist der projizierte Punkt der Nullpunkt.

Berechnung

Die Orthogonalprojektion eines Punkts [math]\vec x[/math] auf eine Gerade [math]g[/math], die keine Ursprungsgerade ist, ist durch

[math]P_g(\vec x) = \vec r_0 + \frac{( \vec x - \vec r_0 ) \cdot \vec u}{\vec u \cdot \vec u} \, \vec u[/math].

gegeben, was durch Einsetzen der allgemeinen Geradengleichung in die Orthogonalitätsbedingung und durch Auflösen nach dem freien Parameter [math]\lambda[/math] ermittelt werden kann. Aus dem Allgemeinfall erhält man die obigen Spezialfälle, indem der Stützvektor der Gerade in den Nullpunkt verschoben wird und ihr Richtungsvektor normiert wird, also durch seinen Betrag geteilt wird. In dem Beispiel der obigen Abbildung ist [math]\vec x = (5,2)[/math], [math]\vec r_0 = (1,2)[/math] sowie [math]\vec u = (1,1)[/math] und damit [math]P_g(\vec x) = (3,4)[/math]. Alternativ kann eine Orthogonalprojektion im zweidimensionalen Fall auch durch Ermittlung des Schnittpunkts der Ausgangsgeraden mit der Lotgeraden berechnet werden. Ist [math]\vec n[/math] ein Normalenvektor der Ausgangsgeraden, so folgt aus den beiden Bedingungen

  • [math]P_g(\vec x) = \vec x - \mu \, \vec n[/math]
  • [math](P_g(\vec x) - \vec r_0) \cdot \vec n = 0[/math]

durch Einsetzen der ersten Gleichung in die zweite Gleichung und Auflösen nach dem freien Parameter [math]\mu[/math] für die Orthogonalprojektion

[math]P_g(\vec x) = \vec x - \frac{( \vec x - \vec r_0 ) \cdot \vec n}{\vec n \cdot \vec n} \, \vec n[/math].

Einen Normalenvektor kann man durch Vertauschen der beiden Komponenten des Richtungsvektors der Geraden und durch Umkehrung des Vorzeichens einer der beiden Komponenten ermitteln. In dem obigen Beispiel ist ein solches [math]\vec n = (1,-1)[/math]. Da eine Gerade im dreidimensionalen Raum keine ausgezeichnete Normalenrichtung besitzt, ist dieser einfache Ansatz aber nur in zwei Dimensionen möglich.

Projektion auf eine Ebene

Definition

Im dreidimensionalen Raum kann ein Punkt [math]P[/math] auch auf eine Ebene [math]E[/math] orthogonal projiziert werden. Eine Orthogonalprojektion muss dann die beiden Bedingungen

  • [math]P' \in E[/math]   (Projektion)
  • [math]\overline{PP'} \perp E[/math]   (Orthogonalität)

erfüllen. Auch hier spricht man von Lot und Lotfußpunkt. Die Orthogonalität impliziert dabei, dass das Lot senkrecht auf allen Geraden der Ebene durch den Lotfußpunkt [math]P'[/math] steht.

Herleitung

Ein Punkt im euklidischen Raum werde wieder durch einen Ortsvektor [math]\vec x = (x_1,x_2,x_3)[/math] beschrieben und die Ebene sei in Parameterform [math]\vec r = \vec r_0 + \lambda \vec u + \mu \vec v[/math] gegeben, wobei [math]\lambda[/math] und [math]\mu[/math] reelle Parameter sind, sowie [math]\vec u[/math] und [math]\vec v[/math] die Spannvektoren der Ebene, die nicht kollinear sein dürfen. Aufgrund der Linearität des Skalarprodukts reicht es dabei aus, Orthogonalität bezüglich der beiden Spannvektoren statt bezüglich aller Vektoren der Ebene nachzuweisen. Handelt es sich bei der Ebene um eine Ursprungsebene, das heißt [math]\vec r_0 = (0,0,0)[/math], dann muss die Orthogonalprojektion [math]P_E(\vec x)[/math] des Punkts [math]\vec x[/math] auf die Ebene [math]E[/math] die drei Bedingungen

  • [math]P_E(\vec x) = \lambda \, \vec u + \mu \, \vec v[/math]
  • [math](P_E(\vec x) - \vec x) \cdot \vec u = 0[/math]
  • [math](P_E(\vec x) - \vec x) \cdot \vec v = 0[/math]

erfüllen. Setzt man die erste Gleichung in die anderen beiden Gleichungen ein, erhält man mit

[math] \begin{align} \lambda \, \vec u \cdot \vec u + \mu \, \vec v \cdot \vec u & = \vec x \cdot \vec u \\ \lambda \, \vec u \cdot \vec v + \mu \, \vec v \cdot \vec v & = \vec x \cdot \vec v \end{align} [/math]

ein lineares Gleichungssystem mit zwei Gleichungen und den beiden Unbekannten [math]\lambda[/math] und [math]\mu[/math]. Falls die Spannvektoren zueinander orthogonal sind, das heißt [math]\vec u \cdot \vec v = \vec v \cdot \vec u = 0[/math] gilt, dann zerfällt dieses Gleichungssystem in zwei voneinander unabhängige Gleichungen und seine Lösung kann direkt angegeben werden. Die Orthogonalprojektion [math]P_E(\vec x)[/math] des Punkts [math]\vec x[/math] auf die Ebene [math]E[/math] ist dann durch

[math]P_E(\vec x) = \frac{ \vec x \cdot \vec u }{ \vec u \cdot \vec u } \, \vec u + \frac{ \vec x \cdot \vec v }{ \vec v \cdot \vec v } \, \vec v[/math]

gegeben. Sind die Spannvektoren sogar orthonormal, gilt also zusätzlich [math]\vec u \cdot \vec u = \vec v \cdot \vec v = 1[/math], dann hat man die einfachere Darstellung

[math]P_E(\vec x) = ( \vec x \cdot \vec u ) \, \vec u + ( \vec x \cdot \vec v ) \, \vec v[/math].

Man erhält die Orthogonalprojektion eines Punkts auf eine Ebene also durch Ermittlung der Orthogonalprojektionen [math]P_g(\vec x)[/math] und [math]P_h(\vec x)[/math] des Punkts auf die beiden von den Spannvektoren gebildeten Geraden [math]g[/math] und [math]h[/math] und durch Addition der Resultate (siehe Abbildung).

Beispiel

Die Orthogonalprojektion des Punkts [math]\vec x=(3,9,6)[/math] auf die Ursprungsebene, die durch die orthogonalen Vektoren [math]\vec u = ( 2,1,2 )[/math] und [math]\vec v = ( 2,-2,-1 )[/math] aufgespannt wird, ist

[math]P_E(\vec x) = \frac{ 6+9+12 }{ 4+1+4 } ( 2,1,2 ) + \frac{ 6-18-6 }{ 4+4+1 } ( 2,-2,-1) = (6,3,6) + ({-}4,4,2) = (2,7,8)[/math].

Eigenschaften

Befindet sich der zu projizierende Punkt [math]\vec x[/math] bereits auf der Ebene, dann gibt es Zahlen [math]\lambda[/math] und [math]\mu[/math] mit [math]\vec x = \lambda \vec u + \mu \vec v[/math] und die Orthogonalprojektion

[math]P_E(\vec x) = \frac{ \lambda ( \vec u \cdot \vec u ) + \mu ( \vec v \cdot \vec u ) }{ \vec u \cdot \vec u } \, \vec u + \frac{ \lambda ( \vec u \cdot \vec v ) + \mu ( \vec v \cdot \vec v ) }{ \vec v \cdot \vec v } \, \vec v = \lambda \vec u + \mu \vec v = \vec x[/math]

verändert den Punkt nicht. Andernfalls minimiert der orthogonal projizierte Punkt den Abstand zwischen dem Ausgangspunkt und allen Punkten der Ebene, da für das Quadrat dieses Abstands mit dem Satz des Pythagoras

[math]| ( \lambda \vec u + \mu \vec v ) - \vec x |^2 = | ( \lambda \vec u + \mu \vec v ) - P_E(\vec x) |^2 + | P_E(\vec x) - \vec x |^2 \geq | P_E(\vec x) - \vec x |^2[/math]

für alle Zahlen [math]\lambda,\mu \in \R[/math] gilt. Das Minimum wird dabei eindeutig für [math]\lambda = \tfrac{\vec x \cdot \vec u}{\vec u \cdot \vec u}[/math] und [math]\mu = \tfrac{\vec x \cdot \vec v}{\vec v \cdot \vec v}[/math] an dem orthogonal projizierten Punkt angenommen. Bildet [math]\vec x[/math] sowohl mit [math]\vec u[/math], als auch mit [math]\vec v[/math] einen rechten Winkel, dann ist der projizierte Punkt der Nullpunkt.

Berechnung

Verläuft eine Ebene nicht durch den Ursprung, so kann sie durch Translation um [math]\vec r_0[/math] in den Ursprung verschoben werden. Sind ihre Spannvektoren nicht orthogonal, so können diese mit Hilfe des Gram-Schmidtschen Orthogonalisierungsverfahrens orthogonalisiert werden. Hierzu ermittelt man (beispielsweise) einen zu [math]\vec u[/math] orthogonalen Vektor [math]\vec w[/math] als Verbindungsvektor von [math]\vec v[/math] zur Orthogonalprojektion von [math]\vec v[/math] auf die Gerade in Richtung [math]\vec u[/math]

[math]\vec w = \vec v - \frac{\vec v \cdot \vec{u}}{\vec u \cdot \vec{u}} \, \vec{u}[/math]

und erhält somit den Allgemeinfall einer Orthogonalprojektion eines Punkts [math]\vec x[/math] auf eine Ebene [math]E[/math] durch

[math]P_E(\vec x) = \vec r_0 + \frac{( \vec x - \vec r_0 ) \cdot \vec u}{\vec u \cdot \vec u} \, \vec u + \frac{( \vec x - \vec r_0 ) \cdot \vec w}{\vec w \cdot \vec w} \, \vec w [/math].

Alternativ dazu kann eine Orthogonalprojektion auch durch Berechnung des Schnitts der Lotgeraden mit der Ebene berechnet werden. Ein Normalenvektor [math]\vec n[/math] der Ebene kann, sofern sie nicht in Normalenform gegeben ist, über das Kreuzprodukt der (nicht notwendigerweise orthogonalen) Spannvektoren durch [math]\vec n = \vec u \times \vec v[/math] berechnet werden. Man erhält dann wie im zweidimensionalen Fall als Orthogonalprojektion

[math]P_E(\vec x) = \vec x - \frac{( \vec x - \vec r_0 ) \cdot \vec n}{\vec n \cdot \vec n} \, \vec n[/math].

Lineare Algebra

In der linearen Algebra wird das Konzept der Orthogonalprojektion auf allgemeine Vektorräume [math]V[/math] mit endlicher Dimension [math]n[/math] über dem Körper [math]\mathbb K[/math] der reellen oder komplexen Zahlen, sowie allgemeine Skalarprodukte [math]\langle \cdot , \cdot \rangle[/math] und damit Orthogonalitätsbegriffe verallgemeinert. Zwei Vektoren [math]v,w \in V[/math] sind definitionsgemäß genau dann orthogonal, wenn ihr Skalarprodukt [math]\langle v, w \rangle=0[/math] ist.[1]

Algebraische Darstellung

Definition

Eine Orthogonalprojektion auf einen Untervektorraum [math]U[/math] eines Vektorraums [math]V[/math] ist eine lineare Abbildung [math]P_U \colon V \rightarrow V[/math], die für alle Vektoren [math]v \in V[/math] die beiden Eigenschaften

  • [math]P_U(v) \in U[/math]   (Projektion)
  • [math]\langle P_U(v) - v , u \rangle = 0[/math]   für alle   [math]u \in U[/math]   (Orthogonalität)[2]

erfüllt. Der Differenzvektor [math]P_U(v)-v[/math] liegt damit im orthogonalen Komplement [math]U^\perp[/math] von [math]U[/math]. Das orthogonale Komplement ist selbst ein Untervektorraum bestehend aus denjenigen Vektoren in [math]V[/math], die orthogonal zu allen Vektoren in [math]U[/math] sind.

Darstellung

Ist [math]\{ u_1, \ldots , u_k \}[/math] eine Basis des Untervektorraums [math]U[/math] mit der Dimension [math]k[/math], dann hat jeder Vektor [math]u \in U[/math] eine eindeutige Darstellung als Linearkombination [math]u = c_1 u_1 + \ldots + c_k u_k[/math]. Aufgrund der Sesquilinearität des Skalarprodukts reicht es daher aus, Orthogonalität lediglich bezüglich der Basisvektoren statt bezüglich aller Vektoren des Untervektorraums nachzuweisen. Eine Orthogonalprojektion [math]P_U[/math] muss demnach die Bedingungen

  • [math]P_U(v) = \sum_{i=1}^k c_i \, u_i[/math]
  • [math]\langle P_U(v) - v , u_j \rangle = 0[/math]   für   [math]j=1, \ldots , k[/math]

erfüllen. Setzt man die erste Gleichung in die anderen Gleichungen ein, erhält man mit

[math]\sum_{i=1}^k c_i \, \langle u_i , u_j \rangle = \langle v, u_j \rangle[/math]   für   [math]j=1, \ldots , k[/math]

ein lineares Gleichungssystem mit [math]k[/math] Gleichungen und den [math]k[/math] Unbekannten [math]c_1, \ldots , c_k[/math]. Die dabei zugrunde liegende Gramsche Matrix [math]( \, \langle u_i , u_j \rangle \, )_{i,j}[/math] ist aufgrund der linearen Unabhängigkeit der Basisvektoren regulär und damit ist dieses Gleichungssystem eindeutig lösbar. Ist nun [math]\{ u_1, \ldots , u_k \}[/math] eine Orthogonalbasis von [math]U[/math], das heißt [math]\langle u_i, u_j \rangle = 0[/math] für [math]i \neq j[/math], dann ist die zugehörige Gramsche Matrix eine Diagonalmatrix und das Gleichungssystem hat eine direkt angebbare Lösung. Die Orthogonalprojektion [math]P_U[/math] des Vektors [math]v[/math] auf den Untervektorraum [math]U[/math] ist dann durch

[math]P_U(v) = \sum_{i=1}^k \frac{ \langle v , u_i \rangle }{ \langle u_i, u_i \rangle } u_i[/math]

gegeben. Bildet [math]\{ u_1, \ldots , u_k \}[/math] sogar eine Orthonormalbasis, das heißt [math]\langle u_i, u_j \rangle = \delta_{ij}[/math] mit dem Kronecker-Delta [math]\delta_{ij}[/math], dann hat die Orthogonalprojektion die einfachere Darstellung

[math]P_U(v) = \sum_{i=1}^k \langle v , u_i \rangle u_i[/math].

Beispiele

Wählt man als Vektorraum [math]V[/math] den Standardraum [math]\R^n[/math] und als Skalarprodukt [math]\langle \cdot , \cdot \rangle[/math] das Standardskalarprodukt, so ist ein Untervektorraum eine lineare Mannigfaltigkeit (etwa eine Gerade, Ebene oder Hyperebene) durch den Nullpunkt und die Orthogonalprojektionen des vorangegangenen Geometrie-Abschnitts entsprechen gerade den Spezialfällen

  • Projektion auf eine Ursprungsgerade in der Ebene: [math]n=2, k=1[/math]
  • Projektion auf eine Ursprungsgerade im Raum: [math]n=3, k=1[/math]
  • Projektion auf eine Ursprungsebene im Raum: [math]n=3, k=2[/math]

Der Fall [math]k=0[/math] entspricht in jeder Dimension der Abbildung eines Vektors auf den Nullpunkt und der Fall [math]k=n[/math] lässt den Vektor immer unverändert, da eine Orthogonalprojektion dann die identische Abbildung ist.

Eigenschaften

Eine Orthogonalprojektion ist eine Projektion, das heißt eine idempotente lineare Abbildung des Vektorraumes [math]V[/math] in sich selbst (genannt Endomorphismus). Ist der zu projizierende Vektor [math]v[/math] nämlich bereits Element des Untervektorraums, dann gibt es Skalare [math]c_1, \ldots , c_k[/math], sodass [math]v = c_1 u_1 + \ldots + c_k u_k[/math] ist, und die Orthogonalprojektion

[math]P_U(v) = \sum_{i=1}^k \left\langle \sum_{j=1}^k c_j u_j , u_i \right\rangle \, u_i = \sum_{i=1}^k \sum_{j=1}^k c_j \langle u_j , u_i \rangle \, u_i = c_1 u_1 + \ldots + c_k u_k = v[/math]

verändert den Vektor nicht, woraus die Idempotenz folgt. Die Linearität der Abbildung folgt direkt aus der Sesquilinearität des Skalarprodukts. Zudem gilt die Selbstadjungiertheit

[math]\langle P_U(v), w \rangle = \left\langle \sum_{i=1}^k \langle v , u_i \rangle u_i , w \right\rangle = \sum_{i=1}^k \langle v , u_i \rangle \langle u_i , w \rangle = \left\langle v, \sum_{i=1}^k \langle w , u_i \rangle u_i \right\rangle = \langle v, P_U(w) \rangle[/math]

für alle Vektoren [math]v,w \in V[/math]. Der orthogonal projizierte Vektor minimiert den Abstand zwischen dem Ausgangsvektor und allen Vektoren des Untervektorraums bezüglich der von dem Skalarprodukt abgeleiteten Norm [math]\| \cdot \|[/math], denn es gilt mit dem Satz des Pythagoras für Skalarprodukträume

[math]\| u - v \|^2 = \| u - P_U(v) \|^2 + \| P_U(v) - v \|^2 \geq \| P_U(v) - v \|^2[/math].

für alle [math]u \in U[/math]. Das Minimum wird dabei eindeutig an dem orthogonal projizierten Vektor angenommen. Liegt der Vektor [math]v[/math] im orthogonalen Komplement des Untervektorraums, dann ist der projizierte Vektor der Nullvektor.

Allgemeinfall

Ist die Basis [math]\{ u_1, \ldots , u_k \}[/math] des Unterraums nicht orthogonal, so kann sie mit dem Gram-Schmidtschen Orthogonalisierungsverfahren orthogonalisiert und so eine Orthogonalbasis [math]\{ w_1, \ldots , w_k \}[/math] von [math]U[/math] erhalten werden. Weiterhin kann ein Vektor auch auf einen affinen Unterraum [math]U_0 = r_0 + U[/math] mit [math]r_0 \in V[/math] orthogonal projiziert werden. Man erhält dann den Allgemeinfall einer Orthogonalprojektion eines Vektors [math]v[/math] auf einen affinen Unterraum [math]U_0[/math] durch

[math]P_{U_0}(v) = r_0 + \sum_{i=1}^k \frac{\langle v - r_0, w_i \rangle}{\langle w_i, w_i \rangle} w_i[/math].

Komplementäre Darstellung

Ist nun [math]\{ w_{k+1}, \ldots , w_n \}[/math] eine orthogonale Komplementärbasis von [math]U[/math], also eine Orthogonalbasis des Komplements [math]U^\perp[/math], dann erhält man aufgrund von

[math]v = \sum_{i=1}^k \frac{ \langle v, w_i \rangle }{ \langle w_i, w_i \rangle } w_i + \sum_{i=k+1}^n \frac{ \langle v, w_i \rangle }{ \langle w_i, w_i \rangle } w_i = P_U(v) + P_{U^\perp}(v)[/math]

die komplementäre Darstellung einer Orthogonalprojektion [math]P_{U_0}[/math] auf einen affinen Unterraum [math]U_0 = r_0 + U[/math] als

[math]P_{U_0}(v) = v - \sum_{i=k+1}^n \frac{ \langle v - r_0, w_i \rangle }{ \langle w_i, w_i \rangle } w_i[/math].

Matrixdarstellung

Koordinaten

Wählt man für den Vektorraum [math]V[/math] eine Orthonormalbasis [math]\{ e_1, \ldots , e_n \}[/math] bezüglich des Skalarprodukts [math]\langle \cdot , \cdot \rangle[/math], dann kann jeder Vektor [math]v \in V[/math] als Koordinatenvektor [math]x = (x_1, \ldots , x_n)^T \in {\mathbb K}^n[/math] über

[math]v = \sum_{i=1}^n x_i e_i[/math]   mit   [math]x_i = \langle v, e_i \rangle[/math]

dargestellt werden. Die Koordinaten [math]x_1, \ldots , x_n[/math] sind dabei genau die Längen der Orthogonalprojektionen des Vektors auf die Basisvektoren. Das Skalarprodukt [math]\langle v, w \rangle[/math] zweier Vektoren [math]v, w \in V[/math] ist in Koordinatendarstellung dann das Standardskalarprodukt [math]y^H x[/math] der zugehörigen Koordinatenvektoren [math]x,y \in {\mathbb K}^n[/math], wobei [math]y^H[/math] der adjungierte Vektor (im reellen Fall der transponierte Vektor) zu [math]y[/math] ist.

Darstellung

Sind nun [math]y_1, \ldots , y_k \in {\mathbb K}^n[/math] die Koordinatenvektoren einer Orthogonalbasis [math]\{ u_1, \ldots , u_k \}[/math] eines Untervektoraums [math]U[/math] und [math]x[/math] der Koordinatenvektor eines zu projizierenden Vektors [math]v[/math], dann ist die Koordinatendarstellung einer Orthogonalprojektion

[math]P_U(v) = \sum_{i=1}^k \frac{ y_i^H x }{ y_i^H y_i } y_i = \sum_{i=1}^k \frac{ y_i y_i^H }{ y_i^H y_i } x[/math].

Eine Orthogonalprojektion ist in Koordinatendarstellung damit einfach ein Matrix-Vektor-Produkt [math]Q_U x[/math] mit der Abbildungsmatrix [math]Q_U \in {\mathbb K}^{n \times n}[/math] gegeben durch

[math]Q_U = \sum_{i=1}^k \frac{ y_i y_i^H }{ y_i^H y_i }[/math].

Sind [math]y_1, \ldots , y_k[/math] die Koordinatenvektoren einer Orthonormalbasis von [math]U[/math], so hat die Orthogonalprojektionsmatrix [math]Q_U[/math] die einfachere Darstellung

[math]Q_U = \sum_{i=1}^k y_i y_i^H[/math].

Jeder Summand ist dabei das dyadische Produkt eines Koordinatenvektors mit sich selbst.

Beispiele

Im Koordinatenraum [math]\R^3[/math] ist die Orthogonalprojektionsmatrix auf die Ursprungsgerade mit Richtung [math]y_1 = (2,1,2)^T[/math] gegeben durch

[math]Q_U = \frac{1}{9} \begin{pmatrix} 2 \\ 1 \\ 2 \end{pmatrix} \begin{pmatrix} 2 & 1 & 2 \end{pmatrix} = \frac{1}{9} \begin{pmatrix} 4 & 2 & 4 \\ 2 & 1 & 2 \\ 4 & 2 & 4 \end{pmatrix}[/math].

Die Orthogonalprojektionsmatrix auf die Ursprungsebene, die durch [math]y_1 = (2,1,2)^T[/math] und [math]y_2 = (2,-2,-1)^T[/math] aufgespannt wird, ist entsprechend

[math]Q_U = \frac{1}{9} \begin{pmatrix} 4 & 2 & 4 \\ 2 & 1 & 2 \\ 4 & 2 & 4 \end{pmatrix} + \frac{1}{9} \begin{pmatrix} 4 & -4 & -2 \\ -4 & 4 & 2 \\ -2 & 2 & 1 \end{pmatrix} = \frac{1}{9} \begin{pmatrix} 8 & -2 & 2 \\ -2 & 5 & 4 \\ 2 & 4 & 5 \end{pmatrix}[/math].

Eigenschaften

Eine Orthogonalprojektionsmatrix ist idempotent, das heißt, es gilt

[math](Q_U)^2 = \left( \sum_{i=1}^k y_i y_i^H \right) \left( \sum_{j=1}^k y_j y_j^H \right) = \sum_{i=1}^k \sum_{j=1}^k ( y_i y_i^H ) ( y_j y_j^H ) = \sum_{i=1}^k \sum_{j=1}^k y_i ( y_i^H y_j ) y_j^H = \sum_{i=1}^k y_i y_i^H = Q_U[/math].

Weiterhin ist sie selbstadjungiert (im reellen Fall symmetrisch), da

[math](Q_U)^H = \left( \sum_{i=1}^k y_i y_i^H \right)^H = \sum_{i=1}^k ( y_i y_i^H )^H = \sum_{i=1}^k y_i y_i^H = Q_U[/math]

ist. Für den Rang und die Spur einer Orthogonalprojektionsmatrix gilt

[math]\operatorname{rang} Q_U = \operatorname{spur} Q_U = k[/math],

da für idempotente Matrizen Rang und Spur übereinstimmen und die Einzelmatrizen [math]y_iy_i^H[/math] jeweils Rang eins besitzen. Die Eigenwerte einer Orthogonalprojektionsmatrix sind [math]\lambda_1 = \ldots = \lambda_k = 1[/math] und [math]\lambda_{k+1} = \ldots = \lambda_n = 0[/math], wobei die zugehörigen Eigenräume gerade der Untervektorraum [math]U[/math] und sein orthogonales Komplement [math]U^\perp[/math] sind. Die Spektralnorm einer Orthogonalprojektionsmatrix ist damit, sofern [math]U[/math] nicht der Nullvektorraum [math]\{ 0 \}[/math] ist, gleich eins.

Allgemeinfall

Bilden die Koordinatenvektoren [math]y_1, \ldots , y_k[/math] zwar eine Basis, aber keine Orthogonalbasis des Untervektorraums, so kann man sie zur Berechnung einer Orthogonalprojektion orthogonalisieren oder ein entsprechendes lineares Gleichungssystem lösen. Fasst man die Basisvektoren spaltenweise zu einer Matrix [math]A = ( y_1, \ldots , y_k ) \in \mathbb{K}^{n \times k}[/math] zusammen, dann hat dieses Gleichungssystem die Gestalt der Normalgleichungen

[math]A^H A c = A^H x[/math]

mit dem Koeffizientenvektor [math]c = (c_1, \ldots , c_k)^T[/math]. Die Matrixdarstellung einer Orthogonalprojektion ist dann aufgrund von [math]Q_U x = A c[/math] gegeben durch

[math]Q_U = A ( A^H A )^{-1} A^H[/math].

Eine Orthogonalprojektion auf einen affinen Unterraum [math]U_0 = r_0 + U[/math] ist in Matrixdarstellung dann die affine Abbildung

[math]P_{U_0}(v) = Q_U x + ( I - Q_U ) s[/math]

mit der Einheitsmatrix [math]I[/math] und mit [math]s = (s_1, \ldots , s_n)^T[/math] als dem Koordinatenvektor von [math]r_0[/math]. Unter Verwendung homogener Koordinaten lässt sich jede Orthogonalprojektion auch als ein einfaches Matrix-Vektorprodukt darstellen.

Komplementäre Darstellung

Eine Orthogonalprojektion auf einen affinen Unterraum [math]U_0[/math] hat die komplementäre Matrixdarstellung

[math]P_{U_0}(v) = (I - Q_{U^\perp}) x + Q_{U^\perp} s[/math]

mit der Orthogonalprojektionsmatrix auf den Komplementärraum [math]Q_{U^\perp} \in {\mathbb K}^{n \times n}[/math] gegeben durch

[math]Q_{U^\perp} = I - Q_U[/math].

Bilden die Koordinatenvektoren [math]y_{k+1}, \ldots , y_n[/math] eine Orthogonalbasis des Komplementärraums [math]U^\perp[/math], so hat die komplementäre Orthogonalprojektionsmatrix die Darstellung

[math]Q_{U^\perp} = \sum_{i=k+1}^n \frac{ y_i y_i^H }{ y_i^H y_i }[/math].

Funktionalanalysis

In der Funktionalanalysis wird das Konzept der Orthogonalprojektion auf unendlichdimensionale Skalarprodukträume über den reellen oder komplexen Zahlen verallgemeinert und insbesondere auf Funktionenräume angewandt.

Definition

Ist [math](V, \langle \cdot, \cdot \rangle)[/math] ein Skalarproduktraum und ist [math]U[/math] ein Untervektorraum von [math]V[/math] mit orthogonalem Komplement [math]U^\perp[/math], dann ist eine Orthogonalprojektion ein Operator [math]P_U \colon V \rightarrow V[/math] (auch orthogonaler Projektor genannt), mit den beiden Eigenschaften

  • [math]\operatorname{im} P_U = U[/math]   (Projektion)
  • [math]\operatorname{ker} P_U = U^\perp[/math]   (Orthogonalität)

wobei [math]\operatorname{im}[/math] das Bild und [math]\operatorname{ker}[/math] der Kern des Operators ist. Der komplementäre Operator [math]I-P_U[/math] besitzt dann als Bild [math]U^\perp[/math] und als Kern [math]U[/math].

Existenz und Eindeutigkeit

Damit solche Orthogonalprojektionen auch existieren und eindeutig sind, müssen die betrachteten Räume jedoch eingeschränkt werden. Ist [math]V[/math] ein Hilbertraum, also ein vollständiger Skalarproduktraum, und ist [math]U[/math] ein abgeschlossener Untervektorraum von [math]V[/math], dann stellt der Projektionssatz die Existenz und Eindeutigkeit von Orthogonalprojektionen sicher. Zu jedem Vektor [math]v \in V[/math] gibt es dann eindeutige Vektoren [math]u \in U[/math] und [math]u^\perp \in U^\perp[/math], sodass dieser Vektor die Darstellung

[math]v = u + u^\perp[/math]

besitzt. Damit bilden [math]U[/math] und [math]U^\perp[/math] eine orthogonale Zerlegung von [math]V[/math], das heißt, der gesamte Raum [math]V[/math] lässt sich als orthogonale Summe [math]U \oplus U^\perp[/math] darstellen.[3] Ein endlichdimensionaler Untervektorraum ist immer abgeschlossen und auf die Vollständigkeit von [math]V[/math] kann dann auch verzichtet werden.

Darstellung

Jeder Hilbertraum besitzt eine Orthonormalbasis, die sich allerdings nicht immer explizit angeben lässt. Ist allerdings [math]V[/math] ein separabler Hilbertraum, dann ist eine solche Orthonormalbasis [math]\{ e_1, e_2, \ldots \}[/math] als Schauderbasis abzählbar, sodass jeder Vektor [math]v \in V[/math] in eine Reihe

[math]v = \sum_{i=1}^\infty \langle v, e_i \rangle e_i[/math]

entwickelt werden kann.[4] Eine solche Orthonormalbasis kann stets aus einer linear unabhängigen Teilmenge von [math]V[/math] mit Hilfe des Gram-Schmidtschen Orthogonalisierungsverfahrens erhalten werden. Ist nun [math]\{ u_1, u_2, \ldots \}[/math] eine (ebenfalls abzählbare) Orthonormalbasis eines abgeschlossenen Untervektorraums [math]U[/math], dann hat eine Orthogonalprojektion die Reihendarstellung

[math]P_U = \sum_{i=1}^\infty \langle \cdot , u_i \rangle u_i[/math].

Diese Darstellung lässt sich auch auf nicht-separable, also überabzählbar-dimensionale Hilberträume verallgemeinern. Ist [math]U[/math] ein abgeschlossener Untervektorraum eines allgemeinen Hilbertraums und [math]\{u_i\}_{i \in I}[/math] mit einer beliebigen Indexmenge [math]I[/math] eine Orthonormalbasis dieses Untervektorraums, dann hat eine Orthogonalprojektion die entsprechende Darstellung

[math]P_U = \sum_{i\in I} \langle \cdot , u_i \rangle u_i[/math],

wobei nur abzählbar viele Summenglieder dieser Summe ungleich null sind. Diese Reihen sind nach der Besselschen Ungleichung unbedingt konvergent und nach der Parsevalschen Gleichung wird dabei tatsächlich jedes Element von [math]U[/math] auf sich selbst abgebildet.[5]

Beispiel

Gegeben sei der Raum L2 der quadratisch integrierbaren reellen Funktionen im Intervall [math][-1,1][/math] mit dem L2-Skalarprodukt

[math]\langle f, g \rangle = \int_{-1}^1 f(x) g(x)~dx[/math]

Für diesen Raum bilden die Legendre-Polynome ein vollständiges Orthogonalsystem. Gesucht ist nun die Orthogonalprojektion der Exponentialfunktion [math]f(x) = e^x[/math] auf den Untervektorraum der linearen Funktionen. Für diesen Unterraum bilden die beiden Monome [math]\{ 1, x \}[/math] eine Orthogonalbasis, was nach Normierung die Orthonormalbasis

[math]\{ u_1(x) = \tfrac{1}{\sqrt{2}}, u_2(x) = \tfrac{\sqrt{3}}{\sqrt{2}} \, x\}[/math]

ergibt. Die Orthogonalprojektion von [math]f[/math] auf den Untervektorraum der linearen Funktionen ist dann gegeben durch

[math]P_U f = \langle f, u_1 \rangle u_1 + \langle f, u_2 \rangle u_2 = \tfrac{1}{\sqrt{2}}(e-\tfrac{1}{e}) \cdot \tfrac{1}{\sqrt{2}} + \tfrac{\sqrt{6}}{e} \cdot \tfrac{\sqrt{3}}{\sqrt{2}} x = \tfrac{1}{2}(e-\tfrac{1}{e}) + \tfrac{3}{e} x[/math].

Eigenschaften

Ist [math]V[/math] ein Hilbertraum und [math]U[/math] ein abgeschlossener Unterraum von [math]V[/math], dann ist [math]P_U[/math] ein stetiger linearer Operator mit den folgenden Eigenschaften:[3][6]

  • [math]P_U[/math] ist eine Projektion, das heißt [math]P_U^2=P_U[/math].
  • [math]P_U[/math] ist selbstadjungiert, das heißt [math]P_U = P_U^\ast[/math] mit dem adjungierten Operator [math]P_U^\ast[/math].
  • [math]P_U[/math] ist normal, das heißt [math]P_U^\ast P_U = P_U P_U^\ast[/math].
  • [math]P_U[/math] ist positiv, das heißt insbesondere [math]\langle P_U v , v \rangle \geq 0[/math] für alle [math]v \in V[/math].
  • [math]P_U[/math] ist eine partielle Isometrie, bei der der isometrische Anteil die Identität ist.
  • [math]P_U[/math] ist genau dann kompakt, wenn [math]U[/math] endlichdimensional ist.
  • [math]P_U v[/math] ist Bestapproximation in der Skalarproduktnorm, das heißt [math]\| P_U v - v \| = \inf_{u \in U} \| u - v \|[/math].
  • [math]\| P_U \| = 1[/math], falls [math]U \neq \{ 0 \}[/math], und [math]\| I - P_U \| = 1[/math], falls [math]U \neq V[/math] (in der Operatornorm).

Umgekehrt ist eine stetige lineare Projektion [math]P \neq 0[/math], die selbstadjungiert oder normal oder positiv oder auf eins normiert ist, eine Orthogonalprojektion auf den Bildraum [math]P(V)[/math].[6]

Anwendungen

Orthogonalprojektionen besitzen vielfältige Anwendungen, von denen hier nur einige herausgestellt werden:

Geometrie
Lineare Algebra
Funktionalanalysis
Statistik und Wahrscheinlichkeitstheorie

Siehe auch

Literatur

Einzelnachweise und Anmerkungen

  1. Im Folgenden wird diejenige Variante des komplexen Skalarprodukts verwendet, die linear im ersten und semilinear im zweiten Argument ist.
  2. Eine dazu äquivalente Bedingung ist [math]\scriptstyle \langle P_U(v) , u \rangle = \langle v, u \rangle[/math] für alle [math]\scriptstyle u \in U[/math].
  3. 3,0 3,1 Dirk Werner: Funktionalanalysis. 2005, S. 220–221.
  4. Dirk Werner: Funktionalanalysis. 2005, S. 231.
  5. Dirk Werner: Funktionalanalysis. 2005, S. 229–230.
  6. 6,0 6,1 Dirk Werner: Funktionalanalysis. 2005, S. 236.

Weblinks


Kategorien: Darstellende Geometrie | Analytische Geometrie | Geometrische Abbildung

Quelle: Wikipedia - http://de.wikipedia.org/wiki/Orthogonalprojektion (Vollständige Liste der Autoren des Textes [Versionsgeschichte])    Lizenz: CC-by-sa-3.0

Änderungen: Alle Bilder mit den meisten Bildunterschriften wurden entfernt. Ebenso alle zu nicht-existierenden Artikeln/Kategorien gehenden internen Wikipedia-Links (Bsp. Portal-Links, Redlinks, Bearbeiten-Links). Entfernung von Navigationsframes, Geo & Normdaten, Mediadateien, gesprochene Versionen, z.T. ID&Class-Namen, Style von Div-Containern, Metadaten, Vorlagen, wie lesenwerte Artikel. Ansonsten sind keine Inhaltsänderungen vorgenommen worden. Weiterhin kann es durch die maschinelle Bearbeitung des Inhalts zu Fehlern gerade in der Darstellung kommen. Darum würden wir jeden Besucher unserer Seite darum bitten uns diese Fehler über den Support mittels einer Nachricht mit Link zu melden. Vielen Dank!

Stand der Informationen: August 201& - Wichtiger Hinweis: Da die Inhalte maschinell von Wikipedia übernommen wurden, ist eine manuelle Überprüfung nicht möglich. Somit garantiert LinkFang.de nicht die Richtigkeit und Aktualität der übernommenen Inhalte. Sollten die Informationen mittlerweile fehlerhaft sein, bitten wir Sie darum uns per Support oder E-Mail zu kontaktieren. Wir werden uns dann innerhalb von spätestens 10 Tagen um Ihr Anliegen kümmern. Auch ohne Anliegen erfolgt mindestens alle drei Monate ein Update der gesamten Inhalte.