Inverse Matrix - LinkFang.de





Inverse Matrix


Die inverse Matrix, Kehrmatrix oder kurz Inverse einer quadratischen Matrix ist in der Mathematik eine ebenfalls quadratische Matrix, die mit der Ausgangsmatrix multipliziert die Einheitsmatrix ergibt. Nicht jede quadratische Matrix besitzt eine Inverse; die invertierbaren Matrizen werden reguläre Matrizen genannt. Eine reguläre Matrix ist die Darstellungsmatrix einer bijektiven linearen Abbildung und die inverse Matrix stellt dann die Umkehrabbildung dieser Abbildung dar. Die Menge der regulären Matrizen fester Größe bildet mit der Matrizenmultiplikation als Verknüpfung die allgemeine lineare Gruppe. Die inverse Matrix ist dann das inverse Element in dieser Gruppe.

Die Berechnung der Inverse einer Matrix wird auch als Inversion oder Invertierung der Matrix bezeichnet. Die Invertierung einer Matrix kann mit dem Gauß-Jordan-Algorithmus oder über die Adjunkte der Matrix erfolgen. Die inverse Matrix wird in der linearen Algebra unter anderem bei der Lösung linearer Gleichungssysteme, bei Äquivalenzrelationen von Matrizen und bei Matrixzerlegungen verwendet.

Definition

Ist [math]A \in R^{n \times n}[/math] eine reguläre Matrix mit Einträgen aus einem unitären Ring [math]R[/math] (in der Praxis meist dem Körper der reellen Zahlen), dann ist die zugehörige inverse Matrix diejenige Matrix [math]A^{-1} \in R^{n \times n}[/math], für die

[math]A \cdot A^{-1} = A^{-1} \cdot A = I[/math]

gilt, wobei der Malpunkt  [math]\cdot[/math]  die Matrizenmultiplikation darstellt und [math]I[/math] die Einheitsmatrix der Größe [math]n \times n[/math] ist. Ist [math]R[/math] ein kommutativer Ring, Körper oder Schiefkörper, so sind die beiden Bedingungen äquivalent, das heißt eine rechtsinverse Matrix ist auch linksinvers und umgekehrt.

Beispiele

Die Inverse der reellen [math](2 \times 2)[/math]-Matrix

[math]A = \begin{pmatrix} 2 & 5 \\ 1 & 3 \end{pmatrix}[/math]

ist

[math]A^{-1} = \begin{pmatrix} 3 & -5 \\ -1 & 2 \end{pmatrix}[/math],

denn es gilt

[math]A \cdot A^{-1} = \begin{pmatrix} 2 & 5 \\ 1 & 3 \end{pmatrix} \cdot \begin{pmatrix} 3 & -5 \\ -1 & 2 \end{pmatrix} = \begin{pmatrix} 6-5 & -10+10 \\ 3-3 & -5+6 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = I[/math].

Die Inverse einer reellen Diagonalmatrix mit Diagonalelementen [math]d_1, \ldots , d_n \neq 0[/math] ergibt sich durch Bildung der Kehrwerte aller Diagonalelemente, denn

[math]\operatorname{diag} \left( d_1, \ldots , d_n \right) \cdot \operatorname{diag} \left( d_1^{-1}, \ldots , d_n^{-1} \right) = \operatorname{diag} \left( 1, \ldots , 1 \right) = I[/math].

Eigenschaften

Gruppeneigenschaften

Die Menge der regulären Matrizen fester Größe über einem unitären Ring [math]R[/math] bildet mit der Matrizenmultiplikation als Verknüpfung eine (im Allgemeinen nichtkommutative) Gruppe, die allgemeine lineare Gruppe [math]\operatorname{GL}(n,R)[/math]. In dieser Gruppe ist die Einheitsmatrix das neutrale Element und die inverse Matrix das inverse Element. Als solches ist die Inverse einer Matrix eindeutig definiert und sowohl links-, als auch rechtsinvers. Insbesondere ergibt die Inverse der Einheitsmatrix wieder die Einheitsmatrix, also

[math]I^{-1} = I[/math],

und die Inverse der inversen Matrix wieder die Ausgangsmatrix, das heißt

[math]\left( A^{-1} \right)^{-1} = A[/math].

Die Matrizen [math]A[/math] und [math]A^{-1}[/math] werden daher auch zueinander invers genannt. Das Produkt zweier regulärer Matrizen ist wieder regulär und die Inverse des Produkts ist das Produkt der jeweiligen Inversen, allerdings in umgekehrter Reihenfolge:

[math]\left( A \cdot B \right)^{-1} = B^{-1} \cdot A^{-1}[/math].

Kann eine Matrix als Produkt leicht invertierbarer Matrizen dargestellt werden, so kann auf diese Weise die Inverse der Matrix schnell ermittelt werden. Für die Inverse des Produkts mehrerer Matrizen gilt die allgemeine Produktformel

[math]\left( A_1 \cdot A_2 \dotsm A_k \right)^{-1} = A_k^{-1} \dotsm A_2^{-1} \cdot A_1^{-1}[/math]

mit [math]k \in \N[/math]. Damit gilt speziell für die Inverse einer Matrixpotenz

[math]\left( A^k \right)^{-1} = \left( A^{-1} \right)^k[/math].

Diese Matrix wird auch durch [math]A^{-k}[/math] notiert.

Weitere Eigenschaften

Für die Inverse einer Matrix mit Einträgen aus einem Körper [math]K[/math] gelten folgende weitere Eigenschaften. Für die Inverse des Produkts einer Matrix mit einem Skalar [math]c \in K[/math] mit [math]c \neq 0[/math] gilt

[math]( c A )^{-1} = c^{-1} A^{-1}[/math].

Die Inverse der transponierten Matrix ist gleich der Transponierten der Inversen, also

[math]\left( A^T \right)^{-1} = \left( A^{-1} \right)^T[/math].

Gleiches gilt auch für die Inverse einer adjungierten komplexen Matrix

[math]\left( A^H \right)^{-1} = \left( A^{-1} \right)^H[/math].

Diese beiden Matrizen werden gelegentlich auch durch [math]A^{-T}[/math] und [math]A^{-H}[/math] notiert.[1] Für den Rang der Inversen gilt

[math]\operatorname{rang} \left( A^{-1} \right) = \operatorname{rang} (A) = n[/math]

und für ihre Determinante

[math]\operatorname{det} \left( A^{-1} \right) = (\det A)^{-1}[/math].

Ist [math]\lambda[/math] ein Eigenwert von [math]A[/math] zum Eigenvektor [math]x[/math], so ist [math]\lambda^{-1}[/math] ein Eigenwert von [math]A^{-1}[/math] ebenfalls zum Eigenvektor [math]x[/math].

Invarianten

Manche regulären Matrizen behalten ihre Zusatzeigenschaften unter Inversion. Beispiele hierfür sind:

Berechnung

Die Berechnung der Inversen einer Matrix wird auch als Inversion oder Invertierung der Matrix bezeichnet. Im Folgenden wird dabei angenommen, dass die Einträge der Matrix aus einem Körper stammen, damit die entsprechenden Rechenoperationen stets durchführbar sind.

Gauß-Jordan-Algorithmus

Gleichungsdarstellung

Ausgeschrieben lautet die Matrixgleichung [math]A \cdot A^{-1} = I[/math] mit [math]A = (a_{ij})[/math] und [math]A^{-1} = ({\hat a}_{ij})[/math]

[math]\begin{pmatrix} a_{11} & \ldots & a_{1n} \\ \vdots & ~ & \vdots \\ a_{n1} & \ldots & a_{nn} \end{pmatrix} \cdot \begin{pmatrix} {\hat a}_{11} & \ldots & {\hat a}_{1n} \\ \vdots & ~ & \vdots \\ {\hat a}_{n1} & \ldots & {\hat a}_{nn} \end{pmatrix} = \begin{pmatrix} 1 & ~ & 0 \\ ~ & \ddots & ~ \\ 0 & ~ & 1 \end{pmatrix}[/math].

Die [math]j[/math]-te Spalte der Inversen [math]{\hat a}_j = \left( {\hat a}_{1j}, {\hat a}_{2j}, \ldots, {\hat a}_{nj} \right)^T[/math] ergibt sich damit als Lösung des linearen Gleichungssystems

[math]A \cdot {\hat a}_j = e_j[/math],

wobei [math]e_j[/math] der [math]j[/math]-te Einheitsvektor ist. Die Inverse einer Matrix [math]A[/math] ist demnach spaltenweise in der Form

[math]A^{-1} = \left( {\hat a}_1 ~|~ {\hat a}_2 ~|~ \ldots ~|~ {\hat a}_n \right)[/math]

aus den Lösungen [math]n[/math] linearer Gleichungssysteme mit jeweils [math]A[/math] als Koeffizientenmatrix und einem Einheitsvektor als rechter Seite zusammengesetzt.

Verfahren

Die Inverse einer Matrix kann nun effizient mit dem Gauß-Jordan-Algorithmus berechnet werden. Die Idee bei diesem Verfahren ist es, die [math]n[/math] linearen Gleichungssysteme [math]A \cdot {\hat a}_j = e_j[/math] simultan zu lösen. Hierzu wird zunächst die Koeffizientenmatrix [math]A[/math] um die Einheitsmatrix [math]I[/math] erweitert und man schreibt dann

[math](\, A \,|\, I \,) = \left(\begin{array}{ccc|ccc} a_{11} & \ldots & a_{1n} \, & \, 1 & ~ & 0 \\ \vdots & ~ & \vdots \, & \, ~ & \ddots & ~ \\ a_{n1} & \ldots & a_{nn} \, & \, 0 & ~ & 1 \end{array}\right)[/math].

Nun wird die Matrix [math]A[/math] mit Hilfe elementarer Zeilenumformungen auf obere Dreiecksgestalt gebracht, wobei die Einheitsmatrix [math]I[/math] mit umgeformt wird:

[math](\, D \,|\, B \,) = \left(\begin{array}{ccc|ccc} \, * \, & \ldots & \, * \, \, & \, \, * \, & \ldots & \, * \, \\ ~ & \ddots & \vdots \, & \, \vdots & ~ & \vdots \\ 0 & ~ & \, * \, \, & \, \, * \, & \ldots & \, * \, \end{array}\right)[/math].

An dieser Stelle kann entschieden werden, ob die Matrix [math]A[/math] überhaupt eine Inverse besitzt. Die Matrix [math]A[/math] ist nämlich genau dann invertierbar, wenn die Matrix [math]D[/math] keine Nullzeile enthält. Ist dies der Fall, so kann die Matrix [math]D[/math] mit weiteren elementaren Zeilenumformungen zunächst auf Diagonalgestalt gebracht werden und dann durch entsprechende Skalierungen in die Einheitsmatrix überführt werden. Schließlich erhält man die Form

[math](\, I \,|\, A^{-1} \,) = \left(\begin{array}{ccc|ccc} 1 & ~ & 0 \, & \, {\hat a}_{11} & \ldots & {\hat a}_{1n} \\ ~ & \ddots & ~ \, & \, \vdots & ~ & \vdots \\ 0 & ~ & 1 \, & \, {\hat a}_{n1} & \ldots & {\hat a}_{nn} \end{array}\right)[/math],

wobei auf der rechten Seite dann die gesuchte Inverse [math]A^{-1}[/math] steht.

Beispiele

Als Beispiel werde die Inverse der reellen [math](2 \times 2)[/math]-Matrix

[math]A = \begin{pmatrix} 1 & 2 \\ 2 & 3 \end{pmatrix}[/math]

gesucht. Mit dem Gauß-Jordan-Algorithmus ergeben sich die Rechenschritte

[math]\left(\begin{array}{cc|cc} 1 & 2 \, & \, 1 & 0 \\ {\color{BrickRed} 2} & 3 \, & \, 0 & 1\end{array}\right) \rightarrow \left(\begin{array}{cc|cc} 1 & {\color{OliveGreen} 2} \, & \, 1 & 0 \\ 0 & -1 \, & \, -2 & 1\end{array}\right) \rightarrow \left(\begin{array}{cc|cc} 1 & 0 \, & \, -3 & 2 \\ 0 & {\color{Blue} -1} \, & \, -2 & 1\end{array}\right) \rightarrow \left(\begin{array}{cc|cc} 1 & 0 \, & \, -3 & 2 \\ 0 & 1 \, & \, 2 & -1\end{array}\right)[/math].

Hierbei wird zunächst die [math]\color{BrickRed} 2[/math] unterhalb der Diagonale eliminiert, was durch Subtraktion des Doppelten der ersten Zeile von der zweiten Zeile erfolgt. Anschließend wird die [math]\color{OliveGreen} 2[/math] oberhalb der Diagonale zu null gesetzt, was durch Addition des Doppelten der zweiten Zeile zur ersten Zeile geschieht. Im letzten Schritt wird dann das zweite Diagonalelement auf eins normiert, was eine Multiplikation der zweiten Zeile mit [math]\color{Blue} -1[/math] erfordert. Die Inverse von [math]A[/math] ist demnach

[math]A^{-1} = \begin{pmatrix} -3 & 2 \\ 2 & -1 \end{pmatrix}[/math].

Als weiteres Beispiel werde die Inverse der reellen [math](3 \times 3)[/math]-Matrix

[math]A = \begin{pmatrix} 1 & 2 & 0 \\ 2 & 4 & 1 \\ 2 & 1 & 0 \end{pmatrix}[/math]

gesucht. Zunächst werden hier die beiden [math]\color{BrickRed} 2[/math]-en in der ersten Spalte eliminiert, was jeweils durch Subtraktion des Doppelten der ersten Zeile erfolgt. Nachdem in der zweiten Spalte nun das Pivotelement gleich [math]0[/math] ist, wird zur Elimination der [math]\color{BrickRed} -3[/math] die zweite mit der dritten Zeile vertauscht und man erhält die obere Dreiecksform:

[math]\left(\begin{array}{ccc|ccc} 1 & 2 & 0 \, & \, 1 & 0 & 0 \\ {\color{BrickRed} 2} & 4 & 1 \, & \, 0 & 1 & 0 \\ {\color{BrickRed} 2} & 1 & 0 \, & \, 0 & 0 & 1 \end{array}\right) \rightarrow \left(\begin{array}{ccc|ccc} 1 & 2 & 0 \, & \, 1 & 0 & 0 \\ 0 & 0 & 1 \, & \, -2 & 1 & 0 \\ 0 & {\color{BrickRed} -3} & 0 \, & \, -2 & 0 & 1 \end{array}\right) \rightarrow \left(\begin{array}{ccc|ccc} 1 & 2 & 0 \, & \, 1 & 0 & 0 \\ 0 & -3 & 0 \, & \, -2 & 0 & 1 \\ 0 & 0 & 1 \, & \, -2 & 1 & 0 \end{array}\right)[/math].

Auch diese Matrix ist also invertierbar. Nun muss lediglich die verbleibende [math]\color{OliveGreen} 2[/math] oberhalb der Diagonalen zu null gesetzt werden, was durch Addition des Doppelten der zweiten Zeile zum Dreifachen der ersten Zeile geschieht. Schließlich muss noch die erste Zeile durch [math]\color{Blue} 3[/math] und die zweite Zeile durch [math]\color{Blue} -3[/math] dividiert werden und man erhält als Ergebnis:

[math]\left(\begin{array}{ccc|ccc} 1 & {\color{OliveGreen} 2} & 0 \, & \, 1 & 0 & 0 \\ 0 & -3 & 0 \, & \, -2 & 0 & 1 \\ 0 & 0 & 1 \, & \, -2 & 1 & 0 \end{array}\right) \rightarrow \left(\begin{array}{ccc|ccc} {\color{Blue} 3} & 0 & 0 \, & \, -1 & 0 & 2 \\ 0 & {\color{Blue} -3} & 0 \, & \, -2 & 0 & 1 \\ 0 & 0 & 1 \, & \, -2 & 1 & 0 \end{array}\right) \rightarrow \left(\begin{array}{ccc|ccc} 1 & 0 & 0 \, & \, -\tfrac13 & 0 & \tfrac23 \\ 0 & 1 & 0 \, & \, \tfrac23 & 0 & -\tfrac13 \\ 0 & 0 & 1 \, & \, -2 & 1 & 0 \end{array}\right)[/math].

Die Inverse von [math]A[/math] ist demnach

[math]A^{-1} = \begin{pmatrix} -\tfrac13 & 0 & \tfrac23 \\ \tfrac23 & 0 & -\tfrac13 \\ -2 & 1 & 0 \end{pmatrix} = \frac{1}{3} \begin{pmatrix} -1 & 0 & 2 \\ 2 & 0 & -1 \\ -6 & 3 & 0 \end{pmatrix}[/math].

Korrektheit

Dass durch den Gauß-Jordan-Algorithmus tatsächlich die inverse Matrix berechnet wird, kann wie folgt nachgewiesen werden. Sind [math]N_1, \ldots, N_m[/math] Elementarmatrizen, mit denen die Matrix [math]A[/math] in die Einheitsmatrix umgeformt wird, dann gilt

[math]I = N_m \dotsm N_2 \cdot N_1 \cdot A[/math].

Werden nun beide Seiten dieser Gleichung von rechts mit der Matrix [math]A^{-1}[/math] multipliziert, folgt daraus

[math]A^{-1} = N_m \dotsm N_2 \cdot N_1 \cdot I[/math].

Wird demnach eine Matrix [math]A[/math] durch Multiplikation von links mit einer Reihe von Elementarmatrizen in die Einheitsmatrix umgewandelt, so ergibt die Multiplikation der Einheitsmatrix mit diesen Elementarmatrizen in der gleichen Reihenfolge gerade die Inverse [math]A^{-1}[/math].

Darstellung über die Adjunkte

Herleitung

Mit Hilfe der cramerschen Regel lässt sich die Lösung des linearen Gleichungssystems [math]A \cdot {\hat a}_j = e_j[/math] auch explizit durch

[math]{\hat a}_{ij} = \frac{\det A_{i}}{\det A}[/math]

angeben, wobei die Matrix [math]A_{i}[/math] durch Ersetzen der [math]i[/math]-ten Spalte mit dem Einheitsvektor [math]e_j[/math] entsteht. Wird nun die Determinante im Zähler mit Hilfe des laplaceschen Entwicklungssatzes nach der [math]i[/math]-ten Spalte entwickelt, ergibt sich

[math]{\hat a}_{ij} = \frac{(-1)^{i+j} \cdot \det A_{ji}}{\det A}[/math],

wobei [math]A_{ij}[/math] die Untermatrix von [math]A[/math] ist, die durch Streichung der [math]i[/math]-ten Zeile und [math]j[/math]-ten Spalte entsteht (man beachte in obiger Formel die Vertauschung der Reihenfolge von [math]i[/math] und [math]j[/math]). Die Unterdeterminanten [math]\det A_{ij}[/math] werden auch als Minoren von [math]A[/math] bezeichnet. Die Zahlen

[math]{\tilde a}_{ij} = (-1)^{i+j} \cdot \det A_{ij}[/math]

heißen auch Kofaktoren von [math]A[/math] und bilden als Matrix zusammengefasst die Kofaktormatrix [math]\operatorname{cof} A = ( {\tilde a}_{ij} )[/math]. Die Transponierte der Kofaktormatrix wird auch Adjunkte [math]\operatorname{adj} A[/math] von [math]A[/math] genannt. Mit der Adjunkten hat die Inverse einer Matrix dann die explizite Darstellung

[math]A^{-1} = \frac{1}{\det A} \cdot \operatorname{adj} A[/math].

Diese Darstellung gilt auch für Matrizen mit Einträgen aus einem kommutativen Ring, sofern [math]\det A[/math] eine Einheit in dem Ring darstellt.

Explizite Formeln

Für [math](2 \times 2)[/math]-Matrizen ergibt sich damit die explizite Formel

[math]\begin{pmatrix} a & b \\ c & d \end{pmatrix}^{-1} = \frac{1}{\det A} \cdot \begin{pmatrix} d & -b \\ -c & a \end{pmatrix} = \frac{1}{ad-bc} \cdot \begin{pmatrix} d & -b \\ -c & a \end{pmatrix}[/math].

Für [math](3 \times 3)[/math]-Matrizen ergibt sich entsprechend die Formel

[math]\begin{pmatrix} a & b & c \\ d & e & f \\ g & h & i \end{pmatrix}^{-1} = \frac{1}{\det A} \cdot \begin{pmatrix} ei - fh & ch - bi & bf - ce \\ fg - di & ai - cg & cd - af \\ dh - eg & bg - ah & ae - bd \end{pmatrix}[/math],

wobei [math]\det A[/math] mit der Regel von Sarrus angegeben werden kann. Auch für größere Matrizen können auf diese Weise explizite Formeln für die Inverse hergeleitet werden; ihre Darstellung und Berechnung erweist sich jedoch schnell als sehr aufwändig.

Beispiele

Die Inverse der folgenden reellen [math](2 \times 2)[/math]-Matrix ergibt sich zu

[math]\begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}^{-1} = \frac{1}{4-6} \, \begin{pmatrix} 4 & -2 \\ -3 & 1 \end{pmatrix} = \frac{1}{2} \begin{pmatrix} -4 & 2 \\ 3 & -1 \end{pmatrix}[/math]

und die Inverse der folgenden reellen [math](3 \times 3)[/math]-Matrix zu

[math]\begin{pmatrix} 2 & -1 & 0 \\ -1 & 2 & -1 \\ 0 & -1 & 2 \end{pmatrix}^{-1} = \frac{1}{8-2-2} \, \begin{pmatrix} 4-1 & 2-0 & 1-0 \\ 2-0 & 4-0 & 2-0 \\ 1-0 & 2-0 & 4-1 \end{pmatrix} = \frac{1}{4} \begin{pmatrix} 3 & 2 & 1 \\ 2 & 4 & 2 \\ 1 & 2 & 3 \end{pmatrix}[/math].

Blockweise Inversion

Die Inverse einer [math](2 \times 2)[/math]-Blockmatrix mit Blockbreiten- und -höhen [math]n_1 + n_2 = n[/math] ergibt sich zu

[math]\begin{bmatrix} A & B \\ C & D \end{bmatrix}^{-1} = \begin{bmatrix} A^{-1}+A^{-1}BS^{-1}CA^{-1} & -A^{-1}BS^{-1} \\ -S^{-1}CA^{-1} & S^{-1} \end{bmatrix}[/math],

sofern die Teilmatrix [math]A[/math] und das Schurkomplement [math]S = D-CA^{-1}B[/math] invertierbar sind. Analog ergibt sich

[math]\begin{bmatrix} A & B \\ C & D \end{bmatrix}^{-1} = \begin{bmatrix} T^{-1} & -T^{-1}BD^{-1} \\ -D^{-1}CT^{-1} & D^{-1}+D^{-1}CT^{-1}BD^{-1} \end{bmatrix}[/math],

sofern [math]D[/math] und [math]T = A-BD^{-1}C[/math] invertierbar sind.

Numerische Berechnung

Generell werden in der Numerik lineare Gleichungssysteme der Form [math]A x = b[/math] nicht über die Inverse durch

[math]x = A^{-1} b[/math],

sondern mit dem gaußschen Eliminationsverfahren gelöst. Der Berechnungsweg über die Inverse ist zum einen wesentlich aufwändiger und zum anderen numerisch instabiler. Gelegentlich kann es jedoch erforderlich sein, die Inverse einer Matrix explizit zu ermitteln. Insbesondere bei sehr großen Matrizen wird dann auf Näherungsverfahren zurückgegriffen. Ein Ansatz hierfür ist die Neumann-Reihe, mit der die Inverse einer Matrix durch die unendliche Reihe

[math]A^{-1} = \sum_{k=0}^\infty (I - A)^k[/math]

dargestellt werden kann, sofern die Reihe konvergiert. Wird diese Reihe nach endlich vielen Termen abgeschnitten, erhält man eine näherungsweise Inverse. Für spezielle Matrizen, wie Bandmatrizen oder Toeplitz-Matrizen, gibt es eigene effiziente Berechnungsverfahren zur Ermittlung der Inversen.

Verwendung

Spezielle Matrizen

Mit Hilfe der inversen Matrix können folgende Klassen von Matrizen charakterisiert werden:

  • Für eine selbstinverse Matrix ist die Inverse gleich der Ausgangsmatrix, das heißt [math]A^{-1} = A[/math].
  • Für eine orthogonale Matrix ist die Inverse gleich der Transponierten, das heißt [math]A^{-1} = A^T[/math].
  • Für eine unitäre Matrix ist die Inverse gleich der Adjungierten, das heißt [math]A^{-1} = A^H[/math].

Weitere Matrizen, deren Inverse explizit angegeben werden kann, sind neben Diagonalmatrizen unter anderem Frobeniusmatrizen, Hilbertmatrizen und Tridiagonal-Toeplitz-Matrizen.

Inverse Abbildungen

Sind [math]V[/math] und [math]W[/math] zwei [math]n[/math]-dimensionale Vektorräume über dem Körper [math]K[/math], dann wird die zu einer gegebenen bijektiven linearen Abbildung [math]f \colon V \to W[/math] zugehörige inverse Abbildung [math]f^{-1} \colon W \to V[/math] durch

[math]f^{-1} \circ f = f \circ f^{-1} = \operatorname{id}[/math]

charakterisiert, wobei [math]\operatorname{id}[/math] die identische Abbildung darstellt. Ist nun [math]\{ v_1, \ldots , v_n \}[/math] eine Basis für [math]V[/math] und [math]\{ w_1, \ldots , w_n \}[/math] eine Basis für [math]W[/math], dann gilt für die zugehörigen Abbildungsmatrizen [math]A_f \in K^{n \times n}[/math] und [math]A_{f^{-1}} \in K^{n \times n}[/math] die Beziehung

[math]A_{f^{-1}} = A^{-1}_f[/math].

Die Abbildungsmatrix der inversen Abbildung ist demnach gerade die Inverse der Abbildungsmatrix der Ausgangsabbildung.

Duale Basen

Ist [math]V[/math] ein endlichdimensionaler Vektorraum über dem Körper [math]K[/math], dann ist der zugehörige Dualraum [math]V^\ast[/math] der Vektorraum der linearen Funktionale [math]V \to K[/math]. Ist [math]\{ v_1, \ldots , v_n \}[/math] eine Basis für [math]V[/math], dann wird die zugehörige duale Basis [math]\{ v^\ast_1, \ldots , v^\ast_n \}[/math] von [math]V^\ast[/math] mit Hilfe des Kronecker-Deltas durch

[math]v^\ast_i(v_j) = \delta_{ij}[/math]

für [math]i,j=1, \ldots , n[/math] charakterisiert. Ist nun [math]A_v = ( x_1 \mid \ldots \mid x_n)[/math] die Matrix bestehend aus den Koordinatenvektoren der Basisvektoren, dann ergibt sich die zugehörige duale Matrix [math]A_{v^\ast} = (x^\ast_1 \mid \ldots \mid x^\ast_n)^T[/math] als

[math]A_{v^\ast} = A_v^{-1}[/math].

Die Basismatrix der dualen Basis ist demnach gerade die Inverse der Basismatrix der primalen Basis.

Weitere Anwendungen

Inverse Matrizen werden in der linearen Algebra unter anderem auch verwendet:

Siehe auch

  • Pseudoinverse, eine Verallgemeinerung der Inversen auf singuläre und nichtquadratische Matrizen
  • Sherman-Morrison-Woodbury-Formel, eine Formel für die Inverse einer Rang-k-modifizierten Matrix
  • Diagonalisierung, die Umwandlung einer Matrix in Diagonalform durch eine Ähnlichkeitstransformation
  • Smith-Normalform, die Diagonalisierung einer Matrix mit Einträgen aus einem Hauptidealring

Literatur

Einzelnachweise

  1. G. W. Stewart: Matrix Algorithms. Volume 1: Basic Decompositions. SIAM, 1998, S. 38.

Weblinks


Kategorien: Keine Kategorien vorhanden!

Quelle: Wikipedia - http://de.wikipedia.org/wiki/Inverse Matrix (Vollständige Liste der Autoren des Textes [Versionsgeschichte])    Lizenz: CC-by-sa-3.0

Änderungen: Alle Bilder mit den meisten Bildunterschriften wurden entfernt. Ebenso alle zu nicht-existierenden Artikeln/Kategorien gehenden internen Wikipedia-Links (Bsp. Portal-Links, Redlinks, Bearbeiten-Links). Entfernung von Navigationsframes, Geo & Normdaten, Mediadateien, gesprochene Versionen, z.T. ID&Class-Namen, Style von Div-Containern, Metadaten, Vorlagen, wie lesenwerte Artikel. Ansonsten sind keine Inhaltsänderungen vorgenommen worden. Weiterhin kann es durch die maschinelle Bearbeitung des Inhalts zu Fehlern gerade in der Darstellung kommen. Darum würden wir jeden Besucher unserer Seite darum bitten uns diese Fehler über den Support mittels einer Nachricht mit Link zu melden. Vielen Dank!

Stand der Informationen: August 201& - Wichtiger Hinweis: Da die Inhalte maschinell von Wikipedia übernommen wurden, ist eine manuelle Überprüfung nicht möglich. Somit garantiert LinkFang.de nicht die Richtigkeit und Aktualität der übernommenen Inhalte. Sollten die Informationen mittlerweile fehlerhaft sein, bitten wir Sie darum uns per Support oder E-Mail zu kontaktieren. Wir werden uns dann innerhalb von spätestens 10 Tagen um Ihr Anliegen kümmern. Auch ohne Anliegen erfolgt mindestens alle drei Monate ein Update der gesamten Inhalte.