Hermitesche Matrix - LinkFang.de





Hermitesche Matrix


Eine hermitesche Matrix ist in der Mathematik eine komplexe quadratische Matrix, die gleich ihrer adjungierten Matrix ist. Die Einträge einer hermiteschen Matrix oberhalb der Hauptdiagonale ergeben sich demnach durch Spiegelung der Einträge unterhalb der Diagonale und nachfolgender komplexer Konjugation; die Einträge auf der Hauptdiagonale selbst sind alle reell. Hermitesche Matrizen sind nach dem Mathematiker Charles Hermite benannt.

Hermitesche Matrizen weisen eine Reihe besonderer Eigenschaften auf. Die Summe zweier hermitescher Matrizen ist stets wieder hermitesch. Jede komplexe quadratische Matrix lässt sich eindeutig als Summe einer hermiteschen und einer schiefhermiteschen Matrix schreiben. Das Produkt zweier hermitescher Matrizen ist wiederum hermitesch, sofern die beiden Matrizen kommutieren. Eine hermitesche Matrix ist stets normal und selbstadjungiert, sie besitzt nur reelle Eigenwerte und sie ist stets unitär diagonalisierbar. Eine wichtige Klasse hermitescher Matrizen sind positiv definite Matrizen, bei denen alle Eigenwerte positiv sind. Eine hermitesche Matrix mit reellen Einträgen ist symmetrisch.

In der linearen Algebra werden hermitesche Matrizen zur Beschreibung hermitescher Sesquilinearformen verwendet. Die Darstellungsmatrix einer komplexen selbstadjungierten Abbildung bezüglich einer Orthonormalbasis ist ebenfalls stets hermitesch. Lineare Gleichungssysteme mit hermitescher Koeffizientenmatrix lassen sich effizient und numerisch stabil lösen. Weiterhin werden hermitesche Matrizen bei Orthogonalprojektionen und bei der Polarzerlegung von Matrizen verwendet. Hermitesche Matrizen besitzen Anwendungen unter anderem in der Quantenmechanik.

Definition

Eine komplexe quadratische Matrix [math]A = (a_{jk}) \in \C^{n \times n}[/math] heißt hermitesch, wenn für ihre Einträge

[math]a_{jk} = \overline{a_{kj}}[/math]

für [math]j, k = 1, \ldots, n[/math] gilt. Eine hermitesche Matrix stimmt daher mit ihrer adjungierten Matrix [math]A^H[/math] überein, das heißt, es gilt

[math]A = A^H[/math].

Äquivalent dazu ist eine Matrix genau dann hermitesch, wenn ihre transponierte Matrix [math]A^T[/math] gleich ihrer konjugierten Matrix [math]\bar A[/math] ist, also

[math]A^T = \bar{A}[/math]

gilt. Eine hermitesche Matrix ist also bis auf komplexe Konjugation aller Einträge spiegelsymmetrisch bezüglich ihrer Hauptdiagonale.

Beispiele

Beispiele für hermitesche Matrizen sind ([math]\mathrm{i}[/math] stellt die imaginäre Einheit dar):

[math] \begin{pmatrix} 2 \end{pmatrix} ,\quad \begin{pmatrix} 1 & \mathrm{i} \\ -\mathrm{i} & 1 \end{pmatrix} ,\quad \begin{pmatrix} 1 & 3-\mathrm{i} & 4 \\ 3+\mathrm{i} & -2 & -6+\mathrm{i} \\ 4 & -6-\mathrm{i} & 5 \end{pmatrix} [/math].

Allgemein haben hermitesche Matrizen der Größe [math]2 \times 2[/math], [math]3 \times 3[/math] und [math]4 \times 4[/math] die Struktur

[math] \begin{pmatrix} a & \bar{b} \\ b & c \end{pmatrix} ,\quad \begin{pmatrix} a & \bar{b} & \bar{c} \\ b & d & \bar{e} \\ c & e & f \end{pmatrix} ,\quad \begin{pmatrix} a & \bar{b} & \bar{c} & \bar{d} \\ b & e & \bar{f} & \bar{g} \\ c & f & h & \bar{i} \\ d & g & i & j \end{pmatrix} [/math]

mit reellen Zahlen auf der Hauptdiagonale.

Algebraische Eigenschaften

Einträge

Die Diagonaleinträge einer hermiteschen Matrix sind aufgrund von

[math]a_{jj} = \overline{a_{jj}}[/math]

stets reell. Die Matrix aus den Realteilen einer hermiteschen Matrix ist stets symmetrisch, denn

[math]\mathrm{Re}(a_{jk}) = \mathrm{Re}(a_{kj})[/math],

und die Matrix aus den Imaginärteilen einer hermiteschen Matrix stets schiefsymmetrisch, denn

[math] \mathrm{Im}(a_{jk}) = - \mathrm{Im}(a_{kj})[/math].

Daher wird eine hermitesche Matrix durch

[math]n + \frac{n(n-1)}{2} + \frac{n(n-1)}{2} = n^2[/math]

reelle Zahlen eindeutig charakterisiert. Im Vergleich dazu wird eine allgemeine komplexe [math](n \times n)[/math]-Matrix durch [math]2n^2[/math] reelle Zahlen beschrieben, also gerade doppelt so viele.

Summe

Die Summe [math]A + B[/math] zweier hermitescher Matrizen [math]A,B \in \C^{n \times n}[/math] ist stets wieder hermitesch, denn

[math](A + B)^H = A^H + B^H = A + B[/math].

Zudem lässt sich jede komplexe quadratische Matrix [math]M \in \C^{n \times n}[/math] eindeutig als Summe [math]M = A + B[/math] einer hermiteschen Matrix [math]A[/math] und einer schiefhermiteschen Matrix [math]B[/math] schreiben, indem

[math]A = \frac{1}{2}(M + M^H)[/math]   und   [math]B = \frac{1}{2}(M - M^H)[/math]

gewählt werden.

Skalarmultiplikation

Das Produkt [math]c A[/math] einer hermiteschen Matrix [math]A \in \C^{n \times n}[/math] mit einem Skalar [math]c \in \C[/math] ist nur wieder hermitesch, wenn [math]c[/math] reell ist, denn dann gilt

[math](c A)^H = {\bar c} A^H = c A[/math].

Wenn [math]c[/math] rein imaginär ist, dann ist das Produkt [math]c A[/math] schiefhermitesch. Die hermiteschen Matrizen bilden demnach keinen Untervektorraum im [math]\C[/math]-Vektorraum der komplexen quadratischen Matrizen, sondern lediglich einen Untervektorraum im [math]\R[/math]-Vektorraum der komplexen quadratischen Matrizen. Dieser Untervektorraum hat die Dimension [math]n^2[/math], wobei die Standardmatrizen [math]E_{jj}[/math], [math]1 \leq j \leq n[/math], [math]E_{jk}+E_{kj}[/math] und [math]\mathrm{i}(E_{jk}-E_{kj})[/math], [math]1 \leq j \lt k \leq n[/math], darin eine Basis bilden. Im Raum der hermiteschen Matrizen bilden wiederum die reellen symmetrischen Matrizen einen Untervektorraum.

Produkt

Das Produkt [math]A B[/math] zweier hermitescher Matrizen [math]A,B \in \C^{n\times n}[/math] ist im Allgemeinen nicht wieder hermitesch. Das Produkt hermitescher Matrizen ist genau dann hermitesch, wenn [math]A[/math] und [math]B[/math] kommutieren, also wenn [math]A B = B A[/math] gilt, denn dann ergibt sich

[math](A B)^H = B^H A^H = B A = A B[/math].

Insbesondere sind damit für eine hermitesche Matrix [math]A[/math] auch alle ihre Potenzen [math]A^k[/math] mit [math]k \in \N[/math] und daher auch ihr Matrixexponential [math]e^A[/math] wieder hermitesch. Für eine beliebige komplexe Matrix [math]M \in \C^{m \times n}[/math] sind sowohl die [math]m \times m[/math]-Matrix [math]M M^H[/math] als auch die [math]n \times n[/math]-Matrix [math]M^H M[/math] stets hermitesch.

Normalität

Eine hermitesche Matrix [math]A \in \C^{n \times n}[/math] ist stets normal, denn es gilt

[math]A^H A = A A = A A^H[/math].

Jede hermitesche Matrix kommutiert also mit ihrer Adjungierten. Es gibt allerdings auch normale Matrizen, die nicht hermitesch sind, beispielsweise schiefhermitesche Matrizen.

Kongruenz

Jede komplexe Matrix [math]B \in \C^{n \times n}[/math], die kongruent zu einer hermiteschen Matrix [math]A \in \C^{n\times n}[/math] ist, ist ebenfalls hermitesch, denn es gilt

[math]B^H = (S^H A S)^H = S^H A^H S = S^H A S = B[/math],

wobei [math]S \in \C^{n \times n}[/math] die zugehörige Transformationsmatrix ist. Matrizen, die ähnlich zu einer hermiteschen Matrix sind, müssen jedoch nicht notwendigerweise ebenfalls hermitesch sein.

Inverse

Ist eine hermitesche Matrix [math]A \in \C^{n \times n}[/math] invertierbar, dann ist auch ihre Inverse [math]A^{-1}[/math] wieder hermitesch, denn es gilt

[math](A^{-1})^H = (A^H)^{-1} = A^{-1}[/math].

Für eine reguläre hermitesche Matrix [math]A[/math] sind demnach auch alle Potenzen [math]A^{-k}[/math] mit [math]k \in \N[/math] wieder hermitesch.

Spektrale Eigenschaften

Selbstadjungiertheit

Eine hermitesche Matrix [math]A \in \C^{n \times n}[/math] ist stets selbstadjungiert, denn es gilt mit dem komplexen Standardskalarprodukt [math]\langle \cdot, \cdot \rangle[/math]

[math]\langle A x, y \rangle = (A x)^H y = x^H A^H y = x^H A y = \langle x, A y \rangle[/math]

für alle Vektoren [math]x,y \in \C^n[/math]. Es gilt auch die Umkehrung und jede komplexe selbstadjungierte Matrix ist hermitesch.

Eigenwerte

Die Eigenwerte einer hermiteschen Matrix [math]A \in \C^{n \times n}[/math], das heißt die Lösungen der Eigenwertgleichung [math]A x = \lambda x[/math], sind stets reell. Ist nämlich [math]\lambda \in \C[/math] ein komplexer Eigenwert von [math]A[/math] mit zugehörigem Eigenvektor [math]x \in \C^n[/math], [math]x \neq 0[/math], dann gilt mit der Selbstadjungiertheit von [math]A[/math]

[math]\lambda \langle x, x \rangle = \langle \lambda x, x \rangle = \langle A x, x \rangle = \langle x, A x \rangle = \langle x, \lambda x \rangle = \bar\lambda \langle x, x \rangle[/math].

Nachdem [math]\langle x, x \rangle \neq 0[/math] für [math]x \neq 0[/math] ist, muss [math]\lambda = \bar\lambda[/math] gelten und der Eigenwert [math]\lambda[/math] damit reell sein.

Vielfachheiten

Bei jeder hermiteschen Matrix [math]A \in \C^{n \times n}[/math] stimmen die algebraischen und die geometrischen Vielfachheiten aller Eigenwerte überein. Ist nämlich [math]\lambda[/math] ein Eigenwert von [math]A[/math] mit geometrischer Vielfachheit [math]m[/math], dann existiert eine Orthonormalbasis [math]\{ x_1, \ldots , x_m \} [/math] des Eigenraums von [math]\lambda[/math], welche durch [math]\{ x_{m+1}, \ldots , x_n \} [/math] zu einer Orthonormalbasis des Gesamtraums [math]\C^{n}[/math] ergänzt werden kann. Mit der unitären Basistransformationsmatrix [math]S = ( x_1 \mid \cdots \mid x_n ) [/math] ergibt sich damit die transformierte Matrix

[math]C = S^{-1} A S = S^H A S = \left( \begin{array}{c|c} \lambda I & 0 \\ \hline 0 & X \end{array} \right)[/math]

als Blockdiagonalmatrix mit den Blöcken [math]\lambda I \in \C^{m \times m}[/math] und [math]X \in \C^{(n-m) \times (n-m)}[/math]. Für die Einträge [math]c_{jk}[/math] von [math]C[/math] mit [math]\min \{ j,k \} \leq m[/math] gilt nämlich mit der Selbstadjungiertheit von [math]A[/math] und der Orthonormalität der Basisvektoren [math]x_1, \ldots , x_n[/math]

[math]c_{jk} = \langle x_j, A x_k \rangle = \langle A x_j, x_k \rangle = \lambda \langle x_j, x_k \rangle = \lambda \delta_{jk} [/math],

wobei [math]\delta_{jk}[/math] das Kronecker-Delta darstellt. Da [math]x_{m+1}, \ldots , x_n[/math] nach Voraussetzung keine Eigenvektoren zum Eigenwert [math]\lambda[/math] von [math]A[/math] sind, kann [math]\lambda[/math] kein Eigenwert von [math]X[/math] sein. Die Matrix [math]C[/math] besitzt daher nach der Determinantenformel für Blockmatrizen den Eigenwert [math]\lambda[/math] genau mit algebraischer Vielfachheit [math]m[/math] und aufgrund der Ähnlichkeit der beiden Matrizen damit auch [math]A[/math].[1]

Diagonalisierbarkeit

Nachdem bei einer hermiteschen Matrix [math]A \in \C^{n \times n}[/math] algebraische und geometrische Vielfachheiten aller Eigenwerte übereinstimmen und da Eigenvektoren zu verschiedenen Eigenwerten stets linear unabhängig sind, kann aus Eigenvektoren von [math]A[/math] eine Basis des [math]\C^n[/math] gebildet werden. Daher ist eine hermitesche Matrix stets diagonalisierbar, das heißt, es gibt eine reguläre Matrix [math]S \in \C^{n \times n}[/math] und eine Diagonalmatrix [math]D \in \C^{n \times n}[/math] (sogar [math]D \in \R^{n \times n}[/math]), sodass

[math]S^{-1} A S = D[/math]

gilt. Die Matrix [math]S = (x_1 \mid \cdots \mid x_n)[/math] hat dabei die Eigenvektoren [math]x_1, \ldots, x_n[/math] als Spalten und die Matrix [math]D = \operatorname{diag}(\lambda_1, \ldots , \lambda_n)[/math] hat die zu diesen Eigenvektoren jeweils zugehörigen Eigenwerte [math]\lambda_1, \ldots, \lambda_n [/math] auf der Diagonalen. Durch eine Permutation der Eigenvektoren kann dabei die Reihenfolge der Diagonaleinträge von [math]D[/math] beliebig gewählt werden. Daher sind zwei hermitesche Matrizen genau dann zueinander ähnlich, wenn sie die gleichen Eigenwerte besitzen. Weiterhin sind zwei hermitesche Matrizen genau dann simultan diagonalisierbar, wenn sie kommutieren.

Unitäre Diagonalisierbarkeit

Die Eigenvektoren [math]x_j, x_k[/math] zu zwei verschiedenen Eigenwerten [math]\lambda_j \neq \lambda_k[/math] einer hermiteschen Matrix [math]A \in \C^{n \times n}[/math] sind stets orthogonal. Es gilt nämlich wiederum mit der Selbstadjungiertheit von [math]A[/math]

[math]\lambda_j \langle x_j, x_k \rangle = \langle \lambda_j x_j, x_k \rangle = \langle A x_j, x_k \rangle = \langle x_j, A x_k \rangle = \langle x_j, \lambda_k x_k \rangle = \lambda_k \langle x_j, x_k \rangle[/math].

Da [math]\lambda_j[/math] und [math]\lambda_k[/math] als verschieden angenommen wurden folgt daraus dann [math]\langle x_j, x_k \rangle = 0[/math]. Daher kann aus Eigenvektoren von [math]A[/math] eine Orthonormalbasis des [math]\C^n[/math] gebildet werden. Damit ist eine hermitesche Matrix sogar unitär diagonalisierbar, das heißt, es gibt eine unitäre Matrix [math]S[/math], mit der

[math]S^H A S = D[/math]

gilt. Diese Darstellung bildet die Grundlage für die Hauptachsentransformation und ist die einfachste Version des Spektralsatzes.

Kenngrößen

Aufgrund der Diagonalisierbarkeit einer hermiteschen Matrix [math]A \in \C^{n \times n}[/math] gilt für ihre Spur

[math]\operatorname{spur}(A) = \lambda_1 + \ldots + \lambda_n[/math]

und für ihre Determinante entsprechend

[math]\det(A) = \lambda_1 \cdot \ldots \cdot \lambda_n[/math].

Spur und Determinante einer hermiteschen Matrix sind demnach stets reell. Der Rang einer hermiteschen Matrix ist gleich der Anzahl der Eigenwerte ungleich Null, also mit dem Kronecker-Delta

[math]\operatorname{rang}(A) = n - \left( \delta_{\lambda_1,0} + \ldots + \delta_{\lambda_n,0} \right)[/math].

Eine hermitesche Matrix ist genau dann invertierbar wenn keiner ihrer Eigenwerte Null ist. Die Spektralnorm einer hermiteschen Matrix ist

[math]\| A \|_2 = \max \{ | \lambda_1 |, \ldots , | \lambda_n | \}[/math]

und damit gleich dem Spektralradius der Matrix. Die Frobeniusnorm ergibt sich aufgrund der Normalität entsprechend zu

[math]\| A \|_F = \sqrt{ \lambda_1^2 + \ldots + \lambda_n^2}[/math].

Abschätzungen

Nach dem Satz von Courant-Fischer liefert der Rayleigh-Quotient Abschätzungen für den kleinsten und den größten Eigenwert einer hermiteschen Matrix [math]A \in \C^{n \times n}[/math] der Form

[math]\min\{ \lambda_1, \ldots , \lambda_n\} \leq \frac{\langle x, Ax \rangle}{\langle x,x \rangle} \leq \max\{ \lambda_1, \ldots , \lambda_n\}[/math]

für alle [math]x \in \C^n[/math] mit [math]x \neq 0[/math]. Gleichheit gilt dabei jeweils genau dann, wenn [math]x[/math] ein Eigenvektor zum jeweiligen Eigenwert ist. Der kleinste und der größte Eigenwert einer hermiteschen Matrix kann demnach durch Minimierung beziehungsweise Maximierung des Rayleigh-Quotienten ermittelt werden. Eine weitere Möglichkeit zur Eigenwertabschätzung bieten die Gerschgorin-Kreise, die für hermitesche Matrizen die Form von Intervallen haben.

Definitheit

Hauptartikel: Definitheit

Ist [math]A \in \C^{n \times n}[/math] eine hermitesche Matrix, dann wird der Ausdruck

[math]Q_A(x) = x^H A x = \langle x, Ax \rangle[/math]

mit [math]x \in \C^n[/math] quadratische Form von [math]A[/math] genannt. Je nachdem ob [math]Q_A(x)[/math] größer als, größer gleich, kleiner als oder kleiner gleich null für alle [math]x \neq 0[/math] ist, heißt die Matrix [math]A[/math] positiv definit, positiv semidefinit, negativ definit oder negativ semidefinit. Kann [math]Q_A(x)[/math] sowohl positive, als auch negative Vorzeichen annehmen, so heißt [math]A[/math] indefinit. Die Definitheit einer hermiteschen Matrix kann anhand der Vorzeichen ihrer Eigenwerte ermittelt werden. Sind alle Eigenwerte positiv, ist die Matrix positiv definit, sind sie alle negativ, ist die Matrix negativ definit und so weiter. Das Tripel bestehend aus den Anzahlen der positiven, negativen und Null-Eigenwerte einer hermiteschen Matrix wird Signatur der Matrix genannt. Nach dem Trägheitssatz von Sylvester bleibt die Signatur einer hermiteschen Matrix unter Kongruenztransformationen erhalten.

Verwendung

Hermitesche Sesquilinearformen

Ist [math]V[/math] ein [math]n[/math]-dimensionaler komplexer Vektorraum, dann lässt sich jede Sesquilinearform [math]b \colon V \times V \to \C[/math] nach Wahl einer Basis [math]\{ v_1, \ldots , v_n \}[/math] für [math]V[/math] durch die Darstellungsmatrix

[math]A_b = ( b(v_j, v_k) ) \in \C^{n \times n}[/math]

beschreiben. Ist die Sesquilinearform hermitesch, gilt also [math]b(v,w)=\overline{b(w,v)}[/math] für alle [math]v, w \in V[/math], dann ist auch die Darstellungsmatrix [math]A_b[/math] hermitesch. Umgekehrt definiert jede hermitesche Matrix [math]A \in \C^{n \times n}[/math] mittels

[math]b_A(x,y) = x^H A y[/math]

eine hermitesche Sesquilinearform [math]b_A \colon \C^n \times \C^n \to \C[/math]. Ist eine hermitesche Matrix [math]A \in \C^{n \times n}[/math] zudem positiv definit, dann stellt [math]b_A[/math] ein Skalarprodukt im unitären Raum [math]\C^n[/math] dar.

Selbstadjungierte Abbildungen

Ist [math](V, \langle \cdot, \cdot \rangle)[/math] ein [math]n[/math]-dimensionaler komplexer Skalarproduktraum, dann lässt sich jede lineare Abbildung [math]f \colon V \to V[/math] nach Wahl einer Orthonormalbasis [math]\{ e_1, \ldots , e_n \}[/math] für [math]V[/math] durch die Abbildungsmatrix

[math]A_f = ( a_{jk} ) \in \C^{n \times n}[/math]

darstellen, wobei [math]f(e_k) = a_{1k}e_1 + \ldots + a_{nk}e_n[/math] für [math]k=1, \ldots , n[/math] ist. Die Abbildungsmatrix [math]A_f[/math] ist nun genau dann hermitesch, wenn die Abbildung [math]f[/math] selbstadjungiert ist. Dies folgt aus

[math]\langle f(v), w \rangle = (A_fx)^Hy = x^HA_f^Hy = x^HA_fy = x^H(A_fy) = \langle v, f(w) \rangle[/math],

wobei [math]v=x_1 e_1+ \ldots + x_n e_n[/math] und [math]w=y_1 e_1 + \ldots + y_n e_n[/math] sind.

Projektionen und Spiegelungen

Ist wieder [math]( V, \langle \cdot , \cdot \rangle )[/math] ein [math]n[/math]-dimensionaler komplexer Skalarproduktraum und ist [math]U[/math] ein [math]m[/math]-dimensionaler Untervektorraum von [math]V[/math], wobei [math]x_1, \ldots , x_m[/math] die Koordinatenvektoren einer Orthonormalbasis für [math]U[/math] sind, dann ist die Orthogonalprojektionsmatrix auf diesen Untervektorraum

[math]A_U = x_1 x_1^H + \ldots + x_m x_m^H \in \C^{n \times n}[/math]

als Summe hermitescher Rang-Eins-Matrizen ebenfalls hermitesch. Auch die Orthogonalprojektionsmatrix auf den Komplementärraum [math]U^\bot[/math] ist aufgrund der Darstellung [math]A_{U^\bot}=I-A_U[/math] stets hermitesch. Mit Hilfe der Projektionsmatrizen [math]A_U[/math] und [math]A_{U^\perp}[/math] lässt sich jeder Vektor [math]v \in V[/math] in zueinander orthogonale Vektoren [math]u \in U[/math] und [math]u^\perp \in U^\perp[/math] zerlegen. Auch die Spiegelungsmatrix [math]I-2A_U[/math] an einem Untervektorraum [math]U[/math] ist stets hermitesch.

Lineare Gleichungssysteme

Das Auffinden der Lösung eines linearen Gleichungssystems [math]Ax=b[/math] mit hermitescher Koeffizientenmatrix [math]A[/math] vereinfacht sich, wenn man die Hermitizität der Koeffizientenmatrix ausnutzt. Auf Grund der Hermitizität lässt sich die Koeffizientenmatrix [math]A[/math] als Produkt

[math]A = LDL^H[/math]

mit einer unteren Dreiecksmatrix [math]L[/math] mit lauter Einsen auf der Diagonale und einer Diagonalmatrix [math]D[/math] schreiben. Diese Zerlegung wird beispielsweise bei der Cholesky-Zerlegung positiv definiter hermitescher Matrizen verwendet, um die Lösung des Gleichungssystems zu berechnen. Beispiele moderner Verfahren zur numerischen Lösung großer linearer Gleichungssysteme mit dünnbesetzter hermitescher Koeffizientenmatrix sind das CG-Verfahren und das MINRES-Verfahren.

Polarzerlegung

Jede quadratische Matrix [math]A \in \C^{n \times n}[/math] kann mittels der Polarzerlegung auch als Produkt

[math]A = Q P[/math]

einer unitären Matrix [math]Q \in \C^{n \times n}[/math] und einer positiv semidefiniten hermiteschen Matrix [math]P \in \C^{n \times n}[/math] faktorisiert werden. Die Matrix [math]P[/math] ergibt sich dabei als die Quadratwurzel von [math]A^HA[/math]. Ist [math]A[/math] regulär, so ist [math]P[/math] positiv definit und die Polarzerlegung eindeutig mit [math]Q = A P^{-1}[/math].

Quantenmechanik

Die in der Quantenmechanik verwendeten Pauli-Matrizen

[math] \sigma_1 = \begin{pmatrix} 0 & 1\\ 1 & 0 \end{pmatrix},\quad \sigma_2 = \begin{pmatrix} 0 & -\mathrm{i}\\ \mathrm{i} & 0 \end{pmatrix},\quad \sigma_3 = \begin{pmatrix} 1 & 0\\ 0 & -1 \end{pmatrix} [/math]

sind hermitesch und spurfrei. Die Pauli-Matrizen werden unter anderem zur Beschreibung von Isospin-Symmetrien verwendet. Die Gell-Mann-Matrizen sind hermitesche [math](3 \times 3)[/math]-Matrizen, die in der Quantenchromodynamik eingesetzt werden.

Siehe auch

Literatur

  • Gerd Fischer: Lineare Algebra. (Eine Einführung für Studienanfänger). 13. durchgesehene Auflage. Vieweg, Braunschweig u. a. 2002, ISBN 3-528-97217-3.
  • Roger A. Horn, Charles R. Johnson: Matrix Analysis. Cambridge University Press, 2012, ISBN 0-521-46713-6.
  • Hans-Rudolf Schwarz, Norbert Köckler: Numerische Mathematik. 5. überarbeitete Auflage. Teubner, Stuttgart u. a. 2004, ISBN 3-519-42960-8.

Einzelnachweise

  1. Howard Anton, Chris Rorres: Elementary Linear Algebra: Applications Version. John Wiley & Sons, 2010, S. 404–405.

Weblinks


Kategorien: Keine Kategorien vorhanden!

Quelle: Wikipedia - http://de.wikipedia.org/wiki/Hermitesche Matrix (Vollständige Liste der Autoren des Textes [Versionsgeschichte])    Lizenz: CC-by-sa-3.0

Änderungen: Alle Bilder mit den meisten Bildunterschriften wurden entfernt. Ebenso alle zu nicht-existierenden Artikeln/Kategorien gehenden internen Wikipedia-Links (Bsp. Portal-Links, Redlinks, Bearbeiten-Links). Entfernung von Navigationsframes, Geo & Normdaten, Mediadateien, gesprochene Versionen, z.T. ID&Class-Namen, Style von Div-Containern, Metadaten, Vorlagen, wie lesenwerte Artikel. Ansonsten sind keine Inhaltsänderungen vorgenommen worden. Weiterhin kann es durch die maschinelle Bearbeitung des Inhalts zu Fehlern gerade in der Darstellung kommen. Darum würden wir jeden Besucher unserer Seite darum bitten uns diese Fehler über den Support mittels einer Nachricht mit Link zu melden. Vielen Dank!

Stand der Informationen: August 201& - Wichtiger Hinweis: Da die Inhalte maschinell von Wikipedia übernommen wurden, ist eine manuelle Überprüfung nicht möglich. Somit garantiert LinkFang.de nicht die Richtigkeit und Aktualität der übernommenen Inhalte. Sollten die Informationen mittlerweile fehlerhaft sein, bitten wir Sie darum uns per Support oder E-Mail zu kontaktieren. Wir werden uns dann innerhalb von spätestens 10 Tagen um Ihr Anliegen kümmern. Auch ohne Anliegen erfolgt mindestens alle drei Monate ein Update der gesamten Inhalte.