aboutsummaryrefslogtreecommitdiffstats
path: root/buch/chapters/40-eigenwerte/grundlagen.tex
diff options
context:
space:
mode:
authorAndreas Müller <andreas.mueller@ost.ch>2021-09-02 11:40:57 +0200
committerAndreas Müller <andreas.mueller@ost.ch>2021-09-02 11:40:57 +0200
commit115c239a21c58b96eced43bfc627ab70c68538ea (patch)
tree002be13dbeb4b718da515d0f6bf16700f781c073 /buch/chapters/40-eigenwerte/grundlagen.tex
parentsection 5.1 (diff)
downloadSeminarMatrizen-115c239a21c58b96eced43bfc627ab70c68538ea.tar.gz
SeminarMatrizen-115c239a21c58b96eced43bfc627ab70c68538ea.zip
section 5.2
Diffstat (limited to '')
-rw-r--r--buch/chapters/40-eigenwerte/grundlagen.tex544
1 files changed, 0 insertions, 544 deletions
diff --git a/buch/chapters/40-eigenwerte/grundlagen.tex b/buch/chapters/40-eigenwerte/grundlagen.tex
index 41e78ab..91294f1 100644
--- a/buch/chapters/40-eigenwerte/grundlagen.tex
+++ b/buch/chapters/40-eigenwerte/grundlagen.tex
@@ -706,547 +706,3 @@ N_3.
\]
\end{beispiel}
-%%
-%% Begriff des Eigenwertes und Eigenvektors
-%%
-%\section{Eigenwerte und Eigenvektoren
-%\label{buch:section:eigenwerte-und-eigenvektoren}}
-%In diesem Abschnitt betrachten wir Vektorräume $V=\Bbbk^n$ über einem
-%beliebigen Körper $\Bbbk$ und quadratische Matrizen
-%$A\in M_n(\Bbbk)$.
-%In den meisten Anwendungen wird $\Bbbk=\mathbb{R}$ sein.
-%Da aber in $\mathbb{R}$ nicht alle algebraischen Gleichungen lösbar sind,
-%ist es manchmal notwendig, den Vektorraum zu erweitern um zum Beispiel
-%Eigenschaften der Matrix $A$ abzuleiten.
-%
-%\begin{definition}
-%Ein Vektor $v\in V$ heisst {\em Eigenvektor} von $A$ zum Eigenwert
-%$\lambda\in\Bbbk$, wenn $v\ne 0$ und $Av=\lambda v$ gilt.
-%\end{definition}
-%
-%Die Bedingung $v\ne 0$ dient dazu, pathologische Situationen auszuschliessen.
-%Für den Nullvektor gilt $A0=\lambda 0$ für jeden beliebigen Wert von
-%$\lambda\in\Bbbk$.
-%Würde man $v=0$ zulassen, wäre jede Zahl in $\Bbbk$ ein Eigenwert,
-%ein Eigenwert von $A$ wäre nichts besonderes.
-%Ausserdem wäre $0$ ein Eigenvektor zu jedem beliebigen Eigenwert.
-%
-%Eigenvektoren sind nicht eindeutig bestimmt, jedes von $0$ verschiedene
-%Vielfache von $v$ ist ebenfalls ein Eigenvektor.
-%Zu einem Eigenwert kann man also einen Eigenvektor jeweils mit
-%geeigneten Eigenschaften finden, zum Beispiel kann man für $\Bbbk = \mathbb{R}$
-%Eigenvektoren auf Länge $1$ normieren.
-%Im Folgenden werden wir oft die abkürzend linear unabhängige Eigenvektoren
-%einfach als ``verschiedene'' Eigenvektoren bezeichnen.
-%
-%Wenn $v$ ein Eigenvektor von $A$ zum Eigenwert $\lambda$ ist, dann kann
-%man ihn mit zusätzlichen Vektoren $v_2,\dots,v_n$ zu einer Basis
-%$\mathcal{B}=\{v,v_2,\dots,v_n\}$
-%von $V$ ergänzen.
-%Die Vektoren $v_k$ mit $k=2,\dots,n$ werden von $A$ natürlich auch
-%in den Vektorraum $V$ abgebildet, können also als Linearkombinationen
-%\[
-%Av = a_{1k}v + a_{2k}v_2 + a_{3k}v_3 + \dots a_{nk}v_n
-%\]
-%dargestellt werden.
-%In der Basis $\mathcal{B}$ bekommt die Matrix $A$ daher die Form
-%\[
-%A'
-%=
-%\begin{pmatrix}
-%\lambda&a_{12}&a_{13}&\dots &a_{1n}\\
-% 0 &a_{22}&a_{23}&\dots &a_{2n}\\
-% 0 &a_{32}&a_{33}&\dots &a_{3n}\\
-%\vdots &\vdots&\vdots&\ddots&\vdots\\
-% 0 &a_{n2}&a_{n3}&\dots &a_{nn}
-%\end{pmatrix}.
-%\]
-%Bereits ein einzelner Eigenwert und ein zugehöriger Eigenvektor
-%ermöglichen uns also, die Matrix in eine etwas einfachere Form
-%zu bringen.
-%
-%\begin{definition}
-%Für $\lambda\in\Bbbk$ heisst
-%\[
-%E_\lambda
-%=
-%\{ v\;|\; Av=\lambda v\}
-%\]
-%der {\em Eigenraum} zum Eigenwert $\lambda$.
-%\index{Eigenraum}%
-%\end{definition}
-%
-%Der Eigenraum $E_\lambda$ ist ein Unterraum von $V$, denn wenn
-%$u,v\in E_\lambda$, dann ist
-%\[
-%A(su+tv)
-%=
-%sAu+tAv
-%=
-%s\lambda u + t\lambda v
-%=
-%\lambda(su+tv),
-%\]
-%also ist auch $su+tv\in E_\lambda$.
-%Der Fall $E_\lambda = \{0\}=0$ bedeutet natürlich, dass $\lambda$ gar kein
-%Eigenwert ist.
-%
-%\begin{satz}
-%Wenn $\dim E_\lambda=n$, dann ist $A=\lambda E$.
-%\end{satz}
-%
-%\begin{proof}[Beweis]
-%Da $V$ ein $n$-dimensionaler Vektoraum ist, ist $E_\lambda=V$.
-%Jeder Vektor $v\in V$ erfüllt also die Bedingung $Av=\lambda v$,
-%oder $A=\lambda E$.
-%\end{proof}
-%
-%Wenn man die Eigenräume von $A$ kennt, dann kann man auch die Eigenräume
-%von $A+\mu E$ berechnen.
-%Ein Vektor $v\in E_\lambda$ erfüllt
-%\[
-%Av=\lambda v
-%\qquad\Rightarrow\qquad
-%(A+\mu)v = \lambda v + \mu v
-%=
-%(\lambda+\mu)v,
-%\]
-%somit ist $v$ ein Eigenvektor von $A+\mu E$ zum Eigenwert $\lambda+\mu$.
-%Insbesondere können wir statt die Eigenvektoren von $A$ zum Eigenwert $\lambda$
-%zu studieren, auch die Eigenvektoren zum Eigenwert $0$ von $A-\lambda E$
-%untersuchen.
-%
-%%
-%% Invariante Räume
-%%
-%\subsection{Verallgemeinerte Eigenräume
-%\label{buch:subsection:verallgemeinerte-eigenraeume}}
-%Wenn $\lambda$ ein Eigenwert der Matrix $A$ ist, dann ist
-%ist $A-\lambda E$ injektiv und $\ker(A-\lambda E)\ne 0$.
-%Man kann daher die invarianten Unterräume $\mathcal{K}(A-\lambda E)$
-%und $\mathcal{J}(A-\lambda E)$.
-%
-%\begin{beispiel}
-%Wir untersuchen die Matrix
-%\[
-%A
-%=
-%\begin{pmatrix}
-%1&1&-1&0\\
-%0&3&-1&1\\
-%0&2& 0&1\\
-%0&0& 0&2
-%\end{pmatrix}
-%\]
-%Man kann zeigen, dass $\lambda=1$ ein Eigenwert ist.
-%Wir suchen die Zerlegung des Vektorraums $\mathbb{R}^4$ in invariante
-%Unterräume $\mathcal{K}(A-E)$ und $\mathcal{J}(A-E)$.
-%Die Matrix $B=A-E$ ist
-%\[
-%B
-%=
-%\begin{pmatrix}
-%0&1&-1&0\\
-%0&2&-1&1\\
-%0&2&-1&1\\
-%0&0& 0&2
-%\end{pmatrix}
-%\]
-%und wir berechnen davon die Potenz
-%\[
-%D=B^4=(A-E)^4
-%=
-%\begin{pmatrix}
-%0&0& 0&0\\
-%0&2&-1&4\\
-%0&2&-1&4\\
-%0&0& 0&1
-%\end{pmatrix}.
-%\]
-%Daraus kann man ablesen, dass das Bild $\operatorname{im}D$
-%von $D$ die Basis
-%\[
-%b_1
-%=
-%\begin{pmatrix}
-%0\\0\\0\\1
-%\end{pmatrix}
-%, \qquad
-%b_2
-%=
-%\begin{pmatrix}
-%0\\1\\1\\0
-%\end{pmatrix}
-%\]
-%hat.
-%Für den Kern von $D$ können wir zum Beispiel die Basisvektoren
-%\[
-%b_3
-%=
-%\begin{pmatrix}
-%0\\1\\2\\0
-%\end{pmatrix}
-%,\qquad
-%b_4
-%=
-%\begin{pmatrix}
-%1\\0\\0\\0
-%\end{pmatrix}
-%\]
-%verwenden.
-%
-%Als erstes überprüfen wir, ob diese Basisvektoren tatsächlich invariante
-%Unterräume sind.
-%Für $\mathcal{J}(A-E) = \langle b_1,b_2\rangle$
-%berechnen wir
-%\begin{align*}
-%(A-E)b_1
-%&=
-%\begin{pmatrix} 0\\4\\4\\1 \end{pmatrix}
-%=
-%4b_2+b_1,
-%\\
-%(A-E)b_2
-%&=
-%\begin{pmatrix} 0\\1\\1\\0 \end{pmatrix}
-%=
-%b_2.
-%\end{align*}
-%Dies beweist, dass $\mathcal{J}(A-E)$ invariant ist.
-%In dieser Basis hat die von $A-E$ beschriebene lineare Abbildung
-%auf $\mathcal{J}(A-E)$ die Matrix
-%\[
-%A_{\mathcal{J}(A-E)}
-%=
-%\begin{pmatrix}
-%1&4\\
-%0&1
-%\end{pmatrix}.
-%\]
-%
-%Für den Kern $\mathcal{K}(A-E)$ findet man analog
-%\[
-%\left.
-%\begin{aligned}
-%Ab_3
-%&=
-%-b_4
-%\\
-%Ab_4
-%&=0
-%\end{aligned}
-%\quad\right\}
-%\qquad\Rightarrow\qquad
-%A_{\mathcal{K}(A-E)}
-%=
-%\begin{pmatrix}
-%0&-1\\
-%0& 0
-%\end{pmatrix}.
-%\]
-%In der Basis $\mathcal{B}=\{b_1,b_2,b_3,b_4\}$ hat $A$ die Matrix
-%in Blockform
-%\[
-%A'
-%=
-%\left(
-%\begin{array}{cc|cr}
-%2&4& & \\
-%0&2& & \\
-%\hline
-% & &1&-1\\
-% & &0& 1
-%\end{array}\right),
-%\]
-%die Blöcke gehören zu den invarianten Unterräumen $\mathcal{K}(A-E)$
-%und $\mathcal{K}(A-E)$.
-%Die aus $A-E$ gewonnen invarianten Unterräume sind offenbar auch invariante
-%Unterräume für $A$.
-%\end{beispiel}
-%
-%\begin{definition}
-%Ist $A$ eine Matrix mit Eigenwert $\lambda$, dann heisst der invariante
-%Unterraum
-%\[
-%\mathcal{E}_{\lambda}(A)
-%=
-%\mathcal{K}(A-\lambda E)
-%\]
-%der verallgemeinerte Eigenraum von $A$.
-%\end{definition}
-%
-%Es ist klar, dass
-%$E_\lambda(A)=\ker (A-\lambda E)\subset\mathcal{E}_{\lambda}(A)$.
-%
-%\subsection{Zerlegung in invariante Unterräume
-%\label{buch:subsection:zerlegung-in-invariante-unterraeume}}
-%Wenn $\lambda$ kein Eigenwert von $A$ ist, dann ist $A-\lambda E$
-%injektiv und damit $\ker(A-\lambda E)=0$.
-%Es folgt, dass $\mathcal{K}^i(A-\lambda E)=0$ und daher auch
-%$\mathcal{J}^i(A-\lambda E)=V$.
-%Die Zerlegung in invariante Unterräume $\mathcal{J}(A-\lambda E)$ und
-%$\mathcal{K}(A-\lambda E)$ liefert in diesem Falle also nichts Neues.
-%
-%Für einen Eigenwert $\lambda_1$ von $A$ dagegen, erhalten wir die Zerlegung
-%\[
-%V
-%=
-%\mathcal{E}_{\lambda_1}(A)
-%\oplus
-%\underbrace{\mathcal{J}(A-\lambda_1 E)}_{\displaystyle =V_2},
-%\]
-%wobei $\mathcal{E}_{\lambda_1}(A)\ne 0$ ist.
-%Die Matrix $A-\lambda_1 E$ ist eingeschränkt auf $\mathcal{E}_{\lambda_1}(A)$
-%nilpotent.
-%Die Zerlegung in invariante Unterräume ist zwar mit Hilfe von $A-\lambda_1E$
-%gewonnen worden, ist aber natürlich auch eine Zerlegung in invariante
-%Unterräume für $A$.
-%Wir können daher das Problem auf $V_2$ einschränken und nach einem weiteren
-%Eigenwert $\lambda_2$ von $A$ in $V_2$ suchen, was wieder eine Zerlegung
-%in invariante Unterräume liefert.
-%Indem wir so weiterarbeiten, bis wir den ganzen Raum ausgeschöpft haben,
-%können wir eine Zerlegung des ganzen Raumes $V$ finden, so dass $A$ auf
-%jedem einzelnen Summanden eine sehr einfach Form hat:
-%
-%\begin{satz}
-%\label{buch:eigenwerte:satz:zerlegung-in-eigenraeume}
-%Sei $V$ ein $\Bbbk$-Vektorraum und $f$ eine lineare Abbildung mit Matrix
-%$A$ derart, dass alle Eigenwerte $\lambda_1,\dots,\lambda_l$ von $A$
-%in $\Bbbk$ sind.
-%Dann gibt es eine Zerlegung von $V$ in verallgemeinerte Eigenräume
-%\[
-%V
-%=
-%\mathcal{E}_{\lambda_1}(A)
-%\oplus
-%\mathcal{E}_{\lambda_2}(A)
-%\oplus
-%\dots
-%\oplus
-%\mathcal{E}_{\lambda_l}(A).
-%\]
-%Die Einschränkung von $A-\lambda_{i}E$ auf den Eigenraum
-%$\mathcal{E}_{\lambda_i}(A)$ ist nilpotent.
-%\end{satz}
-%
-%\subsection{Das charakteristische Polynom
-%\label{buch:subsection:das-charakteristische-polynom}}
-%Ein Eigenvektor von $A$ erfüllt $Av=\lambda v$ oder gleichbedeutend
-%$(A-\lambda E)v=0$, er ist also eine nichttriviale Lösung des homogenen
-%Gleichungssystems mit Koeffizientenmatrix $A-\lambda E$.
-%Ein Eigenwert ist also ein Skalar derart, dass $A-\lambda E$
-%singulär ist.
-%Ob eine Matrix singulär ist, kann mit der Determinante festgestellt
-%werden.
-%Die Eigenwerte einer Matrix $A$ sind daher die Nullstellen
-%von $\det(A-\lambda E)$.
-%
-%\begin{definition}
-%Das {\em charakteristische Polynom}
-%\[
-%\chi_A(x)
-%=
-%\det (A-x E)
-%=
-%\left|
-%\begin{matrix}
-%a_{11}-x & a_{12} & \dots & a_{1n} \\
-%a_{21} & a_{22}-x & \dots & a_{2n} \\
-%\vdots &\vdots &\ddots & \vdots \\
-%a_{n1} & a_{n2} &\dots & a_{nn}-x
-%\end{matrix}
-%\right|.
-%\]
-%der Matrix $A$ ist ein Polynom vom Grad $n$ mit Koeffizienten in $\Bbbk$.
-%\end{definition}
-%
-%Findet man eine Nullstelle $\lambda\in\Bbbk$ von $\chi_A(x)$,
-%dann ist die Matrix $A-\lambda E\in M_n(\Bbbk)$ und mit dem Gauss-Algorithmus
-%kann man auch mindestens einen Vektor $v\in \Bbbk^n$ finden,
-%der $Av=\lambda v$ erfüllt.
-%Eine Matrix der Form wie in Satz~\ref{buch:eigenwerte:satz:jordanblock}
-%hat
-%\[
-%\chi_A(x)
-%=
-%\left|
-%\begin{matrix}
-%\lambda-x & 1 & & & & \\
-% & \lambda-x & 1 & & & \\
-% & & \lambda-x & & & \\
-% & & &\ddots& & \\
-% & & & &\lambda-x& 1 \\
-% & & & & &\lambda-x
-%\end{matrix}
-%\right|
-%=
-%(\lambda-x)^n
-%=
-%(-1)^n (x-\lambda)^n
-%\]
-%als charakteristisches Polynom, welches $\lambda$ als einzige
-%Nullstelle hat.
-%Der Eigenraum der Matrix ist aber nur eindimensional, man kann also
-%im Allgemeinen für jede Nullstelle des charakteristischen Polynoms
-%nicht mehr als einen Eigenvektor (d.~h.~einen eindimensionalen Eigenraum)
-%erwarten.
-%
-%Wenn das charakteristische Polynom von $A$ keine Nullstellen in $\Bbbk$ hat,
-%dann kann es auch keine Eigenvektoren in $\Bbbk^n$ geben.
-%Gäbe es nämlich einen solchen Vektor, dann müsste eine der Komponenten
-%des Vektors von $0$ verschieden sein, wir nehmen an, dass es die Komponente
-%in Zeile $k$ ist.
-%Die Komponente $v_k$ kann man auf zwei Arten berechnen, einmal als
-%die $k$-Komponenten von $Av$ und einmal als $k$-Komponente von $\lambda v$:
-%\[
-%a_{k1}v_1+\dots+a_{kn}v_n = \lambda v_k.
-%\]
-%Da $v_k\ne 0$ kann man nach $\lambda$ auflösen und erhält
-%\[
-%\lambda = \frac{a_{k1}v_1+\dots + a_{kn}v_n}{v_k}.
-%\]
-%Alle Terme auf der rechten Seite sind in $\Bbbk$ und werden nur mit
-%Körperoperationen in $\Bbbk$ verknüpft, also muss auch $\lambda\in\Bbbk$
-%sein, im Widerspruch zur Annahme.
-%
-%Durch Hinzufügen von geeigneten Elementen können wir immer zu einem
-%Körper $\Bbbk'$ übergehen, in dem das charakteristische Polynom
-%in Linearfaktoren zerfällt.
-%In diesem Körper kann man jetzt das homogene lineare Gleichungssystem
-%mit Koeffizientenmatrix $A-\lambda E$ lösen und damit mindestens
-%einen Eigenvektor $v$ für jeden Eigenwert finden.
-%Die Komponenten von $v$ liegen in $\Bbbk'$, und mindestens eine davon kann
-%nicht in $\Bbbk$ liegen.
-%Das bedeutet aber nicht, dass man diese Vektoren nicht für theoretische
-%Überlegungen über von $\Bbbk'$ unabhängige Eigenschaften der Matrix $A$ machen.
-%Das folgende Beispiel soll diese Idee illustrieren.
-%
-%\begin{beispiel}
-%Wir arbeiten in diesem Beispiel über dem Körper $\Bbbk=\mathbb{Q}$.
-%Die Matrix
-%\[
-%A=\begin{pmatrix}
-%-4&7\\
-%-2&4
-%\end{pmatrix}
-%\in
-%M_2(\mathbb{Q})
-%\]
-%hat das charakteristische Polynom
-%\[
-%\chi_A(x)
-%=
-%\left|
-%\begin{matrix}
-%-4-x&7\\-2&4-x
-%\end{matrix}
-%\right|
-%=
-%(-4-x)(4-x)-7\cdot(-2)
-%=
-%-16+x^2+14
-%=
-%x^2-2.
-%\]
-%Die Nullstellen sind $\pm\sqrt{2}$ und damit nicht in $\mathbb{Q}$.
-%Wir gehen daher über zum Körper $\mathbb{Q}(\!\sqrt{2})$, in dem
-%sich zwei Nullstellen $\lambda=\pm\sqrt{2}$ finden lassen.
-%Zu jedem Eigenwert lässt sich auch ein Eigenvektor
-%$v_{\pm\sqrt{2}}\in \mathbb{Q}(\!\sqrt{2})^2$, und unter Verwendung dieser
-%Basis bekommt die Matrix $A'=TAT^{-1}$ Diagonalform.
-%Die Transformationsmatrix $T$ enthält Matrixelemente aus
-%$\mathbb{Q}(\!\sqrt{2})$, die nicht in $\mathbb{Q}$ liegen.
-%Die Matrix $A$ lässt sich also über dem Körper $\mathbb{Q}(\!\sqrt{2})$
-%diagonalisieren, nicht aber über dem Körper $\mathbb{Q}$.
-%
-%Da $A'$ Diagonalform hat mit $\pm\sqrt{2}$ auf der Diagonalen, folgt
-%$A^{\prime 2} = 2E$, die Matrix $A'$ erfüllt also die Gleichung
-%\begin{equation}
-%A^{\prime 2}-E= \chi_{A}(A) = 0.
-%\label{buch:grundlagen:eqn:cayley-hamilton-beispiel}
-%\end{equation}
-%Dies is ein Spezialfall des Satzes von Cayley-Hamilton
-%(Satz~\ref{buch:normalformen:satz:cayley-hamilton})
-%welcher besagt, dass jede Matrix $A$ eine Nullstelle ihres
-%charakteristischen Polynoms ist: $\chi_A(A)=0$.
-%Die Gleichung~\ref{buch:grundlagen:eqn:cayley-hamilton-beispiel}
-%wurde zwar in $\mathbb{Q}(\!\sqrt{2})$ hergeleitet, aber in ihr kommen
-%keine Koeffizienten aus $\mathbb{Q}(\!\sqrt{2})$ vor, die man nicht auch
-%in $\mathbb{Q}$ berechnen könnte.
-%Sie gilt daher ganz allgemein.
-%\end{beispiel}
-%
-%\begin{beispiel}
-%Die Matrix
-%\[
-%A=\begin{pmatrix}
-%32&-41\\
-%24&-32
-%\end{pmatrix}
-%\in
-%M_2(\mathbb{R})
-%\]
-%über dem Körper $\Bbbk = \mathbb{R}$
-%hat das charakteristische Polynom
-%\[
-%\det(A-xE)
-%=
-%\left|
-%\begin{matrix}
-%32-x&-41 \\
-%25 &-32-x
-%\end{matrix}
-%\right|
-%=
-%(32-x)(-32-x)-25\cdot(-41)
-%=
-%x^2-32^2 + 1025
-%=
-%x^2+1.
-%\]
-%Die charakteristische Gleichung $\chi_A(x)=0$ hat in $\mathbb{R}$
-%keine Lösungen, daher gehen wir zum Körper $\Bbbk'=\mathbb{C}$ über,
-%in dem dank dem Fundamentalsatz der Algebra alle Nullstellen zu finden
-%sind, sie sind $\pm i$.
-%In $\mathbb C$ lassen sich dann auch Eigenvektoren finden, man muss dazu die
-%folgenden linearen Gleichungssyteme lösen:
-%\begin{align*}
-%\begin{tabular}{|>{$}c<{$}>{$}c<{$}|}
-%32-i&-41\\
-%25 &-32-i
-%\end{tabular}
-%&
-%\rightarrow
-%\begin{tabular}{|>{$}c<{$}>{$}c<{$}|}
-%1 & t\\
-%0 & 0
-%\end{tabular}
-%&
-%\begin{tabular}{|>{$}c<{$}>{$}c<{$}|}
-%32+i&-41\\
-%25 &-32+i
-%\end{tabular}
-%&
-%\rightarrow
-%\begin{tabular}{|>{$}c<{$}>{$}c<{$}|}
-%1 & \overline{t}\\
-%0 & 0
-%\end{tabular},
-%\intertext{wobei wir $t=-41/(32-i) =-41(32+i)/1025= -1.28 -0.04i = (64-1)/50$
-%abgekürzt haben.
-%Die zugehörigen Eigenvektoren sind}
-%v_i&=\begin{pmatrix}t\\i\end{pmatrix}
-%&
-%v_{-i}&=\begin{pmatrix}\overline{t}\\i\end{pmatrix}
-%\end{align*}
-%Mit den Vektoren $v_i$ und $v_{-i}$ als Basis kann die Matrix $A$ als
-%komplexe Matrix, also mit komplexem $T$ in die komplexe Diagonalmatrix
-%$A'=\operatorname{diag}(i,-i)$ transformiert werden.
-%Wieder kann man sofort ablesen, dass $A^{\prime2}+E=0$, und wieder kann
-%man schliessen, dass für die relle Matrix $A$ ebenfalls $\chi_A(A)=0$
-%gelten muss.
-%\end{beispiel}
-%
-%
-%
-%