aboutsummaryrefslogtreecommitdiffstats
path: root/buch/chapters/40-eigenwerte
diff options
context:
space:
mode:
Diffstat (limited to 'buch/chapters/40-eigenwerte')
-rw-r--r--buch/chapters/40-eigenwerte/Makefile.inc3
-rw-r--r--buch/chapters/40-eigenwerte/chapter.tex5
-rw-r--r--buch/chapters/40-eigenwerte/grundlagen.tex222
-rw-r--r--buch/chapters/40-eigenwerte/images/Makefile30
-rw-r--r--buch/chapters/40-eigenwerte/images/bild1.jpgbin0 -> 76315 bytes
-rw-r--r--buch/chapters/40-eigenwerte/images/bild2.jpgbin0 -> 87846 bytes
-rw-r--r--buch/chapters/40-eigenwerte/images/dimjk.pdfbin0 -> 23762 bytes
-rw-r--r--buch/chapters/40-eigenwerte/images/dimjk.tex78
-rw-r--r--buch/chapters/40-eigenwerte/images/drei.jpgbin0 -> 95383 bytes
-rw-r--r--buch/chapters/40-eigenwerte/images/jknilp.pdfbin0 -> 23241 bytes
-rw-r--r--buch/chapters/40-eigenwerte/images/jknilp.tex181
-rw-r--r--buch/chapters/40-eigenwerte/images/kern1.jpgbin0 -> 61717 bytes
-rw-r--r--buch/chapters/40-eigenwerte/images/kern2.jpgbin0 -> 87289 bytes
-rw-r--r--buch/chapters/40-eigenwerte/images/kernbild.pdfbin0 -> 189482 bytes
-rw-r--r--buch/chapters/40-eigenwerte/images/kernbild.tex40
-rw-r--r--buch/chapters/40-eigenwerte/images/kernbild1.jpgbin0 -> 84647 bytes
-rw-r--r--buch/chapters/40-eigenwerte/images/kernbild2.jpgbin0 -> 76111 bytes
-rw-r--r--buch/chapters/40-eigenwerte/images/kombiniert.jpgbin0 -> 117063 bytes
-rw-r--r--buch/chapters/40-eigenwerte/images/kombiniert.pdfbin0 -> 131131 bytes
-rw-r--r--buch/chapters/40-eigenwerte/images/kombiniert.tex48
-rw-r--r--buch/chapters/40-eigenwerte/images/minmax.pdfbin0 -> 53375 bytes
-rw-r--r--buch/chapters/40-eigenwerte/images/minmax.tex134
-rw-r--r--buch/chapters/40-eigenwerte/images/normalform.pdfbin0 -> 18132 bytes
-rw-r--r--buch/chapters/40-eigenwerte/images/normalform.tex214
-rw-r--r--buch/chapters/40-eigenwerte/images/sp.pdfbin24022 -> 24019 bytes
-rw-r--r--buch/chapters/40-eigenwerte/images/wa.m80
-rw-r--r--buch/chapters/40-eigenwerte/images/wurzel.pdfbin0 -> 19221 bytes
-rw-r--r--buch/chapters/40-eigenwerte/images/wurzel.tex94
-rw-r--r--buch/chapters/40-eigenwerte/images/wurzelapprox.pdfbin0 -> 33171 bytes
-rw-r--r--buch/chapters/40-eigenwerte/images/wurzelapprox.tex107
-rw-r--r--buch/chapters/40-eigenwerte/normalformen.tex254
-rw-r--r--buch/chapters/40-eigenwerte/spektralradius.tex6
-rw-r--r--buch/chapters/40-eigenwerte/spektraltheorie.tex797
-rw-r--r--buch/chapters/40-eigenwerte/uebungsaufgaben/4001.tex12
-rw-r--r--buch/chapters/40-eigenwerte/uebungsaufgaben/4003.tex30
-rw-r--r--buch/chapters/40-eigenwerte/uebungsaufgaben/4004.tex72
-rw-r--r--buch/chapters/40-eigenwerte/uebungsaufgaben/4005.tex151
-rw-r--r--buch/chapters/40-eigenwerte/uebungsaufgaben/4006.maxima121
-rw-r--r--buch/chapters/40-eigenwerte/uebungsaufgaben/4006.tex97
39 files changed, 2745 insertions, 31 deletions
diff --git a/buch/chapters/40-eigenwerte/Makefile.inc b/buch/chapters/40-eigenwerte/Makefile.inc
index b15f476..5f30ab5 100644
--- a/buch/chapters/40-eigenwerte/Makefile.inc
+++ b/buch/chapters/40-eigenwerte/Makefile.inc
@@ -12,4 +12,7 @@ CHAPTERFILES = $(CHAPTERFILES) \
chapters/40-eigenwerte/spektraltheorie.tex \
chapters/40-eigenwerte/uebungsaufgaben/4001.tex \
chapters/40-eigenwerte/uebungsaufgaben/4002.tex \
+ chapters/40-eigenwerte/uebungsaufgaben/4003.tex \
+ chapters/40-eigenwerte/uebungsaufgaben/4004.tex \
+ chapters/40-eigenwerte/uebungsaufgaben/4005.tex \
chapters/40-eigenwerte/chapter.tex
diff --git a/buch/chapters/40-eigenwerte/chapter.tex b/buch/chapters/40-eigenwerte/chapter.tex
index e769b38..24ea57d 100644
--- a/buch/chapters/40-eigenwerte/chapter.tex
+++ b/buch/chapters/40-eigenwerte/chapter.tex
@@ -34,8 +34,8 @@ Dies wird in Abschnitt~\ref{buch:section:spektraltheorie} beschrieben.
\input{chapters/40-eigenwerte/grundlagen.tex}
\input{chapters/40-eigenwerte/normalformen.tex}
\input{chapters/40-eigenwerte/spektralradius.tex}
-\input{chapters/40-eigenwerte/numerisch.tex}
\input{chapters/40-eigenwerte/spektraltheorie.tex}
+%\input{chapters/40-eigenwerte/numerisch.tex}
\section*{Übungsaufgaben}
\rhead{Übungsaufgaben}
@@ -44,5 +44,8 @@ Dies wird in Abschnitt~\ref{buch:section:spektraltheorie} beschrieben.
\uebungsaufgabe{4001}
\uebungsaufgabe{4002}
\uebungsaufgabe{4003}
+\uebungsaufgabe{4004}
+\uebungsaufgabe{4005}
+\uebungsaufgabe{4006}
\end{uebungsaufgaben}
diff --git a/buch/chapters/40-eigenwerte/grundlagen.tex b/buch/chapters/40-eigenwerte/grundlagen.tex
index d984452..69618a9 100644
--- a/buch/chapters/40-eigenwerte/grundlagen.tex
+++ b/buch/chapters/40-eigenwerte/grundlagen.tex
@@ -16,6 +16,36 @@ gestreckt werden.
Gelingt es, eine Basis aus solchen sogenanten {\em Eigenvektoren} zu finden,
dann kann man die Matrix $A$ durch Basiswechsel in diese Form bringen.
+\begin{figure}
+\centering
+\includegraphics[width=\textwidth]{chapters/40-eigenwerte/images/kernbild.pdf}
+\caption{Iterierte Kerne und Bilder einer $3\times 3$-Matrix mit Rang~2.
+Die abnehmend geschachtelten iterierten Bilder
+$\mathcal{J}^1(A) \subset \mathcal{J}^2(A)$
+sind links dargestellt, die zunehmen geschachtelten iterierten Kerne
+$\mathcal{K}^1(A) \subset \mathcal{K}^2(A)$ rechts.
+\label{buch:eigenwerte:img:kernbild}}
+\end{figure}
+
+\begin{figure}
+\centering
+\includegraphics[width=\textwidth]{chapters/40-eigenwerte/images/kombiniert.pdf}
+\caption{Iterierte Kerne und Bilder einer $3\times 3$-Matrix mit Rang~2.
+Da $\dim\mathcal{J}^2(A)=1$ und $\dim\mathcal{J}^1(A)=2$ ist, muss es
+einen Vektor in $\mathcal{J}^1(A)$ geben, der von $A$ auf $0$ abgebildet
+wird, der also auch im Kern $\mathcal{K}^1(A)$ liegt.
+Daher ist $\mathcal{K}^1(A)$ die Schnittgerade von $\mathcal{J}^1(A)$ und
+$\mathcal{K}^2(A)$.
+Man kann auch gut erkennen, dass
+$\mathbb{R}^3
+=
+\mathcal{K}^1(A)\oplus \mathcal{J}^1(A)
+=
+\mathcal{K}^2(A) \oplus \mathcal{J}^2(A)$
+ist.
+\label{buch:eigenwerte:img:kombiniert}}
+\end{figure}
+
%
% Kern und Bild von Matrixpotenzen
%
@@ -183,6 +213,24 @@ Somit können sich $\mathcal{K}^i(A)$ und $\mathcal{J}^i(A)$ für $i>n$
nicht mehr ändern.
\end{proof}
+\begin{figure}
+\centering
+\includegraphics{chapters/40-eigenwerte/images/dimjk.pdf}
+\caption{Entwicklung der Dimension von $\dim\mathcal{K}^k(A)$ (grün)
+und $\dim\mathcal{J}^k(A)$ (orange) in Abhängigkeit vom Exponenten $k$.
+Für $k\ge l$ ändern sich die Dimensionen nicht mehr, $A$ eingeschränkt
+auf $\mathcal{J}^l(A)=\mathcal{J}(A)$ ist injektiv.
+\label{buch:eigenwerte:fig:dimjk}}
+\end{figure}
+
+Abbildung~\ref{buch:eigenwerte:fig:dimjk} zeigt die Abhängigkeit der
+Dimensionen $\dim\mathcal{K}^k(A)$ und $\dim\mathcal{J}^k(A)$ von $k$.
+Die Dimension $\dim\mathcal{J}^k(A)$ nimmt ab bis zu $k=l$, danach ändert
+sie sich nicht mehr und die Einschränkung von $A$ auf $\mathcal{J}^l(A)$
+ist injektiv.
+Die Dimension $\dim\mathcal{K}^k(A)$ nimmt zu bis zu $k=l$, danach
+ändert sie sich nicht mehr.
+
\begin{definition}
\label{buch:eigenwerte:def:KundJ}
Die gemäss Satz~\ref{buch:eigenwerte:satz:ketten} identischen Unterräume
@@ -198,6 +246,7 @@ $\mathcal{J}^i(A)$ für $i\ge k$ werden mit
bezeichnet.
\end{definition}
+
%
% Inveriante Unterräume
%
@@ -369,6 +418,7 @@ Mit vollständiger Induktion folgt, dass $a_{ij}^s=0$ für $i+s>j$.
Insbesondere ist $A^n=0$, die Matrix $A$ ist nilpotent.
\end{beispiel}
+
Man kann die Konstruktion der Unterräume $\mathcal{K}^i(A)$ weiter
dazu verwenden, eine Basis zu finden, in der eine nilpotente Matrix
eine besonders einfach Form erhält.
@@ -457,6 +507,178 @@ Nach Satz~\ref{buch:eigenwerte:satz:allgnilpotent} kann man in
$\mathcal{K}(A)$ eine Basis so wählen, dass die Matrix die Blockform
\eqref{buch:eigenwerte:eqn:allgnilpotent} erhält.
+
+
+\begin{figure}
+\centering
+\includegraphics[width=\textwidth]{chapters/40-eigenwerte/images/jknilp.pdf}
+\caption{Entwicklung der Dimensionen von Kern und Bild von $A^k$ in
+Abhängigkeit von $k$
+\label{buch:eigenwte:fig:jknilp}}
+\end{figure}
+
+\begin{beispiel}
+In der Abbildung~\ref{buch:eigenwte:fig:jknilp} sind die Dimensionen
+von Kern und Bild der Matrix
+\[
+\setcounter{MaxMatrixCols}{12}
+A=\begin{pmatrix}
+0& & & & & & & & & & & \\
+ &0& & & & & & & & & & \\
+ & &0& & & & & & & & & \\
+ & & &0& & & & & & & & \\
+ & & & &0&1& & & & & & \\
+ & & & & &0& & & & & & \\
+ & & & & & &0&1& & & & \\
+ & & & & & & &0&1& & & \\
+ & & & & & & & &0&1& & \\
+ & & & & & & & & &0&1& \\
+ & & & & & & & & & &0&
+\end{pmatrix}
+\]
+dargestellt.
+Die Matrix $A^k$ ist in den kleinen Quadraten am unteren Rand der Matrix
+symbolisch dargestellt.
+Grüne Spalten bestehen aus lauter Nullen, die zugehörigen
+Standardbasisvektoren werden von diesem $A^k$ auf $0$ abgebildet.
+Die orangen Felder enthalten Einsen, die entsprechenden Standardbasisvektoren
+bilden daher eine Basis des Bildes von $A^k$.
+\end{beispiel}
+
+%
+% Basis für die Jordan-Normalform einer nilpotenten Matrix
+%
+\subsection{Basis für die Normalform einer nilpotenten Matrix bestimmen
+\label{buch:subsection:normalform-einer-nilpotenten-matrix}}
+Die Zerlegung in die invarianten Unterräume $\mathcal{J}^k(f)$ und
+$\mathcal{K}^k(f)$ ermöglichen, eine Basis zu finden, in der die
+Matrix von $f$ die Blockform \eqref{buch:eigenwerte:eqn:allgnilpotent}
+hat.
+In diesem Abschnitt soll die Konstruktion einer solchen Basis
+etwas ausführlicher beschrieben werden.
+
+\begin{figure}
+\centering
+\includegraphics{chapters/40-eigenwerte/images/normalform.pdf}
+\caption{Konstruktion der Basis für die Jordansche Normalform einer
+nilpotenten Matrix.
+Die Vektoren werden in der Reihenfolge von rechts nach links in die
+Matrix gefüllt.
+\label{buch:eigenwerte:fig:normalform}}
+\end{figure}
+
+Abbildung~\ref{buch:eigenwerte:fig:normalform} illustriert den Prozess
+an einer nilpotenten Matrix $A$ mit $A^3=0$
+Die vertikalen Rechtecke im linken Teil der Abbildung symbolisieren
+die Unterräume $\mathcal{K}^k(A)$.
+Es ist bekannt, dass $\mathcal{K}^k(A) \subset \mathcal{K}^{k+1}(A)$ ist,
+die Einbettung wird in der Abbildung durch graue Rechtecke dargestellt.
+Es sei wieder $l$ der Exponent, für den $\mathcal{K}^l(A)=\Bbbk^n$ wird.
+Da $\mathcal{K}^{l-1}(A)\ne \mathcal{K}^l(A)$ ist, muss es einen
+komplementären Unterraum geben, in dem eine Basis gewählt wird.
+Jeder der Vektoren $b_1,\dots,b_s$ dieser Basis gibt Anlass zu einem
+Block der Form $N_l$, der auf dem Unterraum
+$\langle b_i,Ab_i,\dots,A^{l-1}b_i\rangle$ operiert.
+In der Abbildung ist $b_i$ durch einen roten Punkt symbolisiert und
+die Bilder $Ab_i,\dots,A^{l-1}b_i$ werden durch blaue Pfeile untereinander
+verbunden.
+
+Der Raum $\mathcal{K}^{l-1}(A)$ enthält dann $\mathcal{K}^{l-2}(A)$ und
+die Vektoren $Ab_1,\dots,Ab_s$.
+Es ist aber möglich, dass diese Vektoren nicht den ganzen Raum
+$\mathcal{K}^{l-1}(A)$ erzeugen.
+In diesem Fall lassen sich die Vektoren mit Hilfe weiterer Vektoren
+$b_{s+1},\dots,b_{s+r}$ zu einer Basisi von $\mathcal{K}^{l-1}(A)$
+ergänzen.
+Wie vorhin gibt jeder der Vektoren $b_{s+i}$ Anlass zu einem Block
+der Form $N_{l-1}$, der auf dem Unterraum
+$\langle b_{s+i},Ab_{s+i}\dots,A^{l-2}b_{s+i}\rangle$
+operiert.
+
+Durch Wiederholung dieses Prozesses können schrittweise Basisvektoren
+$b_i$ erzeugt werden.
+Die Matrix der Abbildung $f$ in der Basis $\{b_i,Ab_i,\dots,A^kb_i\}$
+ist ein Block der Form $N_k$.
+Für $0\le k\le l-1$ sind die Vektoren $A^kb_i$,
+solange sie von $0$ verschieden sind,
+alle nach Konstruktion linear unabhängig, sie bilden eine Basis
+von $\mathcal{K}^l(A)=\mathbb{R}^n$.
+
+\begin{beispiel}
+Die Basis für die Zerlegung der Matrix
+\[
+A
+=
+\begin{pmatrix*}[r]
+ 3& 1&-2\\
+-21&-7&14\\
+ -6&-2& 4
+\end{pmatrix*}
+\]
+in Blockform soll nach der oben beschriebenen Methode ermittelt werden.
+Zunächst kann man nachrechnen, dass $A^2=0$ ist.
+Der Kern von $A$ ist der Lösungsraum der Gleichung $Ax=0$, da alle Zeilen
+Vielfache der ersten Zeile sind, recht es zu verlangen, dass die
+Komponenten $x_i$ der Lösung die Gleichung
+\[
+3x_1+x_2-2x_3=0
+\]
+erfüllen.
+Jetzt muss ein Vektor $b_1$ ausserhalb von $\mathbb{L}$ gefunden werden,
+der erste Standardbasisvektor $e_1$ kann dazu verwendet werden.
+Es ist auch klar, dass $Ae_1\ne 0$ ist.
+Wir verwenden daher die beiden Vektoren
+\[
+b_3=e_1=\begin{pmatrix} 1\\0\\0 \end{pmatrix}
+,\qquad
+b_2=Ab_3=\begin{pmatrix*}[r] 3\\-21\\-6 \end{pmatrix*},
+\]
+in dieser Basis hat $A$ die Matrix $N_2$.
+Jetzt muss noch ein Basisvektor $b_1$ gefunden werden,
+der in $\ker A=\mathbb{L}$ liegt und so, dass $b_1$ und $b_2$
+linear unabhängig sind.
+Die zweite Bedingung kann leicht dadurch sichergestellt werden,
+dass man die erste Komponente von $b_1$ als $0$ wählt.
+Eine mögliche Lösung ist dann
+\[
+b_1=\begin{pmatrix}0\\2\\1\end{pmatrix}
+\]
+Die Matrix
+\[
+B=\begin{pmatrix*}[r]
+ 0& 1& 3\\
+ 2& 0& -21\\
+ 1& 0& -6
+\end{pmatrix*}
+\qquad\text{mit Inverser}
+\qquad
+B^{-1}=\begin{pmatrix*}[r]
+0&-\frac23& \frac73\\
+0&-\frac19& \frac29\\
+1& \frac13&-\frac23
+\end{pmatrix*}
+\]
+transformiert die Matrix $A$ auf den Block $N_3$:
+\[
+B^{-1}AB
+=
+B^{-1}\begin{pmatrix*}[r]
+0&0& 3\\
+0&0&-21\\
+0&0& -6
+\end{pmatrix*}
+=
+\begin{pmatrix}
+0&0&0\\
+0&0&1\\
+0&0&0
+\end{pmatrix}
+=
+N_3.
+\qedhere
+\]
+\end{beispiel}
+
%
% Begriff des Eigenwertes und Eigenvektors
%
diff --git a/buch/chapters/40-eigenwerte/images/Makefile b/buch/chapters/40-eigenwerte/images/Makefile
index db00dac..54b36d5 100644
--- a/buch/chapters/40-eigenwerte/images/Makefile
+++ b/buch/chapters/40-eigenwerte/images/Makefile
@@ -3,7 +3,9 @@
#
# (c) 2020 Prof Dr Andreas Müller, Hochschule Rappersil
#
-all: sp.pdf nilpotent.pdf
+all: sp.pdf nilpotent.pdf kernbild.pdf kombiniert.pdf \
+ wurzelapprox.pdf wurzel.pdf dimjk.pdf jknilp.pdf \
+ normalform.pdf minmax.pdf
sp.pdf: sp.tex sppaths.tex
pdflatex sp.tex
@@ -14,3 +16,29 @@ sppaths.tex: spbeispiel.m
nilpotent.pdf: nilpotent.tex
pdflatex nilpotent.tex
+kernbild.pdf: kernbild.tex bild2.jpg kern2.jpg
+ pdflatex kernbild.tex
+
+kombiniert.pdf: kombiniert.tex kombiniert.jpg
+ pdflatex kombiniert.tex
+
+wurzelapprox.pdf: wurzelapprox.tex wa.tex
+ pdflatex wurzelapprox.tex
+
+wa.tex: wa.m
+ octave wa.m
+
+wurzel.pdf: wurzel.tex
+ pdflatex wurzel.tex
+
+dimjk.pdf: dimjk.tex
+ pdflatex dimjk.tex
+
+jknilp.pdf: jknilp.tex
+ pdflatex jknilp.tex
+
+normalform.pdf: normalform.tex
+ pdflatex normalform.tex
+
+minmax.pdf: minmax.tex
+ pdflatex minmax.tex
diff --git a/buch/chapters/40-eigenwerte/images/bild1.jpg b/buch/chapters/40-eigenwerte/images/bild1.jpg
new file mode 100644
index 0000000..879fae8
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/bild1.jpg
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/images/bild2.jpg b/buch/chapters/40-eigenwerte/images/bild2.jpg
new file mode 100644
index 0000000..2597c95
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/bild2.jpg
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/images/dimjk.pdf b/buch/chapters/40-eigenwerte/images/dimjk.pdf
new file mode 100644
index 0000000..fcfe4da
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/dimjk.pdf
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/images/dimjk.tex b/buch/chapters/40-eigenwerte/images/dimjk.tex
new file mode 100644
index 0000000..28e0f9f
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/dimjk.tex
@@ -0,0 +1,78 @@
+%
+% dimjk.tex -- dimensionen von K^l und J^l
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1.2}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\definecolor{darkgreen}{rgb}{0,0.6,0}
+
+\def\pfad{
+ ({0*\sx},{6-6}) --
+ ({1*\sx},{6-4.5}) --
+ ({2*\sx},{6-3.5}) --
+ ({3*\sx},{6-2.9}) --
+ ({4*\sx},{6-2.6}) --
+ ({5*\sx},{6-2.4}) --
+ ({8*\sx},{6-2.4})
+}
+\def\sx{1.2}
+
+\fill[color=orange!20] \pfad -- ({6*\sx},6) -- (0,6) -- cycle;
+\fill[color=darkgreen!20] \pfad -- ({6*\sx},0) -- cycle;
+
+\fill[color=orange!40] ({5*\sx},6) rectangle ({8*\sx},{6-2.4});
+\fill[color=darkgreen!40] ({5*\sx},0) rectangle ({8*\sx},{6-2.4});
+
+\draw[color=darkgreen,line width=2pt] ({3*\sx},{6-6}) -- ({3*\sx},{6-2.9});
+\node[color=darkgreen] at ({3*\sx},{6-4.45}) [rotate=90,above] {$\dim\mathcal{K}^k(A)$};
+\draw[color=orange,line width=2pt] ({3*\sx},{6-0}) -- ({3*\sx},{6-2.9});
+\node[color=orange] at ({3*\sx},{6-1.45}) [rotate=90,above] {$\dim\mathcal{J}^k(A)$};
+
+\node[color=orange] at ({6.5*\sx},{6-1.2}) {bijektiv};
+\node[color=darkgreen] at ({6.5*\sx},{6-4.2}) {konstant};
+
+\fill ({0*\sx},{6-6}) circle[radius=0.08];
+\fill ({1*\sx},{6-4.5}) circle[radius=0.08];
+\fill ({2*\sx},{6-3.5}) circle[radius=0.08];
+\fill ({3*\sx},{6-2.9}) circle[radius=0.08];
+\fill ({4*\sx},{6-2.6}) circle[radius=0.08];
+\fill ({5*\sx},{6-2.4}) circle[radius=0.08];
+\fill ({6*\sx},{6-2.4}) circle[radius=0.08];
+\fill ({7*\sx},{6-2.4}) circle[radius=0.08];
+\fill ({8*\sx},{6-2.4}) circle[radius=0.08];
+
+\draw \pfad;
+
+\draw[->] (-0.5,0) -- ({8*\sx+0.5},0) coordinate[label={$k$}];
+\draw[->] (-0.5,6) -- ({8*\sx+0.5},6);
+
+\foreach \x in {0,...,8}{
+ \draw ({\x*\sx},-0.05) -- ({\x*\sx},0.05);
+}
+\foreach \x in {0,...,3}{
+ \node at ({\x*\sx},-0.05) [below] {$\x$};
+}
+\node at ({4*\sx},-0.05) [below] {$\dots\mathstrut$};
+\node at ({5*\sx},-0.05) [below] {$l$};
+\node at ({6*\sx},-0.05) [below] {$l+1$};
+\node at ({7*\sx},-0.05) [below] {$l+2$};
+\node at ({8*\sx},-0.05) [below] {$l+3$};
+
+\node[color=orange] at ({1.2*\sx},5.6)
+ {$\mathcal{J}^k(A)\supset\mathcal{J}^{k+1}(A)$};
+\node[color=darkgreen] at ({1.2*\sx},0.4)
+ {$\mathcal{K}^k(A)\subset\mathcal{K}^{k+1}(A)$};
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/40-eigenwerte/images/drei.jpg b/buch/chapters/40-eigenwerte/images/drei.jpg
new file mode 100644
index 0000000..35f9034
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/drei.jpg
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/images/jknilp.pdf b/buch/chapters/40-eigenwerte/images/jknilp.pdf
new file mode 100644
index 0000000..9293263
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/jknilp.pdf
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/images/jknilp.tex b/buch/chapters/40-eigenwerte/images/jknilp.tex
new file mode 100644
index 0000000..e8e8e14
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/jknilp.tex
@@ -0,0 +1,181 @@
+%
+% jknilp.tex -- Dimensionen von K^l und J^l für nilpotente Matrizen
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\definecolor{darkgreen}{rgb}{0,0.6,0}
+
+\def\s{0.15}
+\def\punkt#1#2{({#1*\s},{#2*\s})}
+
+\def\vektor#1{
+ \fill[color=darkgreen!30] \punkt{#1}{0} rectangle \punkt{(#1+1)}{12};
+}
+\def\feld#1#2{
+ \fill[color=orange!60] ({#1*\s},{(12-#2)*\s}) rectangle
+ ({(#1+1)*\s},{(11-#2)*\s});
+}
+
+\def\quadrat#1{
+ \draw \punkt{0}{0} rectangle \punkt{12}{12};
+
+ \draw \punkt{0}{11} -- \punkt{2}{11} -- \punkt{2}{9} -- \punkt{4}{9}
+ -- \punkt{4}{6} -- \punkt{12}{6};
+
+ \draw \punkt{1}{12} -- \punkt{1}{10} -- \punkt{3}{10}
+ -- \punkt{3}{8} -- \punkt{6}{8} -- \punkt{6}{0};
+ \node at ({6*\s},0) [below] {#1\strut};
+}
+
+\begin{scope}[xshift=-0.9cm,yshift=-3cm]
+\foreach \n in {0,...,11}{
+ \feld{\n}{\n}
+}
+\quadrat{$A^0=I$}
+\end{scope}
+
+\begin{scope}[xshift=1.1cm,yshift=-3cm]
+\vektor{0}
+\vektor{1}
+\vektor{2}
+\vektor{3}
+\vektor{4}
+\vektor{6}
+\feld{5}{4}
+\feld{7}{6}
+\feld{8}{7}
+\feld{9}{8}
+\feld{10}{9}
+\feld{11}{10}
+\quadrat{$A$}
+\end{scope}
+
+\begin{scope}[xshift=3.1cm,yshift=-3cm]
+\vektor{0}
+\vektor{1}
+\vektor{2}
+\vektor{3}
+\vektor{4}
+\vektor{5}
+\vektor{6}
+\vektor{7}
+\feld{8}{6}
+\feld{9}{7}
+\feld{10}{8}
+\feld{11}{9}
+\quadrat{$A^2$}
+\end{scope}
+
+\begin{scope}[xshift=5.1cm,yshift=-3cm]
+\vektor{0}
+\vektor{1}
+\vektor{2}
+\vektor{3}
+\vektor{4}
+\vektor{5}
+\vektor{6}
+\vektor{7}
+\vektor{8}
+\feld{9}{6}
+\feld{10}{7}
+\feld{11}{8}
+\quadrat{$A^3$}
+\end{scope}
+
+\begin{scope}[xshift=7.1cm,yshift=-3cm]
+\vektor{0}
+\vektor{1}
+\vektor{2}
+\vektor{3}
+\vektor{4}
+\vektor{5}
+\vektor{6}
+\vektor{7}
+\vektor{8}
+\vektor{9}
+\feld{10}{6}
+\feld{11}{7}
+\quadrat{$A^4$}
+\end{scope}
+
+\begin{scope}[xshift=9.1cm,yshift=-3cm]
+\vektor{0}
+\vektor{1}
+\vektor{2}
+\vektor{3}
+\vektor{4}
+\vektor{5}
+\vektor{6}
+\vektor{7}
+\vektor{8}
+\vektor{9}
+\vektor{10}
+\feld{11}{6}
+\quadrat{$A^5$}
+\end{scope}
+
+\begin{scope}[xshift=11.1cm,yshift=-3cm]
+\vektor{0}
+\vektor{1}
+\vektor{2}
+\vektor{3}
+\vektor{4}
+\vektor{5}
+\vektor{6}
+\vektor{7}
+\vektor{8}
+\vektor{9}
+\vektor{10}
+\vektor{11}
+\quadrat{$A^6$}
+\end{scope}
+
+\def\pfad{
+ (0,0) -- (2,3) -- (4,4) -- (6,4.5) -- (8,5) -- (10,5.5) -- (12,6)
+}
+
+
+\fill[color=orange!20] \pfad -- (-1,6) -- (-1,0) -- cycle;
+\fill[color=darkgreen!20] \pfad -- (13,6) -- (13,0) -- cycle;
+\draw[line width=1.3pt] \pfad;
+
+\fill (0,0) circle[radius=0.08];
+\fill (2,3) circle[radius=0.08];
+\fill (4,4) circle[radius=0.08];
+\fill (6,4.5) circle[radius=0.08];
+\fill (8,5) circle[radius=0.08];
+\fill (10,5.5) circle[radius=0.08];
+\fill (12,6) circle[radius=0.08];
+
+\foreach \y in {0.5,1,...,5.5}{
+ \draw[line width=0.3pt] (-1.1,\y) -- (13.0,\y);
+}
+\foreach \y in {0,2,4,...,12}{
+ \node at (-1.1,{\y*0.5}) [left] {$\y$};
+}
+\foreach \x in {0,...,6}{
+ \draw ({2*\x},0) -- ({2*\x},-1.2);
+ \node at ({2*\x},-0.6) [above,rotate=90] {$k=\x$};
+}
+
+\draw[->] (-1.1,0) -- (13.4,0) coordinate[label={$k$}];
+\draw[->] (-1.1,6) -- (13.4,6);
+\draw[->] (-1.0,0) -- (-1.0,6.5);
+
+\node[color=darkgreen] at (8,1.95) [above] {$\dim \mathcal{K}^k(A)$};
+\node[color=orange] at (2,4.95) [above] {$\dim \mathcal{J}^k(A)$};
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/40-eigenwerte/images/kern1.jpg b/buch/chapters/40-eigenwerte/images/kern1.jpg
new file mode 100644
index 0000000..5c99664
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/kern1.jpg
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/images/kern2.jpg b/buch/chapters/40-eigenwerte/images/kern2.jpg
new file mode 100644
index 0000000..87d18ac
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/kern2.jpg
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/images/kernbild.pdf b/buch/chapters/40-eigenwerte/images/kernbild.pdf
new file mode 100644
index 0000000..2a321b2
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/kernbild.pdf
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/images/kernbild.tex b/buch/chapters/40-eigenwerte/images/kernbild.tex
new file mode 100644
index 0000000..4eced84
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/kernbild.tex
@@ -0,0 +1,40 @@
+%
+% kernbild.tex -- Kern und Bild einer Matrix
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1}
+\definecolor{darkgreen}{rgb}{0,0.4,0}
+\definecolor{turqoise}{rgb}{0,0.3,0.6}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\begin{scope}[xshift=-3.5cm]
+\node at (0,0) {\includegraphics[width=6.8cm]{bild2.jpg}};
+
+\fill[color=white,opacity=0.8] (-3,-2.75) rectangle (-2,-2.3);
+\node[color=orange] at (-2.5,-2.5) {$\mathcal{J}^1(A)$};
+\node at (3.3,0) {$x_1$};
+\node at (0.3,3.2) {$x_3$};
+\node[color=purple] at (2.3,0.6) [rotate=8] {$\mathcal{J}^2(A)$};
+\end{scope}
+
+\begin{scope}[xshift=3.5cm]
+\node at (0,0) {\includegraphics[width=6.8cm]{kern2.jpg}};
+\node[color=darkgreen] at (1.8,2.2) [rotate=58] {$\mathcal{K}^1(A)$};
+\fill[color=white,opacity=0.8] (-1.5,0.8) rectangle (-0.5,1.2);
+\node[color=turqoise] at (-1,1) {$\mathcal{K}^2(A)$};
+\node at (3.3,0) {$x_1$};
+\node at (0.3,3.2) {$x_3$};
+\end{scope}
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/40-eigenwerte/images/kernbild1.jpg b/buch/chapters/40-eigenwerte/images/kernbild1.jpg
new file mode 100644
index 0000000..87e874e
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/kernbild1.jpg
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/images/kernbild2.jpg b/buch/chapters/40-eigenwerte/images/kernbild2.jpg
new file mode 100644
index 0000000..1160b31
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/kernbild2.jpg
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/images/kombiniert.jpg b/buch/chapters/40-eigenwerte/images/kombiniert.jpg
new file mode 100644
index 0000000..bebc36f
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/kombiniert.jpg
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/images/kombiniert.pdf b/buch/chapters/40-eigenwerte/images/kombiniert.pdf
new file mode 100644
index 0000000..91cee0b
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/kombiniert.pdf
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/images/kombiniert.tex b/buch/chapters/40-eigenwerte/images/kombiniert.tex
new file mode 100644
index 0000000..d850c64
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/kombiniert.tex
@@ -0,0 +1,48 @@
+%
+% kombiniert.tex -- Iterierte Kerne und Bilder
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\definecolor{darkgreen}{rgb}{0,0.4,0}
+\definecolor{turqoise}{rgb}{0,0.3,0.6}
+\def\skala{1}
+\newboolean{showgrid}
+\setboolean{showgrid}{false}
+\def\breite{7}
+\def\hoehe{7}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\node at (0,0) {\includegraphics[width=13.8cm]{kombiniert.jpg}};
+
+\node at (6.6,-0.1) {$x_1$};
+\node at (0.3,6.7) {$x_3$};
+
+\node[color=purple] at (4.8,1) [rotate=8] {$\mathcal{J}^2(A)$};
+\node[color=darkgreen] at (3.5,4.6) [rotate=58] {$\mathcal{K}^1(A)$};
+
+\fill[color=white,opacity=0.8] (-2.3,3.8) rectangle (-1.3,4.2);
+\node[color=turqoise] at (-1.8,4) {$\mathcal{K}^2(A)$};
+
+\fill[color=white,opacity=0.8] (2.5,-5.75) rectangle (3.5,-5.3);
+\node[color=orange] at (3,-5.5) {$\mathcal{J}^1(A)$};
+
+%\node at G
+% Gitter
+\ifthenelse{\boolean{showgrid}}{
+\draw[step=0.1,line width=0.1pt] (-\breite,-\hoehe) grid (\breite, \hoehe);
+\draw[step=0.5,line width=0.4pt] (-\breite,-\hoehe) grid (\breite, \hoehe);
+\draw (-\breite,-\hoehe) grid (\breite, \hoehe);
+\fill (0,0) circle[radius=0.05];
+}{}
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/40-eigenwerte/images/minmax.pdf b/buch/chapters/40-eigenwerte/images/minmax.pdf
new file mode 100644
index 0000000..46ed28a
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/minmax.pdf
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/images/minmax.tex b/buch/chapters/40-eigenwerte/images/minmax.tex
new file mode 100644
index 0000000..f661d5b
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/minmax.tex
@@ -0,0 +1,134 @@
+%
+% minmax.tex -- minimum und maximum
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\definecolor{darkgreen}{rgb}{0,0.5,0}
+
+\def\mittellinie{
+ plot[domain=0:6.2832,samples=400]
+ ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159))})
+}
+
+\begin{scope}
+ \fill[color=darkgreen!20]
+ plot[domain=0:6.2832,samples=360]
+ ({\x},{sin(180*\x/3.1415)})
+ --
+ plot[domain=6.2832:0,samples=360]
+ ({\x},{cos(180*\x/3.1415)})
+ -- cycle;
+ \foreach \x in {0.5,1,...,6}{
+ \draw[color=darkgreen]
+ ({\x},{sin(180*\x/3.1415)})
+ --
+ ({\x},{cos(180*\x/3.1415)});
+ }
+
+ \node[color=darkgreen] at (2,-0.8) [left] {$|f(x)-g(x)|$};
+ \draw[color=darkgreen,line width=0.3pt] (2,-0.8) -- (2.5,-0.7);
+
+ \draw[color=blue,line width=1.4pt] plot[domain=0:6.29,samples=360]
+ ({\x},{sin(180*\x/3.1415)});
+ \draw[color=red,line width=1.4pt] plot[domain=0:6.29,samples=360]
+ ({\x},{cos(180*\x/3.1415)});
+ \draw[color=purple!50,line width=1.4pt] \mittellinie;
+ \node[color=purple!50] at (6.2832,0.5) [right] {$\frac12(f(x)+g(x))$};
+
+ \draw[->] (-0.1,0) -- (6.5,0) coordinate[label={below:$x$}];
+ \draw[->] (0,-1.1) -- (0,1.3) coordinate[label={right:$y$}];
+
+
+ \xdef\x{2}
+ \node[color=blue] at (\x,{sin(180*\x/3.1415)}) [above right] {$f(x)$};
+ \pgfmathparse{2.5*3.14159-\x}
+ \xdef\x{\pgfmathresult}
+ \node[color=red] at (\x,{cos(180*\x/3.1415)}) [above left] {$g(x)$};
+
+\end{scope}
+
+\draw[->,line width=4pt,color=gray!40] ({3.1415-1},-1.3) -- ({3.1415-2.3},-3);
+\draw[->,line width=4pt,color=gray!40] ({3.1415+1},-1.3) -- ({3.1415+2.3},-3);
+
+\node at ({3.1415-1.75},-2.15) [left] {$\frac12(f(x)+g(x))+\frac12|f(x)-g(x)|$};
+\node at ({3.1415+1.75},-2.15) [right] {$\frac12(f(x)+g(x))-\frac12|f(x)-g(x)|$};
+
+\def\s{(-0.1)}
+
+\begin{scope}[xshift=-3.4cm,yshift=-4.6cm]
+ \fill[color=darkgreen!20]
+ \mittellinie
+ --
+ plot[domain=6.2832:0,samples=400]
+ ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159)+abs(sin(180*\x/3.14159)-cos(180*\x/3.14159)))})
+ -- cycle;
+ \foreach \x in {0.5,1,...,6}{
+ \draw[color=darkgreen]
+ ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159)+abs(sin(180*\x/3.14159)-cos(180*\x/3.14159)))})
+ --
+ ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159))});
+ }
+ \draw[color=darkgreen,line width=1.4pt]
+ plot[domain=6.2832:0,samples=400]
+ ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159)+abs(sin(180*\x/3.14159)-cos(180*\x/3.14159)))});
+
+ \node[color=darkgreen] at (2,-0.3) [left] {$|f(x)-g(x)|$};
+ \draw[color=darkgreen,line width=0.3pt] (2,-0.3) -- (2.5,0.2);
+
+ \draw[color=purple!50,line width=1.4pt] \mittellinie;
+ \pgfmathparse{0.75*3.1415+\s}
+ \xdef\x{\pgfmathresult}
+ \node[color=darkgreen] at (\x,{sin(180*\x/3.1415)}) [above right]
+ {$\max(f(x),g(x))$};
+ \node[color=purple!50] at ({1.25*3.1415},-0.7) [below]
+ {$\frac12(f(x)+g(x))$};
+ \draw[->] (-0.1,0) -- (6.5,0) coordinate[label={$x$}];
+ \draw[->] (0,-1.1) -- (0,1.3) coordinate[label={right:$y$}];
+\end{scope}
+
+
+\begin{scope}[xshift=+3.4cm,yshift=-4.6cm]
+ \fill[color=darkgreen!20]
+ \mittellinie
+ --
+ plot[domain=6.2832:0,samples=400]
+ ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159)-abs(sin(180*\x/3.14159)-cos(180*\x/3.14159)))})
+ -- cycle;
+ \foreach \x in {0.5,1,...,6}{
+ \draw[color=darkgreen]
+ ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159)-abs(sin(180*\x/3.14159)-cos(180*\x/3.14159)))})
+ --
+ ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159))});
+ }
+ \draw[color=darkgreen,line width=1.4pt]
+ plot[domain=6.2832:0,samples=400]
+ ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159)-abs(sin(180*\x/3.14159)-cos(180*\x/3.14159)))});
+
+ \node[color=darkgreen] at (3,0.3) [right] {$|f(x)-g(x)|$};
+ \draw[color=darkgreen,line width=0.3pt] (3,0.3) -- (2.5,-0.4);
+
+ \draw[color=purple!50,line width=1.4pt] \mittellinie;
+ \pgfmathparse{0.75*3.1415-\s}
+ \xdef\x{\pgfmathresult}
+ \node[color=darkgreen] at (\x,{cos(180*\x/3.1415)}) [below left]
+ {$\min(f(x),g(x))$};
+ \node[color=purple!50] at ({0.25*3.1415},0.7) [above right]
+ {$\frac12(f(x)+g(x))$};
+ \draw[->] (-0.1,0) -- (6.5,0) coordinate[label={$x$}];
+ \draw[->] (0,-1.1) -- (0,1.3) coordinate[label={right:$y$}];
+\end{scope}
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/40-eigenwerte/images/normalform.pdf b/buch/chapters/40-eigenwerte/images/normalform.pdf
new file mode 100644
index 0000000..c5bdb61
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/normalform.pdf
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/images/normalform.tex b/buch/chapters/40-eigenwerte/images/normalform.tex
new file mode 100644
index 0000000..f3cb532
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/normalform.tex
@@ -0,0 +1,214 @@
+%
+% normalform.tex -- Normalform einer Matrix ermitteln
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\definecolor{darkgreen}{rgb}{0,0.6,0}
+
+\def\b{0.025}
+
+\def\s{2.5}
+\def\t{0.7}
+\def\T{0.5}
+
+\fill[color=darkgreen!20]
+ ({-3*\s-0.5*\t},{8*\t})
+ --
+ ({-3*\s+0.5*\t},{8*\t})
+ --
+ ({-2*\s-0.5*\t},{7*\t})
+ --
+ ({-2*\s+0.5*\t},{7*\t})
+ --
+ ({-1*\s-0.5*\t},{4*\t})
+ --
+ ({-1*\s+0.5*\t},{4*\t})
+ --
+ ({-0.5*\t},0)
+ --
+ ({-3*\s-0.5*\t},{0*\t})
+ -- cycle;
+
+
+\fill[color=white,rounded corners=3pt]
+ ({-0.5*\t-\b},{-\b}) rectangle ({0.5*\t+\b},{\b+0.15});
+\draw[rounded corners=3pt]
+ ({-0.5*\t-\b},{-\b}) rectangle ({0.5*\t+\b},{\b+0.15});
+\node at (0,0) [below] {$\mathcal{K}^0(A)$};
+
+\fill[color=white,rounded corners=3pt]
+ ({-1*\s-0.5*\t-\b},{-\b}) rectangle ({-1*\s+0.5*\t+\b},{4*\t+\b});
+\draw[rounded corners=3pt]
+ ({-1*\s-0.5*\t-\b},{-\b}) rectangle ({-1*\s+0.5*\t+\b},{4*\t+\b});
+\fill[color=blue!20,rounded corners=2pt]
+ ({-1*\s-0.5*\t+\b},{1*\t+\b}) rectangle ({-1*\s+0.5*\t-\b},{3*\t-\b});
+\draw[color=blue!40,rounded corners=2pt]
+ ({-1*\s-0.5*\t+\b},{1*\t+\b}) rectangle ({-1*\s+0.5*\t-\b},{3*\t-\b});
+\fill[color=blue!20,rounded corners=2pt]
+ ({-1*\s-0.5*\t+\b},{3*\t+\b}) rectangle ({-1*\s+0.5*\t-\b},{4*\t-\b});
+\draw[color=blue!40,rounded corners=2pt]
+ ({-1*\s-0.5*\t+\b},{3*\t+\b}) rectangle ({-1*\s+0.5*\t-\b},{4*\t-\b});
+\fill[color=red!20,rounded corners=2pt]
+ ({-1*\s-0.5*\t+\b},{\b}) rectangle ({-1*\s+0.5*\t-\b},{1*\t-\b});
+\draw[color=red,rounded corners=2pt]
+ ({-1*\s-0.5*\t+\b},{\b}) rectangle ({-1*\s+0.5*\t-\b},{1*\t-\b});
+\fill[color=red] ({-1*\s},{0.5*\t}) circle[radius=0.1];
+\fill[color=red,opacity=0.5] ({-1*\s},{1.5*\t}) circle[radius=0.1];
+\fill[color=red,opacity=0.5] ({-1*\s},{2.5*\t}) circle[radius=0.1];
+\fill[color=red,opacity=0.5] ({-1*\s},{3.5*\t}) circle[radius=0.1];
+\node at ({-1*\s},0) [below] {$\mathcal{K}^1(A)$};
+
+\fill[color=white,rounded corners=3pt]
+ ({-2*\s-0.5*\t-\b},{-\b}) rectangle ({-2*\s+0.5*\t+\b},{7*\t+\b});
+\draw[rounded corners=3pt]
+ ({-2*\s-0.5*\t-\b},{-\b}) rectangle ({-2*\s+0.5*\t+\b},{7*\t+\b});
+\fill[color=gray!20,rounded corners=2pt]
+ ({-2*\s-0.5*\t+\b},{+\b}) rectangle ({-2*\s+0.5*\t-\b},{4*\t-\b});
+\draw[color=gray,rounded corners=2pt]
+ ({-2*\s-0.5*\t+\b},{+\b}) rectangle ({-2*\s+0.5*\t-\b},{4*\t-\b});
+\node[color=black!70] at ({-2*\s},{2*\t}) [rotate=90] {$\mathcal{K}^1(A)$};
+\fill[color=red!20,rounded corners=2pt]
+ ({-2*\s-0.5*\t+\b},{4*\t+\b}) rectangle ({-2*\s+0.5*\t-\b},{6*\t-\b});
+\draw[color=red,rounded corners=2pt]
+ ({-2*\s-0.5*\t+\b},{4*\t+\b}) rectangle ({-2*\s+0.5*\t-\b},{6*\t-\b});
+\fill[color=blue!20,rounded corners=2pt]
+ ({-2*\s-0.5*\t+\b},{6*\t+\b}) rectangle ({-2*\s+0.5*\t-\b},{7*\t-\b});
+\draw[color=blue!40,rounded corners=2pt]
+ ({-2*\s-0.5*\t+\b},{6*\t+\b}) rectangle ({-2*\s+0.5*\t-\b},{7*\t-\b});
+\fill[color=red] ({-2*\s},{4.5*\t}) circle[radius=0.1];
+\fill[color=red] ({-2*\s},{5.5*\t}) circle[radius=0.1];
+\fill[color=red,opacity=0.5] ({-2*\s},{6.5*\t}) circle[radius=0.1];
+\draw[->,color=blue,line width=1.2pt,shorten >= 0.15cm,shorten <= 0.15cm]
+ ({-2*\s},{6.5*\t}) -- ({-1*\s},{3.5*\t});
+\draw[->,color=blue,line width=1.2pt,shorten >= 0.15cm,shorten <= 0.15cm]
+ ({-2*\s},{5.5*\t}) -- ({-1*\s},{2.5*\t});
+\draw[->,color=blue,line width=1.2pt,shorten >= 0.15cm,shorten <= 0.15cm]
+ ({-2*\s},{4.5*\t}) -- ({-1*\s},{1.5*\t});
+\node at ({-2*\s},0) [below] {$\mathcal{K}^2(A)$};
+
+\fill[color=white,rounded corners=3pt]
+ ({-3*\s-0.5*\t-\b},{-\b}) rectangle ({-3*\s+0.5*\t+\b},{8*\t+\b});
+\draw[rounded corners=3pt]
+ ({-3*\s-0.5*\t-\b},{-\b}) rectangle ({-3*\s+0.5*\t+\b},{8*\t+\b});
+\fill[color=gray!20,rounded corners=2pt]
+ ({-3*\s-0.5*\t+\b},{+\b}) rectangle ({-3*\s+0.5*\t-\b},{7*\t-\b});
+\draw[color=gray,rounded corners=2pt]
+ ({-3*\s-0.5*\t+\b},{+\b}) rectangle ({-3*\s+0.5*\t-\b},{7*\t-\b});
+\node[color=black!70] at ({-3*\s},{3.5*\t}) [rotate=90] {$\mathcal{K}^2(A)$};
+\fill[color=red!20,rounded corners=2pt]
+ ({-3*\s-0.5*\t+\b},{7*\t+\b}) rectangle ({-3*\s+0.5*\t-\b},{8*\t-\b});
+\draw[color=red,rounded corners=2pt]
+ ({-3*\s-0.5*\t+\b},{7*\t+\b}) rectangle ({-3*\s+0.5*\t-\b},{8*\t-\b});
+\fill[color=red] ({-3*\s},{7.5*\t}) circle[radius=0.1];
+\draw[->,color=blue,line width=1.2pt,shorten >= 0.15cm,shorten <= 0.15cm]
+ ({-3*\s},{7.5*\t}) -- ({-2*\s},{6.5*\t});
+\node at ({-3*\s},0) [below] {$\mathcal{K}^3(A)$};
+
+\def\xo{1}
+\def\yo{-1}
+
+\def\punkt#1#2{
+ ({\xo+(#1)*\T},{\yo-(#2)*\T})
+}
+
+\fill[color=red!20] \punkt{0}{0} rectangle \punkt{1}{8};
+\fill[color=red!20] \punkt{2}{0} rectangle \punkt{3}{8};
+\fill[color=red!20] \punkt{4}{0} rectangle \punkt{5}{8};
+\fill[color=red!20] \punkt{7}{0} rectangle \punkt{8}{8};
+
+\fill[color=blue!20] \punkt{2}{1} rectangle \punkt{3}{2};
+\fill[color=blue!20] \punkt{4}{3} rectangle \punkt{5}{4};
+\fill[color=blue!20] \punkt{6}{5} rectangle \punkt{7}{6};
+\fill[color=blue!20] \punkt{7}{6} rectangle \punkt{8}{7};
+
+\draw \punkt{0}{0} rectangle \punkt{8}{8};
+
+\draw[color=gray] \punkt{0}{1} -- \punkt{3}{1} -- \punkt{3}{5} -- \punkt{8}{5};
+\draw[color=gray] \punkt{1}{0} -- \punkt{1}{3} -- \punkt{5}{3} -- \punkt{5}{8};
+
+\draw[->,color=red]
+ ({-3*\s+0.5*\t+\b},{7.5*\t})
+ --
+ ({0*\s+0.5*\t},{7.5*\t})
+ to[out=0,in=90]
+ ({\xo+7.5*\T},{\yo});
+
+\draw[->,color=blue]
+ ({-2*\s+0.5*\t+\b},{6.5*\t})
+ --
+ ({0*\s+0.5*\t},{6.5*\t})
+ to[out=0,in=90]
+ ({\xo+6.5*\T},{\yo});
+
+\draw[->,color=blue]
+ ({-1*\s+0.5*\t+\b},{3.5*\t})
+ --
+ ({0*\s+0.5*\t},{3.5*\t})
+ to[out=0,in=90]
+ ({\xo+5.5*\T},{\yo});
+
+\draw[->,color=red]
+ ({-2*\s+0.5*\t+\b},{5.5*\t})
+ --
+ ({0*\s+0.5*\t},{5.5*\t})
+ to[out=0,in=90]
+ ({\xo+4.5*\T},{\yo});
+
+\draw[->,color=red]
+ ({-2*\s+0.5*\t+\b},{4.5*\t})
+ --
+ ({0*\s+0.5*\t},{4.5*\t})
+ to[out=0,in=90]
+ ({\xo+2.5*\T},{\yo});
+
+\draw[->,color=blue]
+ ({-1*\s+0.5*\t+\b},{2.5*\t})
+ --
+ ({0*\s+0.5*\t},{2.5*\t})
+ to[out=0,in=90]
+ ({\xo+3.5*\T},{\yo});
+
+\draw[->,color=red]
+ ({-1*\s+0.5*\t+\b},{0.5*\t})
+ --
+ ({0*\s+0.5*\t},{0.5*\t})
+ to[out=0,in=90]
+ ({\xo+0.5*\T},{\yo});
+
+\draw[->,color=blue]
+ ({-1*\s+0.5*\t+\b},{1.5*\t})
+ --
+ ({0*\s+0.5*\t},{1.5*\t})
+ to[out=0,in=90]
+ ({\xo+1.5*\T},{\yo});
+
+\node at \punkt{0.5}{0.5} {$0$};
+\node at \punkt{1.5}{1.5} {$0$};
+\node at \punkt{2.5}{2.5} {$0$};
+\node at \punkt{3.5}{3.5} {$0$};
+\node at \punkt{4.5}{4.5} {$0$};
+\node at \punkt{5.5}{5.5} {$0$};
+\node at \punkt{6.5}{6.5} {$0$};
+\node at \punkt{7.5}{7.5} {$0$};
+
+\node[color=blue] at \punkt{2.5}{1.5} {$1$};
+\node[color=blue] at \punkt{4.5}{3.5} {$1$};
+\node[color=blue] at \punkt{6.5}{5.5} {$1$};
+\node[color=blue] at \punkt{7.5}{6.5} {$1$};
+
+\node at \punkt{-0.5}{4} [left] {$A=$};
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/40-eigenwerte/images/sp.pdf b/buch/chapters/40-eigenwerte/images/sp.pdf
index d4de984..b93b890 100644
--- a/buch/chapters/40-eigenwerte/images/sp.pdf
+++ b/buch/chapters/40-eigenwerte/images/sp.pdf
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/images/wa.m b/buch/chapters/40-eigenwerte/images/wa.m
new file mode 100644
index 0000000..3d6d2c3
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/wa.m
@@ -0,0 +1,80 @@
+#
+# wa.m -- Wurzelapproximation
+#
+# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+#
+global u;
+global N;
+global t;
+global s;
+
+N = 100;
+n = 10;
+s = 1;
+
+u = zeros(N + 2, n);
+t = (0:N+1)' / N;
+t = t.^2;
+
+for i = (2:n)
+ u(:,i) = u(:,i-1) + 0.5 * (t-u(:,i-1).^2);
+end
+
+u
+
+global f;
+f = fopen("wa.tex", "w");
+fprintf(f, "%%\n");
+fprintf(f, "%% Approximation der Wurzelfunktion\n");
+fprintf(f, "%%\n");
+
+function pfad(i, name)
+ global f;
+ global u;
+ global t;
+ global N;
+ fprintf(f, "\\def\\pfad%s{\n", name);
+ fprintf(f, "(%.4f,%.4f)\n", t(1,1), u(1,i));
+ for j = (2:N+1)
+ fprintf(f, "--(%.4f,%.4f)\n", t(j,1), u(j,i));
+ end
+ fprintf(f, "}\n");
+end
+
+pfad( 1, "a")
+pfad( 2, "b")
+pfad( 3, "c")
+pfad( 4, "d")
+pfad( 5, "e")
+pfad( 6, "f")
+pfad( 7, "g")
+pfad( 8, "h")
+pfad( 9, "i")
+pfad(10, "j")
+
+function fehler(i, name)
+ global f;
+ global u;
+ global t;
+ global N;
+ global s;
+ fprintf(f, "\\def\\fehler%s{\n", name);
+ fprintf(f, "(%.4f,%.4f)\n", t(1,1), s*(sqrt(t(1,1))-u(1,i)));
+ for j = (2:N+2)
+ fprintf(f, "--(%.4f,%.4f)\n", t(j,1), s*(sqrt(t(j,1))-u(j,i)));
+ end
+ fprintf(f, "}\n");
+end
+
+fehler( 1, "a")
+fehler( 2, "b")
+fehler( 3, "c")
+fehler( 4, "d")
+fehler( 5, "e")
+fehler( 6, "f")
+fehler( 7, "g")
+fehler( 8, "h")
+fehler( 9, "i")
+fehler(10, "j")
+
+fclose(f);
diff --git a/buch/chapters/40-eigenwerte/images/wurzel.pdf b/buch/chapters/40-eigenwerte/images/wurzel.pdf
new file mode 100644
index 0000000..751cf33
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/wurzel.pdf
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/images/wurzel.tex b/buch/chapters/40-eigenwerte/images/wurzel.tex
new file mode 100644
index 0000000..ca2825a
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/wurzel.tex
@@ -0,0 +1,94 @@
+%
+% wurzel.tex -- Wurzel
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{10}
+\definecolor{darkgreen}{rgb}{0,0.6,0}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\def\a{0.8}
+\def\U{0}
+
+\fill[color=blue!20] (0,\a) rectangle (1.00,1.03);
+\draw[line width=0.4pt] (0,1) -- (1,1) -- (1,0);
+
+\draw[->] (0,{-0.01}) -- (0,{1.06}) coordinate[label={right:$y$}];
+
+\begin{scope}
+\clip (0,0) rectangle (1,1);
+\draw[color=blue,line width=1.4pt] plot[domain=0:1.01,samples=100]
+ ({\x},{\x*\x});
+\end{scope}
+
+%\draw[color=purple,line width=0.5pt] (0.48,-0.01) -- (1,1);
+%\fill[color=purple] (1,1) circle[radius=0.008];
+
+\node[color=blue] at (0,{\a}) [left] {$a$};
+
+\def\schritt#1#2{
+ \xdef\u{\U}
+ \pgfmathparse{0.5*(\a-\u*\u)}
+ \xdef\d{\pgfmathresult}
+ \pgfmathparse{\u+\d}
+ \xdef\U{\pgfmathresult}
+
+ \fill[color=purple!10] (\u,{\u*\u}) -- (\U,\a) -- (\u,\a) -- cycle;
+
+ \node[color=darkgreen] at (\u,0) [below] {$u_#1$};
+ \draw[color=darkgreen,line width=0.1pt] (\u,0)--(\u,\a);
+
+ \fill[color=darkgreen] (\u,{\u*\u}) circle[radius=0.006];
+
+ \draw[<->,color=darkgreen] (\u,{\u*\u}) -- (\u,\a);
+
+ \draw[color=purple,shorten <= 0.6mm]
+ (\u,{\u*\u}) -- (\U,\a);
+}
+\def\marke#1#2{
+ \node[color=orange] at ({0.5*(\u+\U)},\a) [#2] {$\frac12(a-u_#1^2)$};
+ \draw[<->,color=orange,shorten >= 0mm,shorten <= 0mm]
+ (\u,\a) -- (\U,\a);
+}
+
+\def\hoehe#1{
+ \node[color=darkgreen] at ({\u+0.01},{\a-\d-0.01})
+ [above,rotate=90] {$a-u_#1^2$};
+}
+
+\schritt{0}{1}
+\hoehe{0}
+\marke{0}{above}
+
+\schritt{1}{2}
+\hoehe{1}
+\marke{1}{above}
+\node[color=darkgreen] at (\u,{\u*\u-0.02}) [above left] {$u_1^2$};
+
+\schritt{2}{3}
+\hoehe{2}
+%\marke{2}{right,rotate=90}
+\marke{2}{above}
+\node[color=darkgreen] at (\u,{\u*\u-0.02}) [above left] {$u_2^2$};
+
+\schritt{3}{4}
+
+\draw[color=blue] ({sqrt(\a)},-0.01) -- ({sqrt(\a)},\a);
+\node[color=blue] at ({sqrt(\a)-0.02},0) [below right] {$\sqrt{a}$};
+
+\draw[->] (-0.01,0) -- (1.05,0) coordinate[label={$u$}];
+\node at (1,0) [below] {$1$};
+\node at (0,1) [left] {$1$};
+\draw (1,-0.01) -- (1,0.01);
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/40-eigenwerte/images/wurzelapprox.pdf b/buch/chapters/40-eigenwerte/images/wurzelapprox.pdf
new file mode 100644
index 0000000..01fa714
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/wurzelapprox.pdf
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/images/wurzelapprox.tex b/buch/chapters/40-eigenwerte/images/wurzelapprox.tex
new file mode 100644
index 0000000..676c7e9
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/wurzelapprox.tex
@@ -0,0 +1,107 @@
+%
+% wurzelapprox.tex -- template for standalon tikz images
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{5.7}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\definecolor{darkgreen}{rgb}{0,0.6,0}
+
+\input{wa.tex}
+
+\begin{scope}[xshift=-0.63cm]
+
+\draw[->] (-0.01,0) -- (1.05,0) coordinate[label={$t$}];
+
+\begin{scope}
+ \clip (0,0) rectangle (1,1.01);
+ \draw[color=blue,line width=1.6pt] \pfada;
+ \draw[color=blue,line width=1.2pt] \pfadb;
+ \draw[color=blue,line width=1.2pt] \pfadc;
+ \draw[color=blue,line width=1.2pt] \pfadd;
+ \draw[color=blue,line width=1.2pt] \pfade;
+ \draw[color=blue,line width=1.2pt] \pfadf;
+ \draw[color=blue,line width=1.2pt] \pfadg;
+ \draw[color=blue,line width=1.2pt] \pfadh;
+ \draw[color=blue,line width=1.2pt] \pfadi;
+ \draw[color=blue,line width=1.2pt] \pfadj;
+
+ \draw[color=red,line width=1.6pt]
+ plot[domain=0:1.01,samples=100] ({\x*\x},{\x});
+\end{scope}
+
+\node[color=red] at (0.5,0.707) [above,rotate={atan(0.5)}] {$\sqrt{t}$};
+
+\draw[->] (0,-0.01) -- (0,1.05) coordinate[label={right:$u_n(t)$}];
+
+\foreach \x in {2,4,...,8}{
+ \draw ({0.1*\x},-0.01) -- ({0.1*\x},0.01);
+ \node at ({0.1*\x},-0.01) [below] {0.\x\strut};
+ \draw (-0.01,{0.1*\x}) -- (0.01,{0.1*\x});
+ \node at (-0.01,{0.1*\x}) [left] {0.\x\strut};
+}
+\draw (1,-0.01) -- (1,0.01);
+\node at (1,-0.01) [below] {1.0\strut};
+\node at (0,-0.01) [below] {0\strut};
+
+\draw (-0.01,1) -- (0.01,1);
+\node at (-0.01,1) [left] {1.0\strut};
+
+\node[color=blue] at (1.01,0) [above left] {$u_0(t)$};
+\node[color=blue] at (1,0.51) [below left,rotate={atan(0.5)}] {$u_1(t)$};
+\node[color=blue] at (1,{0.86+0.03}) [below left,rotate={atan(0.86)}] {$u_2(t)$};
+\node[color=blue] at (1,1.00) [below left,rotate={atan(0.5)}] {$u_3(t)$};
+
+\end{scope}
+
+\begin{scope}[xshift=0.63cm]
+
+\begin{scope}
+ \clip (0,0) rectangle (1,1.01);
+ \draw[color=darkgreen,line width=1.2pt] \fehlera;
+ \draw[color=darkgreen,line width=1.2pt] \fehlerb;
+ \draw[color=darkgreen,line width=1.2pt] \fehlerc;
+ \draw[color=darkgreen,line width=1.2pt] \fehlerd;
+ \draw[color=darkgreen,line width=1.2pt] \fehlere;
+ \draw[color=darkgreen,line width=1.2pt] \fehlerf;
+ \draw[color=darkgreen,line width=1.2pt] \fehlerg;
+ \draw[color=darkgreen,line width=1.2pt] \fehlerh;
+ \draw[color=darkgreen,line width=1.2pt] \fehleri;
+ \draw[color=darkgreen,line width=1.2pt] \fehlerj;
+\end{scope}
+
+\draw[->] (0,-0.01) -- (0,1.05) coordinate[label={right:${\color{red}\sqrt{t}}-{\color{blue}u_n(t)}$}];
+\draw[->] (-0.01,0) -- (1.05,0) coordinate[label={$t$}];
+
+\foreach \x in {2,4,...,9}{
+ \draw ({0.1*\x},-0.01) -- ({0.1*\x},0.01);
+ \node at ({0.1*\x},-0.01) [below] {0.\x\strut};
+ \draw (-0.01,{0.1*\x}) -- (0.01,{0.1*\x});
+ \node at (-0.01,{0.1*\x}) [left] {0.\x\strut};
+}
+\draw (1,-0.01) -- (1,0.01);
+\node at (1,-0.01) [below] {1.0\strut};
+\node at (0,-0.01) [below] {0\strut};
+
+\draw (-0.01,1) -- (0.01,1);
+\node at (-0.01,1) [left] {1.0\strut};
+
+\node[color=darkgreen] at (1,1) [below left,rotate={atan(0.5)}] {$n=0$};
+\node[color=darkgreen] at (1,0.5) [above left] {$n=1$};
+\node[color=darkgreen] at (1,0.13) [above left,rotate=-13] {$n=2$};
+\node[color=darkgreen] at (1,0.00) [above left,rotate=-9] {$n=3$};
+
+\end{scope}
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/40-eigenwerte/normalformen.tex b/buch/chapters/40-eigenwerte/normalformen.tex
index c21c403..9169f65 100644
--- a/buch/chapters/40-eigenwerte/normalformen.tex
+++ b/buch/chapters/40-eigenwerte/normalformen.tex
@@ -330,9 +330,259 @@ Es ist das Polynom geringsten Grades über $\Bbbk'$, welches $m(A)=0$ erfüllt.
\subsection{Reelle Normalform
\label{buch:subsection:reelle-normalform}}
+Wenn eine reelle Matrix $A$ komplexe Eigenwerte hat, ist die Jordansche
+Normalform zwar möglich, aber die zugehörigen Basisvektoren werden ebenfalls
+komplexe Komponenten haben.
+Für eine rein reelle Rechnung ist dies nachteilig, da der Speicheraufwand
+dadurch verdoppelt und der Rechenaufwand für Multiplikationen vervierfacht
+wird.
-\subsection{Obere Hessenberg-Form
-\label{buch:subsection:obere-hessenberg-form}}
+Die nicht reellen Eigenwerte von $A$ treten in konjugiert komplexen Paaren
+$\lambda_i$ und $\overline{\lambda}_i$ auf.
+Wir betrachten im Folgenden nur ein einziges Paar $\lambda=a+ib$ und
+$\overline{\lambda}=a-ib$ von konjugiert komplexen Eigenwerten mit
+nur je einem einzigen $n\times n$-Jordan-Block $J$ und $\overline{J}$.
+Ist $\mathcal{B}=\{b_1,\dots,b_n\}$ die Basis für den Jordan-Block $J$,
+dann kann man die Vektoren
+$\overline{\mathcal{B}}=\{\overline{b}_1,\dots,\overline{b}_n\}$ als Basis für
+$\overline{J}$ verwenden.
+Die vereinigte Basis
+$\mathcal{C} = \mathcal{B}\cup\overline{\mathcal{B}}
+= \{b_1,\dots,b_n,\overline{b}_1,\dots,\overline{b}_n\}$
+erzeugen einen $2n$-dimensionalen Vektorraum,
+der direkte Summe der beiden von $\mathcal{B}$ und $\overline{\mathcal{B}}$
+erzeugen Vektorräume $V=\langle\mathcal{B}\rangle$ und
+$\overline{V}=\langle\overline{\mathcal{B}}\rangle$ ist.
+Es ist also
+\[
+U=\langle \mathcal{C}\rangle
+=
+V\oplus \overline{V}.
+\]
+Wir bezeichnen die lineare Abbildung mit den Jordan-Blöcken
+$J$ und $\overline{J}$ wieder mit $A$.
+
+Auf dem Vektorraum $U$ hat die lineare Abbildung in der Basis
+$\mathcal{C}$ die Matrix
+\[
+A=
+\begin{pmatrix}
+J&0\\
+0&\overline{J}
+\end{pmatrix}
+=
+\begin{pmatrix}
+\lambda& 1 & & & &&&&&\\
+ &\lambda& 1 & & &&&&&\\
+ & &\lambda&\ddots& &&&&&\\
+ & & &\ddots& 1 &&&&&\\
+ & & & &\lambda&&&&&\\
+&&&& &\overline{\lambda}&1&& & \\
+&&&& &&\overline{\lambda}&1& & \\
+&&&& &&&\overline{\lambda} &\dots& \\
+&&&& &&& &\dots&1\\
+&&&& &&& &&\overline{\lambda}\\
+\end{pmatrix}.
+\]
+
+Die Jordan-Normalform bedeutet, dass
+\[
+\begin{aligned}
+Ab_1&=\lambda b_1 &
+ A\overline{b}_1 &= \overline{\lambda} \overline{b}_1 \\
+Ab_2&=\lambda b_2 + b_1 &
+ A\overline{b}_2 &= \overline{\lambda} \overline{b}_2 +\overline{b_1}\\
+Ab_3&=\lambda b_3 + b_2 &
+ A\overline{b}_3 &= \overline{\lambda} \overline{b}_3 +\overline{b_2}\\
+ &\;\vdots &
+ &\;\vdots \\
+Ab_n&=\lambda b_n + b_{n-1} &
+ A\overline{b}_n &= \overline{\lambda} \overline{b}_n +\overline{b_{n-1}}
+\end{aligned}
+\]
+Für die Linearkombinationen
+\begin{equation}
+\begin{aligned}
+c_i &= \frac{b_i+\overline{b}_i}{\sqrt{2}},
+&
+d_i &= \frac{b_i-\overline{b}_i}{i\sqrt{2}}
+\end{aligned}
+\label{buch:eigenwerte:eqn:reellenormalformumrechnung}
+\end{equation}
+folgt dann für $k>1$
+\begin{align*}
+Ac_k
+&=
+\frac{Ab_k+A\overline{b}_k}{2}
+&
+Ad_k
+&=
+\frac{Ab_k-A\overline{b}_k}{2i}
+\\
+&=
+\frac1{\sqrt{2}}(\lambda b_k + b_{k-1}
++ \overline{\lambda}\overline{b}_k + \overline{b}_{k-1})
+&
+&=
+\frac1{i\sqrt{2}}(\lambda b_k + b_{k-1}
+- \overline{\lambda}\overline{b}_k - \overline{b}_{k-1})
+\\
+&=
+\frac1{\sqrt{2}}(\alpha b_k + i\beta b_k + \alpha \overline{b}_k -i\beta \overline{b}_k)
++
+c_{k-1}
+&
+&=
+\frac1{i\sqrt{2}}(
+\alpha b_k + i\beta b_k - \alpha \overline{b}_k +i\beta \overline{b}_k)
++
+d_{k-1}
+\\
+&=
+\alpha
+\frac{b_k+\overline{b}_k}{\sqrt{2}}
++
+i \beta \frac{b_k-\overline{b}_k}{\sqrt{2}}
++
+c_{k-1}
+&
+&=
+\alpha
+\frac{b_k-\overline{b}_k}{i\sqrt{2}}
++
+i \beta \frac{b_k+\overline{b}_k}{i\sqrt{2}}
++
+d_{k-1}
+\\
+&= \alpha c_k -\beta d_k
++
+c_{k-1}
+&
+&= \alpha d_k + \beta c_k
++
+d_{k-1}.
+\end{align*}
+Für $k=1$ fallen die Terme $c_{k-1}$ und $d_{k-1}$ weg.
+In der Basis $\mathcal{D}=\{c_1,d_1,\dots,c_n,d_n\}$ hat die Matrix
+also die {\em reelle Normalform}
+\begin{equation}
+\def\temp#1{\multicolumn{1}{|c}{#1\mathstrut}}
+\def\semp#1{\multicolumn{1}{c|}{#1\mathstrut}}
+A_{\text{reell}}
+=
+\left(
+\begin{array}{cccccccccccc}
+\cline{1-4}
+\temp{\alpha}& \beta&\temp{ 1}& 0&\temp{} & & & & & &&\\
+\temp{-\beta}&\alpha&\temp{ 0}& 1&\temp{} & & & & & &&\\
+\cline{1-6}
+ & &\temp{\alpha}& \beta&\temp{ 1}& 0&\temp{} & & & &&\\
+ & &\temp{-\beta}&\alpha&\temp{ 0}& 1&\temp{} & & & &&\\
+\cline{3-6}
+ & & & &\temp{\alpha}& \beta&\temp{} & & & &&\\
+ & & & &\temp{-\beta}&\alpha&\temp{} & & & &&\\
+\cline{5-8}
+ & & & & & &\temp{\phantom{0}}&\phantom{0}&\temp{ }& &&\\
+ & & & & & &\temp{\phantom{0}}&\phantom{0}&\temp{ }& &&\\
+\cline{7-12}
+ & & & & & & & &\temp{\alpha}& \beta&\temp{ 1}&\semp{ 0}\\
+ & & & & & & & &\temp{-\beta}&\alpha&\temp{ 0}&\semp{ 1}\\
+\cline{9-12}
+ & & & & & & & & & &\temp{\alpha}&\semp{ \beta}\\
+ & & & & & & & & & &\temp{-\beta}&\semp{\alpha}\\
+\cline{11-12}
+\end{array}\right).
+\label{buch:eigenwerte:eqn:reellenormalform}
+\end{equation}
+
+Wir bestimmen noch die Transformationsmatrix, die $A$ in die reelle
+Normalform bringt.
+Dazu beachten wir, dass die Vektoren $c_k$ und $d_k$ in der Basis
+$\mathcal{B}$ nur in den Komponenten $k$ und $n+k$ von $0$ verschiedene
+Koordinaten haben, nämlich
+\[
+c_k
+=
+\frac1{\sqrt{2}}
+\left(
+\begin{array}{c}
+\vdots\\ 1 \\ \vdots\\\hline \vdots\\ 1\\\vdots
+\end{array}\right)
+\qquad\text{und}\qquad
+d_k
+=
+\frac1{i\sqrt{2}}
+\left(\begin{array}{c}
+\vdots\\ 1 \\ \vdots\\\hline\vdots\\-1\\\vdots
+\end{array}\right)
+=
+\frac1{\sqrt{2}}
+\left(\begin{array}{c}
+\vdots\\-i \\ \vdots\\\hline \vdots\\ i\\\vdots
+\end{array}\right)
+\]
+gemäss \eqref{buch:eigenwerte:eqn:reellenormalformumrechnung}.
+Die Umrechnung der Koordinaten von der Basis $\mathcal{B}$ in die Basis
+$\mathcal{D}$
+wird daher durch die Matrix
+\[
+S
+=
+\frac{1}{\sqrt{2}}
+\left(\begin{array}{cccccccccc}
+1&-i& & & & & & & & \\
+ & &1&-i& & & & & & \\
+ & & & &1&-i& & & & \\
+ & & & & & &\dots&\dots& & \\
+ & & & & & & & &1&-i\\
+\hline
+1& i& & & & & & & & \\
+ & &1& i& & & & & & \\
+ & & & &1& i& & & & \\
+ & & & & & &\dots&\dots& & \\
+ & & & & & & & &1& i\\
+\end{array}\right)
+\]
+vermittelt.
+Der Nenner $\sqrt{2}$ wurde so gewählt, dass die
+Zeilenvektoren der Matrix $S$ als komplexe Vektoren orthonormiert sind,
+die Matrix $S$ ist daher unitär und hat die Inverse
+\[
+S^{-1}
+=
+S^*
+=
+\frac{1}{\sqrt{2}}
+\left(\begin{array}{ccccc|ccccc}
+ 1& & & & & 1& & & & \\
+ i& & & & &-i& & & & \\
+ & 1& & & & & 1& & & \\
+ & i& & & & &-i& & & \\
+ & & 1& & & & & 1& & \\
+ & & i& & & & &-i& & \\
+ & & &\dots& & & & &\dots& \\
+ & & &\dots& & & & &\dots& \\
+ & & & & 1& & & & & 1\\
+ & & & & i& & & & &-i\\
+\end{array}\right).
+\]
+Insbesondere folgt jetzt
+\[
+A
+=
+S^{-1}A_{\text{reell}}S
+=
+S^*A_{\text{reell}}S
+\qquad\text{und}\qquad
+A_{\text{reell}}
+=
+SAS^{-1}
+=
+SAS^*.
+\]
+
+%\subsection{Obere Hessenberg-Form
+%\label{buch:subsection:obere-hessenberg-form}}
diff --git a/buch/chapters/40-eigenwerte/spektralradius.tex b/buch/chapters/40-eigenwerte/spektralradius.tex
index bdc725f..a36dc33 100644
--- a/buch/chapters/40-eigenwerte/spektralradius.tex
+++ b/buch/chapters/40-eigenwerte/spektralradius.tex
@@ -3,9 +3,9 @@
%
% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswi
%
-\section{Funktionen einer Matrix
-\label{buch:section:funktionen-einer-matrix}}
-\rhead{Funktionen einer Matrix}
+\section{Analytische Funktionen einer Matrix
+\label{buch:section:analytische-funktionen-einer-matrix}}
+\rhead{Analytische Funktionen einer Matrix}
Eine zentrale Motivation in der Entwicklung der Eigenwerttheorie
war das Bestreben, Potenzen $A^k$ auch für grosse $k$ effizient
zu berechnen.
diff --git a/buch/chapters/40-eigenwerte/spektraltheorie.tex b/buch/chapters/40-eigenwerte/spektraltheorie.tex
index 4146505..466b99e 100644
--- a/buch/chapters/40-eigenwerte/spektraltheorie.tex
+++ b/buch/chapters/40-eigenwerte/spektraltheorie.tex
@@ -5,7 +5,798 @@
%
\section{Spektraltheorie
\label{buch:section:spektraltheorie}}
-% Matrix-Exponentialfunktion
-% Wurzel einer Matrix
-% Beliebige Funktion f(A) für normale Matrizen
+Aufgabe der Spektraltheorie ist, Bedingungen an eine Matrix $A$ und eine
+Funktion $f(z)$ zu finden, unter denen es möglich ist, $f(A)$ auf
+konsistente Art und Weise zu definieren.
+Weiter müssen Methoden entwickelt werden, mit denen $f(A)$ berechnet
+werden kann.
+Für ein Polynom $p(z)$ ist $p(A)$ durch einsetzen definiert.
+Für Funktionen, die sich nicht durch ein Polynom darstellen lassen,
+muss eine Approximation der Funktion durch Polynome verwendet werden.
+Sei also $p_n(z)$ eine Folge von Polynomen, die als Approximation der
+Funktion $f(z)$ verwendet werden soll.
+Das Ziel ist, $f(A)$ als den Grenzwert der Matrixfolge $p_n(A)$
+zu definieren.
+
+Zunächst ist nicht klar, wie eine solche Folge gewählt werden muss.
+Es muss eine Teilmenge von $K\subset\mathbb{C}$ spezifiziert werden,
+auf der die Funktionenfolge $p_n(z)$ konvergieren muss,
+damit auch die Konvergenz der Matrizenfolge $p_n(A)$ garantiert ist.
+Auch die Art der Konvergenz von $p_n(z)$ auf der Menge $K$ ist noch
+unklar.
+Da der Abstand zweier Matrizen $A$ und $B$ in der Operatornorm
+mit der grössten Abweichung $\|(A-B)v\|$ für Einheitsvektoren $v$
+gemessen wird, ist es einigermassen plausibel, dass
+die grösse Abweichung zwischen zwei Polynomen $|p(z) - q(z)|$ auf
+der Menge $K$ kleine sein muss, wenn $\|p(A)-q(A)\|$ klein
+sein soll.
+Da die Differenz $p(z)-q(z)$ für beliebige Polynome, die sich nicht
+nur um eine Konstante unterscheiden, mit $z$ über alle Grenzen wächst,
+muss $K$ beschränkt sein.
+Gesucht ist also eine kompakte Menge $K\subset\mathbb{C}$ und eine
+Folge $p_n(z)$ von Polynomen, die auf $K$ gleichmässig gegen $f(z)$
+konvergieren.
+Die Wahl von $K$ muss sicherstellen, dass für jede gleichmässig
+konvergente Folge von Polynomen $p_n(z)$ auch die Matrizenfolge
+$p_n(A)$ konvergiert.
+
+Es wird sich zeigen, dass die Menge $K$ das Spektrum von $A$ ist,
+also eine endliche Teilmenge von $\mathbb{C}$.
+Jede Funktion kann auf so einer Menge durch Polynome exakt wiedergegeben
+werden.
+Es gibt insbesondere Folgen von Polynomen, die eingeschränkt
+auf das Spektrum gleich sind, also $p_n(z)=p_m(z)$ für alle $z\in K$,
+die aber ausserhalb des Spektrums alle verschieden sind.
+Als Beispiel kann die Matrix
+\[
+N=\begin{pmatrix}0&1\\0&0\end{pmatrix}
+\]
+herangezogen werden.
+Ihr Spektrum ist $\operatorname{Sp}(N)=\{0\}\subset\mathbb{C}$.
+Zwei Polynome stimmen genau dann auf $\operatorname{Sp}(N)$ überein,
+wenn der konstante Koeffizient gleich ist.
+Die Polynome $p(z)=z$ und $q(z)=z^2$ stimmen daher auf dem Spektrum
+überein.
+Für die Matrizen gilt aber $p(N)=N$ und $q(N)=N^2=0$, die Matrizen
+stimmen also nicht überein.
+Es braucht also zusätzliche Bedingungen an die Matrix $A$, die
+sicherstellen, dass $p(A)=0$ ist, wann immer $p(z)=0$ für
+$z\in\operatorname{Sp}(A)$ gilt.
+
+In diesem Abschnitt sollen diese Fragen untersucht werden.
+In Abschnitt~\ref{buch:subsection:approximation-durch-polynome}
+wird gezeigt, wie sich Funktionen durch Polynome approximieren
+lassen, woraus sich dann Approximationen von $f(A)$ für diagonalisierbare
+Matrizen mit reellen Eigenwerten ergeben.
+
+Der Satz von Stone-Weierstrass, der in
+Abschnitt~\ref{buch:subsetion:stone-weierstrass} dargestellt wird,
+ist ein sehr allgemeines Approximationsresultat, welches nicht nur
+zeigt, dass die Approximation unter sehr natürlichen Voraussetzungen
+beliebig genau möglich ist, sondern uns im komplexen Fall auch
+weitere Einsicht dafür geben kann, welche Voraussetzungen an eine
+komplexe Matrix gestellt werden müssen, damit man damit rechnen kann,
+dass die Approximation zu einer konsistenten Definition von $f(A)$ führt.
+
+%
+% Approximation
+%
+\subsection{Approximation durch Polynome
+\label{buch:subsection:approximation-durch-polynome}}
+Die der Berechnung von $f(A)$ für eine beleibige stetige Funktion,
+die sich nicht als Potenzreihe schreiben lässt, verwendet Approximationen
+von Polynomen.
+Die numerische Mathematik hat eine grosse Menge von solchen
+Approximationsverfahren entwickelt, wovon zwei kurz (ohne Beweise)
+vorgestellt werden sollen.
+
+\subsubsection{Das Legendre-Interpolationspolynom}
+Zu vorgegebenen, verschiedenen Zahlen $z_i\in\mathbb{C}$, $0\le i\le n$,
+die auch die {\em Stützstellen} genannt werden,
+gibt es immer ein Polynom vom Grade $n$, welches in den $z_i$ vorgegebene
+Werte $f(z_i)$ annimmt.
+Ein solches Polynom lässt sich im Prinzip mit Hilfe eines linearen
+Gleichungssystems finden, man kann aber auch direkt eine Lösung
+konstruieren.
+Dazu bildet man erst die Polynome
+\begin{align*}
+l(z) &= (z-z_0)(z-z_1)\dots (z-z_n) \qquad\text{und}
+\\
+l_i(z) &= (z-z_0)\dots \widehat{(z-z_i)}\dots (z-z_n).
+\end{align*}
+Darin bedeutet der Hut, dass dieser Term weggelassen werden soll.
+Für $z\ne z_i$ ist $l_i(z)=l(z)/(z-z_i)$.
+Die Polynome
+\[
+k_i(z)
+=
+\frac{l_i(z)}{l_i(z_i)}
+=
+\frac{(z-z_0)\dots \widehat{(z-z_i)}\dots (z-z_n)}{(z_i-z_0)\dots \widehat{(z_i-z_i)}\dots (z_i-z_n)}
+\]
+haben die Eigenschaft
+$k_i(z_j)=\delta_{ij}$.
+Damit lässt sich jetzt ein Polynom
+\[
+p(z) = \sum_{j=0}^n f(z_j) \frac{l_j(z)}{l_j(z_j)}
+\]
+vom Grad $n$ konstruieren, welches die Werte
+\[
+p(z_i)
+=
+\sum_{j=0}^n f(z_j) \frac{l_j(z_i)}{l_j(z_j)}
+=
+\sum_{j=0}^n f(z_j) \delta_{ij}
+=
+f_(z_i)
+\]
+annimmt.
+Das Polynom $p(z)$ heisst das {\em Legendre-Interpolationspolynom}.
+
+Zwar lässt sich also für eine endliche Menge von komplexen Zahlen immer
+ein Polynom finden, welches vorgeschriebene Wert in allen diesen Zahlen
+annimmt, doch ist die Stabilität für grosse $n$ eher beschränkt.
+
+
+\subsubsection{Gleichmassige Approximation mit Bernstein-Polynomen}
+Das Legendre-Interpolationspolynom nimmt in den Stützstellen die
+verlangten Werte an, aber ausserhalb der Stützstellen ist nicht
+garantiert, dass man eine gute Approximation einer Funktion $f(z)$
+erhält.
+
+Für die Approximation auf einem reellen Interval $[a,b]$ hat
+Sergei Natanowitsch Bernstein ein
+Dazu werden zuerst die reellen Bernsteinpolynome vom Grad $n$
+durch
+\begin{align*}
+B_{i,n}(t) = \binom{n}{i} t^i(1-t)^{n-i}.
+\end{align*}
+definiert.
+Als Approximationspolynom für die auf dem Interval
+$[0,1]$ definierte, stetige Funktion $f(t)$ kann man dann
+\[
+B_n(f)(t)
+=
+\sum_{i=0}^n B_{i,n}(t) f\biggl(\frac{i}{n}\biggr)
+\]
+verwenden.
+Die Polynome $B_n(f)(t)$ konvergieren gleichmässig auf $[0,1]$
+gegen die Funktion $f(t)$.
+Über die Konvergenz ausserhalb des reellen Intervalls wird nichts
+ausgesagt.
+Die Approximation mit Bernstein-Polynomen ist daher nur sinnvoll,
+wenn man weiss, dass die Eigenwerte der Matrix reell sind, was im
+wesentlichen auf diagonalisierbare Matrizen führt.
+
+Für ein anderes Interval $[a,b]$ kann man ein Approximationspolynom
+erhalten, indem man die affine Transformation
+$s\mapsto (s-a)/(b-a)$
+von $[a,b]$ auf $[0,1]$
+verwendet.
+
+%
+% Der Satz von Stone-Weierstrass
+%
+\subsection{Der Satz von Stone-Weierstrasss
+\label{buch:subsetion:stone-weierstrass}}
+Der Satz von Stone-Weierstrass behandelt im Gegensatz zu den in
+Abschnitt~\ref{buch:subsection:approximation-durch-polynome}
+besprochenen Approximationsmethoden nicht nur Funktionen von
+reellen Variablen durch Polynome.
+Vielmehr kann das Definitionsgebiet irgend eine abgeschlossene
+und beschränkte Teilmenge eines reellen oder komplexen Vektorraumes
+sein und die Funktionen können Polynome aber auch viel allgemeinere
+Funktionen verwendet werden, wie zum Beispiel die Funktionen
+$x\mapsto \cos nx$ und $x\mapsto \sin nx$ definiert auf dem
+Intervall $[0,2\pi]$.
+In diesem Fall liefert der Satz von Stone-Weierstrass die Aussage,
+dass sich jede stetige periodische Funktion gleichmässig durch
+trigonometrische Polynome approximieren lässt.
+
+Die Aussage des Satz von Stone-Weierstrass über reelle Funktionen
+lässt sich nicht auf komplexe Funktionen erweitern.
+Von besonderem Interesse ist jedoch, dass der Beweis des Satz
+zeigt, warum solche Aussagen für komplexe Funktionen nicht mehr
+zutreffen.
+Im Falle der Approximation von komplexen Funktionen $f(z)$ durch Polynome
+zwecks Definition von $f(A)$ werden sich daraus Bedingungen an die
+Matrix ableiten lassen, die eine konsistente Definition überhaupt
+erst ermöglichen werden.
+
+\subsubsection{Punkte trennen}
+Aus den konstanten Funktionen lassen sich durch algebraische
+Operationen nur weitere konstante Funktionen erzeugen.
+Die konstanten Funktionen sind also nur dann eine genügend
+reichhaltige Menge, wenn die Menge $K$ nur einen einzigen Punkt
+enthält.
+Damit sich Funktionen approximieren lassen, die in zwei Punkten
+verschiedene Werte haben, muss es auch unter den zur Approximation
+zur Verfügung stehenden Funktionen solche haben, deren Werte sich
+in diesen Punkten unterscheiden.
+Diese Bedingung wird in der folgenden Definition formalisiert.
+
+\begin{definition}
+Sei $K$ eine beliebige Menge und $A$ eine Menge von Funktionen
+$K\to \mathbb{C}$.
+Man sagt, $A$ {\em trennt die Punkte von $K$}, wenn es für jedes Paar
+\index{Punkte trennen}%
+von Punkten $x,y\in K$ eine Funktion $f\in A$ gibt derart, dass
+$f(x)\ne f(y)$.
+\end{definition}
+
+Man kann sich die Funktionen $f$, die gemäss dieser Definition die Punkte
+von $K$ trennen, als eine Art Koordinaten der Punkte in $K$ vorstellen.
+Die Punkte der Teilmenge $K\subset \mathbb{R}^n$ werden zum Beispiel
+von den Koordinatenfunktionen $x\mapsto x_i$ getrennt.
+Wir schreiben für die $i$-Koordinate daher auch als Funktion $x_i(x)=x_i$.
+Zwei verschiedene Punkte $x,y\in K$ unterscheiden sich in mindestens
+einer Koordinate.
+Für diese Koordinate sind dann die Werte der zugehörigen
+Koordinatenfunktion $x_i=x_i(x)\ne x_i(y)=y_i$ verschieden, die
+Funktionen $x_1(x)$ bis $x_n(x)$ trennen also die Punkte.
+
+\begin{beispiel}
+Wir betrachten einen Kreis in der Ebene, also die Menge
+\[
+S^1
+=
+\{(x_1,x_2)\;|\; x_1^2 + x_2^2=1\}
+\]
+$S^1$ ist eine abgeschlossene und beschränkte Menge in $\mathbb{R}^2$.
+Die Funktion $x\mapsto x_1$ trennt die Punkte nicht, denn zu jedem
+Punkt $(x_1,x_2)\in S^2$ gibt es den an der ersten Achse
+gespiegelten Punkt $\sigma(x)=(x_1,-x_2)$, dessen erste Koordinate
+den gleichen Wert hat.
+Ebenso trennt die Koordinatenfunktion $x\mapsto x_2$ die Punkte nicht.
+Die Menge $A=\{ x_1(x), x_2(x)\}$ bestehend aus den beiden
+Koordinatenfunktionen trennt dagegen die Punkte von $S^1$, da die Punkte
+sich immer in mindestens einem Punkt unterscheiden.
+
+Man könnte auch versuchen, den Kreis in Polarkoordinaten zu beschreiben.
+Die Funktion $\varphi(x)$, die jedem Punkt $x\in S^1$ den Polarwinkel
+zuordnet, trennt sicher die Punkte des Kreises.
+Zwei verschiedene Punkte auf dem Kreis haben verschieden Polarwinkel.
+Die Menge $\{\varphi\}$ trennt also die Punkte von $S^1$.
+Allerdings ist die Funktion nicht stetig, was zwar der Definition
+nicht widerspricht aber ein Hindernis für spätere Anwendungen ist.
+\end{beispiel}
+
+
+\subsubsection{Der Satz von Stone-Weierstrass für reelle Funktionen}
+Die Beispiele von Abschnitt~\ref{buch:subsection:approximation-durch-polynome}
+haben bezeigt, dass sich reellwertige Funktionen einer reellen
+Variable durch Polynome beliebig genau approximieren lassen.
+Es wurde sogar eine Methode vorgestellt, die eine auf einem Intervall
+gleichmässig konvergente Polynomefolge produziert.
+Die Variable $x\in[a,b]$ trennt natürlich die Punkte, die Algebra der
+Polynome in der Variablen $x$ enthält also sicher Funktionen, die in
+verschiedenen Punkten des Intervalls auch verschiedene Werte annehmen.
+Nicht ganz so selbstverständlich ist aber, dass sich daraus bereits
+ergibt, dass jede beliebige Funktion sich als Polynome in $x$
+approximieren lässt.
+Dies ist der Inhalt des folgenden Satzes von Stone-Weierstrass.
+
+\begin{figure}
+\centering
+\includegraphics{chapters/40-eigenwerte/images/wurzel.pdf}
+\caption{Konstruktion einer monoton wachsenden Approximationsfolge für
+$\sqrt{a}$
+\label{buch:eigenwerte:fig:wurzelverfahren}}
+\end{figure}
+
+\begin{figure}
+\centering
+\includegraphics[width=\textwidth]{chapters/40-eigenwerte/images/wurzelapprox.pdf}
+\caption{Monoton wachsende Approximation der Funktion $t\mapsto\sqrt{t}$ mit
+Polynomen $u_n(t)$ nach
+\eqref{buch:eigenwerte:eqn:wurzelapproximation}
+(links) und der Fehler der Approximation
+(rechts).
+\label{buch:eigenwerte:fig:wurzelapproximation}}
+\end{figure}
+
+\begin{satz}[Stone-Weierstrass]
+\label{buch:satz:stone-weierstrass}
+Enthält eine $\mathbb{R}$-Algebra $A$ von stetigen, rellen Funktionen
+auf einer kompakten Menge $K$ die konstanten Funktionen und trennt sie
+Punkte, d.~h.~für zwei verschiedene Punkte $x,y\in K$ gibt es
+immer eine Funktion $f\in A$ mit $f(x)\ne f(y)$, dann ist jede stetige,
+reelle Funktion auf $K$ gleichmässig approximierbar durch Funktionen
+in $A$.
+\end{satz}
+
+Für den Beweis des Satzes wird ein Hilfsresultat benötigt, welches wir
+zunächst ableiten.
+Es besagt, dass sich die Wurzelfunktion $t\mapsto\sqrt{t}$
+auf dem Interval $[0,1]$ gleichmässig
+von unten durch Polynome approximieren lässt, die in
+Abbildung~\ref{buch:eigenwerte:fig:wurzelapproximation} dargestellt
+sind.
+
+\begin{satz}
+Die rekursiv definierte Folge von Polynomen
+\begin{equation}
+u_{n+1}(t)
+=
+u_n(t) + \frac12(t-u_n(t)^2),
+\qquad
+u_0(t)=0
+\label{buch:eigenwerte:eqn:wurzelapproximation}
+\end{equation}
+ist monoton wachsend und approximiert die Wurzelfunktion $t\mapsto\sqrt{t}$
+gleichmässig auf dem Intervall $[0,1]$.
+\end{satz}
+
+\begin{figure}
+\centering
+\includegraphics{chapters/40-eigenwerte/images/minmax.pdf}
+\caption{Graphische Erklärung der
+Identitäten~\eqref{buch:eigenwerte:eqn:minmax} für
+$\max(f(x),g(x))$ und $\min(f(x),g(x))$.
+Die purpurrote Kurve stellt den Mittelwert von $f(x)$ und $g(x)$ dar,
+die vertikalen grünen Linien haben die Länge der Differenz $|f(x)-g(x)|$.
+Das Maximum erhält man, indem man den halben Betrag der Differenz zum
+Mittelwert hinzuaddiert, das Minimum erhält man durch Subtraktion
+der selben Grösse.
+\label{buch:eigenwerte:fig:minmax}}
+\end{figure}
+
+\begin{proof}[Beweis]
+Wer konstruieren zunächst das in
+Abbildung~\ref{buch:eigenwerte:fig:wurzelverfahren}
+visualierte Verfahren, mit dem für jede Zahl $a\in[0,1]$
+die Wurzel $\sqrt{a}$ berechnet werden kann.
+Sei $u < \sqrt{a}$ eine Approximation der Wurzel.
+Die Approximation ist der exakte Wert der Lösung, wenn $a-u^2=0$.
+In jedem anderen Fall muss $u$ um einen Betrag $d$ vergrössert werden.
+Natürlich muss immer noch $u+d<\sqrt{a}$ sein.
+Man kann die maximal zulässige Korrektur $d$ geometrisch abschätzen,
+wie dies in Abbildung~\ref{buch:eigenwerte:fig:wurzelverfahren}
+skizziert ist.
+Die maximale Steigung des Graphen der Funktion $u\mapsto u^2$ ist $2$,
+daher darf man $u$ maximal um die Hälfte der Differenz $a-u^2$ (grün)
+vergrössern, also $d=\frac12(a-u^2)$.
+Die Rekursionsformel
+\[
+u_{n+1} = u_n + d = u_n + \frac12(a-u_n^2)
+\]
+mit dem Startwert $u_0=0$ liefert daher eine
+Folge, die gegen $\sqrt{a}$ konvergiert.
+\end{proof}
+
+\begin{proof}[Beweis des Satzes von Stone-Weierstrass]
+Da $A$ eine Algebra ist, ist mit jeder Funktion $f\in A$ für jedes Polynome
+$p\in\mathbb{R}[X]$ auch $p(f)$ eine Funktion in $A$.
+\begin{enumerate}
+\item Schritt: Für jede Funktion $f\in A$ lässt sich auch $|f|$ durch
+Funktionen in $A$ beliebig genau durch eine monoton wachsende Folge
+von Funktionen approximieren.
+
+Da $A$ eine Algebra ist, ist $f^2\in A$.
+Sei ausserdem $m^2=\sup \{f(x)^2\;|\;x\in K\}$, so dass $f^2/m^2$ eine Funktion
+mit Werten im Intervall $[0,1]$ ist.
+Die Funktionen $f_n(x)=mu_n(f(x)^2/m^2)$ sind ebenfalls in $A$ und
+approximieren gleichmässig $\sqrt{f(x)^2}=|f(x)|$.
+\item Schritt: Für zwei Funktionen $f,g\in A$ gibt es eine monoton wachsende
+Folge, die $\max(f,g)$ gleichmässig beliebig genau approximiert
+und eine monoton fallende Folge, die $\min(f,g)$ gleichmässig beliebig
+genau approximiert.
+
+
+Diese Folgen können aus der Approximationsfolge für den Betrag einer
+Funktion und den Identitäten
+\begin{equation}
+\begin{aligned}
+\max(f,g) &= \frac12(f+g+|f-g|) \\
+\min(f,g) &= \frac12(f+g-|f-g|)
+\end{aligned}
+\label{buch:eigenwerte:eqn:minmax}
+\end{equation}
+gefunden werden, die in Abbildung~\ref{buch:eigenwerte:fig:minmax}
+graphisch erklärt werden.
+\item Schritt: Zu zwei beliebigen Punkten $x,y\in K$ und Werten
+$\alpha,\beta\in\mathbb{R}$ gibt es immer eine Funktion in $A$,
+die in den Punkten $x,y$ die vorgegebenen Werte $\alpha$ bzw.~$\beta$
+annimmt.
+Da $A$ die Punkte trennt, gibt es eine Funktion $f_0$ mit $f_0(x)\ne f_0(y)$.
+Dann ist die Funktion
+\[
+f(t)
+=
+\beta + \frac{f_0(t)-f_0(y)}{f_0(x)-f_0(y)}(\alpha-\beta)
+\]
+wohldefiniert und nimmt die verlangten Werte an.
+\item Schritt: Zu jeder stetigen Funktion $f\colon K\to\mathbb{R}$, jedem
+Punkt $x\in K$ und jedem $\varepsilon>0$ gibt es eine Funktion $g\in A$ derart,
+dass $g(x)=f(x)$ und $g(y) \le f(y)+\varepsilon$ für alle $y\in K$.
+
+Zu jedem $z\in K$ gibt es eine Funktion in $A$ mit
+$h_z(x)=f(x)$ und $h_z(z) \le f(z)+\frac12\varepsilon$.
+Wegen der Stetigkeit von $h_z$ gibt es eine Umgebung $V_z$ von $z$, in der
+immer noch gilt $h_z(y)\le f(y)+\varepsilon$ für $y\in V_z$.
+Wegen der Kompaktheit von $K$ kann man endlich viele Punkte $z_i$ wählen
+derart, dass die $V_{z_i}$ immer noch $K$ überdecken.
+Dann erfüllt die Funktion
+\(
+g(z) = \inf h_{z_i}
+\)
+die Bedingungen $g(x) = f(x)$ und für $z\in V_{z_i}$
+\[
+g(z) = \inf_{j} h_{z_j}(z) \le h_{z_i}(z) \le f(z)+\varepsilon.
+\]
+Ausserdem ist $g(z)$ nach dem zweiten Schritt beliebig genau durch
+Funktionen in $A$ approximierbar.
+\item Schritt: Jede stetige Funktion $f\colon K\to\mathbb{R}$ kann
+beliebig genau durch Funktionen in $A$ approximiert werden.
+Sei $\varepsilon > 0$.
+
+Nach dem vierten Schritt gibt es für jedes $y\in K$ eine Funktion $g_y$
+derart, dass $g_y(y)=f(y)$ und $g_y(x) \le f(x) + \varepsilon$ für
+$x\in K$.
+Da $g_y$ stetig ist, gilt ausserdem $g_y(x) \ge f(x) -\varepsilon$ in
+einer Umgebung $U_y$ von $y$.
+Da $K$ kompakt ist, kann man endlich viele $y_i$ derart, dass die $U_{y_i}$
+immer noch ganz $K$ überdecken.
+Die Funktion $g=\sup g_{y_i}$ erfüllt dann überall $g(x) \le f(x)+\varepsilon$,
+weil jede der Funktionen $g_y$ diese Ungleichung erfüllt.
+Ausserdem gilt für $x\in V_{x_j}$
+\[
+g(x) = \sup_i g_{x_i}(x) \ge g_{x_j}(x) \ge f(x)-\varepsilon.
+\]
+Somit ist
+\[
+|f(x)-g(x)| \le \varepsilon.
+\]
+Damit ist $f(x)$ beliebig nahe an der Funktion $g(x)$, die sich
+beliebig genau durch Funktionen aus $A$ approximieren lässt.
+\qedhere
+\end{enumerate}
+\end{proof}
+
+Im ersten Schritt des Beweises ist ganz entscheidend, dass man die
+Betragsfunktion konstruieren kann.
+Daraus leiten sich dann alle folgenden Konstruktionen ab.
+
+\subsubsection{Anwendung auf symmetrische und hermitesche Matrizen}
+Für symmetrische und hermitesche Matrizen $A$ ist bekannt, dass die
+Eigenwerte reell sind, also das Spektrum $\operatorname{A}\subset\mathbb{R}$
+ist.
+Für eine Funktion $\mathbb{R}\to \mathbb{R}$ lässt sich nach dem
+Satz~\ref{buch:satz:stone-weierstrass} immer eine Folge $p_n$ von
+approximierenden Polynomen in $x$ finden, die auf $\operatorname{Sp}(A)$
+gleichmässig konvergiert.
+Die Matrix $f(A)$ kann dann definiert werden also der Grenzwert
+\[
+f(A) = \lim_{n\to\infty} p_n(A).
+\]
+Da diese Matrizen auch diagonalisierbar sind, kann man eine Basis
+aus Eigenvektoren verwenden.
+Die Wirkung von $p_n(A)$ auf einem Eigenvektor $v$ zum Eigenwert $\lambda$
+ist
+\[
+p_n(A)v
+=
+(a_kA^k + a_{k-1}A^{k-1}+\dots +a_2A^2+a_1A+a_0I)v
+=
+(a_k\lambda^k + a_{k-1}\lambda^{k-1}+\dots + a_2\lambda^2 + a_1\lambda + a_0)v
+=
+p_n(\lambda)v.
+\]
+Im Grenzwert wirkt $f(A)$ daher durch Multiplikation eines Eigenvektors
+mit $f(\lambda)$, die Matrix $f(A)$ hat in der genannten Basis die
+Diagonalform
+\[
+A=\begin{pmatrix}
+\lambda_1& & & \\
+ &\lambda_2& & \\
+ & &\ddots& \\
+ & & &\lambda_n
+\end{pmatrix}
+\qquad\Rightarrow\qquad
+f(A)=\begin{pmatrix}
+f(\lambda_1)& & & \\
+ &f(\lambda_2)& & \\
+ & &\ddots& \\
+ & & &f(\lambda_n)
+\end{pmatrix}.
+\]
+
+\begin{satz}
+\label{buch:eigenwerte:satz:spektralsatz}
+Ist $A$ symmetrische oder selbstadjungiert Matrix und $f$ eine Funktion
+auf dem Spektrum $\operatorname{Sp}(A)$ von $A$.
+Dann gibt es genau eine Matrix $f(A)$, die Grenzwert jeder beliebigen
+Folge $p_n(A)$ für Polynomfolgen, die $\operatorname{Sp}(A)$ gleichmässig
+gegen $f$ konvergieren.
+\end{satz}
+
+\subsubsection{Unmöglichkeit der Approximation von $z\mapsto \overline{z}$
+in $\mathbb{C}[z]$}
+Der Satz~\ref{buch:satz:stone-weierstrass} von Stone-Weierstrass für
+reelle Funktionen gilt nicht für komplexe Funktionen.
+In diesem Abschnitt zeigen wir, dass sich die Funktion $z\mapsto\overline{z}$
+auf der Einheitskreisscheibe $K=\{z\in\mathbb{C}\;|\; |z|\le 1\}$ nicht
+gleichmässig durch Polynome $p(z)$ mit komplexen Koeffizienten approximieren
+lässt.
+
+Wäre eine solche Approximation möglich, dann könnte man $\overline{z}$
+auch durch eine Potenzreihe
+\[
+\overline{z}
+=
+\sum_{k=0}^\infty a_kz^k
+\]
+darstellen.
+Das Wegintegral beider Seiten über den Pfad $\gamma(t) = e^{it}$
+in der komplexen Ebene ist
+\begin{align*}
+\oint_\gamma z^k\,dz
+&=
+\int_0^{2\pi} e^{ikt} ie^{it}\,dt
+=
+i\int_0^{2\pi} e^{it(k+1)}\,dt
+=
+i\biggl[ \frac{1}{i(k+1)} e^{it(k+1)}\biggr]_0^{2\pi}
+=
+0
+\\
+\oint_\gamma
+\sum_{k=0}^\infty a_kz^k
+\,dz
+&=
+\sum_{k=0}^\infty a_k \oint_\gamma z^k\,dz
+=
+\sum_{k=0}^\infty a_k\cdot 0
+=
+0
+\\
+\oint_\gamma \overline{z}\,dz
+&=
+\int_0^{2\pi} e^{it} ie^{it}\,dt
+=
+i\int_0^{2\pi} \,dt = 2\pi i,
+\end{align*}
+dabei wurde $\overline{\gamma}(t)=e^{-it}$ verwendet.
+Insbesondere widersprechen sich die beiden Integrale.
+Die ursprüngliche Annahmen, $\overline{z}$ lasse sich durch Polynome
+gleichmässig approximieren, muss daher verworfen werden.
+
+\subsubsection{Der Satz von Stone-Weierstrass für komplexe Funktionen}
+Der Satz von Stone-Weierstrass kann nach dem vorangegangene Abschnitt
+also nicht gelten.
+Um den Beweis des Satzes~\ref{buch:satz:stone-weierstrass}
+auf komplexe Zahlen zu übertragen, muss im ersten Schritt ein Weg
+gefunden werden, den Betrag einer Funktion zu approximieren.
+
+Im reellen Fall geschah dies, indem zunächst eine Polynom-Approximation
+für die Quadratwurzel konstruiert wurde, die dann auf das Quadrat einer
+Funktion angewendet wurde.
+Der Betrag einer komplexen Zahl $z$ ist aber nicht allein aus $z$
+berechenbar, man braucht in irgend einer Form Zugang zu Real-
+und Imaginärteil.
+Zum Beispiel kann man Real- und Imaginärteil als
+$\Re z= \frac12(z+\overline{z})$ und $\Im z = \frac12(z-\overline{z})$
+bestimmen.
+Kenntnis von Real- und Imaginärteil ist als gleichbedeutend mit
+der Kenntnis der komplex Konjugierten $\overline{z}$.
+Der Betrag lässt sich daraus als $|z|^2 = z\overline{z}$ finden.
+Beide Beispiele zeigen, dass man den im Beweis benötigten Betrag
+nur dann bestimmen kann, wenn mit jeder Funktion aus $A$ auch die
+komplex konjugierte Funktion zur Verfügung steht.
+
+\begin{satz}[Stone-Weierstrass]
+Enthält eine $\mathbb{C}$-Algebra $A$ von stetigen, komplexwertigen
+Funktionen auf einer kompakten Menge $K$ die konstanten Funktionen,
+trennt sie Punkte und ist ausserdem mit jeder Funktion $f\in A$ auch
+die komplex konjugiert Funktion $\overline{f}\in A$,
+dann lässt sich jede stetige, komplexwertige Funktion
+auf $K$ gleichmässig durch Funktionen aus $A$ approximieren.
+\end{satz}
+
+Mit Hilfe der konjugiert komplexen Funktion lässt sich immer eine
+Approximation für die Betragsfunktion finden, so dass sich der
+Beweis des reellen Satzes von Stone-Weierstrass übertragen lässt.
+
+%
+% Normale Matrizen
+%
+\subsection{Normale Matrizen
+\label{buch:subsection:normale-matrizen}}
+Aus dem Satz von Stone-Weierstrass für komplexe Matrizen kann man
+jetzt einen Spektralsätze für eine etwas grössere Klasse von Matrizen
+ableiten, als im Satz~\ref{buch:eigenwerte:satz:spektralsatz}
+möglich war.
+Der Satz besagt, dass für eine beliebige Funktion $f$ auf dem Spektrum
+$\operatorname{Sp}(A)$ eine Folge von auf $\operatorname{Sp}(A)$
+gleichmässig konvergenten, approximierenden Polynomen
+$p_n(z,\overline{z})$ gefunden werden kann.
+Doch wie soll jetzt aus dieser Polynomfolge ein Kandidat von $f(A)$
+gefunden werden?
+
+Zunächst stellt sich die Frage, was für die Variable $\overline{z}$
+eingesetzt werden soll.
+$1\times 1$-Matrizen sind notwendigerweise diagonal, also muss
+man in diesem Fall die Matrix $\overline{A}$ für die Variable
+$\overline{z}$ eingesetzt werden.
+Dies erklärt aber noch nicht, wie für $n\times n$-Matrizen
+vorzugehen ist, wenn $n>1$ ist.
+
+Die Notwendigkeit, die Variable $\overline{z}$ hinzuzunehmen
+ergab sich aus der Anforderung, dass der Betrag aus $|z|^2=z\overline{z}$
+konstruiert werden können muss.
+Insbesondere muss beim Einsetzen eine Matrix entstehen, die nur
+positive Eigenwerte hat.
+Für eine beliebige komplexe $n\times n$-Matrix $A$ ist aber
+$A\overline{A}$ nicht notwendigerweise positiv, wie das Beispiel
+\[
+A
+=
+\begin{pmatrix}0&i\\i&0\end{pmatrix}
+\qquad
+\Rightarrow
+\qquad
+A\overline{A}
+=
+\begin{pmatrix}0&i\\-i&0\end{pmatrix}
+\begin{pmatrix}0&-i\\i&0\end{pmatrix}
+=
+\begin{pmatrix}
+-1&0\\
+ 0&-1
+\end{pmatrix}
+=
+-I
+\]
+zeigt.
+Eine positive Matrix entsteht dagegen immer, wenn man statt
+$A$ die Adjungierte $A^*=\overline{A}^t$ verwendet.
+
+Die Substitution von $A$ für $z$ und $A^*$ für $\overline{z}$
+in einem Polynom $p(z,\overline{z})$ ist nicht unbedingt eindeutig.
+Schon das Polynom $p(z,\overline{z})=z\overline{z}$ kann man auch
+als $\overline{z}z$ schreiben.
+Damit die Substition eindeutig wird, muss man also fordern, dass
+$AA^* = A^*A$ ist.
+
+\begin{definition}
+Eine Matrix $A\in M_n(\mathbb{C})$ heisst {\em normal}, wenn $AA^*=A^*A$ gilt.
+\end{definition}
+
+\subsubsection{Beispiele normaler Matrizen}
+
+\begin{enumerate}
+\item
+Hermitesche und Antihermitesche Matrizen sind normal, denn solche
+Matrizen erfüllen $A^*=\pm A$ und damit
+\(
+AA^* = \pm A^2 = A^*A.
+\)
+\item
+Symmetrische und antisymmetrische Matrizen sind normal,
+denn aus $A=A^t$ folgt $A^*=\overline{A}^t$ und damit
+\begin{align*}
+AA^* &= A\overline{A}^t =
+\\
+A^*A &=
+\end{align*}
+\item
+Unitäre Matrizen $U$ sind normal, das $UU^*=I=U^*U$ gilt.
+\item
+Orthogonale Matrizen sind normal wegen $O(n) = U(n) \cap M_n(\mathbb{R})$.
+\end{enumerate}
+
+Jede Matrix lässt sich durch Wahl einer geeigneten Basis in Jordansche
+Normalform bringen.
+Allerdings sind Jordan-Blöcke keine normalen Matrizen, wie der folgende
+Satz zeigt.
+
+\begin{satz}
+Eine Dreiecksmatrix ist genau dann normal, wenn sie diagonal ist.
+\end{satz}
+
+\begin{proof}[Beweis]
+Sei $A$ eine obere Dreiecksmatrix, das Argument für eine untere Dreiecksmatrix
+funktioniert gleich.
+Wir berechnen ein Diagonalelement für beide Produkte $AA^*$ und $A^*A$.
+Dazu brauchen wir die Matrixelemente von $A$ und $A^*$.
+Bezeichnen wir die Matrixelemente von $A$ mit $a_{ij}$, dann hat $A^*$
+die Matrixelemente $(A^*)_{ij}=\overline{a}_{ji}$.
+Damit kann man die Diagonalelemente der Produkte als
+\begin{align*}
+(AA^*)_{ii}
+&=
+\sum_{j=1}^n a_{ij}\overline{a}_{ij}
+=
+\sum_{j=i}^n |a_{ij}|^2
+\\
+(A^*A)_{ii}
+&=
+\sum_{j=1}^n \overline{a}_{ji}a_{ji}
+=
+\sum_{j=1}^i |a_{ji}|^2
+\end{align*}
+ausrechnen.
+Der obere Ausdruck ist die quadrierte Länge der Zeile $i$ der Matrix $A$,
+der untere ist die quadrierte Länge der Spalte $i$.
+Da die Matrix eine obere Dreiecksmatrix ist, hat die erste Spalte höchstens
+ein einziges von $0$ verschiedenes Element.
+Daher kann auch die erste Zeile höchstens dieses eine Elemente haben.
+Die Matrix hat daher Blockstruktur mit einem $1\times 1$-Block in der
+linken obere Ecke und einem $n-1$-dimensionalen Block für den Rest.
+Durch Wiederholen des Arguments für den $(n-1)\times (n-1)$-Block
+kann man so schrittweise schliessen, dass die Matrix $A$ diagonal sein muss.
+\end{proof}
+
+
+\begin{satz}
+Sind $A$ und $B$ normale Matrizen und $AB^*=B^*A$, dann sind auch $A+B$
+und $AB$ normal.
+\end{satz}
+
+\begin{proof}[Beweis]
+Zunächst folgt aus $AB^*=B^*A$ auch
+$A^*B = (B^*A)^* = (AB^*)^* = BA^*$.
+Der Beweis erfolgt durch Nachrechnen:
+\begin{align*}
+(A+B)(A+B)^*
+&=
+AA^* + AB^* + BA^*+BB^*
+\\
+(A+B)^*(A+B)
+&=
+A^*A + A^*B + B^*A + B^*B
+\end{align*}
+Die ersten und letzten Terme auf der rechten Seite stimmen überein, weil
+$A$ und $B$ normal sind.
+Die gemischten Terme stimmen überein wegen der Vertauschbarkeit von
+$A$ und $B^*$.
+
+Für das Produkt rechnet man
+\begin{align*}
+(AB)(AB)^*
+&= ABB^*A^* = AB^*BA^*
+= B^*AA^*B
+=
+B^*A^*AB
+=
+(AB)^*(AB),
+\end{align*}
+was zeigt, dass auch $AB$ normal ist.
+\end{proof}
+
+\subsubsection{Äquivalente Bedingungen}
+Es gibt eine grosse Zahl äquivalenter Eigenschaften für normale Matrizen.
+Die folgenden Eigenschaften sind äquivalent:
+\begin{enumerate}
+\item
+Die Matrix $A$ ist mit einer unitären Matrix diagonalisierbar
+\item
+Es gibt eine orthonormale Basis von Eigenvektoren von $A$ für $\mathbb{C}^n$
+\item
+Für jeden Vektor $x\in\mathbb{C}^n$ gilt $\|Ax\|=\|A^*x\|$
+\item
+Die Forbenius-Norm der Matrix $A$ kann mit den Eigenwerten $\lambda_i$
+von $A$ berechnet werden:
+$\operatorname{Spur}(A^*A) = \sum_{i=1}^n |\lambda_i|^2$
+\item
+Der hermitesche Teil $\frac12(A+A^*)$ und der antihermitesche Teil
+$\frac12(A-A^*)$ von $A$ vertauschen.
+\item
+$A^*$ ist ein Polynom vom Grad $n-1$ in $A$.
+\item
+Es gibt eine unitäre Matrix $U$ derart, dass $A^*=AU$
+\item
+Es gibt eine Polarzerlegugn $A=UP$ mit einer unitären Matrix $U$ und
+einer postiv semidefiniten Matrix $P$, die untereinander vertauschen.
+\item
+Es gibt eine Matrix $N$ mit verschiedenen Eigenwerten, mit denen $A$
+vertauscht.
+\item
+Wenn $A$ die (absteigend geordneten) singulärwerte $\sigma_i$ und
+die absteigend geordneten Eigenwerte $\lambda_i$ hat,
+dann it $\sigma_i=|\lambda_i|$.
+\end{enumerate}
+
+
+
diff --git a/buch/chapters/40-eigenwerte/uebungsaufgaben/4001.tex b/buch/chapters/40-eigenwerte/uebungsaufgaben/4001.tex
index 2fab61a..dd82067 100644
--- a/buch/chapters/40-eigenwerte/uebungsaufgaben/4001.tex
+++ b/buch/chapters/40-eigenwerte/uebungsaufgaben/4001.tex
@@ -2,7 +2,7 @@ Verwenden Sie die Matrixdarstellung komplexer Zahlen, um $i^i$ zu
berechnen.
\begin{hinweis}
-Verwenden Sie die eulersche Formel um $\log J$ zu bestimmen.
+Verwenden Sie die Eulersche Formel um $\log J$ zu bestimmen.
\end{hinweis}
\begin{loesung}
@@ -14,11 +14,11 @@ Zunächst erinnern wir an die Eulersche Formel
=
\sum_{k=0}^\infty \frac{t^k J^k}{k!}
=
-\sum_{i=0}^\infty \frac{t^{2i}(-1)^i}{(2i)!}\cdot E
+\sum_{i=0}^\infty \frac{t^{2i}(-1)^i}{(2i)!}\cdot I
+
\sum_{i=0}^\infty \frac{t^{2i+1}(-1)^i}{(2i+1)!}\cdot J
=
-\cos t\cdot E
+\cos t\cdot I
+
\sin t\cdot J.
\]
@@ -49,7 +49,7 @@ J = \begin{pmatrix}
Als nächstes müssen wir $J\log J$ berechnen.
Aus \eqref{4001:logvalue} folgt
\[
-J\log J = J\cdot \frac{\pi}2J = - \frac{\pi}2 \cdot E.
+J\log J = J\cdot \frac{\pi}2J = - \frac{\pi}2 \cdot I.
\]
Darauf ist die Exponentialreihe auszuwerten, also
\[
@@ -57,7 +57,7 @@ J^J
=
\exp (J\log J)
=
-\exp(-\frac{\pi}2 E)
+\exp(-\frac{\pi}2 I)
=
\exp
\begin{pmatrix}
@@ -70,7 +70,7 @@ e^{-\frac{\pi}2}&0\\
0&e^{-\frac{\pi}2}
\end{pmatrix}
=
-e^{-\frac{\pi}2} E.
+e^{-\frac{\pi}2} I.
\]
Als komplexe Zahlen ausgedrückt folgt also $i^i = e^{-\frac{\pi}2}$.
\end{loesung}
diff --git a/buch/chapters/40-eigenwerte/uebungsaufgaben/4003.tex b/buch/chapters/40-eigenwerte/uebungsaufgaben/4003.tex
index 3cd9959..b749356 100644
--- a/buch/chapters/40-eigenwerte/uebungsaufgaben/4003.tex
+++ b/buch/chapters/40-eigenwerte/uebungsaufgaben/4003.tex
@@ -78,11 +78,11 @@ Ab_1 =
3b_1
\]
ab.
-Diesen Vektor können wir auch finden, indem wir $\mathcal{J}(A-eE)$
+Diesen Vektor können wir auch finden, indem wir $\mathcal{J}(A-2I)$
bestimmen.
-Die vierte Potenz von $A-2E$ ist
+Die vierte Potenz von $A-2I$ ist
\begin{equation}
-(A-2E)^4
+(A-2I)^4
=
\begin{pmatrix}
0& 0& 0& 0\\
@@ -108,13 +108,13 @@ b_4
=
\begin{pmatrix}0\\0\\1\\2\end{pmatrix}
\]
-für den Kern $\mathcal{K}(A-2E)$ ablesen.
-Da $\lambda=2$ der einzige andere Eigenwert ist, muss $\mathcal{K}(A-2E)
-= \mathcal{J}(A-3E)$ sein.
-Dies lässt sich überprüfen, indem wir die vierte Potenz von $A-2E$
+für den Kern $\mathcal{K}(A-2I)$ ablesen.
+Da $\lambda=2$ der einzige andere Eigenwert ist, muss $\mathcal{K}(A-2I)
+= \mathcal{J}(A-3I)$ sein.
+Dies lässt sich überprüfen, indem wir die vierte Potenz von $A-2I$
berechnen, sie ist
\[
-(A-2E)^4
+(A-2I)^4
=
\begin{pmatrix}
79& -26& 152& -152\\
@@ -124,7 +124,7 @@ berechnen, sie ist
\end{pmatrix}.
\]
Die Spaltenvektoren lassen sich alle durch die Vektoren $b_2$, $b_3$
-und $b_4$ ausdrücken, also ist $\mathcal{J}(A-2E)=\langle b_2,b_3,b_4\rangle$.
+und $b_4$ ausdrücken, also ist $\mathcal{J}(A-2I)=\langle b_2,b_3,b_4\rangle$.
Indem die Vektoren $b_i$ als Spalten in eine Matrix $T$ schreibt, kann man
jetzt berechnen, wie die Matrix der linearen Abbildung in dieser neuen
@@ -154,16 +154,16 @@ A_1
\end{pmatrix}
\]
in der rechten unteren Ecke hat den dreifachen Eigenwert $2$,
-und die Potenzen von $A_1-2E$ sind
+und die Potenzen von $A_1-2I$ sind
\[
-A_1-2E
+A_1-2I
\begin{pmatrix}
-15 & 5& 29\\
-27 & 9& 51\\
-3 & 1& 6
\end{pmatrix}
,\qquad
-(A_1-2E)^2
+(A_1-2I)^2
=
\begin{pmatrix}
3 & -1 & -6\\
@@ -171,10 +171,10 @@ A_1-2E
0 & 0 & 0\\
\end{pmatrix}
,\qquad
-(A_1-2E)^3=0.
+(A_1-2I)^3=0.
\]
Für die Jordan-Normalform brauchen wir einen von $0$ verschiedenen
-Vektor im Kern von $(A_1-2E)^2$, zum Beispiel den Vektor mit den
+Vektor im Kern von $(A_1-2I)^2$, zum Beispiel den Vektor mit den
Komponenten $1,3,1$.
Man beachte aber, dass diese Komponenten jetzt in der neuen Basis
$b_2,\dots,b_4$ zu verstehen sind, d.~h.~der Vektor, den wir suchen, ist
@@ -185,7 +185,7 @@ b_1+ 3b_2+b_3
=
\begin{pmatrix}1\\3\\1\\2\end{pmatrix}.
\]
-Jetzt berechnen wir die Bilder von $c_3$ unter $A-2E$:
+Jetzt berechnen wir die Bilder von $c_3$ unter $A-2I$:
\[
c_2
=
diff --git a/buch/chapters/40-eigenwerte/uebungsaufgaben/4004.tex b/buch/chapters/40-eigenwerte/uebungsaufgaben/4004.tex
new file mode 100644
index 0000000..5940b46
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/uebungsaufgaben/4004.tex
@@ -0,0 +1,72 @@
+Berechnen Sie $\sin At$ für die Matrix
+\[
+A=\begin{pmatrix}
+\omega& 1 \\
+ 0 &\omega
+\end{pmatrix}.
+\]
+Kontrollieren Sie Ihr Resultat, indem Sie den Fall $\omega = 0$ gesondert
+ausrechnen.
+\begin{hinweis}
+Schreiben Sie $A=\omega I + N$ mit einer nilpotenten Matrix.
+\end{hinweis}
+
+\begin{loesung}
+Man muss $At$ in die Potenzreihe
+\[
+\sin z = z - \frac{z^3}{3!} + \frac{z^5}{5!} - \frac{z^7}{7!} + \dots
+\]
+für die Sinus-Funktion einsetzen.
+Mit der Schreibweise $A=\omega I + N$, wobei $N^2=0$ können die Potenzen etwas
+leichter berechnet werden:
+\begin{align*}
+A^0 &= I
+\\
+A^1 &= \omega I + N
+\\
+A^2 &= \omega^2 I + 2\omega N
+\\
+A^3 &= \omega^3 I + 3\omega^2 N
+\\
+A^4 &= \omega^4 I + 4\omega^3 N
+\\
+&\phantom{a}\vdots
+\\
+A^k &= \omega^k I + k\omega^{k-1} N
+\end{align*}
+Damit kann man jetzt $\sin At$ berechnen:
+\begin{align}
+\sin At
+&=
+At - \frac{A^3t^3}{3!} + \frac{A^5t^5}{5!} - \frac{A^7t^7}{7!}
+\dots
+\notag
+\\
+&=
+\biggl(
+\omega t - \frac{\omega^3t^3}{3!} + \frac{\omega^5t^5}{5!} - \frac{\omega^7t^7}{7!}
++\dots
+\biggr)I
++
+\biggl(
+t -\frac{3\omega^2t^3}{3!} + \frac{5\omega^4t^5}{5!} - \frac{7\omega^6t^7}{7!}+\dots
+\biggr)N
+\notag
+\\
+&=
+I\sin\omega t
++tN\biggl(1-\frac{\omega^2t^2}{2!} +\frac{\omega^4t^4}{4!}
+- \frac{\omega^6t^6}{6!}
++\dots\biggr)
+\notag
+\\
+&=I\sin\omega t + tN\cos\omega t.
+\label{4004:resultat}
+\end{align}
+Im Fall $\omega=0$ ist $A=N$ und $A^2=0$, so dass
+\[
+\sin At = tN,
+\]
+dies stimmt mit \eqref{4004:resultat} für $\omega=0$ überein, da
+$\cos\omega t = \cos 0=1$ in diesem Fall.
+\end{loesung}
diff --git a/buch/chapters/40-eigenwerte/uebungsaufgaben/4005.tex b/buch/chapters/40-eigenwerte/uebungsaufgaben/4005.tex
new file mode 100644
index 0000000..ec76c34
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/uebungsaufgaben/4005.tex
@@ -0,0 +1,151 @@
+Rechnen Sie nach, dass die Matrix
+\[
+A
+=
+\begin{pmatrix}
+2&1&0\\
+0&2&1\\
+1&0&2
+\end{pmatrix}
+\]
+normal ist.
+\begin{teilaufgaben}
+\item
+Berechnen Sie die Eigenwerte, indem Sie das charakteristische Polynom
+von $A$ und seine Nullstellen bestimmen.
+\item
+Das Polynom
+\[
+p(z,\overline{z})
+=
+\frac{(3-\sqrt{3})z\overline{z}-9(1-\sqrt{3})}{6}
+\]
+hat die Eigenschaft, dass
+\begin{align*}
+p(\lambda,\lambda) &= |\lambda|
+\end{align*}
+für alle drei Eigenwerte von $A$.
+Verwenden Sie dieses Polynom, um $B=|A|$ zu berechen.
+\item
+Überprüfen Sie Ihr Resultat, indem Sie mit einem Computeralgebra-Programm
+die Eigenwerte von $B$ bestimmen.
+\end{teilaufgaben}
+
+\begin{loesung}
+Die Matrix $A$ ist von der Form $2I+O$ mit $O\in\operatorname{SO}(3)$,
+für solche Matrizen wurde gezeigt, dass sie normal sind.
+Man kann aber auch direkt nachrechnen:
+\begin{align*}
+AA^t
+&=
+\begin{pmatrix}
+2&1&0\\
+0&2&1\\
+1&0&2
+\end{pmatrix}
+\begin{pmatrix}
+2&0&1\\
+1&2&0\\
+0&1&2
+\end{pmatrix}
+=
+\begin{pmatrix}
+5&2&2\\
+2&5&2\\
+2&2&5
+\end{pmatrix}
+\\
+A^tA
+&=
+\begin{pmatrix}
+2&0&1\\
+1&2&0\\
+0&1&2
+\end{pmatrix}
+\begin{pmatrix}
+2&1&0\\
+0&2&1\\
+1&0&2
+\end{pmatrix}
+=
+\begin{pmatrix}
+5&2&2\\
+2&5&2\\
+2&2&5
+\end{pmatrix}
+\end{align*}
+Es gilt also $AA^t=A^tA$, die Matrix ist also normal.
+\begin{teilaufgaben}
+\item Das charakteristische Polynom ist
+\begin{align}
+\chi_A(\lambda)
+&=\left|
+\begin{matrix}
+2-\lambda & 1 & 0  \\
+ 0 & 2-\lambda & 1 \\
+ 1 & 0 & 2-\lambda
+\end{matrix}
+\right|
+=
+(2-\lambda)^3+1
+\label{4005:charpoly}
+\\
+&=-\lambda^3 -6\lambda^2 + 12\lambda +9.
+\notag
+\end{align}
+Mit einem Taschenrechner kann man die Nullstellen finden,
+aber man kann das auch die Form \eqref{4005:charpoly}
+des charakteristischen Polynoms direkt faktorisieren:
+\begin{align*}
+\chi_A(\lambda)
+&=
+(2-\lambda)^3+1
+\\
+&=
+((2-\lambda)+1)
+((2-\lambda)^2 -(2-\lambda)+1)
+\\
+&=
+(3-\lambda)
+(\lambda^2-3\lambda +4-2+\lambda +1)
+\\
+&=
+(3-\lambda)
+(\lambda^2-2\lambda +3)
+\end{align*}
+Daraus kann man bereits einen Eigenwert $\lambda=3$ ablesen,
+die weiteren Eigenwerte sind die Nullstellen des zweiten Faktors, die
+man mit der Lösungsformel für quadratische Gleichungen finden kann:
+\begin{align*}
+\lambda_{\pm}
+&=
+\frac{3\pm\sqrt{9-12}}{2}
+=
+\frac{3}{2} \pm\frac{\sqrt{-3}}{2}
+=
+\frac{3}{2} \pm i\frac{\sqrt{3}}{2}
+\end{align*}
+\item
+Wir müssen $z=A$ und $\overline{z}=A^t$ im Polynom $p(z,\overline{z})$
+substituieren und erhalten
+\begin{align*}
+B
+&=
+\frac{3-\sqrt{3}}6 \begin{pmatrix}5&2&2\\2&5&2\\2&2&5\end{pmatrix}
++\frac{\sqrt{3}-1}{2}I
+\\
+&=
+\begin{pmatrix}
+ 2.1547005& 0.42264973& 0.42264973 \\
+ 0.4226497& 2.15470053& 0.42264973 \\
+ 0.4226497& 0.42264973& 2.15470053
+\end{pmatrix}
+\end{align*}
+\item
+Tatsächlich gibt die Berechnung der Eigenwerte
+den einfachen Eigenwert $\mu_0=3=|\lambda_0|$
+und
+den doppelten Eigenwert $\mu_{\pm} = \sqrt{3}=1.7320508=|\lambda_{\pm}|$.
+\qedhere
+\end{teilaufgaben}
+\end{loesung}
diff --git a/buch/chapters/40-eigenwerte/uebungsaufgaben/4006.maxima b/buch/chapters/40-eigenwerte/uebungsaufgaben/4006.maxima
new file mode 100644
index 0000000..9c97a2b
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/uebungsaufgaben/4006.maxima
@@ -0,0 +1,121 @@
+/*
+ * 4006.maxima
+ *
+ * (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+ */
+
+A: matrix([ a+b*%i, 1, 0, 0 ],
+ [ 0, a+b*%i, 0, 0 ],
+ [ 0, 0, a-b*%i, 1 ],
+ [ 0, 0, 0, a-b*%i ]);
+
+expand(charpoly(A, x));
+
+S: (1/sqrt(2)) * matrix([ 1, -%i, 0, 0 ],
+ [ 0, 0, 1, -%i ],
+ [ 1, %i, 0, 0 ],
+ [ 0, 0, 1, %i ]);
+
+B: expand(invert(S).A.S);
+
+
+C: subst(2, a, B);
+C: subst(3, b, C);
+A: subst(2, a, A);
+A: subst(3, b, A);
+
+U: matrix([ 1, 0, 1, 0 ],
+ [ 0, 1, 1, 2 ],
+ [ 0, 0, 1, 0 ],
+ [ 0, 0, 0, 1 ]);
+V: matrix([ 1, 0, 0, 0 ],
+ [ 0, 1, 0, 0 ],
+ [ 0, 1, 1, 0 ],
+ [ 1, 0, 0, 1 ]);
+T: U.V;
+invert(T);
+
+D: T.C.invert(T);
+
+p: expand(charpoly(D, x));
+
+factor(p);
+
+lambda: 2+3*%i;
+
+Dlambda: ratsimp(expand(D - lambda * identfor(D)));
+rank(Dlambda);
+/* D2: expand(Dlambda.Dlambda); */
+/* rank(D2); */
+
+load(functs);
+
+/*
+E: Dlambda;
+E[1]: (rational(1/E[1,1]))*E[1]$
+E[2]: E[2] - E[2,1] * E[1]$
+E[3]: E[3] - E[3,1] * E[1]$
+E[4]: E[4] - E[4,1] * E[1]$
+E: ratsimp(E)$
+
+E[2]: (rational(1/E[2,2])) * E[2]$
+E[3]: E[3] - E[3,2] * E[2]$
+E[4]: E[4] - E[4,2] * E[2]$
+E: ratsimp(E)$
+
+E[3]: (rational(1/E[3,3])) * E[3]$
+E[4]: E[4] - E[4,3] * E[3]$
+E: ratsimp(E)$
+
+E[2]: E[2] - E[2,3] * E[3]$
+E[1]: E[1] - E[1,3] * E[3]$
+E: ratsimp(E)$
+
+E[1]: E[1] - E[1,2] * E[2]$
+E: ratsimp(E)$
+
+E;
+*/
+
+b1: matrix([1+%i],[2+2*%i],[%i],[1]);
+ratsimp(D.b1 - lambda*b1);
+
+G: Dlambda;
+G: addcol(G, b1);
+G[1]: (rational(1/G[1,1]))*G[1]$
+G[2]: G[2] - G[2,1] * G[1]$
+G[3]: G[3] - G[3,1] * G[1]$
+G[4]: G[4] - G[4,1] * G[1]$
+G: ratsimp(G)$
+
+G[2]: (rational(1/G[2,2])) * G[2]$
+G[3]: G[3] - G[3,2] * G[2]$
+G[4]: G[4] - G[4,2] * G[2]$
+G: ratsimp(G)$
+
+G[3]: (rational(1/G[3,3])) * G[3]$
+G[4]: G[4] - G[4,3] * G[3]$
+G: ratsimp(G)$
+
+G[2]: G[2] - G[2,3] * G[3]$
+G[1]: G[1] - G[1,3] * G[3]$
+G: ratsimp(G)$
+
+G[1]: G[1] - G[1,2] * G[2]$
+G: ratsimp(G)$
+
+G;
+
+b2: matrix([ G[1,5] ], [ G[2,5] ], [ G[3,5] ], [ G[4,5] ]);
+
+expand(D.b2 - lambda * b2 - b1);
+
+c1: 2 * realpart(b1);
+d1: 2 * imagpart(b1);
+c2: 2 * realpart(b2);
+d2: 2 * imagpart(b2);
+
+D.c1 - 2 * c1 + 3 * d1;
+D.d1 - 3 * c1 - 2 * d1;
+D.c2 - 2 * c2 + 3 * d2 - c1;
+D.d2 - 3 * c2 - 2 * d2 - d1;
diff --git a/buch/chapters/40-eigenwerte/uebungsaufgaben/4006.tex b/buch/chapters/40-eigenwerte/uebungsaufgaben/4006.tex
new file mode 100644
index 0000000..7ccc065
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/uebungsaufgaben/4006.tex
@@ -0,0 +1,97 @@
+Man findet eine Basis, in der die Matrix
+\[
+A=\begin{pmatrix*}[r]
+ -5& 2& 6& 0\\
+-11& 12& -3& -15\\
+ -7& 0& 9& 4\\
+ 0& 5& -7& -8
+\end{pmatrix*}
+\]
+die relle Normalform bekommt.
+
+\begin{loesung}
+Das charakteristische Polynom der Matrix ist
+\[
+\chi_{A}(\lambda)
+=
+\lambda^4-8\lambda^3+42\lambda^2-104\lambda+169
+=
+(\lambda^2-4\lambda+13)^2.
+\]
+Es hat die doppelten Nullstellen
+\[
+\lambda_\pm
+=
+2\pm \sqrt{4-13}
+=
+2\pm \sqrt{-9}
+=
+2\pm 3i.
+\]
+Zur Bestimmung der Basis muss man jetzt zunächst den Kern von
+$A_+=A-\lambda_+I$ bestimmen, zum Beispiel mit Hilfe des Gauss-Algorithmus,
+man findet
+\[
+b_1
+=
+\begin{pmatrix}
+1+i\\
+2+2i\\
+i\\
+1
+\end{pmatrix}.
+\]
+Als nächstes braucht man einen Vektor $b_1\in \ker A_+^2$, der
+$b_1$ auf $b_1+\lambda_+b_2$ abbildet.
+Durch Lösen des Gleichungssystems $Ab_2-\lambda_+ b_2=b_1$ findet man
+\[
+b_2
+=
+\begin{pmatrix}
+2-i\\3\\2\\0
+\end{pmatrix}
+\qquad\text{und damit weiter}\qquad
+\overline{b}_1
+=
+\begin{pmatrix}
+1-i\\
+2-2i\\
+-i\\
+1
+\end{pmatrix},\quad
+\overline{b}_2
+=
+\begin{pmatrix}
+2+i\\3\\2\\0
+\end{pmatrix}.
+\]
+Als Basis für die reelle Normalform von $A$ kann man jetzt die Vektoren
+\begin{align*}
+c_1
+&=
+b_1+\overline{b}_1 = \begin{pmatrix}2\\4\\0\\2\end{pmatrix},&
+d_1
+&=
+\frac{1}{i}(b_1-\overline{b}_1) = \begin{pmatrix}2\\4\\2\\0\end{pmatrix},&
+c_2
+&=
+b_2+\overline{b}_2 = \begin{pmatrix}4\\6\\4\\0\end{pmatrix},&
+d_2
+&=
+\frac{1}{i}(b_2-\overline{b}_2) = \begin{pmatrix}-2\\0\\0\\0\end{pmatrix}
+\end{align*}
+verwenden.
+In dieser Basis hat $A$ die Matrix
+\[
+A'
+=
+\begin{pmatrix*}[r]
+ 2& 3& 1& 0\\
+-3& 2& 0& 1\\
+ 0& 0& 2& 3\\
+ 0& 0&-3& 2
+\end{pmatrix*},
+\]
+wie man einfach nachrechnen kann.
+\end{loesung}
+