aboutsummaryrefslogtreecommitdiffstats
path: root/buch/chapters/40-eigenwerte
diff options
context:
space:
mode:
Diffstat (limited to '')
-rw-r--r--buch/chapters/40-eigenwerte/chapter.tex10
-rw-r--r--buch/chapters/40-eigenwerte/eigenwerte.tex34
-rw-r--r--buch/chapters/40-eigenwerte/grundlagen.tex83
-rw-r--r--buch/chapters/40-eigenwerte/images/dimjk.pdfbin23762 -> 23791 bytes
-rw-r--r--buch/chapters/40-eigenwerte/images/dimjk.tex18
-rw-r--r--buch/chapters/40-eigenwerte/images/sp.pdfbin24019 -> 24022 bytes
-rw-r--r--buch/chapters/40-eigenwerte/images/wurzelapprox.pdfbin33171 -> 33171 bytes
-rw-r--r--buch/chapters/40-eigenwerte/normalformen.tex40
-rw-r--r--buch/chapters/40-eigenwerte/spektralradius.tex109
-rw-r--r--buch/chapters/40-eigenwerte/spektraltheorie.tex67
10 files changed, 205 insertions, 156 deletions
diff --git a/buch/chapters/40-eigenwerte/chapter.tex b/buch/chapters/40-eigenwerte/chapter.tex
index 65cf608..809373b 100644
--- a/buch/chapters/40-eigenwerte/chapter.tex
+++ b/buch/chapters/40-eigenwerte/chapter.tex
@@ -35,17 +35,19 @@ Potenzen von Matrizen und ihren invarianten Unterräumen.
\index{Unterraum, invarianter}%
Es ergibt sich bereits eine Normalform für nilpotente Matrizen.
\index{nilpotent}%
-In Abschnitt~\ref{buch:section:eigenwerte-eigenvektoren} wird daraus die
+In Abschnitt~\ref{buch:section:eigenwerte-und-eigenvektoren} wird daraus die
allgemeine Eigenwerttheorie entwickelt.
Damit kann dann in Abschnitt~\ref{buch:section:normalformen}
gezeigt werden, wie Matrizen in Normalform gebracht werden können.
-Für viele Funktionen kann man auch den Wert $f(A)$ berechnen.
+In Anwendungen möchte man oft $f(A)$
+für eine Funktion $f\colon \mathbb{C}\to\mathbb{C}$ berechnen.
+%Für viele Funktionen kann man auch den Wert $f(A)$ berechnen.
In Abschnitt~\ref{buch:section:analytische-funktionen-einer-matrix} wird
gezeigt, wie dies für analytische Funktionen und für Funktionen möglich
\index{analytische Funktion}%
ist, die durch Polynome approximiert werden.
-Es zeigt sich, dass dazu geeigneten Voraussetzungen an den sogenannten
-Spektralradius gestelltw erden müssen.
+Es zeigt sich, dass dazu geeigneten Voraussetzungen durch den sogenannten
+Spektralradius erfüllt werden müssen.
\index{Spektralradius}%
Es stellt sich heraus, dass man nicht für alle Matrizen $A$ eine
sinnvolle Definition von $f(A)$ für beliebige stetige Funktionen $f$
diff --git a/buch/chapters/40-eigenwerte/eigenwerte.tex b/buch/chapters/40-eigenwerte/eigenwerte.tex
index f0d7b16..745dd5f 100644
--- a/buch/chapters/40-eigenwerte/eigenwerte.tex
+++ b/buch/chapters/40-eigenwerte/eigenwerte.tex
@@ -5,6 +5,7 @@
%
\section{Eigenwerte und Eigenvektoren
\label{buch:section:eigenwerte-und-eigenvektoren}}
+\rhead{Eigenwerte und Eigenvektoren}
In diesem Abschnitt betrachten wir Vektorräume $V=\Bbbk^n$ über einem
beliebigen Körper $\Bbbk$ und quadratische Matrizen
$A\in M_n(\Bbbk)$.
@@ -32,7 +33,7 @@ heisst das {\em Spektrum} von $A$.
\end{definition}
Die Bedingung $v\ne 0$ dient dazu, pathologische Situationen auszuschliessen.
-Für den Nullvektor gilt $A0=\lambda 0$ für jeden beliebigen Wert von
+Für den Nullvektor $0\in V$ gilt $A0=\lambda 0$ für jeden beliebigen Wert von
$\lambda\in\Bbbk$.
Würde man $v=0$ zulassen, wäre jede Zahl in $\Bbbk$ ein Eigenwert,
ein Eigenwert von $A$ wäre nichts besonderes.
@@ -43,7 +44,7 @@ Vielfache von $v$ ist ebenfalls ein Eigenvektor.
Zu einem Eigenwert kann man also einen Eigenvektor mit
geeigneten Eigenschaften finden, zum Beispiel kann man für $\Bbbk = \mathbb{R}$
Eigenvektoren auf Länge $1$ normieren.
-Im Folgenden werden wir oft die abkürzend linear unabhängige Eigenvektoren
+Im Folgenden werden wir oft abkürzend linear unabhängige Eigenvektoren
einfach als ``verschiedene'' Eigenvektoren bezeichnen.
Wenn $v$ ein Eigenvektor von $A$ zum Eigenwert $\lambda$ ist, dann kann
@@ -77,7 +78,7 @@ Für $\lambda\in\Bbbk$ heisst
\[
E_\lambda
=
-\{ v\;|\; Av=\lambda v\}
+\{ v\in V \mid Av=\lambda v\}
\]
der {\em Eigenraum} zum Eigenwert $\lambda$.
\index{Elambda(A)@$E_\lambda(A)$}%
@@ -110,7 +111,7 @@ oder $A=\lambda I$.
\end{proof}
Wenn man die Eigenräume von $A$ kennt, dann kann man auch die Eigenräume
-von $A+\mu E$ berechnen.
+von $A+\mu I$ berechnen.
Ein Vektor $v\in E_\lambda$ erfüllt
\[
Av=\lambda v
@@ -162,7 +163,7 @@ B
\]
und wir berechnen davon die vierte Potenz
\[
-D=B^4=(A-E)^4
+D=B^4=(A-I)^4
=
\begin{pmatrix}
0&0& 0&0\\
@@ -207,19 +208,21 @@ Als erstes überprüfen wir, ob diese Basisvektoren tatsächlich invariante
Unterräume sind.
Für $\mathcal{J}(A-I) = \langle b_1,b_2\rangle$
berechnen wir
-\begin{align*}
+\[
+\begin{aligned}
(A-I)b_1
&=
\begin{pmatrix} 0\\4\\4\\1 \end{pmatrix}
=
-4b_2+b_1,
+4b_2+b_1&&\in\langle b_1,b_2\rangle,
\\
(A-I)b_2
&=
\begin{pmatrix} 0\\1\\1\\0 \end{pmatrix}
=
-b_2.
-\end{align*}
+b_2&&\in\langle b_1,b_2\rangle.
+\end{aligned}
+\]
Dies beweist, dass $\mathcal{J}(A-I)$ invariant ist.
In dieser Basis hat die von $A-I$ beschriebene lineare Abbildung
auf $\mathcal{J}(A-I)$ die Matrix
@@ -268,7 +271,7 @@ A'
\]
die Blöcke gehören zu den invarianten Unterräumen $\mathcal{K}(A-I)$
und $\mathcal{K}(A-I)$.
-Die aus $A-E$ gewonnen invarianten Unterräume sind offenbar auch invariante
+Die aus $A-I$ gewonnenen invarianten Unterräume sind offenbar auch invariante
Unterräume für $A$.
\end{beispiel}
@@ -280,7 +283,7 @@ Unterraum
=
\mathcal{K}(A-\lambda I)
\]
-der {\em verallgemeinerte Eigenraum} von $A$.
+der {\em verallgemeinerte Eigenraum} von $A$ zum Eigenwert $\lambda$.
\index{verallgemeinerter Eigenraum}%
\index{Eigenraum, verallgemeinerter}%
\end{definition}
@@ -305,10 +308,11 @@ V
\oplus
\underbrace{\mathcal{J}(A-\lambda_1 I)}_{\displaystyle =V_2},
\]
+in invariante Unterräume,
wobei $\mathcal{E}_{\lambda_1}(A)\ne 0$ ist.
Die Matrix $A-\lambda_1 I$ eingeschränkt auf $\mathcal{E}_{\lambda_1}(A)$ ist
nilpotent.
-Man kann sagen, auf dem Unterraum $\mathcal{E}_{\lambda_i}(A)$ hat
+Man kann daher sagen, auf dem Unterraum $\mathcal{E}_{\lambda_i}(A)$ hat
$A$ die Form $\lambda_1 I + N$, wobei $N$ nilpotent ist.
Die Zerlegung in invariante Unterräume ist zwar mit Hilfe von $A-\lambda_1I$
@@ -414,7 +418,7 @@ hat
als charakteristisches Polynom, welches $\lambda$ als einzige
Nullstelle hat.
Wenn die Einträge oberhalb der Diagonalen nicht alle 0 sind,
-dann hat der Eigenraum der Matrix Dimension, die keiner ist als
+dann hat der Eigenraum der Matrix eine Dimension, die kleiner ist als
$n$.
Man kann also im Allgemeinen für jede Nullstelle des charakteristischen
Polynoms nicht mehr als einen Eigenvektor (d.~h.~einen eindimensionalen
@@ -424,7 +428,7 @@ Wenn das charakteristische Polynom von $A$ keine Nullstellen in $\Bbbk$ hat,
dann kann es auch keine Eigenvektoren in $\Bbbk^n$ geben.
Gäbe es nämlich einen solchen Vektor, dann müsste eine der Komponenten
des Vektors von $0$ verschieden sein.
-Wir nehmen an, dass es die Komponente in Zeile $k$ ist.
+Nehmen wir an, dass es die Komponente in Zeile $k$ ist.
Die Komponente $v_k$ kann man auf zwei Arten berechnen, einmal als
die $k$-Komponenten von $Av$ und einmal als $k$-Komponente von $\lambda v$:
\[
@@ -494,7 +498,7 @@ diagonalisieren, nicht aber über dem Körper $\mathbb{Q}$.
Da $A'$ Diagonalform hat mit $\pm\sqrt{2}$ auf der Diagonalen, folgt
$A^{\prime 2} = 2I$, die Matrix $A'$ erfüllt also die Gleichung
\begin{equation}
-A^{\prime 2}-I= \chi_{A}(A) = 0.
+A^{\prime 2}-2I= \chi_{A}(A) = 0.
\label{buch:grundlagen:eqn:cayley-hamilton-beispiel}
\end{equation}
Die Gleichung~\ref{buch:grundlagen:eqn:cayley-hamilton-beispiel}
diff --git a/buch/chapters/40-eigenwerte/grundlagen.tex b/buch/chapters/40-eigenwerte/grundlagen.tex
index b41da1d..2ecba95 100644
--- a/buch/chapters/40-eigenwerte/grundlagen.tex
+++ b/buch/chapters/40-eigenwerte/grundlagen.tex
@@ -93,7 +93,7 @@ folgt
\begin{equation}
\Bbbk^n
=
-\operatorname{im}E
+\operatorname{im}I
=
\operatorname{im}A^0
=
@@ -113,12 +113,12 @@ folgt
\label{buch:eigenwerte:eqn:Jkchain}
\end{equation}
Für die Kerne gilt etwas Ähnliches, sie werden immer grösser.
-Ein Vektor $x\in \mathcal{K}^k(A)$ erfüllt $A^kx=0$.
-Dann erfüllt er aber erst recht auch
+Wenn ein Vektor $x\in \mathcal{K}^k(A)$ die Bedingung $A^kx=0$ erfüllt,
+dann erfüllt er erst recht auch
\[
A^{k+1}x=A\underbrace{A^kx}_{\displaystyle=0}=0,
\]
-also ist $x\in\mathcal{K}^k(A)$.
+also ist $x\in\mathcal{K}^{k+1}(A)$.
Es folgt
\begin{equation}
\{0\}
@@ -166,6 +166,8 @@ so, dass
\end{array}
\]
ist.
+Mit anderen Worten: ab der $k$-ten Potenz ändern sich
+$\mathcal{K}^k(A)$ und $\mathcal{J}^k(A)$ nicht mehr.
\end{satz}
\begin{proof}[Beweis]
@@ -280,12 +282,12 @@ gilt.
\index{Unterraum, invarianter}%
\end{definition}
-Der Kern $\ker A$ einer linearen Abbildung ist trivialerweise ein
+Der Kern $\ker A$ einer linearen Abbildung ist trivialerweise ein
invarianter Unterraum, da alle Vektoren in $\ker A$ auf $0\in\ker A$
abgebildet werden.
Ebenso ist natürlich $\operatorname{im}A$ ein invarianter Unterraum,
-denn jeder Vektor wird in $\operatorname{im}A$ abgebildet, insbesondere
-auch jeder Vektor in $\operatorname{im}A$.
+denn jeder Vektor aus $V$ wird in das Bild $\operatorname{im}A$ hinein
+abgebildet, insbesondere auch jeder Vektor aus $\operatorname{im}A\subset V$.
\begin{satz}
\label{buch:eigenwerte:satz:KJinvariant}
@@ -332,7 +334,7 @@ also ist $f$ auf $\mathcal{J}^k(A)$ auch injektiv.
Die beiden Unterräume $\mathcal{J}(A)$ und $\mathcal{K}(A)$
sind Bild und Kern der iterierten Abbildung mit Matrix $A^k$.
-Das bedeutet, dass $\dim\mathcal{J}(A)+\mathcal{K}(A)=n$.
+Das bedeutet, dass $\dim\mathcal{J}(A)+\dim\mathcal{K}(A)=n$.
Da $\mathcal{K}(A)=\ker A^k$ und andererseits $A$ injektiv ist auf
$\mathcal{J}(A)$, muss $\mathcal{J}(A)\cap\mathcal{K}(A)=0$.
Es folgt, dass $V=\mathcal{J}(A) + \mathcal{K}(A)$.
@@ -370,7 +372,7 @@ Eigenschaften.
Die Zerlegung von $V$ in die beiden invarianten Unterräume $\mathcal{J}(A)$
und $\mathcal{K}(A)$ reduziert die lineare Abbildung auf zwei Abbildungen
mit speziellen Eigenschaften.
-Es wurde bereits in Satz~\label{buch:eigenwerte:satz:fJinj} gezeigt,
+Es wurde bereits in Satz~\ref{buch:eigenwerte:satz:fJinj} gezeigt,
dass die Einschränkung auf $\mathcal{J}(A)$ injektiv ist.
Die Einschränkung auf $\mathcal{K}(A)$ bildet nach
Definition~\ref{buch:eigenwerte:def:KundJ} alle
@@ -405,7 +407,7 @@ Wir zeigen jetzt, dass sich bei der Multiplikation die nicht
verschwinden Elemente bei der Multiplikation noch rechts oben
verschieben.
Dazu multiplizieren wir zwei Matrizen $B$ und $C$ mit
-$b_{i\!j}=0$ für $i+k>j$ und $c_{i\!j}=0$ für $i+l>j$.
+$b_{i\!j}=0$ für $i+k<j$ und $c_{i\!j}=0$ für $i+l<j$.
In der folgenden graphischen Darstellung der Matrizen sind die
Bereiche, wo die Matrixelemente verschwinden, weiss.
\begin{center}
@@ -417,18 +419,18 @@ Die blau eingefärbten Elemente in dieser Zeile und Spalte sind $0$.
Aus der Darstellung ist abzulesen, dass das Produkt verschwindet,
wenn die roten, von $0$ verschiedenen Elemente von den blauen
Elementen annihiliert werden.
-Dies passiert immer, wenn $i+k>j-l$ ist, oder $i+(k+l)> j$.
+Dies passiert immer, wenn $i+k<j-l$ ist, oder $i+(k+l)< j$.
Wir wenden diese Beobachtung jetzt auf die Potenzen $A^s$ an.
Für die Matrixelemente von $A^s$ schreiben wir $a^s_{i\!j}$.
Wir behaupten, dass die Matrixelemente von $A^s$ die Bedingung
-$a_{i\!j}^s=0$ für $i+s>j$ erfüllen.
+$a_{i\!j}^s=0$ für $i+s<j$ erfüllen.
Dies ist für $s=1$ nach Voraussetzung richtig, dies ist die
Induktionsverankerung.
Nehmen wir jetzt an, dass $a_{i\!j}^s=0$ für $i+s>j$, dann folgt
aus obiger Rechnung, dass $a_{i\!j}^{s+1}=0$ für $i+s+1>j$, so
dass die Bedingung auch für $A^s$ gilt (Induktionsschritt).
-Mit vollständiger Induktion folgt, dass $a_{i\!j}^s=0$ für $i+s>j$.
+Mit vollständiger Induktion folgt, dass $a_{i\!j}^s=0$ für $i+s<j$.
Insbesondere ist $A^n=0$, die Matrix $A$ ist nilpotent.
\end{beispiel}
@@ -476,6 +478,7 @@ In dieser Basis hat die Matrix die Form~\ref{buch:eigenwerte:eqn:nnilpotent}.
\end{proof}
\begin{definition}
+\label{buch:eigenwerte:def:Nn}
Wir bezeichnen mit $N_n$ eine Matrix der Form
\eqref{buch:eigenwerte:eqn:nnilpotent}.
\end{definition}
@@ -544,20 +547,31 @@ Abhängigkeit von $k$
In der Abbildung~\ref{buch:eigenwte:fig:jknilp} sind die Dimensionen
von Kern und Bild der Matrix
\[
+\def\temp#1{\multicolumn{1}{|c}{$#1\mathstrut$}}
+\def\rand#1{\multicolumn{1}{c|}{$#1\mathstrut$}}
\setcounter{MaxMatrixCols}{12}
-A=\begin{pmatrix}
-0& & & & & & & & & & & \\
- &0& & & & & & & & & & \\
- & &0& & & & & & & & & \\
- & & &0& & & & & & & & \\
- & & & &0&1& & & & & & \\
- & & & & &0& & & & & & \\
- & & & & & &0&1& & & & \\
- & & & & & & &0&1& & & \\
- & & & & & & & &0&1& & \\
- & & & & & & & & &0&1& \\
- & & & & & & & & & &0&
-\end{pmatrix}
+A=\left(
+\begin{array}{ccccccccccc}
+\cline{1-1}
+\temp{0}&\multicolumn{1}{|c}{}& & & & & & & & & \\
+\cline{1-2}
+ &\temp{0}&\multicolumn{1}{|c}{}& & & & & & & & \\
+\cline{2-3}
+ & &\temp{0}&\multicolumn{1}{|c}{}& & & & & & & \\
+\cline{3-4}
+ & & &\temp{0}&\multicolumn{1}{|c}{}& & & & & & \\
+\cline{4-6}
+ & & & &\temp{0}&1&\multicolumn{1}{|c}{}& & & & \\
+ & & & &\temp{ }&0&\multicolumn{1}{|c}{}& & & & \\
+\cline{5-11}
+ & & & & & &\temp{0}&1& & &\rand{ }\\
+ & & & & & &\temp{ }&0&1& &\rand{ }\\
+ & & & & & &\temp{ }& &0&1&\rand{ } \\
+ & & & & & &\temp{ }& & &0&\rand{1}\\
+ & & & & & &\temp{ }& & & &\rand{0}\\
+\cline{7-11}
+\end{array}
+\right)
\]
dargestellt.
Die Matrix $A^k$ ist in den kleinen Quadraten am unteren Rand der Matrix
@@ -574,7 +588,7 @@ bilden daher eine Basis des Bildes von $A^k$.
\subsection{Basis für die Normalform einer nilpotenten Matrix bestimmen
\label{buch:subsection:normalform-einer-nilpotenten-matrix}}
Die Zerlegung in die invarianten Unterräume $\mathcal{J}^k(f)$ und
-$\mathcal{K}^k(f)$ ermöglichen, eine Basis zu finden, in der die
+$\mathcal{K}^k(f)$ ermöglicht, eine Basis zu finden, in der die
Matrix von $f$ die Blockform \eqref{buch:eigenwerte:eqn:allgnilpotent}
hat.
In diesem Abschnitt soll die Konstruktion einer solchen Basis
@@ -596,7 +610,7 @@ Die vertikalen Rechtecke im linken Teil der Abbildung symbolisieren
die Unterräume $\mathcal{K}^k(A)$.
Es ist bekannt, dass $\mathcal{K}^k(A) \subset \mathcal{K}^{k+1}(A)$ ist,
die Einbettung wird in der Abbildung durch graue Rechtecke dargestellt.
-Es sei wieder $l$ der Exponent, für den $\mathcal{K}^l(A)=\Bbbk^n$ wird.
+Es sei $l$ der Exponent, für den $\mathcal{K}^l(A)=\Bbbk^n$ wird.
Da $\mathcal{K}^{l-1}(A)\ne \mathcal{K}^l(A)$ ist, muss es einen
komplementären Unterraum geben, in dem eine Basis gewählt wird.
Jeder der Vektoren $b_1,\dots,b_s$ dieser Basis gibt Anlass zu einem
@@ -611,7 +625,7 @@ die Vektoren $Ab_1,\dots,Ab_s$.
Es ist aber möglich, dass diese Vektoren nicht den ganzen Raum
$\mathcal{K}^{l-1}(A)$ erzeugen.
In diesem Fall lassen sich die Vektoren mit Hilfe weiterer Vektoren
-$b_{s+1},\dots,b_{s+r}$ zu einer Basisi von $\mathcal{K}^{l-1}(A)$
+$b_{s+1},\dots,b_{s+r}$ zu einer Basis von $\mathcal{K}^{l-1}(A)$
ergänzen.
Wie vorhin gibt jeder der Vektoren $b_{s+i}$ Anlass zu einem Block
der Form $N_{l-1}$, der auf dem Unterraum
@@ -640,7 +654,8 @@ A
\]
in Blockform soll nach der oben beschriebenen Methode ermittelt werden.
Zunächst kann man nachrechnen, dass $A^2=0$ ist.
-Der Kern von $A$ ist der Lösungsraum der Gleichung $Ax=0$, da alle Zeilen
+Der Kern von $A$ ist der Lösungsraum $\mathbb{L}$ der Gleichung $Ax=0$,
+da alle Zeilen
Vielfache der ersten Zeile sind, reicht es zu verlangen, dass die
Komponenten $x_i$ der Lösung die Gleichung
\[
@@ -674,7 +689,7 @@ B=\begin{pmatrix*}[r]
2& 0& -21\\
1& 0& -6
\end{pmatrix*}
-\qquad\text{mit Inverser}
+\qquad\text{mit der Inversen}
\qquad
B^{-1}=\begin{pmatrix*}[r]
0&-\frac23& \frac73\\
@@ -682,7 +697,7 @@ B^{-1}=\begin{pmatrix*}[r]
1& \frac13&-\frac23
\end{pmatrix*}
\]
-transformiert die Matrix $A$ auf den Block $N_3$:
+transformiert die Matrix $A$ auf die Blockform
\[
B^{-1}AB
=
@@ -699,9 +714,7 @@ B^{-1}\begin{pmatrix*}[r]
&0&1\\
&0&0
\end{array}
-\right)
-=
-N_3.
+\right).
\qedhere
\]
\end{beispiel}
diff --git a/buch/chapters/40-eigenwerte/images/dimjk.pdf b/buch/chapters/40-eigenwerte/images/dimjk.pdf
index fcfe4da..03d0eda 100644
--- a/buch/chapters/40-eigenwerte/images/dimjk.pdf
+++ b/buch/chapters/40-eigenwerte/images/dimjk.pdf
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/images/dimjk.tex b/buch/chapters/40-eigenwerte/images/dimjk.tex
index 28e0f9f..906aaea 100644
--- a/buch/chapters/40-eigenwerte/images/dimjk.tex
+++ b/buch/chapters/40-eigenwerte/images/dimjk.tex
@@ -34,9 +34,9 @@
\fill[color=darkgreen!40] ({5*\sx},0) rectangle ({8*\sx},{6-2.4});
\draw[color=darkgreen,line width=2pt] ({3*\sx},{6-6}) -- ({3*\sx},{6-2.9});
-\node[color=darkgreen] at ({3*\sx},{6-4.45}) [rotate=90,above] {$\dim\mathcal{K}^k(A)$};
+\node[color=darkgreen] at ({3*\sx},{6-4.45}) [rotate=90,above] {$\dim\mathcal{K}^i(A)$};
\draw[color=orange,line width=2pt] ({3*\sx},{6-0}) -- ({3*\sx},{6-2.9});
-\node[color=orange] at ({3*\sx},{6-1.45}) [rotate=90,above] {$\dim\mathcal{J}^k(A)$};
+\node[color=orange] at ({3*\sx},{6-1.45}) [rotate=90,above] {$\dim\mathcal{J}^i(A)$};
\node[color=orange] at ({6.5*\sx},{6-1.2}) {bijektiv};
\node[color=darkgreen] at ({6.5*\sx},{6-4.2}) {konstant};
@@ -53,7 +53,7 @@
\draw \pfad;
-\draw[->] (-0.5,0) -- ({8*\sx+0.5},0) coordinate[label={$k$}];
+\draw[->] (-0.5,0) -- ({8*\sx+0.5},0) coordinate[label={$i$}];
\draw[->] (-0.5,6) -- ({8*\sx+0.5},6);
\foreach \x in {0,...,8}{
@@ -63,15 +63,15 @@
\node at ({\x*\sx},-0.05) [below] {$\x$};
}
\node at ({4*\sx},-0.05) [below] {$\dots\mathstrut$};
-\node at ({5*\sx},-0.05) [below] {$l$};
-\node at ({6*\sx},-0.05) [below] {$l+1$};
-\node at ({7*\sx},-0.05) [below] {$l+2$};
-\node at ({8*\sx},-0.05) [below] {$l+3$};
+\node at ({5*\sx},-0.05) [below] {$k$};
+\node at ({6*\sx},-0.05) [below] {$k+1$};
+\node at ({7*\sx},-0.05) [below] {$k+2$};
+\node at ({8*\sx},-0.05) [below] {$k+3$};
\node[color=orange] at ({1.2*\sx},5.6)
- {$\mathcal{J}^k(A)\supset\mathcal{J}^{k+1}(A)$};
+ {$\mathcal{J}^i(A)\supset\mathcal{J}^{i+1}(A)$};
\node[color=darkgreen] at ({1.2*\sx},0.4)
- {$\mathcal{K}^k(A)\subset\mathcal{K}^{k+1}(A)$};
+ {$\mathcal{K}^i(A)\subset\mathcal{K}^{i+1}(A)$};
\end{tikzpicture}
\end{document}
diff --git a/buch/chapters/40-eigenwerte/images/sp.pdf b/buch/chapters/40-eigenwerte/images/sp.pdf
index b93b890..fe707cf 100644
--- a/buch/chapters/40-eigenwerte/images/sp.pdf
+++ b/buch/chapters/40-eigenwerte/images/sp.pdf
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/images/wurzelapprox.pdf b/buch/chapters/40-eigenwerte/images/wurzelapprox.pdf
index 01fa714..005a43e 100644
--- a/buch/chapters/40-eigenwerte/images/wurzelapprox.pdf
+++ b/buch/chapters/40-eigenwerte/images/wurzelapprox.pdf
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/normalformen.tex b/buch/chapters/40-eigenwerte/normalformen.tex
index 96cb18b..c69329b 100644
--- a/buch/chapters/40-eigenwerte/normalformen.tex
+++ b/buch/chapters/40-eigenwerte/normalformen.tex
@@ -72,8 +72,16 @@ $m(x)=(x-\lambda_1)(x-\lambda_2)\cdots(x-\lambda_m)$ mit der Eigenschaft
$m(A)=0$.
Dies ist auch das Polynom von kleinstmöglichem Grad, denn für jeden
Eigenwert muss ein entsprechender Linearfaktor in so einem Polynom vorkommen.
+
+\begin{definition}
+\label{buch:normalformen:def:minimalpolynom}
+Das {\em Minimalpolynom} $m_A(X)\in\Bbbk[X]$ einer Matrix
+\index{Minimalpolynom}
+$A\in M_{n}(\Bbbk)$ ist das Polynom kleinstmöglichen Grades, für
+das $m_A(X)=0$ gilt.
+\end{definition}
+
Das Polynom $m(x)$ ist daher das Minimalpolynom der Matrix $A$.
-\index{Minimalpolynome}%
Da jeder Faktor in $m(x)$ auch ein Faktor von $\chi_A(x)$ ist,
folgt wieder $\chi_A(A)=0$.
Ausserdem ist über dem Körper $\Bbbk'$ das Polynom $m(x)$ ein Teiler
@@ -337,8 +345,8 @@ wird.
Die nicht reellen Eigenwerte von $A$ treten in konjugiert komplexen Paaren
$\lambda_i$ und $\overline{\lambda}_i$ auf.
-Wir betrachten im Folgenden nur ein einziges Paar $\lambda=a+ib$ und
-$\overline{\lambda}=a-ib$ von konjugiert komplexen Eigenwerten mit
+Wir betrachten im Folgenden nur ein einziges Paar $\lambda=\alpha+i\beta$ und
+$\overline{\lambda}=\alpha-i\beta$ von konjugiert komplexen Eigenwerten mit
nur je einem einzigen $n\times n$-Jordan-Block $J$ und $\overline{J}$.
Ist $\mathcal{B}=\{b_1,\dots,b_n\}$ die Basis für den Jordan-Block $J$,
dann kann man die Vektoren
@@ -377,8 +385,8 @@ J&0\\
& & & &\lambda&&&&&\\
&&&& &\overline{\lambda}&1&& & \\
&&&& &&\overline{\lambda}&1& & \\
-&&&& &&&\overline{\lambda} &\dots& \\
-&&&& &&& &\dots&1\\
+&&&& &&&\overline{\lambda} &\ddots& \\
+&&&& &&& &\ddots&1\\
&&&& &&& &&\overline{\lambda}\\
\end{pmatrix}.
\]
@@ -386,24 +394,24 @@ J&0\\
Die Jordan-Normalform bedeutet, dass
\[
\begin{aligned}
-Ab_1&=\lambda b_1 &
- A\overline{b}_1 &= \overline{\lambda} \overline{b}_1 \\
-Ab_2&=\lambda b_2 + b_1 &
- A\overline{b}_2 &= \overline{\lambda} \overline{b}_2 +\overline{b_1}\\
-Ab_3&=\lambda b_3 + b_2 &
- A\overline{b}_3 &= \overline{\lambda} \overline{b}_3 +\overline{b_2}\\
- &\;\vdots &
+Ab_1&=\lambda b_1 &&\Rightarrow&
+ A\overline{b}_1 &= \overline{\lambda} \overline{b}_1, \\
+Ab_2&=\lambda b_2 + b_1 &&\Rightarrow&
+ A\overline{b}_2 &= \overline{\lambda} \overline{b}_2 +\overline{b_1},\\
+Ab_3&=\lambda b_3 + b_2 &&\Rightarrow&
+ A\overline{b}_3 &= \overline{\lambda} \overline{b}_3 +\overline{b_2},\\
+ &\;\vdots && &
&\;\vdots \\
-Ab_n&=\lambda b_n + b_{n-1} &
- A\overline{b}_n &= \overline{\lambda} \overline{b}_n +\overline{b_{n-1}}
+Ab_n&=\lambda b_n + b_{n-1} &&\Rightarrow&
+ A\overline{b}_n &= \overline{\lambda} \overline{b}_n +\overline{b_{n-1}}.
\end{aligned}
\]
Für die Linearkombinationen
\begin{equation}
\begin{aligned}
-c_i &= \frac{b_i+\overline{b}_i}{\sqrt{2}},
+c_k &= \frac{b_k+\overline{b}_k}{\sqrt{2}},
&
-d_i &= \frac{b_i-\overline{b}_i}{i\sqrt{2}}
+d_k &= \frac{b_k-\overline{b}_k}{i\sqrt{2}}
\end{aligned}
\label{buch:eigenwerte:eqn:reellenormalformumrechnung}
\end{equation}
diff --git a/buch/chapters/40-eigenwerte/spektralradius.tex b/buch/chapters/40-eigenwerte/spektralradius.tex
index c0d4de9..1ac50a2 100644
--- a/buch/chapters/40-eigenwerte/spektralradius.tex
+++ b/buch/chapters/40-eigenwerte/spektralradius.tex
@@ -45,7 +45,7 @@ kann man auch
p(A) = a_nA^n + a_{n-1}A^{n-1} + \dots + a_1A + a_0I
\]
berechnen.
-In der Jordan-Normalform können die Potenzen $A^k$ leicht zusammengstellt
+In der Jordan-Normalform können die Potenzen $A^k$ leicht zusammengestellt
werden, sobald man die Potenzen von Jordan-Blöcken berechnet hat.
\begin{satz}
@@ -103,26 +103,31 @@ Die Herkunft der Binomialkoeffizienten wird klar, wenn man
\[
J_n(\lambda) = \lambda I + N_n
\]
-schreibt, wobei $N_n$ die Matrix \eqref{buch:eigenwerte:eqn:nnilpotent} ist.
+schreibt, wobei $N_n$ die Matrix \eqref{buch:eigenwerte:eqn:nnilpotent}
+von Definition~\ref{buch:eigenwerte:def:Nn} von
+Seite~\pageref{buch:eigenwerte:def:Nn} ist.
Die Potenzen von $N_n$ haben die Matrix-Elemente
\[
-(N_n^k)_{i\!j}
+(N_n^l)_{i\!j}
=
-\delta_{i,j-k}
+\delta_{i,j-l}
=
\begin{cases}
-1&\qquad j-i=k\\
+1&\qquad j-i=l\\
0&\qquad\text{sonst,}
\end{cases}
\]
sie haben also Einsen genau dort, wo in der
-\label{buch:eigenwerte:eqn:Jnkpotenz} die Potenz $\lambda^{k}$ steht.
-Die $k$-te Potenz von $J_n(\lambda)$ kann dann mit dem binomischen
+Matrix
+\eqref{buch:eigenwerte:eqn:Jnkpotenz} die Potenz $\lambda^{k-l}$ steht.
+Die $k$-te Potenz von $J_n(\lambda)$ kann daraus mit dem binomischen
Satz berechnet werden:
\[
J_n(\lambda)^k
=
-\sum_{l=0}^k \binom{k}{l}\lambda^l N_n^{k-l},
+(N_n+\lambda I)^k
+=
+\sum_{l=0}^k \binom{k}{l} N_n^{l} \lambda^{k-l},
\]
dies ist genau die Form \eqref{buch:eigenwerte:eqn:Jnkpotenz}.
\end{proof}
@@ -155,7 +160,7 @@ Ist andererseits $p(X)-q(X)=m(X)t(X)$, dann ist
$p(A)-q(A)=m(A)t(A)=0\cdot t(A) = 0$, also $p(A)=q(A)$.
\end{proof}
-Über einem Körper $\Bbbk'\supset\Bbbk$, über dem das charakteristische
+Über einem Körper $\Bbbk'\supset\Bbbk$, in dem das charakteristische
Polynom in Linearfaktoren zerfällt, kann man das Minimalpolynom aus
der Jordanschen Normalform ableiten.
Es ist
@@ -272,7 +277,7 @@ wie zu erwarten war.
Wenn sich zwei Polynome nur um das charakteristische Polynom unterscheiden,
dann haben sie den gleichen Wert auf $A$.
-Das Polynom $p_1(X)=X^3$ unterschiedet sich vom Polynom
+Das Polynom $p_1(X)=X^3$ unterscheidet sich vom Polynom
$p_2(X)=7X^2-16X+12=\chi_A(X)+X^3=p_1(X)+\chi_A(X)$
um das charakteristische Polynom, welches wir bereits als das Minimalpolynom
von $A$ erkannt haben.
@@ -318,8 +323,8 @@ für alle Eigenwerte $\lambda$ von $A$.
Über dem Körper der komplexen Zahlen ist die Bedingung, dass die Differenz
$d(X)=p_1(X)-p_2(X)$ vom Minimalpolynom geteilt werden muss, gleichbedeutend
-damit, dass $p_1(X)$ und $p_2(X)$ die gleichen Nullstellen mit den gleichen
-Vielfachheiten haben.
+damit, dass $p_1(X)-p_2(X)$ mindestens alle Nullstellen des Minimalpolynoms
+mit mindestens so grossen Vielfachheiten haben muss.
Eine andere Art, dies auszudrücken, ist, dass $p_1(x)$ und $p_2(X)$
die gleichen Werte und Ableitungen bis zur Ordnung $q_i-1$ haben, wenn
$q_i$ der Exponente von $\lambda_I-X$ im Minimalpolynom von $A$ ist.
@@ -340,7 +345,7 @@ A^{i-k}A^k
=
A^{i-k}(-a_{k-1}A^{k-1}+ \dots + a_1 A + a_0I)
\]
-in einer Linearkombination kleinerer Potenzen reduzieren.
+auf einer Linearkombination kleinerer Potenzen reduzieren.
Jedes Polynom vom Grad $\ge k$ kann also reduziert werden in
ein Polynom vom Grad $<k$ mit dem gleichen Wert auf $A$.
@@ -381,7 +386,8 @@ Solche Polynome gibt es dank dem Satz von Stone-Weierstrass immer:
\begin{satz}[Stone-Weierstrass]
Ist $I\subset\mathbb{R}$ kompakt, dann lässt sich jede stetige Funktion
$f(x)$
-durch eine Folge $p_n(x)$ beliebig genau approximieren.
+durch eine Folge von reellen Polynomen
+$p_n(x)$ beliebig genau approximieren.
\end{satz}
Die Hoffnung ist, $f(A)$ als Grenzwert der Approximationen $p_n(A)$
@@ -389,25 +395,25 @@ zu definieren.
Dazu muss sichergestellt sein, dass verschiedene Approximationen
der Funktion $f$ den gleichen Grenzwert $\lim_{n\to\infty}p_n(A)$
ergeben.
-Im Folgenden soll genauer untersucht werden, ob sich von der
+Im Folgenden soll genauer untersucht werden, ob von der
Konvergenz einer Folge $p_n(x)$ auf die Konvergenz von $p_n(A)$
geschlossen werden kann.
-Wir haben schon gezeigt, dass es dabei auf die höheren Potenzen gar nicht
-ankommt, nach Satz~\ref{buch:eigenwerte:satz:reduktion} kann man ein
-approximierendes Polynom immer durch ein Polynom von kleinerem Grad
-als das Minimalpolynom ersetzen.
+%Wir haben schon gezeigt, dass es dabei auf die höheren Potenzen gar nicht
+%ankommt, nach Satz~\ref{buch:eigenwerte:satz:reduktion} kann man ein
+%approximierendes Polynom immer durch ein Polynom von kleinerem Grad
+%als das Minimalpolynom ersetzen.
-\begin{definition}
-\index{Norm}%
-Die {\em Norm} einer Matrix $M$ ist
+Wir erinnern in diesem Zusammenhang an die Definition
+\ref{buch:vektoren-matrizen:def:operatornorm}
+der Operatornorm.
+Die Norm einer Matrix $M$ ist
\[
\|M\|
=
-\max\{|Mx|\,|\, x\in\mathbb R^n\wedge |x|=1\}.
+\sup\{|Mx|\,|\, x\in\mathbb R^n\wedge |x|=1\}.
\]
Für einen Vektor $x\in\mathbb R^n$ gilt $|Mx| \le \|M\|\cdot |x|$.
-\end{definition}
\begin{beispiel}
Die Matrix
@@ -548,7 +554,7 @@ f(z)
\end{equation}
\index{Potenzreihe}
haben, wie
-zum Beispiel $e^x$, $\sin x$ oder $\cos x$, haben eine in der Folge
+zum Beispiel $e^x$, $\sin x$ oder $\cos x$, haben in der Folge
der Partialsummen
\[
p_n(z) = \sum_{k=0}^n a_kz^k
@@ -572,10 +578,10 @@ folgt, dass
\le
\limsup_{n\to\infty} \sqrt[n]{|a_n|}
\cdot
-\limsup_{n\to\infty} \|M^k\|^{\frac1k}
+\limsup_{n\to\infty} \|M^n\|^{\frac1n}
=
\frac{1}{\varrho}
-\limsup_{n\to\infty} \|M^k\|^{\frac1k}
+\limsup_{n\to\infty} \|M^n\|^{\frac1n}
\]
sein muss.
Dies führt uns auf die Grösse
@@ -593,12 +599,32 @@ Die Zahl $\pi(M)$ erlaubt zunächst einmal zu bestimmen, wie
sich die Potenzen $M^k$ entwickeln.
Für Zahlen ist diese Frage sehr einfach zu entscheiden: wenn $q>1$ ist,
dann geht $q^n\to\infty$, wenn $|q|<1$ ist, dann geht $q^n\to 0$.
-Für Matrizen ist die Frage etwas schieriger.
+Für Matrizen ist die Frage etwas schwieriger.
Man kann sich vorstellen, dass eine Streckung in einer Richtung
von einer Stauchung in eine andere Richtung kompensiert wird, wenn
dazwischen eine Drehung stattfindet.
Es ist also durchaus möglich, dass $\|M\|>1$ ist, die
-Iterierten $M^k$ aber trotzdem gegen $0$ gehen.
+Iterierten $M^k$ aber trotzdem gegen $0$ gehen, wie das folgende
+Beispiel zeigt.
+
+\begin{beispiel}
+Die nilpotente Matrix $2N_2$ kann man sich vorstellen als eine Drehmatrix
+um $-90^\circ$ gefolgt von einer Projektion und Streckung um den Faktor
+$2$ auf die erste Achse:
+\[
+\begin{pmatrix}2&0\\0&0\end{pmatrix}
+R_{-90^\circ}
+=
+\begin{pmatrix}2&0\\0&0\end{pmatrix}
+\begin{pmatrix} 0&1\\-1&0 \end{pmatrix}
+=
+\begin{pmatrix}
+0&2\\0&0
+\end{pmatrix}
+=2N_2.
+\]
+Wegen $(2N_2)^2=0$ folgt $\pi(2N_2)=0$, obwohl $\|2N_2\|=2$ ist.
+\end{beispiel}
Ist $\pi(M) > 1$, dann gibt es Anfangsvektoren $v$ für die Iteration,
für die $M^kv$ über alle Grenzen wächst.
@@ -614,7 +640,7 @@ Der Grenzwert
\[
\pi(M)
=
-\limsup_{n\to\infty} \|M^k\|^{\frac1k}
+\limsup_{n\to\infty} \|M^n\|^{\frac1n}
\]
heisst {\em Gelfand-Radius} der Matrix $M$.
\index{Gelfand-Radius}%
@@ -639,8 +665,8 @@ Eigenwertes.
\index{rho(M)@$\varrho(M)$}%
\end{definition}
-Wir wollen in diesem Abschnitt zeigen, dass der Gelfand-Radius mit
-dem Spektralradius übereinstimmt.
+Wir wollen in diesem Abschnitt das als Satz von Gelfand bekannte Resultat
+beweisen, dass der Gelfand-Radius mit dem Spektralradius übereinstimmt.
Dies liefert uns ein vergleichsweise einfach auszuwertendes Konvergenzkriterium.
\index{Konvergenzkriterium}%
@@ -693,11 +719,11 @@ A^k v_1 + A^k v_2 + \dots + A^k v_n
Für den Grenzwert braucht man die Norm von $A^kv$, also
\begin{align}
|A^kv|
-&= |\lambda_1^k v_1 + \lambda_2^k v_2 + \dots + \lambda_3 v_3|
+&= |\lambda_1^k v_1 + \lambda_2^k v_2 + \dots + \lambda_n^k v_n|
\notag
\\
\Rightarrow\qquad
-\frac{|A^kv|}{\lambda_1^k}
+\frac{|A^kv|}{|\lambda_1^k|}
&=
\biggl|
v_1 +
@@ -784,8 +810,8 @@ Selbstverständlich lässt sich das Lemma auf Blockmatrizen mit beliebig
vielen diagonalen Blöcken verallgemeinern.
\index{Blockmatrix}%
-Für Diagonalmatrizen der genannten Art sind aber auch die
-Eigenwerte leicht zu bestimmen.
+Für Blockmatrizen der Art \ref{buch:spektralradius:eqn:blockmatrix}
+sind aber auch die Eigenwerte leicht zu bestimmen.
\index{Diagonalmatrix}%
Hat $B$ die Eigenwerte $\lambda_i^{(B)}$ mit $1\le i\le n$ und $C$ die
Eigenwerte $\lambda_j^{(C)}$ mit $1\le j\le m$, dann ist das charakteristische
@@ -840,8 +866,8 @@ J_{n_1}(\lambda_1) & 0 & \dots & 0 \\
\]
geschrieben werden kann.
Die früheren Beobachtungen über den Spektralradius und den
-Gelfand-Radius von Blockmatrizen führen uns dazu, dass
-nur gezeigt werden muss, dass nur die Gleichheit des Gelfand-Radius
+Gelfand-Radius von Blockmatrizen führen uns dazu,
+dass nur die Gleichheit des Gelfand-Radius
und des Spektral-Radius von Jordan-Blöcken gezeigt werden muss.
\subsubsection{Potenzen von Jordan-Blöcken}
@@ -900,7 +926,7 @@ Satz~\ref{buch:spektralradius:satz:grenzwert}.
\index{Satz von Gelfand}%
\index{Gelfand!Satz von}%
\label{buch:satz:gelfand}
-Für jede komplexe $n\times n$-Matrix $A$ gilt
+Für eine komplexe $n\times n$-Matrix $A$ gilt
\[
\pi(A)
=
@@ -916,7 +942,7 @@ Spektralradius ein scharfes Kriterium dafür ist, ob $\|A^k\|$
gegen 0 oder $\infty$ konvergiert.
Andererseits ändert ein Faktor $t$ in der Matrix $A$ den Spektralradius
ebenfalls um den gleichen Faktor, also $\varrho(tA)=t\varrho(A)$.
-Natürlich gilt auch
+Natürlich gilt dies wegen
\[
\pi(tA)
=
@@ -926,8 +952,9 @@ Natürlich gilt auch
=
t\lim_{k\to\infty} \|A^k\|^\frac1k
=
-t\pi(A).
+t\pi(A)
\]
+auch für den Gelfand-Radius.
Wir betrachten jetzt die Matrix
\[
diff --git a/buch/chapters/40-eigenwerte/spektraltheorie.tex b/buch/chapters/40-eigenwerte/spektraltheorie.tex
index 94a64e1..1023d20 100644
--- a/buch/chapters/40-eigenwerte/spektraltheorie.tex
+++ b/buch/chapters/40-eigenwerte/spektraltheorie.tex
@@ -5,6 +5,7 @@
%
\section{Spektraltheorie
\label{buch:section:spektraltheorie}}
+\rhead{Spektraltheorie}
Aufgabe der Spektraltheorie ist, Bedingungen an eine Matrix $A$ und eine
\index{Spektraltheorie}
Funktion $f(z)$ zu finden, unter denen es möglich ist, $f(A)$ auf
@@ -28,8 +29,8 @@ unklar.
Da der Abstand zweier Matrizen $A$ und $B$ in der Operatornorm
mit der grössten Abweichung $\|(A-B)v\|$ für Einheitsvektoren $v$
gemessen wird, ist es einigermassen plausibel, dass
-die grösse Abweichung zwischen zwei Polynomen $|p(z) - q(z)|$ auf
-der Menge $K$ kleine sein muss, wenn $\|p(A)-q(A)\|$ klein
+die grösste Abweichung zwischen zwei Polynomen $|p(z) - q(z)|$ auf
+der Menge $K$ klein sein muss, wenn $\|p(A)-q(A)\|$ klein
sein soll.
Da die Differenz $p(z)-q(z)$ für beliebige Polynome, die sich nicht
nur um eine Konstante unterscheiden, mit $z$ über alle Grenzen wächst,
@@ -80,8 +81,8 @@ Abschnitt~\ref{buch:subsetion:stone-weierstrass} dargestellt wird,
ist ein sehr allgemeines Approximationsresultat, welches nicht nur
zeigt, dass die Approximation unter einigermassen natürlichen Voraussetzungen
beliebig genau möglich ist, sondern uns im komplexen Fall auch
-weitere Einsicht dafür geben kann, welche Voraussetzungen an eine
-komplexe Matrix gestellt werden müssen, damit man damit rechnen kann,
+weitere Einsicht in die Voraussetzungen an eine
+komplexe Matrix geben kann, damit man damit rechnen kann,
dass die Approximation zu einer konsistenten Definition von $f(A)$ führt.
%
@@ -136,14 +137,14 @@ p(z_i)
=
\sum_{j=0}^n f(z_j) \delta_{i\!j}
=
-f_(z_i)
+f(z_i)
\]
annimmt.
Das Polynom $p(z)$ heisst das {\em Legendre-Interpolationspolynom}.
-Zwar lässt sich also für eine endliche Menge von komplexen Zahlen immer
-ein Polynom finden, welches vorgeschriebene Wert in allen diesen Zahlen
-annimmt, doch ist die Stabilität für grosse $n$ eher beschränkt.
+Zwar lässt sich auf diese Weise für eine endliche Menge von komplexen Zahlen
+immer ein Polynom finden, welches vorgeschriebene Wert in allen diesen Zahlen
+annimmt, doch ist die Stabilität für grosse $n$ eher schlecht.
\subsubsection{Gleichmassige Approximation mit Bernstein-Polynomen}
@@ -175,8 +176,7 @@ gegen die Funktion $f(t)$.
Über die Konvergenz ausserhalb des reellen Intervalls wird nichts
ausgesagt.
Die Approximation mit Bernstein-Polynomen ist daher nur sinnvoll,
-wenn man weiss, dass die Eigenwerte der Matrix reell sind, was im
-wesentlichen auf diagonalisierbare Matrizen führt.
+wenn man weiss, dass die Eigenwerte der Matrix reell sind.
Für ein anderes Interval $[a,b]$ kann man ein Approximationspolynom
erhalten, indem man die affine Transformation
@@ -205,7 +205,7 @@ In diesem Fall liefert der Satz von Stone-Weierstrass die Aussage,
dass sich jede stetige periodische Funktion gleichmässig durch
trigonometrische Polynome approximieren lässt.
-Die Aussage des Satz von Stone-Weierstrass über reelle Funktionen
+Die Aussage des Satzes von Stone-Weierstrass über reelle Funktionen
lässt sich nicht auf komplexe Funktionen erweitern.
Von besonderem Interesse ist jedoch, dass der Beweis des Satz
zeigt, warum solche Aussagen für komplexe Funktionen nicht mehr
@@ -286,7 +286,7 @@ Die Variable $x\in[a,b]$ trennt natürlich die Punkte, die Algebra der
Polynome in der Variablen $x$ enthält also sicher Funktionen, die in
verschiedenen Punkten des Intervalls auch verschiedene Werte annehmen.
Nicht ganz so selbstverständlich ist aber, dass sich daraus bereits
-ergibt, dass jede beliebige Funktion sich als Polynome in $x$
+ergibt, dass jede beliebige Funktion sich durch Polynome in $x$
approximieren lässt.
Dies ist der Inhalt des folgenden Satzes von Stone-Weierstrass.
@@ -357,9 +357,9 @@ der selben Grösse.
\end{figure}
\begin{proof}[Beweis]
-Wer konstruieren zunächst das in
+Wir konstruieren zunächst das in
Abbildung~\ref{buch:eigenwerte:fig:wurzelverfahren}
-visualierte Verfahren, mit dem für jede Zahl $a\in[0,1]$
+visualisierte Verfahren, mit dem für jede Zahl $a\in[0,1]$
die Wurzel $\sqrt{a}$ berechnet werden kann.
Sei $u < \sqrt{a}$ eine Approximation der Wurzel.
Die Approximation ist der exakte Wert der Lösung, wenn $a-u^2=0$.
@@ -392,8 +392,9 @@ von Funktionen approximieren.
Da $A$ eine Algebra ist, ist $f^2\in A$.
Sei ausserdem $m^2=\sup \{f(x)^2\;|\;x\in K\}$, so dass $f^2/m^2$ eine Funktion
mit Werten im Intervall $[0,1]$ ist.
-Die Funktionen $f_n(x)=mu_n(f(x)^2/m^2)$ sind ebenfalls in $A$ und
-approximieren gleichmässig $\sqrt{f(x)^2}=|f(x)|$.
+Die Funktionen $f_n(x)=mu_n(f(x)^2/m^2)$ sind ebenfalls in $A$,
+bilden eine monoton wachsende Folge von Funktionen und
+approximieren $\sqrt{f(x)^2}=|f(x)|$ gleichmässig.
\item Schritt: Für zwei Funktionen $f,g\in A$ gibt es eine monoton wachsende
Folge, die $\max(f,g)$ gleichmässig beliebig genau approximiert
@@ -454,8 +455,8 @@ derart, dass $g_y(y)=f(y)$ und $g_y(x) \le f(x) + \varepsilon$ für
$x\in K$.
Da $g_y$ stetig ist, gilt ausserdem $g_y(x) \ge f(x) -\varepsilon$ in
einer Umgebung $U_y$ von $y$.
-Da $K$ kompakt ist, kann man endlich viele $y_i$ derart, dass die $U_{y_i}$
-immer noch ganz $K$ überdecken.
+Da $K$ kompakt ist, kann man endlich viele $y_i$ derart wählen,
+dass die $U_{y_i}$ immer noch ganz $K$ überdecken.
Die Funktion $g=\sup g_{y_i}$ erfüllt dann überall $g(x) \le f(x)+\varepsilon$,
weil jede der Funktionen $g_y$ diese Ungleichung erfüllt.
Ausserdem gilt für $x\in V_{x_j}$
@@ -701,17 +702,11 @@ Matrizen erfüllen $A^*=\pm A$ und damit
AA^* = \pm A^2 = A^*A.
\)
\item
-Symmetrische und antisymmetrische Matrizen sind normal,
+Symmetrische und antisymmetrische reelle Matrizen sind normal.
\index{symmetrisch}%
\index{antisymmetrisch}%
-denn aus $A=A^t$ folgt $A^*=\overline{A}^t$ und damit
-\begin{align*}
-AA^* &= A\overline{A}^t =
-\\
-A^*A &=
-\end{align*}
\item
-Unitäre Matrizen $U$ sind normal, das $UU^*=I=U^*U$ gilt.
+Unitäre Matrizen $U$ sind normal, da $UU^*=I=U^*U$ gilt.
\index{unitär}%
\item
Orthogonale Matrizen sind normal wegen $O(n) = U(n) \cap M_n(\mathbb{R})$.
@@ -771,20 +766,20 @@ und $AB$ normal.
\begin{proof}[Beweis]
Zunächst folgt aus $AB^*=B^*A$ auch
$A^*B = (B^*A)^* = (AB^*)^* = BA^*$.
-Der Beweis erfolgt durch Nachrechnen:
+Der Beweis, dass $A+B$ normal ist, erfolgt durch Nachrechnen:
\begin{align*}
(A+B)(A+B)^*
&=
-AA^* + AB^* + BA^*+BB^*
+AA^* + {\color{red}AB^*} + {\color{blue}BA^*}+BB^*
\\
(A+B)^*(A+B)
&=
-A^*A + A^*B + B^*A + B^*B
+A^*A + {\color{blue}A^*B} + {\color{red}B^*A} + B^*B
\end{align*}
Die ersten und letzten Terme auf der rechten Seite stimmen überein, weil
$A$ und $B$ normal sind.
-Die gemischten Terme stimmen überein wegen der Vertauschbarkeit von
-$A$ und $B^*$.
+Die gleichfarbigen gemischten Terme stimmen überein wegen der
+Vertauschbarkeit von $A$ und $B^*$.
Für das Produkt rechnet man
\begin{align*}
@@ -825,16 +820,16 @@ Es gibt eine grosse Zahl äquivalenter Eigenschaften für normale Matrizen.
Die folgenden Eigenschaften sind äquivalent:
\begin{enumerate}
\item
-Die Matrix $A$ ist mit einer unitären Matrix diagonalisierbar
+Die Matrix $A$ ist mit einer unitären Matrix diagonalisierbar.
\item
-Es gibt eine orthonormale Basis von Eigenvektoren von $A$ für $\mathbb{C}^n$
+Es gibt eine orthonormale Basis von Eigenvektoren von $A$ für $\mathbb{C}^n$.
\item
-Für jeden Vektor $x\in\mathbb{C}^n$ gilt $\|Ax\|=\|A^*x\|$
+Für jeden Vektor $x\in\mathbb{C}^n$ gilt $\|Ax\|=\|A^*x\|$.
\item
Die Frobenius-Norm der Matrix $A$ kann mit den Eigenwerten $\lambda_i$
\index{Frobenius-Norm}%
von $A$ berechnet werden:
-$\operatorname{Spur}(A^*A) = \sum_{i=1}^n |\lambda_i|^2$
+$\operatorname{Spur}(A^*A) = \sum_{i=1}^n |\lambda_i|^2$.
\item
Der hermitesche Teil $\frac12(A+A^*)$ und der antihermitesche Teil
$\frac12(A-A^*)$ von $A$ vertauschen.
@@ -843,7 +838,7 @@ $\frac12(A-A^*)$ von $A$ vertauschen.
\item
$A^*$ ist ein Polynom vom Grad $n-1$ in $A$.
\item
-Es gibt eine unitäre Matrix $U$ derart, dass $A^*=AU$
+Es gibt eine unitäre Matrix $U$ derart, dass $A^*=AU$.
\index{unitär}%
\item
Es gibt eine Polarzerlegung $A=UP$ mit einer unitären Matrix $U$ und