aboutsummaryrefslogtreecommitdiffstats
path: root/buch/chapters/40-eigenwerte/grundlagen.tex
diff options
context:
space:
mode:
Diffstat (limited to '')
-rw-r--r--buch/chapters/40-eigenwerte/grundlagen.tex735
1 files changed, 701 insertions, 34 deletions
diff --git a/buch/chapters/40-eigenwerte/grundlagen.tex b/buch/chapters/40-eigenwerte/grundlagen.tex
index 471c7fb..5c8f169 100644
--- a/buch/chapters/40-eigenwerte/grundlagen.tex
+++ b/buch/chapters/40-eigenwerte/grundlagen.tex
@@ -17,10 +17,501 @@ Gelingt es, eine Basis aus solchen sogenanten {\em Eigenvektoren} zu finden,
dann kann man die Matrix $A$ durch Basiswechsel in diese Form bringen.
%
+% Kern und Bild von Matrixpotenzen
%
-%
-\subsection{Kern und Bild
+\subsection{Kern und Bild von Matrixpotenzen
\label{buch:subsection:kern-und-bild}}
+In diesem Abschnitt ist $A\in M_n(\Bbbk)$, $A$ beschreibt eine lineare
+Abbildung $f\colon\Bbbk^n\to \Bbbk^n$.
+In diesem Abschnitt sollen Kern und Bild der Potenzen $A^k$ untersucht
+werden.
+\begin{definition}
+Wir bezeichnen Kern und Bild der iterierten Abbildung $A^k$ mit
+\[
+\mathcal{K}^k(A)
+=
+\ker A^k
+\qquad\text{und}\qquad
+\mathcal{J}^k(A)
+=
+\operatorname{im} A^k.
+\]
+\end{definition}
+
+Durch Iteration wird das Bild immer kleiner.
+Wegen
+\[
+\mathcal{J}^k (A)
+=
+\operatorname{im} A^k
+=
+\operatorname{im} A^{k-1} A
+=
+\{ A^{k-1} Av\;|\; v \in \Bbbk^n\}
+\subset
+\{ A^{k-1} v\;|\; v \in \Bbbk^n\}
+=
+\mathcal{J}^{k-1}(A)
+\]
+folgt
+\begin{equation}
+\Bbbk^n
+=
+\operatorname{im}E
+=
+\operatorname{im}A^0
+=
+\mathcal{J}^0(A)
+\supset
+\mathcal{J}^1(A)
+=
+\operatorname{im}A
+\supset
+\mathcal{J}^2(A)
+\supset\dots\supset
+\mathcal{J}^k(A)
+\supset
+\mathcal{J}^{k+1}(A)
+\supset \dots \supset
+\{0\}.
+\label{buch:eigenwerte:eqn:Jkchain}
+\end{equation}
+Für die Kerne gilt etwas Ähnliches.
+Ein Vektor $x\in \mathcal{K}^k(A)$ erfüllt $A^kx=0$.
+Dann erfüllt er aber erst recht auch
+\[
+A^{k+1}x=A\underbrace{A^kx}_{\displaystyle=0}=0,
+\]
+also ist $x\in\mathcal{K}^k(A)$.
+Es folgt
+\begin{equation}
+\{0\}
+\subset
+\mathcal{K}^0(A) = \ker A^0 = \ker E
+\subset
+\mathcal{K}^1(A) = \ker A
+\subset
+\dots
+\subset
+\mathcal{K}^k(A)
+\subset
+\mathcal{K}^{k+1}(A)
+\subset
+\dots
+\subset
+\Bbbk^n.
+\label{buch:eigenwerte:eqn:Kkchain}
+\end{equation}
+Neben diesen offensichtlichen Resultaten kann man aber noch mehr
+sagen.
+Es ist klar, dass in beiden Ketten
+\label{buch:eigenwerte:eqn:Jkchain}
+und
+\label{buch:eigenwerte:eqn:Kkchain}
+nur in höchstens $n$ Schritten eine wirkliche Änderung stattfinden
+kann.
+Man kann aber sogar genau sagen, wo Änderungen stattfinden:
+
+\begin{satz}
+\label{buch:eigenwerte:satz:ketten}
+Ist $A\in M_n(\Bbbk)$ eine $n\times n$-Matrix, dann gibt es eine Zahl $k$
+so, dass
+\[
+\begin{array}{rcccccccccccl}
+0=\mathcal{K}^0(A)
+&\subsetneq& \mathcal{K}^1(A) &\subsetneq& \mathcal{K}^2(A)
+&\subsetneq&\dots&\subsetneq&
+\mathcal{K}^k(A) &=& \mathcal{K}^{k+1}(A) &=& \dots
+\\
+\Bbbk^n= \mathcal{J}^0(A)
+&\supsetneq& \mathcal{J}^1(A) &\supsetneq& \mathcal{J}^2(A)
+&\supsetneq&\dots&\supsetneq&
+\mathcal{J}^k(A) &=& \mathcal{J}^{k+1}(A) &=& \dots
+\end{array}
+\]
+ist.
+\end{satz}
+
+\begin{proof}[Beweis]
+Es sind zwei Aussagen zu beweisen.
+Erstens müssen wir zeigen, dass die Dimension von $\mathcal{K}^i(A)$
+nicht mehr grösser werden kann, wenn sie zweimal hintereinander gleich war.
+Nehmen wir daher an, dass $\mathcal{K}^i(A) = \mathcal{K}^{i+1}(A)$.
+Wir müssen $\mathcal{K}^{i+2}(A)$ bestimmen.
+$\mathcal{K}^{i+2}(A)$ besteht aus allen Vektoren $x\in\Bbbk^n$ derart,
+dass $Ax\in \mathcal{K}^{i+1}(A)=\mathcal{K}^i(A)$ ist.
+Daraus ergibt sich, dass $AA^ix=0$, also ist $x\in\mathcal{K}^{i+1}(A)$.
+Wir erhalten also
+$\mathcal{K}^{i+2}(A)\subset\mathcal{K}^{i+1}\subset\mathcal{K}^{i+2}(A)$,
+dies ist nur möglich, wenn beide gleich sind.
+
+Analog kann man für die Bilder vorgehen.
+Wir nehmen an, dass $\mathcal{J}^i(A) = \mathcal{J}^{i+1}(A)$ und
+bestimmten $\mathcal{J}^{i+2}(A)$.
+$\mathcal{J}^{i+2}(A)$ besteht aus all jenen Vektoren, die als
+$Ax$ mit $x\in\mathcal{J}^{i+1}(A)=\mathcal{J}^i(A)$ erhalten
+werden können.
+Es gibt also insbesondere ein $y\in\Bbbk^i$ mit $x=A^iy$.
+Dann ist $Ax=A^{i+1}y\in\mathcal{J}^{i+1}(A)$.
+Insbesondere besteht $\mathcal{J}^{i+2}(A)$ genau aus den Vektoren
+von $\mathcal{J}^{i+1}(A)$.
+
+Zweitens müssen wir zeigen, dass die beiden Ketten bei der gleichen
+Potenz von $A$ konstant werden.
+Dies folgt jedoch daraus, dass $\dim\mathcal{J}^i(A) = \operatorname{Rang} A^i
+= n - \dim\ker A^i = n -\dim\mathcal{K}^i(A)$.
+Der Raum $\mathcal{J}^k(A)$ hört also beim gleichen $i$ auf, kleiner
+zu werden, bei dem auch $\mathcal{K}^i(A)$ aufhört, grösser zu werden.
+\end{proof}
+
+\begin{satz}
+Die Zahl $k$ in Satz~\ref{buch:eigenwerte:satz:ketten}
+ist nicht grösser als $n$, also
+\[
+\mathcal{K}^n(A) = \mathcal{K}^l(A)
+\qquad\text{und}\qquad
+\mathcal{J}^n(A) = \mathcal{J}^l(A)
+\]
+für $l\ge n$.
+\end{satz}
+
+\begin{proof}[Beweis]
+Nach Satz~\ref{buch:eigenwerte:satz:ketten} muss die
+Dimension von $\mathcal{K}^i(A)$ in jedem Schritt um mindestens
+$1$ zunehmen, das ist nur möglich, bis zur Dimension $n$.
+Somit können sich $\mathcal{K}^i(A)$ und $\mathcal{J}^i(A)$ für $i>n$
+nicht mehr ändern.
+\end{proof}
+
+\begin{definition}
+\label{buch:eigenwerte:def:KundJ}
+Die gemäss Satz~\ref{buch:eigenwerte:satz:ketten} identischen Unterräume
+$\mathcal{K}^i(A)$ für $i\ge k$ und die identischen Unterräume
+$\mathcal{J}^i(A)$ für $i\ge k$ werden mit
+\[
+\begin{aligned}
+\mathcal{K} &= \mathcal{K}^i(A)&&\forall i\ge k \qquad\text{und}
+\\
+\mathcal{J} &= \mathcal{J}^i(A)&&\forall i\ge k
+\end{aligned}
+\]
+bezeichnet.
+\end{definition}
+
+%
+% Inveriante Unterräume
+%
+\subsection{Invariante Unterräume
+\label{buch:subsection:invariante-unterraeume}}
+Kern und Bild sind der erste Schritt zu einem besseren Verständnis
+einer linearen Abbildung oder ihrer Matrix.
+Invariante Räume dienen dazu, eine lineare Abbildung in einfachere
+Abbildungen zwischen ``kleineren'' Räumen zu zerlegen, wo sie leichter
+analysiert werden können.
+
+\begin{definition}
+Sei $f\colon V\to V$ eine lineare Abbildung eines Vektorraums in sich
+selbst.
+Ein Unterraum $U\subset V$ heisst {\em invarianter Unterraum},
+wenn
+\[
+f(U) = \{ f(x)\;|\; x\in U\} \subset U.
+\]
+gilt.
+\end{definition}
+
+Der Kern $\ker A$ einer linearen Abbildung ist trivialerweise ein
+invarianter Unterraum, da alle Vektoren in $\ker A$ auf $0\in\ker A$
+abgebildet werden.
+Ebenso ist natürlich $\operatorname{im}A$ ein invarianter Unterraum,
+denn jeder Vektor wird in $\operatorname{im}A$ abgebildet, insbesondere
+auch jeder Vektor in $\operatorname{im}A$.
+
+\begin{satz}
+\label{buch:eigenwerte:satz:KJinvariant}
+Sei $f\colon V\to V$ eine lineare Abbildung mit Matrix $A$.
+Jeder der Unterräume $\mathcal{J}^i(A)$ und $\mathcal{K}^i(A)$
+ist ein invarianter Unterraum.
+\end{satz}
+
+\begin{proof}[Beweis]
+Sei $x\in\mathcal{K}^i(A)$, es gilt also $A^ix=0$.
+Wir müssen überprüfen, dass $Ax\in\mathcal{K}^i(A)$.
+Wir berechnen daher $A^i\cdot Ax=A^{i+1}x=A\cdot A^ix = A\cdot 0=0$,
+was zeigt, dass $Ax\in\mathcal{K}^i(A)$.
+
+Sei jetzt $x\in\mathcal{J}^i(A)$, es gibt also ein $y\in V$ derart, dass
+$A^iy=x$.
+Wir müssen überprüfen, dass $Ax\in\mathcal{J}^i(A)$.
+Dazu berechnen wir $Ax=AA^iy=A^iAy\in\mathcal{J}^i(A)$, $Ax$ ist also das
+Bild von $Ay$ unter $A^i$.
+\end{proof}
+
+\begin{korollar}
+Die Unterräume $\mathcal{K}(A)\subset V$ und $\mathcal{J}(A)\subset V$
+sind invariante Unterräume.
+\end{korollar}
+
+Die beiden Unterräume $\mathcal{K}(A)$ und $\mathcal{J}(A)$ sind besonders
+interessant, da wir aus der Einschränkung der Abbildung $f$ auf diese
+Unterräume mehr über $f$ lernen können.
+
+\begin{satz}
+\label{buch:eigenwerte:satz:fJinj}
+Die Einschränkung von $f$ auf $\mathcal{J}(A)$ ist injektiv.
+\end{satz}
+
+\begin{proof}[Beweis]
+Die Einschränkung von $f$ auf $\mathcal{J}^k(A)$ ist
+$\mathcal{J}^k(A) \to \mathcal{J}^{k+1}(A)$, nach Definition von
+$\mathcal{J}^{k+1}(A)$ ist diese Abbildung surjektiv.
+Da aber $\mathcal{J}^k(A)=\mathcal{J}^{k+1}(A)$ ist, ist
+$f\colon \mathcal{J}^k(A)\to\mathcal{J}^k(A)$ surjektiv,
+also ist $f$ auf $\mathcal{J}^k(A)$ auch injektiv.
+\end{proof}
+
+Die beiden Unterräume $\mathcal{J}(A)$ und $\mathcal{K}(A)$
+sind Bild und Kern der iterierten Abbildung mit Matrix $A^k$.
+Das bedeutet, dass $\dim\mathcal{J}(A)+\mathcal{K}(A)=n$.
+Da $\mathcal{K}(A)=\ker A^k$ und andererseits $A$ injektiv ist auf
+$\mathcal{J}(A)$, muss $\mathcal{J}(A)\cap\mathcal{K}(A)=0$.
+Es folgt, dass $V=\mathcal{J}(A) + \mathcal{K}(A)$.
+
+In $\mathcal{K}(A)$ und $\mathcal{J}(A)$ kann man unabhängig voneinander
+jeweils aine Basis wählen.
+Die Basen von $\mathcal{K}(A)$ und $\mathcal{J}(A)$ zusammen ergeben
+eine Basis von $V$.
+Die Matrix $A'$ in dieser Basis wird die Blockform
+\[
+A'
+=
+\left(
+\begin{array}{ccc|ccc}
+&&&&&\\
+&A_{\mathcal{K}'}&&&&\\
+&&&&&\\
+\hline
+&&&&&\\
+&&&&A_{\mathcal{J}'}&\\
+&&&&&\\
+\end{array}
+\right)
+\]
+haben, wobei die Matrix $A_\mathcal{J}'$ invertierbar ist.
+Die Zerlegung in invariante Unterräume ergibt also eine natürlich
+Aufteilung der Matrix $A$ in kleiner Matrizen mit zum Teil bekannten
+Eigenschaften.
+
+%
+% Spezialfall, nilpotente Matrizen
+%
+\subsection{Nilpotente Matrizen
+\label{buch:subsection:nilpotente-matrizen}}
+Die Zerlegung von $V$ in die beiden invarianten Unterräume $\mathcal{J}(A)$
+und $\mathcal{K}(A)$ reduziert die lineare Abbildung auf zwei Abbildungen
+mit speziellen Eigenschaften.
+Es wurde bereits in Satz~\label{buch:eigenwerte:satz:fJinj} gezeigt,
+dass die Einschränkung auf $\mathcal{J}(A)$ injektiv ist.
+Die Einschränkung auf $\mathcal{K}(A)$ bildet nach Definition alle
+Vektoren nach $k$-facher Iteration auf $0$ ab, $A^k\mathcal{K}(A)=0$.
+Solche Abbildungen haben eine speziellen Namen.
+
+\begin{definition}
+\label{buch:eigenwerte:def:nilpotent}
+Eine Matrix $A$ heisst nilpotent, wenn es eine Zahl $k$ gibt, so dass
+$A^k=0$.
+\end{definition}
+
+\begin{beispiel}
+Obere (oder untere) Dreiecksmatrizen mit Nullen auf der Diagonalen
+sind nilpotent.
+Wir rechnen dies wie folgt nach.
+Die Matrix $A$ mit Einträgen $a_{ij}$
+\[
+A=\begin{pmatrix}
+ 0 &a_{12}&a_{13}&\dots &a_{1,n-1}&a_{1n} \\
+ 0 & 0 &a_{23}&\dots &a_{1,n-1}&a_{2n} \\
+ 0 & 0 & 0 &\dots &a_{1,n-1}&a_{3n} \\
+\vdots&\vdots&\vdots&\ddots&\vdots &\vdots \\
+ 0 & 0 & 0 &\dots & 0 &a_{n-1,n}\\
+ 0 & 0 & 0 &\dots & 0 & 0
+\end{pmatrix}
+\]
+erfüllt $a_{ij}=0$ für $i\ge j$.
+Wir zeigen jetzt, dass sich bei der Multiplikation die nicht
+verschwinden Elemente bei der Multiplikation noch rechts oben
+verschieben.
+Dazu multiplizieren wir zwei Matrizen $B$ und $C$ mit
+$b_{ij}=0$ für $i+k>j$ und $c_{ij}=0$ für $i+l>j$.
+In der folgenden graphischen Darstellung der Matrizen sind die
+Bereiche, wo die Matrixelemente verschwinden, weiss.
+\begin{center}
+
+\newtcbox{\myboxA}{blank,boxsep=0mm,
+clip upper,minipage,
+width=31.0mm,height=17.0mm,nobeforeafter,
+borderline={0.0pt}{0.0pt}{white},
+}
+
+\begin{tikzpicture}[>=latex,thick]
+
+\def\cx{1.8}
+\def\cy{1.2}
+
+\draw[line width=0.3pt] (-3,2.5) -- (6,2.5);
+
+\begin{scope}[xshift=-4cm]
+\node at (1.5,1.53) {$\left(\myboxA{}\right)$};
+\fill[color=red!30] (0.5,3) -- (3,0.5) -- (3,3) -- cycle;
+\draw (0,0) rectangle (3,3);
+\draw (0,3) -- (3,0);
+\node at ({\cx+0.5*0.5},{\cy+0.5*0.5}) [rotate=-45] {$k$};
+\draw[color=blue,line width=1.4pt] (0,2.5) -- (1.0,2.5);
+\draw[color=red,line width=1.4pt] (1.0,2.5) -- (3,2.5);
+\node at (1,1) {$B$};
+\node at (-0.3,2.5) [left] {$i$};
+\node at (1,2.5) [above right] {$i+k$};
+\end{scope}
+
+\node at (-0.5,1.5) {$\mathstrut\cdot\mathstrut$};
+
+\begin{scope}
+\node at (1.5,1.53) {$\left(\myboxA{}\right)$};
+\fill[color=red!30] (1.0,3) -- (3,1.0) -- (3,3) -- cycle;
+\draw (0,0) rectangle (3,3);
+\draw (0,3) -- (3,0);
+\node at ({\cx+1.0*0.5},{\cy+1.0*0.5}) [rotate=-45] {$l$};
+\draw[color=red,line width=1.4pt] (2,3)--(2,2);
+\draw[color=blue,line width=1.4pt] (2,2)--(2,0);
+\node at (1,1) {$C$};
+\node at (2,3) [above] {$j$};
+\node at (2,2) [above right] {$j-l$};
+\end{scope}
+
+\node at (3.5,1.5) {$\mathstrut=\mathstrut$};
+
+\begin{scope}[xshift=4cm]
+\node at (1.5,1.53) {$\left(\myboxA{}\right)$};
+\fill[color=red!30] (1.5,3) -- (3,1.5) -- (3,3) -- cycle;
+\draw (0,0) rectangle (3,3);
+\draw (0,3) -- (3,0);
+\node at ({\cx+1.5*0.5},{\cy+1.5*0.5}) [rotate=-45] {$k+l$};
+\fill[color=red!50!blue] (2,2.5) circle[radius=0.1];
+\draw[line width=0.3pt] (2,3) -- (2,2.5);
+\node at (2,3) [above] {$j$};
+\node at (1,1) {$D$};
+\end{scope}
+
+\end{tikzpicture}
+\end{center}
+Bei der Berechnung des Elementes $d_{ij}$ wird die Zeile $i$ von $B$
+mit der Spalte $j$ von $C$ multipliziert.
+Die blau eingefärbten Elemente in dieser Zeile und Spalte sind $0$.
+Aus der Darstellung ist abzulesen, dass das Produkt verschwindet,
+die roten, von $0$ verschiedenen Elemente von den blauen Elementen
+annihiliert werden.
+Dies passiert immer, wenn $i+k>j-l$ ist, oder $i+(k+l)> j$.
+
+Wir wenden diese Beobachtung jetzt auf die Potenzen $A^s$ an.
+Für die Matrixelemente von $A^s$ schreiben wir $a^s_{ij}$.
+Wir behaupten, dass die Matrixelemente $A^s$ die Bedingung
+$a_{ij}^s=0$ für $i+s>j$ erfüllen.
+Dies ist für $s=1$ nach Voraussetzung richtig, dies ist die
+Induktionsvoraussetzung.
+Nehmen wir jetzt an, dass $a_{ij}^s=0$ für $i+s>j$, dann folgt
+aus obiger Rechnung, dass $a_{ij}^{s+1}=0$ für $i+s+1>j$, so
+dass die Bedingung auch für $A^s$ gilt (Induktionsschritt).
+Mit vollständiger Induktion folgt, dass $a_{ij}^s=0$ für $i+s>j$.
+Insbesondere ist $A^n=0$, die Matrix $A$ ist nilpotent.
+\end{beispiel}
+
+Man kann die Konstruktion der Unterräume $\mathcal{K}^i(A)$ weiter
+dazu verwenden, eine Basis zu finden, in der eine nilpotente Matrix
+eine besonders einfach Form erhält.
+
+\begin{satz}
+\label{buch:eigenwerte:satz:nnilpotent}
+Sei $A$ eine nilpotente $n\times n$-Matrix mit der Eigenschaft, dass
+$A^{n-1}\ne 0$.
+Dann gibt es eine Basis so, dass $A$ die Form
+\begin{equation}
+A'
+=
+\begin{pmatrix}
+0&1& & & & \\
+ &0&1& & & \\
+ & &0& & & \\
+ & & &\ddots&1& \\
+ & & & &0&1\\
+ & & & & &0\\
+\end{pmatrix}
+\label{buch:eigenwerte:eqn:nnilpotent}
+\end{equation}
+bekommt.
+\end{satz}
+
+\begin{proof}[Beweis]
+Da $A^{n-1}\ne 0$ ist, gibt es einen Vektor $b_n$ derart, dass $A^{n-1}b_n\ne0$.
+Wir konstruieren die Vektoren
+\[
+b_n,\;
+b_{n-1}=Ab_n,\;
+b_{n-2}=Ab_{n-1},\;
+\dots,\;
+b_2=Ab_3,\;
+b_1=Ab_2.
+\]
+Aus der Konstruktion folgt $b_1=A^{n-1}b_n\ne 0$, aber $Ab_1=A^nb_n=0$.
+Aus der Konstruktion der iterierten Kerne $\mathcal{K}^i(A)$ folgt jetzt,
+dass die Vektoren $b_1,\dots,b_n$ eine Basis bilden.
+In dieser Basis hat die Matrix die Form~\ref{buch:eigenwerte:eqn:nnilpotent}.
+\end{proof}
+
+\begin{definition}
+Wir bezeichnen mit $N_n$ eine Matrix der Form
+\eqref{buch:eigenwerte:eqn:nnilpotent}.
+\end{definition}
+
+Mit etwas mehr Sorgfalt kann man auch die Bedingung, dass $A^{n-1}\ne 0$
+sein muss, im Satz~\ref{buch:eigenwerte:satz:nnilpotent} loswerden.
+
+\begin{satz}
+\label{buch:eigenwerte:satz:allgnilpotent}
+Sei $A$ ein nilpotente Matrix, dann gibt es eine Basis, in der die Matrix
+aus lauter Nullen besteht ausser in den Einträgen unmittelbar oberhalb der
+Hauptdiagonalen, wo die Einträge $0$ oder $1$ sind.
+Insbesondere zerfällt eine solche Matrix in Blöcke der Form $N_{k_i}$,
+$i=1,\dots,l$,
+wobei $k_1+\dots+k_l=n$ sein muss:
+\begin{equation}
+\def\temp#1{\multicolumn{1}{|c}{\raisebox{0pt}[17pt][12pt]{\phantom{x}$#1\mathstrut$}\phantom{x}}}
+A'
+=\left(
+\begin{array}{cccc}
+\cline{1-1}
+\temp{N_{k_1}} &\multicolumn{1}{|c}{}& & \\
+\cline{1-2}
+ &\temp{N_{k_2}}&\multicolumn{1}{|c}{}& \\
+\cline{2-3}
+ & &\temp{\ddots}&\multicolumn{1}{|c}{}\\
+\cline{3-4}
+ & & &\multicolumn{1}{|c|}{\raisebox{0pt}[17pt][12pt]{\phantom{x}$N_{k_l}$}\phantom{x}}\\
+\cline{4-4}
+\end{array}
+\right)
+\label{buch:eigenwerte:eqn:allgnilpotent}
+\end{equation}
+\end{satz}
+
+Die Einschränkung von $f$ auf den invarianten Unterraum $\mathcal{K}(A)$
+ist nilpotent.
+Die Zerlegung $V=\mathcal{J}(A)\oplus \mathcal{K}(A)$ führt also zu einer
+Zerlegung der Abbildung $f$ in eine invertierbare Abbildung
+$\mathcal{J}(A)\to\mathcal{J}(A)$ und eine
+nilpotente Abbildung $\mathcal{K}(A)\to\mathcal{K}(A)$.
+Nach Satz~\ref{buch:eigenwerte:satz:allgnilpotent} kann man in
+$\mathcal{K}(A)$ eine Basis so wählen, dass die Matrix die Blockform
+\eqref{buch:eigenwerte:eqn:allgnilpotent} erhält.
%
% Begriff des Eigenwertes und Eigenvektors
@@ -132,42 +623,218 @@ Insbesondere können wir statt die Eigenvektoren von $A$ zum Eigenwert $\lambda$
zu studieren, auch die Eigenvektoren zum Eigenwert $0$ von $A-\lambda E$
untersuchen.
-\begin{satz}
-\label{buch:eigenwerte:satz:jordanblock}
-Wenn $\dim E_\lambda=1$ ist, dann gibt es eine Basis von $V$ derart, dass
-$A$ in dieser Matrix die Form
-\begin{equation}
-A'
+%
+% Invariante Räume
+%
+\subsection{Verallgemeinerte Eigenräume
+\label{buch:subsection:verallgemeinerte-eigenraeume}}
+Wenn $\lambda$ ein Eigenwert der Matrix $A$ ist, dann ist
+ist $A-\lambda E$ injektiv und $\ker(A-\lambda E)\ne 0$.
+Man kann daher die invarianten Unterräume $\mathcal{K}(A-\lambda E)$
+und $\mathcal{J}(A-\lambda E)$.
+
+\begin{beispiel}
+Wir untersuchen die Matrix
+\[
+A
=
\begin{pmatrix}
- \lambda & 1 & & & & \\
- & \lambda & 1 & & & \\
- & & \lambda & & & \\
- & & & \ddots & & \\
- & & & & \lambda & 1 \\
- & & & & & \lambda
+1&1&-1&0\\
+0&3&-1&1\\
+0&2& 0&1\\
+0&0& 0&2
\end{pmatrix}
-\label{buch:eigenwerte:eqn:jordanblock}
-\end{equation}
+\]
+Man kann zeigen, dass $\lambda=1$ ein Eigenwert ist.
+Wir suchen die Zerlegung des Vektorraums $\mathbb{R}^4$ in invariante
+Unterräume $\mathcal{K}(A-E)$ und $\mathcal{J}(A-E)$.
+Die Matrix $B=A-E$ ist
+\[
+B
+=
+\begin{pmatrix}
+0&1&-1&0\\
+0&2&-1&1\\
+0&2&-1&1\\
+0&0& 0&2
+\end{pmatrix}
+\]
+und wir berechnen davon die Potenz
+\[
+D=B^4=(A-E)^4
+=
+\begin{pmatrix}
+0&0& 0&0\\
+0&2&-1&4\\
+0&2&-1&4\\
+0&0& 0&1
+\end{pmatrix}.
+\]
+Daraus kann man ablesen, dass das Bild $\operatorname{im}D$
+von $D$ die Basis
+\[
+b_1
+=
+\begin{pmatrix}
+0\\0\\0\\1
+\end{pmatrix}
+, \qquad
+b_2
+=
+\begin{pmatrix}
+0\\1\\1\\0
+\end{pmatrix}
+\]
hat.
-\end{satz}
+Für den Kern von $D$ können wir zum Beispiel die Basisvektoren
+\[
+b_3
+=
+\begin{pmatrix}
+0\\1\\2\\0
+\end{pmatrix}
+,\qquad
+b_4
+=
+\begin{pmatrix}
+1\\0\\0\\0
+\end{pmatrix}
+\]
+verwenden.
-\begin{proof}[Beweis]
-Entsprechend der Bemerkung vor dem Satz können wir uns auf die Betrachtung
-der Matrix $B=A-\lambda E$ konzentrieren, deren Eigenraum zum Eigenwert $0$
-$1$-dimensional ist.
-Es gibt also einen Vektor $v_1\ne 0$ mit $Bv_1=0$.
-Der Vektor $v_1$ spannt den Eigenraum auf: $E_0 = \langle v_1\rangle$.
-
-Wir konstruieren jetzt rekursiv eine Folge $v_2,\dots,v_n$ von Vektoren
-mit folgenden Eigenschaften.
-Zunächst soll $v_k=Bv_{k+1}$ für $k=1,\dots,n-1$ sein.
-Ausserdem soll $v_{k+1}$ in jedem Schritt linear unabhängig von den
-Vektoren $v_1,\dots,v_{k-1}$ gewählt werden.
-Wenn diese Konstruktion gelingt, dann ist $\mathcal{B}=\{v_1,\dots,v_n\}$
-eine Basis von $V$ und die Matrix von $B$ in dieser Basis ist
-$A'$ wie in \eqref{buch:eigenwerte:eqn:jordanblock}.
-\end{proof}
+Als erstes überprüfen wir, ob diese Basisvektoren tatsächlich invariante
+Unterräume sind.
+Für $\mathcal{J}(A-E) = \langle b_1,b_2\rangle$
+berechnen wir
+\begin{align*}
+(A-E)b_1
+&=
+\begin{pmatrix} 0\\4\\4\\1 \end{pmatrix}
+=
+4b_2+b_1,
+\\
+(A-E)b_2
+&=
+\begin{pmatrix} 0\\1\\1\\0 \end{pmatrix}
+=
+b_2.
+\end{align*}
+Dies beweist, dass $\mathcal{J}(A-E)$ invariant ist und man kann ablesen,
+dass in dieser Basis, die von $A-E$ beschriebene lineare Abbildung
+auf $\mathcal{J}(A-E)$ die Matrix
+\[
+A_{\mathcal{J}(A-E)}
+=
+\begin{pmatrix}
+1&4\\
+0&1
+\end{pmatrix}.
+\]
+
+Für den Kern $\mathcal{K}(A-E)$
+\[
+\left.
+\begin{aligned}
+Ab_3
+&=
+-b_4
+\\
+Ab_4
+&=0
+\end{aligned}
+\quad\right\}
+\qquad\Rightarrow\qquad
+A_{\mathcal{K}(A-E)}
+=
+\begin{pmatrix}
+0&-1\\
+0& 0
+\end{pmatrix}
+\]
+In der Basis $\mathcal{B}=\{b_1,b_2,b_3,b_4\}$ hat $A$ die Matrix
+in Blockform
+\[
+A'
+=
+\left(
+\begin{array}{cc|cr}
+2&4& & \\
+0&2& & \\
+\hline
+ & &1&-1\\
+ & &0& 1
+\end{array}\right),
+\]
+die Blöcke gehören zu den invarianten Unterräumen $\mathcal{K}(A-E)$
+und $\mathcal{K}(A-E)$.
+Die aus $A-E$ gewonnen invarianten Unterräume sind offenbar auch invariante
+Unterräume für $A$.
+\end{beispiel}
+
+\begin{definition}
+Ist $A$ eine Matrix mit Eigenwert $\lambda$, dann heisst der invariante
+Unterraum
+\[
+\mathcal{E}_{\lambda}(A)
+=
+\mathcal{K}(A-\lambda E)
+\]
+der verallgemeinerte Eigenraum von $A$.
+\end{definition}
+
+Es ist klar, dass
+$E_\lambda(A)=\ker (A-\lambda E)\subset\mathcal{E}_{\lambda}(A)$.
+
+\subsection{Zerlegung in invariante Unterräume
+\label{buch:subsection:zerlegung-in-invariante-unterraeume}}
+Wenn $\lambda$ kein Eigenwert von $A$ ist, dann ist $A-\lambda E$
+injektiv und damit $\ker(A-\lambda E)=0$.
+Es folgt, dass $\mathcal{K}^i(A-\lambda E)=0$ und daher auch
+$\mathcal{J}^i(A-\lambda E)=V$.
+Die Zerlegung in invariante Unterräume $\mathcal{J}(A-\lambda E)$ und
+$\mathcal{K}(A-\lambda E)$ liefert in diesem Falle also nichts Neues.
+
+Für einen Eigenwert $\lambda_1$ von $A$ dagegen, erhalten wir die Zerlegung
+\[
+V
+=
+\mathcal{E}_{\lambda_1}(A)
+\oplus
+\underbrace{\mathcal{J}(A-\lambda_1 E)}_{\displaystyle =V_2},
+\]
+wobei $\mathcal{E}_{\lambda_1}(A)\ne 0$ ist.
+Die Matrix $A-\lambda_1 E$ ist eingeschränkt auf $\mathcal{E}_{\lambda_1}(A)$
+nilpotent.
+Die Zerlegung in invariante Unterräume ist zwar mit Hilfe von $A-\lambda_1E$
+gewonnen worden, ist aber natürlich auch eine Zerlegung in invariante
+Unterräume für $A$.
+Wir können daher das Problem auf $V_2$ einschränken und nach einem weiteren
+Eigenwert $\lambda_2$ von $A$ in $V_2$ suchen, was wieder eine Zerlegung
+in invariante Unterräume liefert.
+Indem wir so weiterarbeiten, bis wir den ganzen Raum ausgeschöpft haben,
+können wir eine Zerlegung des ganzen Raumes $V$ finden, so dass $A$ auf
+jedem einzelnen Summanden eine sehr einfach Form hat:
+
+\begin{satz}
+\label{buch:eigenwerte:satz:zerlegung-in-eigenraeume}
+Sei $V$ ein $\Bbbk$-Vektorraum und $f$ eine lineare Abbildung mit Matrix
+$A$ derart, dass alle Eigenwerte $\lambda_1,\dots,\lambda_l$ von $A$
+in $\Bbbk$ sind.
+Dann gibt es eine Zerlegung von $V$ in verallgemeinerte Eigenräume
+\[
+V
+=
+\mathcal{E}_{\lambda_1}(A)
+\oplus
+\mathcal{E}_{\lambda_2}(A)
+\oplus
+\dots
+\oplus
+\mathcal{E}_{\lambda_l}(A).
+\]
+Die Einschränkung von $A-\lambda_{i}E$ auf den Eigenraum
+$\mathcal{E}_{\lambda_i}(A)$ ist nilpotent.
+\end{satz}
\subsection{Das charakteristische Polynom
\label{buch:subsection:das-charakteristische-polynom}}
@@ -249,7 +916,7 @@ Alle Terme auf der rechten Seite sind in $\Bbbk$ und werden nur mit
Körperoperationen in $\Bbbk$ verknüpft, also muss auch $\lambda\in\Bbbk$
sein, im Widerspruch zur Annahme.
-Durch hinzufügen von geeigneten Elementen können wir immer zu einem
+Durch Hinzufügen von geeigneten Elementen können wir immer zu einem
Körper $\Bbbk'$ übergehen, in dem das charakteristische Polynom
in Linearfaktoren zerfällt.
In diesem Körper kann man jetzt das homogene lineare Gleichungssystem