From 812a80acf52275699afb285db46aa76be03006c2 Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?Andreas=20M=C3=BCller?= Date: Mon, 18 Jan 2021 21:01:26 +0100 Subject: add more stuff about spectral radius --- buch/chapters/40-eigenwerte/grundlagen.tex | 735 +++++++++++++++++++++++++++-- 1 file changed, 701 insertions(+), 34 deletions(-) (limited to 'buch/chapters/40-eigenwerte/grundlagen.tex') diff --git a/buch/chapters/40-eigenwerte/grundlagen.tex b/buch/chapters/40-eigenwerte/grundlagen.tex index 471c7fb..5c8f169 100644 --- a/buch/chapters/40-eigenwerte/grundlagen.tex +++ b/buch/chapters/40-eigenwerte/grundlagen.tex @@ -17,10 +17,501 @@ Gelingt es, eine Basis aus solchen sogenanten {\em Eigenvektoren} zu finden, dann kann man die Matrix $A$ durch Basiswechsel in diese Form bringen. % +% Kern und Bild von Matrixpotenzen % -% -\subsection{Kern und Bild +\subsection{Kern und Bild von Matrixpotenzen \label{buch:subsection:kern-und-bild}} +In diesem Abschnitt ist $A\in M_n(\Bbbk)$, $A$ beschreibt eine lineare +Abbildung $f\colon\Bbbk^n\to \Bbbk^n$. +In diesem Abschnitt sollen Kern und Bild der Potenzen $A^k$ untersucht +werden. +\begin{definition} +Wir bezeichnen Kern und Bild der iterierten Abbildung $A^k$ mit +\[ +\mathcal{K}^k(A) += +\ker A^k +\qquad\text{und}\qquad +\mathcal{J}^k(A) += +\operatorname{im} A^k. +\] +\end{definition} + +Durch Iteration wird das Bild immer kleiner. +Wegen +\[ +\mathcal{J}^k (A) += +\operatorname{im} A^k += +\operatorname{im} A^{k-1} A += +\{ A^{k-1} Av\;|\; v \in \Bbbk^n\} +\subset +\{ A^{k-1} v\;|\; v \in \Bbbk^n\} += +\mathcal{J}^{k-1}(A) +\] +folgt +\begin{equation} +\Bbbk^n += +\operatorname{im}E += +\operatorname{im}A^0 += +\mathcal{J}^0(A) +\supset +\mathcal{J}^1(A) += +\operatorname{im}A +\supset +\mathcal{J}^2(A) +\supset\dots\supset +\mathcal{J}^k(A) +\supset +\mathcal{J}^{k+1}(A) +\supset \dots \supset +\{0\}. +\label{buch:eigenwerte:eqn:Jkchain} +\end{equation} +Für die Kerne gilt etwas Ähnliches. +Ein Vektor $x\in \mathcal{K}^k(A)$ erfüllt $A^kx=0$. +Dann erfüllt er aber erst recht auch +\[ +A^{k+1}x=A\underbrace{A^kx}_{\displaystyle=0}=0, +\] +also ist $x\in\mathcal{K}^k(A)$. +Es folgt +\begin{equation} +\{0\} +\subset +\mathcal{K}^0(A) = \ker A^0 = \ker E +\subset +\mathcal{K}^1(A) = \ker A +\subset +\dots +\subset +\mathcal{K}^k(A) +\subset +\mathcal{K}^{k+1}(A) +\subset +\dots +\subset +\Bbbk^n. +\label{buch:eigenwerte:eqn:Kkchain} +\end{equation} +Neben diesen offensichtlichen Resultaten kann man aber noch mehr +sagen. +Es ist klar, dass in beiden Ketten +\label{buch:eigenwerte:eqn:Jkchain} +und +\label{buch:eigenwerte:eqn:Kkchain} +nur in höchstens $n$ Schritten eine wirkliche Änderung stattfinden +kann. +Man kann aber sogar genau sagen, wo Änderungen stattfinden: + +\begin{satz} +\label{buch:eigenwerte:satz:ketten} +Ist $A\in M_n(\Bbbk)$ eine $n\times n$-Matrix, dann gibt es eine Zahl $k$ +so, dass +\[ +\begin{array}{rcccccccccccl} +0=\mathcal{K}^0(A) +&\subsetneq& \mathcal{K}^1(A) &\subsetneq& \mathcal{K}^2(A) +&\subsetneq&\dots&\subsetneq& +\mathcal{K}^k(A) &=& \mathcal{K}^{k+1}(A) &=& \dots +\\ +\Bbbk^n= \mathcal{J}^0(A) +&\supsetneq& \mathcal{J}^1(A) &\supsetneq& \mathcal{J}^2(A) +&\supsetneq&\dots&\supsetneq& +\mathcal{J}^k(A) &=& \mathcal{J}^{k+1}(A) &=& \dots +\end{array} +\] +ist. +\end{satz} + +\begin{proof}[Beweis] +Es sind zwei Aussagen zu beweisen. +Erstens müssen wir zeigen, dass die Dimension von $\mathcal{K}^i(A)$ +nicht mehr grösser werden kann, wenn sie zweimal hintereinander gleich war. +Nehmen wir daher an, dass $\mathcal{K}^i(A) = \mathcal{K}^{i+1}(A)$. +Wir müssen $\mathcal{K}^{i+2}(A)$ bestimmen. +$\mathcal{K}^{i+2}(A)$ besteht aus allen Vektoren $x\in\Bbbk^n$ derart, +dass $Ax\in \mathcal{K}^{i+1}(A)=\mathcal{K}^i(A)$ ist. +Daraus ergibt sich, dass $AA^ix=0$, also ist $x\in\mathcal{K}^{i+1}(A)$. +Wir erhalten also +$\mathcal{K}^{i+2}(A)\subset\mathcal{K}^{i+1}\subset\mathcal{K}^{i+2}(A)$, +dies ist nur möglich, wenn beide gleich sind. + +Analog kann man für die Bilder vorgehen. +Wir nehmen an, dass $\mathcal{J}^i(A) = \mathcal{J}^{i+1}(A)$ und +bestimmten $\mathcal{J}^{i+2}(A)$. +$\mathcal{J}^{i+2}(A)$ besteht aus all jenen Vektoren, die als +$Ax$ mit $x\in\mathcal{J}^{i+1}(A)=\mathcal{J}^i(A)$ erhalten +werden können. +Es gibt also insbesondere ein $y\in\Bbbk^i$ mit $x=A^iy$. +Dann ist $Ax=A^{i+1}y\in\mathcal{J}^{i+1}(A)$. +Insbesondere besteht $\mathcal{J}^{i+2}(A)$ genau aus den Vektoren +von $\mathcal{J}^{i+1}(A)$. + +Zweitens müssen wir zeigen, dass die beiden Ketten bei der gleichen +Potenz von $A$ konstant werden. +Dies folgt jedoch daraus, dass $\dim\mathcal{J}^i(A) = \operatorname{Rang} A^i += n - \dim\ker A^i = n -\dim\mathcal{K}^i(A)$. +Der Raum $\mathcal{J}^k(A)$ hört also beim gleichen $i$ auf, kleiner +zu werden, bei dem auch $\mathcal{K}^i(A)$ aufhört, grösser zu werden. +\end{proof} + +\begin{satz} +Die Zahl $k$ in Satz~\ref{buch:eigenwerte:satz:ketten} +ist nicht grösser als $n$, also +\[ +\mathcal{K}^n(A) = \mathcal{K}^l(A) +\qquad\text{und}\qquad +\mathcal{J}^n(A) = \mathcal{J}^l(A) +\] +für $l\ge n$. +\end{satz} + +\begin{proof}[Beweis] +Nach Satz~\ref{buch:eigenwerte:satz:ketten} muss die +Dimension von $\mathcal{K}^i(A)$ in jedem Schritt um mindestens +$1$ zunehmen, das ist nur möglich, bis zur Dimension $n$. +Somit können sich $\mathcal{K}^i(A)$ und $\mathcal{J}^i(A)$ für $i>n$ +nicht mehr ändern. +\end{proof} + +\begin{definition} +\label{buch:eigenwerte:def:KundJ} +Die gemäss Satz~\ref{buch:eigenwerte:satz:ketten} identischen Unterräume +$\mathcal{K}^i(A)$ für $i\ge k$ und die identischen Unterräume +$\mathcal{J}^i(A)$ für $i\ge k$ werden mit +\[ +\begin{aligned} +\mathcal{K} &= \mathcal{K}^i(A)&&\forall i\ge k \qquad\text{und} +\\ +\mathcal{J} &= \mathcal{J}^i(A)&&\forall i\ge k +\end{aligned} +\] +bezeichnet. +\end{definition} + +% +% Inveriante Unterräume +% +\subsection{Invariante Unterräume +\label{buch:subsection:invariante-unterraeume}} +Kern und Bild sind der erste Schritt zu einem besseren Verständnis +einer linearen Abbildung oder ihrer Matrix. +Invariante Räume dienen dazu, eine lineare Abbildung in einfachere +Abbildungen zwischen ``kleineren'' Räumen zu zerlegen, wo sie leichter +analysiert werden können. + +\begin{definition} +Sei $f\colon V\to V$ eine lineare Abbildung eines Vektorraums in sich +selbst. +Ein Unterraum $U\subset V$ heisst {\em invarianter Unterraum}, +wenn +\[ +f(U) = \{ f(x)\;|\; x\in U\} \subset U. +\] +gilt. +\end{definition} + +Der Kern $\ker A$ einer linearen Abbildung ist trivialerweise ein +invarianter Unterraum, da alle Vektoren in $\ker A$ auf $0\in\ker A$ +abgebildet werden. +Ebenso ist natürlich $\operatorname{im}A$ ein invarianter Unterraum, +denn jeder Vektor wird in $\operatorname{im}A$ abgebildet, insbesondere +auch jeder Vektor in $\operatorname{im}A$. + +\begin{satz} +\label{buch:eigenwerte:satz:KJinvariant} +Sei $f\colon V\to V$ eine lineare Abbildung mit Matrix $A$. +Jeder der Unterräume $\mathcal{J}^i(A)$ und $\mathcal{K}^i(A)$ +ist ein invarianter Unterraum. +\end{satz} + +\begin{proof}[Beweis] +Sei $x\in\mathcal{K}^i(A)$, es gilt also $A^ix=0$. +Wir müssen überprüfen, dass $Ax\in\mathcal{K}^i(A)$. +Wir berechnen daher $A^i\cdot Ax=A^{i+1}x=A\cdot A^ix = A\cdot 0=0$, +was zeigt, dass $Ax\in\mathcal{K}^i(A)$. + +Sei jetzt $x\in\mathcal{J}^i(A)$, es gibt also ein $y\in V$ derart, dass +$A^iy=x$. +Wir müssen überprüfen, dass $Ax\in\mathcal{J}^i(A)$. +Dazu berechnen wir $Ax=AA^iy=A^iAy\in\mathcal{J}^i(A)$, $Ax$ ist also das +Bild von $Ay$ unter $A^i$. +\end{proof} + +\begin{korollar} +Die Unterräume $\mathcal{K}(A)\subset V$ und $\mathcal{J}(A)\subset V$ +sind invariante Unterräume. +\end{korollar} + +Die beiden Unterräume $\mathcal{K}(A)$ und $\mathcal{J}(A)$ sind besonders +interessant, da wir aus der Einschränkung der Abbildung $f$ auf diese +Unterräume mehr über $f$ lernen können. + +\begin{satz} +\label{buch:eigenwerte:satz:fJinj} +Die Einschränkung von $f$ auf $\mathcal{J}(A)$ ist injektiv. +\end{satz} + +\begin{proof}[Beweis] +Die Einschränkung von $f$ auf $\mathcal{J}^k(A)$ ist +$\mathcal{J}^k(A) \to \mathcal{J}^{k+1}(A)$, nach Definition von +$\mathcal{J}^{k+1}(A)$ ist diese Abbildung surjektiv. +Da aber $\mathcal{J}^k(A)=\mathcal{J}^{k+1}(A)$ ist, ist +$f\colon \mathcal{J}^k(A)\to\mathcal{J}^k(A)$ surjektiv, +also ist $f$ auf $\mathcal{J}^k(A)$ auch injektiv. +\end{proof} + +Die beiden Unterräume $\mathcal{J}(A)$ und $\mathcal{K}(A)$ +sind Bild und Kern der iterierten Abbildung mit Matrix $A^k$. +Das bedeutet, dass $\dim\mathcal{J}(A)+\mathcal{K}(A)=n$. +Da $\mathcal{K}(A)=\ker A^k$ und andererseits $A$ injektiv ist auf +$\mathcal{J}(A)$, muss $\mathcal{J}(A)\cap\mathcal{K}(A)=0$. +Es folgt, dass $V=\mathcal{J}(A) + \mathcal{K}(A)$. + +In $\mathcal{K}(A)$ und $\mathcal{J}(A)$ kann man unabhängig voneinander +jeweils aine Basis wählen. +Die Basen von $\mathcal{K}(A)$ und $\mathcal{J}(A)$ zusammen ergeben +eine Basis von $V$. +Die Matrix $A'$ in dieser Basis wird die Blockform +\[ +A' += +\left( +\begin{array}{ccc|ccc} +&&&&&\\ +&A_{\mathcal{K}'}&&&&\\ +&&&&&\\ +\hline +&&&&&\\ +&&&&A_{\mathcal{J}'}&\\ +&&&&&\\ +\end{array} +\right) +\] +haben, wobei die Matrix $A_\mathcal{J}'$ invertierbar ist. +Die Zerlegung in invariante Unterräume ergibt also eine natürlich +Aufteilung der Matrix $A$ in kleiner Matrizen mit zum Teil bekannten +Eigenschaften. + +% +% Spezialfall, nilpotente Matrizen +% +\subsection{Nilpotente Matrizen +\label{buch:subsection:nilpotente-matrizen}} +Die Zerlegung von $V$ in die beiden invarianten Unterräume $\mathcal{J}(A)$ +und $\mathcal{K}(A)$ reduziert die lineare Abbildung auf zwei Abbildungen +mit speziellen Eigenschaften. +Es wurde bereits in Satz~\label{buch:eigenwerte:satz:fJinj} gezeigt, +dass die Einschränkung auf $\mathcal{J}(A)$ injektiv ist. +Die Einschränkung auf $\mathcal{K}(A)$ bildet nach Definition alle +Vektoren nach $k$-facher Iteration auf $0$ ab, $A^k\mathcal{K}(A)=0$. +Solche Abbildungen haben eine speziellen Namen. + +\begin{definition} +\label{buch:eigenwerte:def:nilpotent} +Eine Matrix $A$ heisst nilpotent, wenn es eine Zahl $k$ gibt, so dass +$A^k=0$. +\end{definition} + +\begin{beispiel} +Obere (oder untere) Dreiecksmatrizen mit Nullen auf der Diagonalen +sind nilpotent. +Wir rechnen dies wie folgt nach. +Die Matrix $A$ mit Einträgen $a_{ij}$ +\[ +A=\begin{pmatrix} + 0 &a_{12}&a_{13}&\dots &a_{1,n-1}&a_{1n} \\ + 0 & 0 &a_{23}&\dots &a_{1,n-1}&a_{2n} \\ + 0 & 0 & 0 &\dots &a_{1,n-1}&a_{3n} \\ +\vdots&\vdots&\vdots&\ddots&\vdots &\vdots \\ + 0 & 0 & 0 &\dots & 0 &a_{n-1,n}\\ + 0 & 0 & 0 &\dots & 0 & 0 +\end{pmatrix} +\] +erfüllt $a_{ij}=0$ für $i\ge j$. +Wir zeigen jetzt, dass sich bei der Multiplikation die nicht +verschwinden Elemente bei der Multiplikation noch rechts oben +verschieben. +Dazu multiplizieren wir zwei Matrizen $B$ und $C$ mit +$b_{ij}=0$ für $i+k>j$ und $c_{ij}=0$ für $i+l>j$. +In der folgenden graphischen Darstellung der Matrizen sind die +Bereiche, wo die Matrixelemente verschwinden, weiss. +\begin{center} + +\newtcbox{\myboxA}{blank,boxsep=0mm, +clip upper,minipage, +width=31.0mm,height=17.0mm,nobeforeafter, +borderline={0.0pt}{0.0pt}{white}, +} + +\begin{tikzpicture}[>=latex,thick] + +\def\cx{1.8} +\def\cy{1.2} + +\draw[line width=0.3pt] (-3,2.5) -- (6,2.5); + +\begin{scope}[xshift=-4cm] +\node at (1.5,1.53) {$\left(\myboxA{}\right)$}; +\fill[color=red!30] (0.5,3) -- (3,0.5) -- (3,3) -- cycle; +\draw (0,0) rectangle (3,3); +\draw (0,3) -- (3,0); +\node at ({\cx+0.5*0.5},{\cy+0.5*0.5}) [rotate=-45] {$k$}; +\draw[color=blue,line width=1.4pt] (0,2.5) -- (1.0,2.5); +\draw[color=red,line width=1.4pt] (1.0,2.5) -- (3,2.5); +\node at (1,1) {$B$}; +\node at (-0.3,2.5) [left] {$i$}; +\node at (1,2.5) [above right] {$i+k$}; +\end{scope} + +\node at (-0.5,1.5) {$\mathstrut\cdot\mathstrut$}; + +\begin{scope} +\node at (1.5,1.53) {$\left(\myboxA{}\right)$}; +\fill[color=red!30] (1.0,3) -- (3,1.0) -- (3,3) -- cycle; +\draw (0,0) rectangle (3,3); +\draw (0,3) -- (3,0); +\node at ({\cx+1.0*0.5},{\cy+1.0*0.5}) [rotate=-45] {$l$}; +\draw[color=red,line width=1.4pt] (2,3)--(2,2); +\draw[color=blue,line width=1.4pt] (2,2)--(2,0); +\node at (1,1) {$C$}; +\node at (2,3) [above] {$j$}; +\node at (2,2) [above right] {$j-l$}; +\end{scope} + +\node at (3.5,1.5) {$\mathstrut=\mathstrut$}; + +\begin{scope}[xshift=4cm] +\node at (1.5,1.53) {$\left(\myboxA{}\right)$}; +\fill[color=red!30] (1.5,3) -- (3,1.5) -- (3,3) -- cycle; +\draw (0,0) rectangle (3,3); +\draw (0,3) -- (3,0); +\node at ({\cx+1.5*0.5},{\cy+1.5*0.5}) [rotate=-45] {$k+l$}; +\fill[color=red!50!blue] (2,2.5) circle[radius=0.1]; +\draw[line width=0.3pt] (2,3) -- (2,2.5); +\node at (2,3) [above] {$j$}; +\node at (1,1) {$D$}; +\end{scope} + +\end{tikzpicture} +\end{center} +Bei der Berechnung des Elementes $d_{ij}$ wird die Zeile $i$ von $B$ +mit der Spalte $j$ von $C$ multipliziert. +Die blau eingefärbten Elemente in dieser Zeile und Spalte sind $0$. +Aus der Darstellung ist abzulesen, dass das Produkt verschwindet, +die roten, von $0$ verschiedenen Elemente von den blauen Elementen +annihiliert werden. +Dies passiert immer, wenn $i+k>j-l$ ist, oder $i+(k+l)> j$. + +Wir wenden diese Beobachtung jetzt auf die Potenzen $A^s$ an. +Für die Matrixelemente von $A^s$ schreiben wir $a^s_{ij}$. +Wir behaupten, dass die Matrixelemente $A^s$ die Bedingung +$a_{ij}^s=0$ für $i+s>j$ erfüllen. +Dies ist für $s=1$ nach Voraussetzung richtig, dies ist die +Induktionsvoraussetzung. +Nehmen wir jetzt an, dass $a_{ij}^s=0$ für $i+s>j$, dann folgt +aus obiger Rechnung, dass $a_{ij}^{s+1}=0$ für $i+s+1>j$, so +dass die Bedingung auch für $A^s$ gilt (Induktionsschritt). +Mit vollständiger Induktion folgt, dass $a_{ij}^s=0$ für $i+s>j$. +Insbesondere ist $A^n=0$, die Matrix $A$ ist nilpotent. +\end{beispiel} + +Man kann die Konstruktion der Unterräume $\mathcal{K}^i(A)$ weiter +dazu verwenden, eine Basis zu finden, in der eine nilpotente Matrix +eine besonders einfach Form erhält. + +\begin{satz} +\label{buch:eigenwerte:satz:nnilpotent} +Sei $A$ eine nilpotente $n\times n$-Matrix mit der Eigenschaft, dass +$A^{n-1}\ne 0$. +Dann gibt es eine Basis so, dass $A$ die Form +\begin{equation} +A' += +\begin{pmatrix} +0&1& & & & \\ + &0&1& & & \\ + & &0& & & \\ + & & &\ddots&1& \\ + & & & &0&1\\ + & & & & &0\\ +\end{pmatrix} +\label{buch:eigenwerte:eqn:nnilpotent} +\end{equation} +bekommt. +\end{satz} + +\begin{proof}[Beweis] +Da $A^{n-1}\ne 0$ ist, gibt es einen Vektor $b_n$ derart, dass $A^{n-1}b_n\ne0$. +Wir konstruieren die Vektoren +\[ +b_n,\; +b_{n-1}=Ab_n,\; +b_{n-2}=Ab_{n-1},\; +\dots,\; +b_2=Ab_3,\; +b_1=Ab_2. +\] +Aus der Konstruktion folgt $b_1=A^{n-1}b_n\ne 0$, aber $Ab_1=A^nb_n=0$. +Aus der Konstruktion der iterierten Kerne $\mathcal{K}^i(A)$ folgt jetzt, +dass die Vektoren $b_1,\dots,b_n$ eine Basis bilden. +In dieser Basis hat die Matrix die Form~\ref{buch:eigenwerte:eqn:nnilpotent}. +\end{proof} + +\begin{definition} +Wir bezeichnen mit $N_n$ eine Matrix der Form +\eqref{buch:eigenwerte:eqn:nnilpotent}. +\end{definition} + +Mit etwas mehr Sorgfalt kann man auch die Bedingung, dass $A^{n-1}\ne 0$ +sein muss, im Satz~\ref{buch:eigenwerte:satz:nnilpotent} loswerden. + +\begin{satz} +\label{buch:eigenwerte:satz:allgnilpotent} +Sei $A$ ein nilpotente Matrix, dann gibt es eine Basis, in der die Matrix +aus lauter Nullen besteht ausser in den Einträgen unmittelbar oberhalb der +Hauptdiagonalen, wo die Einträge $0$ oder $1$ sind. +Insbesondere zerfällt eine solche Matrix in Blöcke der Form $N_{k_i}$, +$i=1,\dots,l$, +wobei $k_1+\dots+k_l=n$ sein muss: +\begin{equation} +\def\temp#1{\multicolumn{1}{|c}{\raisebox{0pt}[17pt][12pt]{\phantom{x}$#1\mathstrut$}\phantom{x}}} +A' +=\left( +\begin{array}{cccc} +\cline{1-1} +\temp{N_{k_1}} &\multicolumn{1}{|c}{}& & \\ +\cline{1-2} + &\temp{N_{k_2}}&\multicolumn{1}{|c}{}& \\ +\cline{2-3} + & &\temp{\ddots}&\multicolumn{1}{|c}{}\\ +\cline{3-4} + & & &\multicolumn{1}{|c|}{\raisebox{0pt}[17pt][12pt]{\phantom{x}$N_{k_l}$}\phantom{x}}\\ +\cline{4-4} +\end{array} +\right) +\label{buch:eigenwerte:eqn:allgnilpotent} +\end{equation} +\end{satz} + +Die Einschränkung von $f$ auf den invarianten Unterraum $\mathcal{K}(A)$ +ist nilpotent. +Die Zerlegung $V=\mathcal{J}(A)\oplus \mathcal{K}(A)$ führt also zu einer +Zerlegung der Abbildung $f$ in eine invertierbare Abbildung +$\mathcal{J}(A)\to\mathcal{J}(A)$ und eine +nilpotente Abbildung $\mathcal{K}(A)\to\mathcal{K}(A)$. +Nach Satz~\ref{buch:eigenwerte:satz:allgnilpotent} kann man in +$\mathcal{K}(A)$ eine Basis so wählen, dass die Matrix die Blockform +\eqref{buch:eigenwerte:eqn:allgnilpotent} erhält. % % Begriff des Eigenwertes und Eigenvektors @@ -132,42 +623,218 @@ Insbesondere können wir statt die Eigenvektoren von $A$ zum Eigenwert $\lambda$ zu studieren, auch die Eigenvektoren zum Eigenwert $0$ von $A-\lambda E$ untersuchen. -\begin{satz} -\label{buch:eigenwerte:satz:jordanblock} -Wenn $\dim E_\lambda=1$ ist, dann gibt es eine Basis von $V$ derart, dass -$A$ in dieser Matrix die Form -\begin{equation} -A' +% +% Invariante Räume +% +\subsection{Verallgemeinerte Eigenräume +\label{buch:subsection:verallgemeinerte-eigenraeume}} +Wenn $\lambda$ ein Eigenwert der Matrix $A$ ist, dann ist +ist $A-\lambda E$ injektiv und $\ker(A-\lambda E)\ne 0$. +Man kann daher die invarianten Unterräume $\mathcal{K}(A-\lambda E)$ +und $\mathcal{J}(A-\lambda E)$. + +\begin{beispiel} +Wir untersuchen die Matrix +\[ +A = \begin{pmatrix} - \lambda & 1 & & & & \\ - & \lambda & 1 & & & \\ - & & \lambda & & & \\ - & & & \ddots & & \\ - & & & & \lambda & 1 \\ - & & & & & \lambda +1&1&-1&0\\ +0&3&-1&1\\ +0&2& 0&1\\ +0&0& 0&2 \end{pmatrix} -\label{buch:eigenwerte:eqn:jordanblock} -\end{equation} +\] +Man kann zeigen, dass $\lambda=1$ ein Eigenwert ist. +Wir suchen die Zerlegung des Vektorraums $\mathbb{R}^4$ in invariante +Unterräume $\mathcal{K}(A-E)$ und $\mathcal{J}(A-E)$. +Die Matrix $B=A-E$ ist +\[ +B += +\begin{pmatrix} +0&1&-1&0\\ +0&2&-1&1\\ +0&2&-1&1\\ +0&0& 0&2 +\end{pmatrix} +\] +und wir berechnen davon die Potenz +\[ +D=B^4=(A-E)^4 += +\begin{pmatrix} +0&0& 0&0\\ +0&2&-1&4\\ +0&2&-1&4\\ +0&0& 0&1 +\end{pmatrix}. +\] +Daraus kann man ablesen, dass das Bild $\operatorname{im}D$ +von $D$ die Basis +\[ +b_1 += +\begin{pmatrix} +0\\0\\0\\1 +\end{pmatrix} +, \qquad +b_2 += +\begin{pmatrix} +0\\1\\1\\0 +\end{pmatrix} +\] hat. -\end{satz} +Für den Kern von $D$ können wir zum Beispiel die Basisvektoren +\[ +b_3 += +\begin{pmatrix} +0\\1\\2\\0 +\end{pmatrix} +,\qquad +b_4 += +\begin{pmatrix} +1\\0\\0\\0 +\end{pmatrix} +\] +verwenden. -\begin{proof}[Beweis] -Entsprechend der Bemerkung vor dem Satz können wir uns auf die Betrachtung -der Matrix $B=A-\lambda E$ konzentrieren, deren Eigenraum zum Eigenwert $0$ -$1$-dimensional ist. -Es gibt also einen Vektor $v_1\ne 0$ mit $Bv_1=0$. -Der Vektor $v_1$ spannt den Eigenraum auf: $E_0 = \langle v_1\rangle$. - -Wir konstruieren jetzt rekursiv eine Folge $v_2,\dots,v_n$ von Vektoren -mit folgenden Eigenschaften. -Zunächst soll $v_k=Bv_{k+1}$ für $k=1,\dots,n-1$ sein. -Ausserdem soll $v_{k+1}$ in jedem Schritt linear unabhängig von den -Vektoren $v_1,\dots,v_{k-1}$ gewählt werden. -Wenn diese Konstruktion gelingt, dann ist $\mathcal{B}=\{v_1,\dots,v_n\}$ -eine Basis von $V$ und die Matrix von $B$ in dieser Basis ist -$A'$ wie in \eqref{buch:eigenwerte:eqn:jordanblock}. -\end{proof} +Als erstes überprüfen wir, ob diese Basisvektoren tatsächlich invariante +Unterräume sind. +Für $\mathcal{J}(A-E) = \langle b_1,b_2\rangle$ +berechnen wir +\begin{align*} +(A-E)b_1 +&= +\begin{pmatrix} 0\\4\\4\\1 \end{pmatrix} += +4b_2+b_1, +\\ +(A-E)b_2 +&= +\begin{pmatrix} 0\\1\\1\\0 \end{pmatrix} += +b_2. +\end{align*} +Dies beweist, dass $\mathcal{J}(A-E)$ invariant ist und man kann ablesen, +dass in dieser Basis, die von $A-E$ beschriebene lineare Abbildung +auf $\mathcal{J}(A-E)$ die Matrix +\[ +A_{\mathcal{J}(A-E)} += +\begin{pmatrix} +1&4\\ +0&1 +\end{pmatrix}. +\] + +Für den Kern $\mathcal{K}(A-E)$ +\[ +\left. +\begin{aligned} +Ab_3 +&= +-b_4 +\\ +Ab_4 +&=0 +\end{aligned} +\quad\right\} +\qquad\Rightarrow\qquad +A_{\mathcal{K}(A-E)} += +\begin{pmatrix} +0&-1\\ +0& 0 +\end{pmatrix} +\] +In der Basis $\mathcal{B}=\{b_1,b_2,b_3,b_4\}$ hat $A$ die Matrix +in Blockform +\[ +A' += +\left( +\begin{array}{cc|cr} +2&4& & \\ +0&2& & \\ +\hline + & &1&-1\\ + & &0& 1 +\end{array}\right), +\] +die Blöcke gehören zu den invarianten Unterräumen $\mathcal{K}(A-E)$ +und $\mathcal{K}(A-E)$. +Die aus $A-E$ gewonnen invarianten Unterräume sind offenbar auch invariante +Unterräume für $A$. +\end{beispiel} + +\begin{definition} +Ist $A$ eine Matrix mit Eigenwert $\lambda$, dann heisst der invariante +Unterraum +\[ +\mathcal{E}_{\lambda}(A) += +\mathcal{K}(A-\lambda E) +\] +der verallgemeinerte Eigenraum von $A$. +\end{definition} + +Es ist klar, dass +$E_\lambda(A)=\ker (A-\lambda E)\subset\mathcal{E}_{\lambda}(A)$. + +\subsection{Zerlegung in invariante Unterräume +\label{buch:subsection:zerlegung-in-invariante-unterraeume}} +Wenn $\lambda$ kein Eigenwert von $A$ ist, dann ist $A-\lambda E$ +injektiv und damit $\ker(A-\lambda E)=0$. +Es folgt, dass $\mathcal{K}^i(A-\lambda E)=0$ und daher auch +$\mathcal{J}^i(A-\lambda E)=V$. +Die Zerlegung in invariante Unterräume $\mathcal{J}(A-\lambda E)$ und +$\mathcal{K}(A-\lambda E)$ liefert in diesem Falle also nichts Neues. + +Für einen Eigenwert $\lambda_1$ von $A$ dagegen, erhalten wir die Zerlegung +\[ +V += +\mathcal{E}_{\lambda_1}(A) +\oplus +\underbrace{\mathcal{J}(A-\lambda_1 E)}_{\displaystyle =V_2}, +\] +wobei $\mathcal{E}_{\lambda_1}(A)\ne 0$ ist. +Die Matrix $A-\lambda_1 E$ ist eingeschränkt auf $\mathcal{E}_{\lambda_1}(A)$ +nilpotent. +Die Zerlegung in invariante Unterräume ist zwar mit Hilfe von $A-\lambda_1E$ +gewonnen worden, ist aber natürlich auch eine Zerlegung in invariante +Unterräume für $A$. +Wir können daher das Problem auf $V_2$ einschränken und nach einem weiteren +Eigenwert $\lambda_2$ von $A$ in $V_2$ suchen, was wieder eine Zerlegung +in invariante Unterräume liefert. +Indem wir so weiterarbeiten, bis wir den ganzen Raum ausgeschöpft haben, +können wir eine Zerlegung des ganzen Raumes $V$ finden, so dass $A$ auf +jedem einzelnen Summanden eine sehr einfach Form hat: + +\begin{satz} +\label{buch:eigenwerte:satz:zerlegung-in-eigenraeume} +Sei $V$ ein $\Bbbk$-Vektorraum und $f$ eine lineare Abbildung mit Matrix +$A$ derart, dass alle Eigenwerte $\lambda_1,\dots,\lambda_l$ von $A$ +in $\Bbbk$ sind. +Dann gibt es eine Zerlegung von $V$ in verallgemeinerte Eigenräume +\[ +V += +\mathcal{E}_{\lambda_1}(A) +\oplus +\mathcal{E}_{\lambda_2}(A) +\oplus +\dots +\oplus +\mathcal{E}_{\lambda_l}(A). +\] +Die Einschränkung von $A-\lambda_{i}E$ auf den Eigenraum +$\mathcal{E}_{\lambda_i}(A)$ ist nilpotent. +\end{satz} \subsection{Das charakteristische Polynom \label{buch:subsection:das-charakteristische-polynom}} @@ -249,7 +916,7 @@ Alle Terme auf der rechten Seite sind in $\Bbbk$ und werden nur mit Körperoperationen in $\Bbbk$ verknüpft, also muss auch $\lambda\in\Bbbk$ sein, im Widerspruch zur Annahme. -Durch hinzufügen von geeigneten Elementen können wir immer zu einem +Durch Hinzufügen von geeigneten Elementen können wir immer zu einem Körper $\Bbbk'$ übergehen, in dem das charakteristische Polynom in Linearfaktoren zerfällt. In diesem Körper kann man jetzt das homogene lineare Gleichungssystem -- cgit v1.2.1