From 8a1598b4fbaca52a1de7e9e23f4a69581b587372 Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?Andreas=20M=C3=BCller?= Date: Thu, 2 Sep 2021 11:05:02 +0200 Subject: section 5.1 --- buch/chapters/40-eigenwerte/eigenwerte.tex | 546 +++++++++++++++++++++++++++++ 1 file changed, 546 insertions(+) create mode 100644 buch/chapters/40-eigenwerte/eigenwerte.tex (limited to 'buch/chapters/40-eigenwerte/eigenwerte.tex') diff --git a/buch/chapters/40-eigenwerte/eigenwerte.tex b/buch/chapters/40-eigenwerte/eigenwerte.tex new file mode 100644 index 0000000..745f320 --- /dev/null +++ b/buch/chapters/40-eigenwerte/eigenwerte.tex @@ -0,0 +1,546 @@ +% +% eigenwerte.tex +% +% Begriff des Eigenwertes und Eigenvektors +% +\section{Eigenwerte und Eigenvektoren +\label{buch:section:eigenwerte-und-eigenvektoren}} +In diesem Abschnitt betrachten wir Vektorräume $V=\Bbbk^n$ über einem +beliebigen Körper $\Bbbk$ und quadratische Matrizen +$A\in M_n(\Bbbk)$. +In den meisten Anwendungen wird $\Bbbk=\mathbb{R}$ sein. +Da aber in $\mathbb{R}$ nicht alle algebraischen Gleichungen lösbar sind, +ist es manchmal notwendig, den Vektorraum zu erweitern um zum Beispiel +Eigenschaften der Matrix $A$ abzuleiten. + +\begin{definition} +Ein Vektor $v\in V$ heisst {\em Eigenvektor} von $A$ zum Eigenwert +$\lambda\in\Bbbk$, wenn $v\ne 0$ und $Av=\lambda v$ gilt. +\end{definition} + +Die Bedingung $v\ne 0$ dient dazu, pathologische Situationen auszuschliessen. +Für den Nullvektor gilt $A0=\lambda 0$ für jeden beliebigen Wert von +$\lambda\in\Bbbk$. +Würde man $v=0$ zulassen, wäre jede Zahl in $\Bbbk$ ein Eigenwert, +ein Eigenwert von $A$ wäre nichts besonderes. +Ausserdem wäre $0$ ein Eigenvektor zu jedem beliebigen Eigenwert. + +Eigenvektoren sind nicht eindeutig bestimmt, jedes von $0$ verschiedene +Vielfache von $v$ ist ebenfalls ein Eigenvektor. +Zu einem Eigenwert kann man also einen Eigenvektor jeweils mit +geeigneten Eigenschaften finden, zum Beispiel kann man für $\Bbbk = \mathbb{R}$ +Eigenvektoren auf Länge $1$ normieren. +Im Folgenden werden wir oft die abkürzend linear unabhängige Eigenvektoren +einfach als ``verschiedene'' Eigenvektoren bezeichnen. + +Wenn $v$ ein Eigenvektor von $A$ zum Eigenwert $\lambda$ ist, dann kann +man ihn mit zusätzlichen Vektoren $v_2,\dots,v_n$ zu einer Basis +$\mathcal{B}=\{v,v_2,\dots,v_n\}$ +von $V$ ergänzen. +Die Vektoren $v_k$ mit $k=2,\dots,n$ werden von $A$ natürlich auch +in den Vektorraum $V$ abgebildet, können also als Linearkombinationen +\[ +Av = a_{1k}v + a_{2k}v_2 + a_{3k}v_3 + \dots a_{nk}v_n +\] +dargestellt werden. +In der Basis $\mathcal{B}$ bekommt die Matrix $A$ daher die Form +\[ +A' += +\begin{pmatrix} +\lambda&a_{12}&a_{13}&\dots &a_{1n}\\ + 0 &a_{22}&a_{23}&\dots &a_{2n}\\ + 0 &a_{32}&a_{33}&\dots &a_{3n}\\ +\vdots &\vdots&\vdots&\ddots&\vdots\\ + 0 &a_{n2}&a_{n3}&\dots &a_{nn} +\end{pmatrix}. +\] +Bereits ein einzelner Eigenwert und ein zugehöriger Eigenvektor +ermöglichen uns also, die Matrix in eine etwas einfachere Form +zu bringen. + +\begin{definition} +Für $\lambda\in\Bbbk$ heisst +\[ +E_\lambda += +\{ v\;|\; Av=\lambda v\} +\] +der {\em Eigenraum} zum Eigenwert $\lambda$. +\index{Eigenraum}% +\end{definition} + +Der Eigenraum $E_\lambda$ ist ein Unterraum von $V$, denn wenn +$u,v\in E_\lambda$, dann ist +\[ +A(su+tv) += +sAu+tAv += +s\lambda u + t\lambda v += +\lambda(su+tv), +\] +also ist auch $su+tv\in E_\lambda$. +Der Fall $E_\lambda = \{0\}=0$ bedeutet natürlich, dass $\lambda$ gar kein +Eigenwert ist. + +\begin{satz} +Wenn $\dim E_\lambda=n$, dann ist $A=\lambda E$. +\end{satz} + +\begin{proof}[Beweis] +Da $V$ ein $n$-dimensionaler Vektoraum ist, ist $E_\lambda=V$. +Jeder Vektor $v\in V$ erfüllt also die Bedingung $Av=\lambda v$, +oder $A=\lambda E$. +\end{proof} + +Wenn man die Eigenräume von $A$ kennt, dann kann man auch die Eigenräume +von $A+\mu E$ berechnen. +Ein Vektor $v\in E_\lambda$ erfüllt +\[ +Av=\lambda v +\qquad\Rightarrow\qquad +(A+\mu)v = \lambda v + \mu v += +(\lambda+\mu)v, +\] +somit ist $v$ ein Eigenvektor von $A+\mu E$ zum Eigenwert $\lambda+\mu$. +Insbesondere können wir statt die Eigenvektoren von $A$ zum Eigenwert $\lambda$ +zu studieren, auch die Eigenvektoren zum Eigenwert $0$ von $A-\lambda E$ +untersuchen. + +% +% Invariante Räume +% +\subsection{Verallgemeinerte Eigenräume +\label{buch:subsection:verallgemeinerte-eigenraeume}} +Wenn $\lambda$ ein Eigenwert der Matrix $A$ ist, dann ist +ist $A-\lambda E$ injektiv und $\ker(A-\lambda E)\ne 0$. +Man kann daher die invarianten Unterräume $\mathcal{K}(A-\lambda E)$ +und $\mathcal{J}(A-\lambda E)$. + +\begin{beispiel} +Wir untersuchen die Matrix +\[ +A += +\begin{pmatrix} +1&1&-1&0\\ +0&3&-1&1\\ +0&2& 0&1\\ +0&0& 0&2 +\end{pmatrix} +\] +Man kann zeigen, dass $\lambda=1$ ein Eigenwert ist. +Wir suchen die Zerlegung des Vektorraums $\mathbb{R}^4$ in invariante +Unterräume $\mathcal{K}(A-E)$ und $\mathcal{J}(A-E)$. +Die Matrix $B=A-E$ ist +\[ +B += +\begin{pmatrix} +0&1&-1&0\\ +0&2&-1&1\\ +0&2&-1&1\\ +0&0& 0&2 +\end{pmatrix} +\] +und wir berechnen davon die Potenz +\[ +D=B^4=(A-E)^4 += +\begin{pmatrix} +0&0& 0&0\\ +0&2&-1&4\\ +0&2&-1&4\\ +0&0& 0&1 +\end{pmatrix}. +\] +Daraus kann man ablesen, dass das Bild $\operatorname{im}D$ +von $D$ die Basis +\[ +b_1 += +\begin{pmatrix} +0\\0\\0\\1 +\end{pmatrix} +, \qquad +b_2 += +\begin{pmatrix} +0\\1\\1\\0 +\end{pmatrix} +\] +hat. +Für den Kern von $D$ können wir zum Beispiel die Basisvektoren +\[ +b_3 += +\begin{pmatrix} +0\\1\\2\\0 +\end{pmatrix} +,\qquad +b_4 += +\begin{pmatrix} +1\\0\\0\\0 +\end{pmatrix} +\] +verwenden. + +Als erstes überprüfen wir, ob diese Basisvektoren tatsächlich invariante +Unterräume sind. +Für $\mathcal{J}(A-E) = \langle b_1,b_2\rangle$ +berechnen wir +\begin{align*} +(A-E)b_1 +&= +\begin{pmatrix} 0\\4\\4\\1 \end{pmatrix} += +4b_2+b_1, +\\ +(A-E)b_2 +&= +\begin{pmatrix} 0\\1\\1\\0 \end{pmatrix} += +b_2. +\end{align*} +Dies beweist, dass $\mathcal{J}(A-E)$ invariant ist. +In dieser Basis hat die von $A-E$ beschriebene lineare Abbildung +auf $\mathcal{J}(A-E)$ die Matrix +\[ +A_{\mathcal{J}(A-E)} += +\begin{pmatrix} +1&4\\ +0&1 +\end{pmatrix}. +\] + +Für den Kern $\mathcal{K}(A-E)$ findet man analog +\[ +\left. +\begin{aligned} +Ab_3 +&= +-b_4 +\\ +Ab_4 +&=0 +\end{aligned} +\quad\right\} +\qquad\Rightarrow\qquad +A_{\mathcal{K}(A-E)} += +\begin{pmatrix} +0&-1\\ +0& 0 +\end{pmatrix}. +\] +In der Basis $\mathcal{B}=\{b_1,b_2,b_3,b_4\}$ hat $A$ die Matrix +in Blockform +\[ +A' += +\left( +\begin{array}{cc|cr} +2&4& & \\ +0&2& & \\ +\hline + & &1&-1\\ + & &0& 1 +\end{array}\right), +\] +die Blöcke gehören zu den invarianten Unterräumen $\mathcal{K}(A-E)$ +und $\mathcal{K}(A-E)$. +Die aus $A-E$ gewonnen invarianten Unterräume sind offenbar auch invariante +Unterräume für $A$. +\end{beispiel} + +\begin{definition} +Ist $A$ eine Matrix mit Eigenwert $\lambda$, dann heisst der invariante +Unterraum +\[ +\mathcal{E}_{\lambda}(A) += +\mathcal{K}(A-\lambda E) +\] +der verallgemeinerte Eigenraum von $A$. +\end{definition} + +Es ist klar, dass +$E_\lambda(A)=\ker (A-\lambda E)\subset\mathcal{E}_{\lambda}(A)$. + +\subsection{Zerlegung in invariante Unterräume +\label{buch:subsection:zerlegung-in-invariante-unterraeume}} +Wenn $\lambda$ kein Eigenwert von $A$ ist, dann ist $A-\lambda E$ +injektiv und damit $\ker(A-\lambda E)=0$. +Es folgt, dass $\mathcal{K}^i(A-\lambda E)=0$ und daher auch +$\mathcal{J}^i(A-\lambda E)=V$. +Die Zerlegung in invariante Unterräume $\mathcal{J}(A-\lambda E)$ und +$\mathcal{K}(A-\lambda E)$ liefert in diesem Falle also nichts Neues. + +Für einen Eigenwert $\lambda_1$ von $A$ dagegen, erhalten wir die Zerlegung +\[ +V += +\mathcal{E}_{\lambda_1}(A) +\oplus +\underbrace{\mathcal{J}(A-\lambda_1 E)}_{\displaystyle =V_2}, +\] +wobei $\mathcal{E}_{\lambda_1}(A)\ne 0$ ist. +Die Matrix $A-\lambda_1 E$ ist eingeschränkt auf $\mathcal{E}_{\lambda_1}(A)$ +nilpotent. +Die Zerlegung in invariante Unterräume ist zwar mit Hilfe von $A-\lambda_1E$ +gewonnen worden, ist aber natürlich auch eine Zerlegung in invariante +Unterräume für $A$. +Wir können daher das Problem auf $V_2$ einschränken und nach einem weiteren +Eigenwert $\lambda_2$ von $A$ in $V_2$ suchen, was wieder eine Zerlegung +in invariante Unterräume liefert. +Indem wir so weiterarbeiten, bis wir den ganzen Raum ausgeschöpft haben, +können wir eine Zerlegung des ganzen Raumes $V$ finden, so dass $A$ auf +jedem einzelnen Summanden eine sehr einfach Form hat: + +\begin{satz} +\label{buch:eigenwerte:satz:zerlegung-in-eigenraeume} +Sei $V$ ein $\Bbbk$-Vektorraum und $f$ eine lineare Abbildung mit Matrix +$A$ derart, dass alle Eigenwerte $\lambda_1,\dots,\lambda_l$ von $A$ +in $\Bbbk$ sind. +Dann gibt es eine Zerlegung von $V$ in verallgemeinerte Eigenräume +\[ +V += +\mathcal{E}_{\lambda_1}(A) +\oplus +\mathcal{E}_{\lambda_2}(A) +\oplus +\dots +\oplus +\mathcal{E}_{\lambda_l}(A). +\] +Die Einschränkung von $A-\lambda_{i}E$ auf den Eigenraum +$\mathcal{E}_{\lambda_i}(A)$ ist nilpotent. +\end{satz} + +\subsection{Das charakteristische Polynom +\label{buch:subsection:das-charakteristische-polynom}} +Ein Eigenvektor von $A$ erfüllt $Av=\lambda v$ oder gleichbedeutend +$(A-\lambda E)v=0$, er ist also eine nichttriviale Lösung des homogenen +Gleichungssystems mit Koeffizientenmatrix $A-\lambda E$. +Ein Eigenwert ist also ein Skalar derart, dass $A-\lambda E$ +singulär ist. +Ob eine Matrix singulär ist, kann mit der Determinante festgestellt +werden. +Die Eigenwerte einer Matrix $A$ sind daher die Nullstellen +von $\det(A-\lambda E)$. + +\begin{definition} +Das {\em charakteristische Polynom} +\[ +\chi_A(x) += +\det (A-x E) += +\left| +\begin{matrix} +a_{11}-x & a_{12} & \dots & a_{1n} \\ +a_{21} & a_{22}-x & \dots & a_{2n} \\ +\vdots &\vdots &\ddots & \vdots \\ +a_{n1} & a_{n2} &\dots & a_{nn}-x +\end{matrix} +\right|. +\] +der Matrix $A$ ist ein Polynom vom Grad $n$ mit Koeffizienten in $\Bbbk$. +\end{definition} + +Findet man eine Nullstelle $\lambda\in\Bbbk$ von $\chi_A(x)$, +dann ist die Matrix $A-\lambda E\in M_n(\Bbbk)$ und mit dem Gauss-Algorithmus +kann man auch mindestens einen Vektor $v\in \Bbbk^n$ finden, +der $Av=\lambda v$ erfüllt. +Eine Matrix der Form wie in Satz~\ref{buch:eigenwerte:satz:jordanblock} +hat +\[ +\chi_A(x) += +\left| +\begin{matrix} +\lambda-x & 1 & & & & \\ + & \lambda-x & 1 & & & \\ + & & \lambda-x & & & \\ + & & &\ddots& & \\ + & & & &\lambda-x& 1 \\ + & & & & &\lambda-x +\end{matrix} +\right| += +(\lambda-x)^n += +(-1)^n (x-\lambda)^n +\] +als charakteristisches Polynom, welches $\lambda$ als einzige +Nullstelle hat. +Der Eigenraum der Matrix ist aber nur eindimensional, man kann also +im Allgemeinen für jede Nullstelle des charakteristischen Polynoms +nicht mehr als einen Eigenvektor (d.~h.~einen eindimensionalen Eigenraum) +erwarten. + +Wenn das charakteristische Polynom von $A$ keine Nullstellen in $\Bbbk$ hat, +dann kann es auch keine Eigenvektoren in $\Bbbk^n$ geben. +Gäbe es nämlich einen solchen Vektor, dann müsste eine der Komponenten +des Vektors von $0$ verschieden sein, wir nehmen an, dass es die Komponente +in Zeile $k$ ist. +Die Komponente $v_k$ kann man auf zwei Arten berechnen, einmal als +die $k$-Komponenten von $Av$ und einmal als $k$-Komponente von $\lambda v$: +\[ +a_{k1}v_1+\dots+a_{kn}v_n = \lambda v_k. +\] +Da $v_k\ne 0$ kann man nach $\lambda$ auflösen und erhält +\[ +\lambda = \frac{a_{k1}v_1+\dots + a_{kn}v_n}{v_k}. +\] +Alle Terme auf der rechten Seite sind in $\Bbbk$ und werden nur mit +Körperoperationen in $\Bbbk$ verknüpft, also muss auch $\lambda\in\Bbbk$ +sein, im Widerspruch zur Annahme. + +Durch Hinzufügen von geeigneten Elementen können wir immer zu einem +Körper $\Bbbk'$ übergehen, in dem das charakteristische Polynom +in Linearfaktoren zerfällt. +In diesem Körper kann man jetzt das homogene lineare Gleichungssystem +mit Koeffizientenmatrix $A-\lambda E$ lösen und damit mindestens +einen Eigenvektor $v$ für jeden Eigenwert finden. +Die Komponenten von $v$ liegen in $\Bbbk'$, und mindestens eine davon kann +nicht in $\Bbbk$ liegen. +Das bedeutet aber nicht, dass man diese Vektoren nicht für theoretische +Überlegungen über von $\Bbbk'$ unabhängige Eigenschaften der Matrix $A$ machen. +Das folgende Beispiel soll diese Idee illustrieren. + +\begin{beispiel} +Wir arbeiten in diesem Beispiel über dem Körper $\Bbbk=\mathbb{Q}$. +Die Matrix +\[ +A=\begin{pmatrix} +-4&7\\ +-2&4 +\end{pmatrix} +\in +M_2(\mathbb{Q}) +\] +hat das charakteristische Polynom +\[ +\chi_A(x) += +\left| +\begin{matrix} +-4-x&7\\-2&4-x +\end{matrix} +\right| += +(-4-x)(4-x)-7\cdot(-2) += +-16+x^2+14 += +x^2-2. +\] +Die Nullstellen sind $\pm\sqrt{2}$ und damit nicht in $\mathbb{Q}$. +Wir gehen daher über zum Körper $\mathbb{Q}(\!\sqrt{2})$, in dem +sich zwei Nullstellen $\lambda=\pm\sqrt{2}$ finden lassen. +Zu jedem Eigenwert lässt sich auch ein Eigenvektor +$v_{\pm\sqrt{2}}\in \mathbb{Q}(\!\sqrt{2})^2$, und unter Verwendung dieser +Basis bekommt die Matrix $A'=TAT^{-1}$ Diagonalform. +Die Transformationsmatrix $T$ enthält Matrixelemente aus +$\mathbb{Q}(\!\sqrt{2})$, die nicht in $\mathbb{Q}$ liegen. +Die Matrix $A$ lässt sich also über dem Körper $\mathbb{Q}(\!\sqrt{2})$ +diagonalisieren, nicht aber über dem Körper $\mathbb{Q}$. + +Da $A'$ Diagonalform hat mit $\pm\sqrt{2}$ auf der Diagonalen, folgt +$A^{\prime 2} = 2E$, die Matrix $A'$ erfüllt also die Gleichung +\begin{equation} +A^{\prime 2}-E= \chi_{A}(A) = 0. +\label{buch:grundlagen:eqn:cayley-hamilton-beispiel} +\end{equation} +Dies is ein Spezialfall des Satzes von Cayley-Hamilton +(Satz~\ref{buch:normalformen:satz:cayley-hamilton}) +welcher besagt, dass jede Matrix $A$ eine Nullstelle ihres +charakteristischen Polynoms ist: $\chi_A(A)=0$. +Die Gleichung~\ref{buch:grundlagen:eqn:cayley-hamilton-beispiel} +wurde zwar in $\mathbb{Q}(\!\sqrt{2})$ hergeleitet, aber in ihr kommen +keine Koeffizienten aus $\mathbb{Q}(\!\sqrt{2})$ vor, die man nicht auch +in $\mathbb{Q}$ berechnen könnte. +Sie gilt daher ganz allgemein. +\end{beispiel} + +\begin{beispiel} +Die Matrix +\[ +A=\begin{pmatrix} +32&-41\\ +24&-32 +\end{pmatrix} +\in +M_2(\mathbb{R}) +\] +über dem Körper $\Bbbk = \mathbb{R}$ +hat das charakteristische Polynom +\[ +\det(A-xE) += +\left| +\begin{matrix} +32-x&-41 \\ +25 &-32-x +\end{matrix} +\right| += +(32-x)(-32-x)-25\cdot(-41) += +x^2-32^2 + 1025 += +x^2+1. +\] +Die charakteristische Gleichung $\chi_A(x)=0$ hat in $\mathbb{R}$ +keine Lösungen, daher gehen wir zum Körper $\Bbbk'=\mathbb{C}$ über, +in dem dank dem Fundamentalsatz der Algebra alle Nullstellen zu finden +sind, sie sind $\pm i$. +In $\mathbb C$ lassen sich dann auch Eigenvektoren finden, man muss dazu die +folgenden linearen Gleichungssyteme lösen: +\begin{align*} +\begin{tabular}{|>{$}c<{$}>{$}c<{$}|} +32-i&-41\\ +25 &-32-i +\end{tabular} +& +\rightarrow +\begin{tabular}{|>{$}c<{$}>{$}c<{$}|} +1 & t\\ +0 & 0 +\end{tabular} +& +\begin{tabular}{|>{$}c<{$}>{$}c<{$}|} +32+i&-41\\ +25 &-32+i +\end{tabular} +& +\rightarrow +\begin{tabular}{|>{$}c<{$}>{$}c<{$}|} +1 & \overline{t}\\ +0 & 0 +\end{tabular}, +\intertext{wobei wir $t=-41/(32-i) =-41(32+i)/1025= -1.28 -0.04i = (64-1)/50$ +abgekürzt haben. +Die zugehörigen Eigenvektoren sind} +v_i&=\begin{pmatrix}t\\i\end{pmatrix} +& +v_{-i}&=\begin{pmatrix}\overline{t}\\i\end{pmatrix} +\end{align*} +Mit den Vektoren $v_i$ und $v_{-i}$ als Basis kann die Matrix $A$ als +komplexe Matrix, also mit komplexem $T$ in die komplexe Diagonalmatrix +$A'=\operatorname{diag}(i,-i)$ transformiert werden. +Wieder kann man sofort ablesen, dass $A^{\prime2}+E=0$, und wieder kann +man schliessen, dass für die relle Matrix $A$ ebenfalls $\chi_A(A)=0$ +gelten muss. +\end{beispiel} + + + + -- cgit v1.2.1 From 115c239a21c58b96eced43bfc627ab70c68538ea Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?Andreas=20M=C3=BCller?= Date: Thu, 2 Sep 2021 11:40:57 +0200 Subject: section 5.2 --- buch/chapters/40-eigenwerte/eigenwerte.tex | 203 ++++++++++++++++++----------- 1 file changed, 124 insertions(+), 79 deletions(-) (limited to 'buch/chapters/40-eigenwerte/eigenwerte.tex') diff --git a/buch/chapters/40-eigenwerte/eigenwerte.tex b/buch/chapters/40-eigenwerte/eigenwerte.tex index 745f320..d707e1f 100644 --- a/buch/chapters/40-eigenwerte/eigenwerte.tex +++ b/buch/chapters/40-eigenwerte/eigenwerte.tex @@ -11,11 +11,22 @@ $A\in M_n(\Bbbk)$. In den meisten Anwendungen wird $\Bbbk=\mathbb{R}$ sein. Da aber in $\mathbb{R}$ nicht alle algebraischen Gleichungen lösbar sind, ist es manchmal notwendig, den Vektorraum zu erweitern um zum Beispiel +auf dem Umweg über komplexe Zahlen Eigenschaften der Matrix $A$ abzuleiten. \begin{definition} -Ein Vektor $v\in V$ heisst {\em Eigenvektor} von $A$ zum Eigenwert +Ein Vektor $v\in V$ heisst {\em Eigenvektor} von $A$ zum {\em Eigenwert} +\index{Eigenwert}% +\index{Eigenvekor}% $\lambda\in\Bbbk$, wenn $v\ne 0$ und $Av=\lambda v$ gilt. +Die Menge +\[ +\operatorname{Sp}(A) += +\{\lambda\in\mathbb{C}\,|\, \text{$\lambda$ ist Eigenwert von $A$}\} +\] +heisst das {\em Spektrum} von $A$. +\index{Spektrum}% \end{definition} Die Bedingung $v\ne 0$ dient dazu, pathologische Situationen auszuschliessen. @@ -27,7 +38,7 @@ Ausserdem wäre $0$ ein Eigenvektor zu jedem beliebigen Eigenwert. Eigenvektoren sind nicht eindeutig bestimmt, jedes von $0$ verschiedene Vielfache von $v$ ist ebenfalls ein Eigenvektor. -Zu einem Eigenwert kann man also einen Eigenvektor jeweils mit +Zu einem Eigenwert kann man also einen Eigenvektor mit geeigneten Eigenschaften finden, zum Beispiel kann man für $\Bbbk = \mathbb{R}$ Eigenvektoren auf Länge $1$ normieren. Im Folgenden werden wir oft die abkürzend linear unabhängige Eigenvektoren @@ -82,17 +93,17 @@ s\lambda u + t\lambda v \lambda(su+tv), \] also ist auch $su+tv\in E_\lambda$. -Der Fall $E_\lambda = \{0\}=0$ bedeutet natürlich, dass $\lambda$ gar kein +Der Spezialfall $E_\lambda = \{0\}=0$ bedeutet natürlich, dass $\lambda$ gar kein Eigenwert ist. \begin{satz} -Wenn $\dim E_\lambda=n$, dann ist $A=\lambda E$. +Wenn $\dim E_\lambda=n$ ist, dann ist $A=\lambda I$. \end{satz} \begin{proof}[Beweis] Da $V$ ein $n$-dimensionaler Vektoraum ist, ist $E_\lambda=V$. Jeder Vektor $v\in V$ erfüllt also die Bedingung $Av=\lambda v$, -oder $A=\lambda E$. +oder $A=\lambda I$. \end{proof} Wenn man die Eigenräume von $A$ kennt, dann kann man auch die Eigenräume @@ -105,9 +116,9 @@ Av=\lambda v = (\lambda+\mu)v, \] -somit ist $v$ ein Eigenvektor von $A+\mu E$ zum Eigenwert $\lambda+\mu$. +somit ist $v$ ein Eigenvektor von $A+\mu I$ zum Eigenwert $\lambda+\mu$. Insbesondere können wir statt die Eigenvektoren von $A$ zum Eigenwert $\lambda$ -zu studieren, auch die Eigenvektoren zum Eigenwert $0$ von $A-\lambda E$ +zu studieren, auch die Eigenvektoren zum Eigenwert $0$ von $A-\lambda I$ untersuchen. % @@ -116,9 +127,9 @@ untersuchen. \subsection{Verallgemeinerte Eigenräume \label{buch:subsection:verallgemeinerte-eigenraeume}} Wenn $\lambda$ ein Eigenwert der Matrix $A$ ist, dann ist -ist $A-\lambda E$ injektiv und $\ker(A-\lambda E)\ne 0$. -Man kann daher die invarianten Unterräume $\mathcal{K}(A-\lambda E)$ -und $\mathcal{J}(A-\lambda E)$. +ist $A-\lambda I$ injektiv und $\ker(A-\lambda I)\ne 0$. +Man kann daher die invarianten Unterräume $\mathcal{K}(A-\lambda I)$ +und $\mathcal{J}(A-\lambda I)$ bilden. \begin{beispiel} Wir untersuchen die Matrix @@ -134,8 +145,8 @@ A \] Man kann zeigen, dass $\lambda=1$ ein Eigenwert ist. Wir suchen die Zerlegung des Vektorraums $\mathbb{R}^4$ in invariante -Unterräume $\mathcal{K}(A-E)$ und $\mathcal{J}(A-E)$. -Die Matrix $B=A-E$ ist +Unterräume $\mathcal{K}(A-I)$ und $\mathcal{J}(A-I)$. +Die Matrix $B=A-I$ ist \[ B = @@ -146,7 +157,7 @@ B 0&0& 0&2 \end{pmatrix} \] -und wir berechnen davon die Potenz +und wir berechnen davon die vierte Potenz \[ D=B^4=(A-E)^4 = @@ -191,26 +202,26 @@ verwenden. Als erstes überprüfen wir, ob diese Basisvektoren tatsächlich invariante Unterräume sind. -Für $\mathcal{J}(A-E) = \langle b_1,b_2\rangle$ +Für $\mathcal{J}(A-I) = \langle b_1,b_2\rangle$ berechnen wir \begin{align*} -(A-E)b_1 +(A-I)b_1 &= \begin{pmatrix} 0\\4\\4\\1 \end{pmatrix} = 4b_2+b_1, \\ -(A-E)b_2 +(A-I)b_2 &= \begin{pmatrix} 0\\1\\1\\0 \end{pmatrix} = b_2. \end{align*} -Dies beweist, dass $\mathcal{J}(A-E)$ invariant ist. -In dieser Basis hat die von $A-E$ beschriebene lineare Abbildung -auf $\mathcal{J}(A-E)$ die Matrix +Dies beweist, dass $\mathcal{J}(A-I)$ invariant ist. +In dieser Basis hat die von $A-I$ beschriebene lineare Abbildung +auf $\mathcal{J}(A-I)$ die Matrix \[ -A_{\mathcal{J}(A-E)} +A_{\mathcal{J}(A-I)} = \begin{pmatrix} 1&4\\ @@ -218,7 +229,7 @@ A_{\mathcal{J}(A-E)} \end{pmatrix}. \] -Für den Kern $\mathcal{K}(A-E)$ findet man analog +Für den Kern $\mathcal{K}(A-I)$ findet man analog \[ \left. \begin{aligned} @@ -231,7 +242,7 @@ Ab_4 \end{aligned} \quad\right\} \qquad\Rightarrow\qquad -A_{\mathcal{K}(A-E)} +A_{\mathcal{K}(A-I)} = \begin{pmatrix} 0&-1\\ @@ -252,8 +263,8 @@ A' & &0& 1 \end{array}\right), \] -die Blöcke gehören zu den invarianten Unterräumen $\mathcal{K}(A-E)$ -und $\mathcal{K}(A-E)$. +die Blöcke gehören zu den invarianten Unterräumen $\mathcal{K}(A-I)$ +und $\mathcal{K}(A-I)$. Die aus $A-E$ gewonnen invarianten Unterräume sind offenbar auch invariante Unterräume für $A$. \end{beispiel} @@ -264,43 +275,50 @@ Unterraum \[ \mathcal{E}_{\lambda}(A) = -\mathcal{K}(A-\lambda E) +\mathcal{K}(A-\lambda I) \] -der verallgemeinerte Eigenraum von $A$. +der {\em verallgemeinerte Eigenraum} von $A$. +\index{verallgemeinerter Eigenraum}% +\index{Eigenraum, verallgemeinerter}% \end{definition} Es ist klar, dass -$E_\lambda(A)=\ker (A-\lambda E)\subset\mathcal{E}_{\lambda}(A)$. +$E_\lambda(A)=\ker (A-\lambda I)\subset\mathcal{E}_{\lambda}(A)$. \subsection{Zerlegung in invariante Unterräume \label{buch:subsection:zerlegung-in-invariante-unterraeume}} -Wenn $\lambda$ kein Eigenwert von $A$ ist, dann ist $A-\lambda E$ -injektiv und damit $\ker(A-\lambda E)=0$. -Es folgt, dass $\mathcal{K}^i(A-\lambda E)=0$ und daher auch -$\mathcal{J}^i(A-\lambda E)=V$. -Die Zerlegung in invariante Unterräume $\mathcal{J}(A-\lambda E)$ und -$\mathcal{K}(A-\lambda E)$ liefert in diesem Falle also nichts Neues. +Wenn $\lambda$ kein Eigenwert von $A$ ist, dann ist $A-\lambda I$ +injektiv und damit $\ker(A-\lambda I)=0$. +Es folgt, dass $\mathcal{K}^i(A-\lambda I)=0$ und daher auch +$\mathcal{J}^i(A-\lambda I)=V$. +Die Zerlegung in invariante Unterräume $\mathcal{J}(A-\lambda I)$ und +$\mathcal{E}_\lambda(A)=\mathcal{K}(A-\lambda I)$ liefert in diesem Falle also nichts Neues. -Für einen Eigenwert $\lambda_1$ von $A$ dagegen, erhalten wir die Zerlegung +Für einen Eigenwert $\lambda_1$ von $A$ dagegen erhalten wir die Zerlegung \[ V = \mathcal{E}_{\lambda_1}(A) \oplus -\underbrace{\mathcal{J}(A-\lambda_1 E)}_{\displaystyle =V_2}, +\underbrace{\mathcal{J}(A-\lambda_1 I)}_{\displaystyle =V_2}, \] wobei $\mathcal{E}_{\lambda_1}(A)\ne 0$ ist. -Die Matrix $A-\lambda_1 E$ ist eingeschränkt auf $\mathcal{E}_{\lambda_1}(A)$ +Die Matrix $A-\lambda_1 I$ eingeschränkt auf $\mathcal{E}_{\lambda_1}(A)$ ist nilpotent. -Die Zerlegung in invariante Unterräume ist zwar mit Hilfe von $A-\lambda_1E$ +Man kann sagen, auf dem Unterraum $\mathcal{E}_{\lambda_i}(A)$ hat +$A$ die Form $\lambda_1 I + N$, wobei $N$ nilpotent ist. + +Die Zerlegung in invariante Unterräume ist zwar mit Hilfe von $A-\lambda_1I$ gewonnen worden, ist aber natürlich auch eine Zerlegung in invariante Unterräume für $A$. Wir können daher das Problem auf $V_2$ einschränken und nach einem weiteren -Eigenwert $\lambda_2$ von $A$ in $V_2$ suchen, was wieder eine Zerlegung -in invariante Unterräume liefert. +Eigenwert $\lambda_2$ von $A$ in $V_2$ suchen. +Dieser neue Eigenwert liefert eine Zerlegung von $V_2$ +in invariante Unterräume. Indem wir so weiterarbeiten, bis wir den ganzen Raum ausgeschöpft haben, können wir eine Zerlegung des ganzen Raumes $V$ finden, so dass $A$ auf -jedem einzelnen Summanden eine sehr einfach Form hat: +jedem einzelnen Summanden die sehr einfach Form +``$\lambda I + \text{nilpotent}$'' hat: \begin{satz} \label{buch:eigenwerte:satz:zerlegung-in-eigenraeume} @@ -319,28 +337,28 @@ V \oplus \mathcal{E}_{\lambda_l}(A). \] -Die Einschränkung von $A-\lambda_{i}E$ auf den Eigenraum +Die Einschränkung von $A-\lambda_{i}I$ auf den Eigenraum $\mathcal{E}_{\lambda_i}(A)$ ist nilpotent. \end{satz} \subsection{Das charakteristische Polynom \label{buch:subsection:das-charakteristische-polynom}} Ein Eigenvektor von $A$ erfüllt $Av=\lambda v$ oder gleichbedeutend -$(A-\lambda E)v=0$, er ist also eine nichttriviale Lösung des homogenen -Gleichungssystems mit Koeffizientenmatrix $A-\lambda E$. -Ein Eigenwert ist also ein Skalar derart, dass $A-\lambda E$ +$(A-\lambda I)v=0$, er ist also eine nichttriviale Lösung des homogenen +Gleichungssystems mit Koeffizientenmatrix $A-\lambda I$. +Ein Eigenwert ist also ein Skalar derart, dass $A-\lambda I$ singulär ist. Ob eine Matrix singulär ist, kann mit der Determinante festgestellt werden. Die Eigenwerte einer Matrix $A$ sind daher die Nullstellen -von $\det(A-\lambda E)$. +von $\det(A-\lambda I)$. \begin{definition} Das {\em charakteristische Polynom} \[ \chi_A(x) = -\det (A-x E) +\det (A-x I) = \left| \begin{matrix} @@ -352,24 +370,36 @@ a_{n1} & a_{n2} &\dots & a_{nn}-x \right|. \] der Matrix $A$ ist ein Polynom vom Grad $n$ mit Koeffizienten in $\Bbbk$. +\index{charakteristisches Polynom}% +\index{Polynome, charakteristisches}% \end{definition} Findet man eine Nullstelle $\lambda\in\Bbbk$ von $\chi_A(x)$, -dann ist die Matrix $A-\lambda E\in M_n(\Bbbk)$ und mit dem Gauss-Algorithmus +dann ist die Matrix $A-\lambda I\in M_n(\Bbbk)$ und mit dem Gauss-Algorithmus kann man auch mindestens einen Vektor $v\in \Bbbk^n$ finden, der $Av=\lambda v$ erfüllt. -Eine Matrix der Form wie in Satz~\ref{buch:eigenwerte:satz:jordanblock} +Eine Dreiecksmatrix der Form +\[ +A=\begin{pmatrix} +\lambda& * & * & * &\dots &*\\ + 0 &\lambda& * & * &\dots &*\\ + 0 & 0 &\lambda& * &\dots &*\\ + 0 & 0 & 0 &\lambda&\dots &*\\ +\vdots &\vdots &\vdots & &\ddots&\vdots\\ + 0 & 0 & 0 & 0 &\dots &\lambda +\end{pmatrix} +\] hat \[ \chi_A(x) = \left| \begin{matrix} -\lambda-x & 1 & & & & \\ - & \lambda-x & 1 & & & \\ - & & \lambda-x & & & \\ - & & &\ddots& & \\ - & & & &\lambda-x& 1 \\ +\lambda-x & * & * & & * & * \\ + & \lambda-x & * & & * & * \\ + & & \lambda-x & & * & * \\ + & & &\ddots& * & * \\ + & & & &\lambda-x& * \\ & & & & &\lambda-x \end{matrix} \right| @@ -380,16 +410,18 @@ hat \] als charakteristisches Polynom, welches $\lambda$ als einzige Nullstelle hat. -Der Eigenraum der Matrix ist aber nur eindimensional, man kann also -im Allgemeinen für jede Nullstelle des charakteristischen Polynoms -nicht mehr als einen Eigenvektor (d.~h.~einen eindimensionalen Eigenraum) -erwarten. +Wenn die Einträge oberhalb der Diagonalen nicht alle 0 sind, +dann hat der Eigenraum der Matrix Dimension, die keiner ist als +$n$. +Man kann also im Allgemeinen für jede Nullstelle des charakteristischen +Polynoms nicht mehr als einen Eigenvektor (d.~h.~einen eindimensionalen +Eigenraum) erwarten. Wenn das charakteristische Polynom von $A$ keine Nullstellen in $\Bbbk$ hat, dann kann es auch keine Eigenvektoren in $\Bbbk^n$ geben. Gäbe es nämlich einen solchen Vektor, dann müsste eine der Komponenten -des Vektors von $0$ verschieden sein, wir nehmen an, dass es die Komponente -in Zeile $k$ ist. +des Vektors von $0$ verschieden sein. +Wir nehmen an, dass es die Komponente in Zeile $k$ ist. Die Komponente $v_k$ kann man auf zwei Arten berechnen, einmal als die $k$-Komponenten von $Av$ und einmal als $k$-Komponente von $\lambda v$: \[ @@ -406,8 +438,11 @@ sein, im Widerspruch zur Annahme. Durch Hinzufügen von geeigneten Elementen können wir immer zu einem Körper $\Bbbk'$ übergehen, in dem das charakteristische Polynom in Linearfaktoren zerfällt. -In diesem Körper kann man jetzt das homogene lineare Gleichungssystem -mit Koeffizientenmatrix $A-\lambda E$ lösen und damit mindestens +\index{Linearfaktor}% +Für reelle Matrizen kann man zum Beispiel zu $\mathbb{C}$ übergehen, +da ein reelles Polynom alle Nullstellen in $\mathbb{C}$ hat. +In diesem Körper $\Bbbk'$ kann man jetzt das homogene lineare Gleichungssystem +mit Koeffizientenmatrix $A-\lambda I$ lösen und damit mindestens einen Eigenvektor $v$ für jeden Eigenwert finden. Die Komponenten von $v$ liegen in $\Bbbk'$, und mindestens eine davon kann nicht in $\Bbbk$ liegen. @@ -454,20 +489,22 @@ Die Matrix $A$ lässt sich also über dem Körper $\mathbb{Q}(\!\sqrt{2})$ diagonalisieren, nicht aber über dem Körper $\mathbb{Q}$. Da $A'$ Diagonalform hat mit $\pm\sqrt{2}$ auf der Diagonalen, folgt -$A^{\prime 2} = 2E$, die Matrix $A'$ erfüllt also die Gleichung +$A^{\prime 2} = 2I$, die Matrix $A'$ erfüllt also die Gleichung \begin{equation} -A^{\prime 2}-E= \chi_{A}(A) = 0. +A^{\prime 2}-I= \chi_{A}(A) = 0. \label{buch:grundlagen:eqn:cayley-hamilton-beispiel} \end{equation} -Dies is ein Spezialfall des Satzes von Cayley-Hamilton -(Satz~\ref{buch:normalformen:satz:cayley-hamilton}) -welcher besagt, dass jede Matrix $A$ eine Nullstelle ihres -charakteristischen Polynoms ist: $\chi_A(A)=0$. Die Gleichung~\ref{buch:grundlagen:eqn:cayley-hamilton-beispiel} wurde zwar in $\mathbb{Q}(\!\sqrt{2})$ hergeleitet, aber in ihr kommen keine Koeffizienten aus $\mathbb{Q}(\!\sqrt{2})$ vor, die man nicht auch in $\mathbb{Q}$ berechnen könnte. -Sie gilt daher ganz allgemein. +Sie gilt daher ganz allgemein, also $A^2-I=0$. +Dies is ein Spezialfall des Satzes von Cayley-Hamilton +\index{Cayley-Hamilton, Satz von}% +\index{Satz von Cayley-Hamilton}% +(Satz~\ref{buch:normalformen:satz:cayley-hamilton}) +welcher besagt, dass jede Matrix $A$ eine Nullstelle ihres +charakteristischen Polynoms ist: $\chi_A(A)=0$. \end{beispiel} \begin{beispiel} @@ -483,7 +520,7 @@ M_2(\mathbb{R}) über dem Körper $\Bbbk = \mathbb{R}$ hat das charakteristische Polynom \[ -\det(A-xE) +\det(A-xI) = \left| \begin{matrix} @@ -500,43 +537,51 @@ x^2+1. \] Die charakteristische Gleichung $\chi_A(x)=0$ hat in $\mathbb{R}$ keine Lösungen, daher gehen wir zum Körper $\Bbbk'=\mathbb{C}$ über, -in dem dank dem Fundamentalsatz der Algebra alle Nullstellen zu finden -sind, sie sind $\pm i$. +in dem dank dem Fundamentalsatz \ref{buch:zahlen:satz:fundamentalsatz} +der Algebra alle Nullstellen zu finden sind, sie sind $\pm i$. In $\mathbb C$ lassen sich dann auch Eigenvektoren finden, man muss dazu die -folgenden linearen Gleichungssyteme lösen: +folgenden homogenen linearen Gleichungssyteme in Tableauform lösen: \begin{align*} \begin{tabular}{|>{$}c<{$}>{$}c<{$}|} +\hline 32-i&-41\\ -25 &-32-i +25 &-32-i\\ +\hline \end{tabular} & \rightarrow \begin{tabular}{|>{$}c<{$}>{$}c<{$}|} +\hline 1 & t\\ -0 & 0 +0 & 0 \\ +\hline \end{tabular} & \begin{tabular}{|>{$}c<{$}>{$}c<{$}|} +\hline 32+i&-41\\ -25 &-32+i +25 &-32+i\\ +\hline \end{tabular} & \rightarrow \begin{tabular}{|>{$}c<{$}>{$}c<{$}|} +\hline 1 & \overline{t}\\ -0 & 0 +0 & 0 \\ +\hline \end{tabular}, \intertext{wobei wir $t=-41/(32-i) =-41(32+i)/1025= -1.28 -0.04i = (64-1)/50$ abgekürzt haben. Die zugehörigen Eigenvektoren sind} -v_i&=\begin{pmatrix}t\\i\end{pmatrix} +v_i&=\begin{pmatrix}t\\-1\end{pmatrix} & -v_{-i}&=\begin{pmatrix}\overline{t}\\i\end{pmatrix} +v_{-i}&=\begin{pmatrix}\overline{t}\\-1\end{pmatrix}. \end{align*} Mit den Vektoren $v_i$ und $v_{-i}$ als Basis kann die Matrix $A$ als komplexe Matrix, also mit komplexem $T$ in die komplexe Diagonalmatrix $A'=\operatorname{diag}(i,-i)$ transformiert werden. -Wieder kann man sofort ablesen, dass $A^{\prime2}+E=0$, und wieder kann +Wieder kann man sofort ablesen, dass $A^{\prime2}+I=0$, und wieder kann man schliessen, dass für die relle Matrix $A$ ebenfalls $\chi_A(A)=0$ gelten muss. \end{beispiel} -- cgit v1.2.1 From 3b5a4a0a7c285603134862e6ff57e3f5b7889a5d Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?Andreas=20M=C3=BCller?= Date: Thu, 2 Sep 2021 15:16:25 +0200 Subject: chapter 5 --- buch/chapters/40-eigenwerte/eigenwerte.tex | 2 ++ 1 file changed, 2 insertions(+) (limited to 'buch/chapters/40-eigenwerte/eigenwerte.tex') diff --git a/buch/chapters/40-eigenwerte/eigenwerte.tex b/buch/chapters/40-eigenwerte/eigenwerte.tex index d707e1f..563b58a 100644 --- a/buch/chapters/40-eigenwerte/eigenwerte.tex +++ b/buch/chapters/40-eigenwerte/eigenwerte.tex @@ -15,6 +15,8 @@ auf dem Umweg über komplexe Zahlen Eigenschaften der Matrix $A$ abzuleiten. \begin{definition} +\label{buch:eigenwerte:def:evew} +\label{buch:eigenwerte:def:spektrum} Ein Vektor $v\in V$ heisst {\em Eigenvektor} von $A$ zum {\em Eigenwert} \index{Eigenwert}% \index{Eigenvekor}% -- cgit v1.2.1