diff options
-rw-r--r-- | buch/chapters/05-zahlen/komplex.tex | 116 | ||||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/Makefile.inc | 1 | ||||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/chapter.tex | 1 | ||||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/koerper.tex | 18 | ||||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/linear.tex | 1021 | ||||
-rw-r--r-- | buch/chapters/40-eigenwerte/Makefile.inc | 2 | ||||
-rw-r--r-- | buch/chapters/40-eigenwerte/chapter.tex | 28 | ||||
-rw-r--r-- | buch/chapters/40-eigenwerte/grundlagen.tex | 391 | ||||
-rw-r--r-- | buch/chapters/40-eigenwerte/normalformen.tex | 81 | ||||
-rw-r--r-- | buch/common/packages.tex | 2 |
10 files changed, 1658 insertions, 3 deletions
diff --git a/buch/chapters/05-zahlen/komplex.tex b/buch/chapters/05-zahlen/komplex.tex index 7198e68..0c5eb70 100644 --- a/buch/chapters/05-zahlen/komplex.tex +++ b/buch/chapters/05-zahlen/komplex.tex @@ -276,6 +276,122 @@ komplexen Ebene eine Drehstreckung durch. Auf diese geometrische Beschreibung der Multiplikation werden wir zurückkommen, wenn wir die komplexen Zahlen als Matrizen beschreiben wollen. +\subsubsection{Algebraische Vollständigkeit} +Die komplexen Zahlen $\mathbb{C}$ sind als Erweiterung von $\mathbb{R}$ +so konstruiert worden, dass die Gleichung $x^2+1=0$ eine Lösung hat. +Etwas überraschend ist dagegen, dass in dieser Erweiterung jetzt jede +beliebige algebraische Gleichung lösbar geworden. +Dies ist der Inhalt des Fundamentalsatzes der Algebra. + +\begin{satz}[Fundamentalsatz der Algebra] +\index{Fundamentalsatz der Algebra}% +Jede algebraische Gleichung der Form +\[ +p(x)=x^n + a_{n-1}x^{n-1}+a_1x+a_0=0,\qquad a_k\in\mathbb{C} +\] +mit komplexen Koeffizienten hat $n$ möglicherweise mit Vielfachheit +gezähle Nullstellen $\alpha_1,\dots,\alpha_m$, d.~h.~das Polynom $p(x)$ +lässt sich in Linearfaktoren +\[ +p(x) += +(x-\alpha_1)^{k_1}(x-\alpha_2)^{k_2}\cdot\ldots\cdot(x-\alpha_m)^{k_m} +\] +zerlegen, wobei $k_1+k_2+\dots+k_m=n$. +Die Zahlen $k_j$ heisst die {\em Vielfachheit} der Nullstelle $\alpha_j$. +\end{satz} + +Der Fundamentalsatz der Algebra wurde erstmals von Carl Friedrich Gauss +\index{Gauss, Carl Friedrich}% +bewiesen. +Seither sind viele alternative Beweise mit Methoden aus den verschiedensten +Gebieten der Mathematik gegeben worden. +Etwas salopp könnten man sagen, dass der Fundamentalsatz ausdrückt, dass +die Konstruktion der Zahlensysteme mit $\mathbb{C}$ abgeschlossen ist, +soweit damit die Lösbarkeit beliebiger Gleichungen angestrebt ist. + +\subsubsection{Quaternionen und Octonionen} +Die komplexen Zahlen ermöglichen eine sehr effiziente Beschreibung +geometrischer Abbildungen wie Translationen, Spiegelungen und +Drehstreckungen in der Ebene. +Es drängt sich damit die Frage auf, ob sich $\mathbb{C}$ so erweitern +lässt, dass man damit auch Drehungen im dreidimensionalen Raum +beschreiben könnte. +Da Drehungen um verschiedene Achsen nicht vertauschen, kann eine solche +Erweiterung nicht mehr kommutativ sein. + +William Rowan Hamilton propagierte ab 1843 eine Erweiterung von $\mathbb{C}$ +mit zwei zusätzlichen Einheiten $j$ und $k$ mit den nichtkommutativen +Relationen +\begin{equation} +i^2 = j^2 = k^2 = ijk = -1. +\label{buch:zahlen:eqn:quaternionenregeln} +\end{equation} +Er nannte die Menge aller Linearkombinationen +\[ +\mathbb{H} = \{ a_0+a_1i+a_2j+a_3k\;|\; a_l\in \mathbb{R}\} +\] +die {\em Quaternionen}, die Einheiten $i$, $j$ und $k$ heissen auch +\index{Quaternionen}% +Einheitsquaternionen. +\index{Einheitsquaternionen}% +Konjugation, Betrag und Division können ganz ähnlich wie bei den +komplexen Zahlen definiert werden und machen $\mathbb{H}$ zu einer +sogenannten {\em Divisionsalgebra}. +\index{Divisionsalgebra}% +Alle Rechenregeln mit Ausnahme der Kommutativität der Multiplikation +sind weiterhin gültig und durch jede von $0$ verschiedene Quaternion +kann auch dividiert werden. + +Aus den Regeln für die Quadrate der Einheiten in +\eqref{buch:zahlen:eqn:quaternionenregeln} folgt zum Beispiel +$i^{-1}=-i$, $j^{-1}=-j$ und $k^{-1}=-k$. +Die letzte Bedingung liefert daraus +\[ +ijk=-1 +\qquad\Rightarrow\qquad +\left\{ +\quad +\begin{aligned} +ij +&= +ijkk^{-1}=-1k^{-1}=k +\\ +i^2jk&=-i=-jk +\\ +-j^2k&=-ji=k +\end{aligned} +\right. +\] +Aus den Relationen~\eqref{buch:zahlen:eqn:quaternionenregeln} +folgt also insbesondere auch, dass $ij=-ji$. +Ebenso kann abgeleitet werden, dass $jk=-kj$ und $ik=-ki$. +Man sagt, die Einheiten sind {\em antikommutativ}. +\index{antikommutativ}% + +Die Beschreibung von Drehungen mit Quaternionen ist in der +Computergraphik sehr beliebt, weil eine Quaternion mit nur vier +Komponenten $a_0,\dots,a_3$ vollständig beschrieben ist. +Eine Transformationsmatrix des dreidimensionalen Raumes enthält +dagegen neun Koeffizienten, die vergleichsweise komplizierte +Abhängigkeiten erfüllen müssen. +Quaternionen haben auch in weiteren Gebieten interessante Anwendungen, +zum Beispiel in der Quantenmechanik, wo antikommutierende Operatoren +bei der Beschreibung von Fermionen eine zentrale Rolle spielen. + +Aus rein algebraischer Sicht kann man die Frage stellen, ob es eventuell +auch noch grössere Divisionsalgebren gibt, die $\mathbb{H}$ erweitern. +Tatsächlich hat Arthur Cayley 1845 eine achtdimensionale Algebra, +die Oktonionen $\mathbb{O}$, mit vier weiteren Einheiten beschrieben. +\index{Cayley, Arthur}% +Allerdings sind die Oktonionen nur beschränkt praktisch anwendbar. +Grund dafür ist die Tatsache, dass die Multiplikation in $\mathbb{O}$ +nicht mehr assoziativ ist. +Das Produkt von mehr als zwei Faktoren aus $\mathbb{O}$ ist von der +Reihenfolge der Ausführung der Multiplikationen abhängig. + + + diff --git a/buch/chapters/10-vektorenmatrizen/Makefile.inc b/buch/chapters/10-vektorenmatrizen/Makefile.inc index 69468f6..954e52c 100644 --- a/buch/chapters/10-vektorenmatrizen/Makefile.inc +++ b/buch/chapters/10-vektorenmatrizen/Makefile.inc @@ -9,6 +9,7 @@ CHAPTERFILES = $(CHAPTERFILES) \ chapters/10-matrizenvektoren/gruppen.tex \ chapters/10-matrizenvektoren/ringe.tex \ chapters/10-matrizenvektoren/algebren.tex \ + chapters/10-matrizenvektoren/koerper.tex \ chapters/10-matrizenvektoren/uebungsaufgaben/1001.tex \ chapters/10-matrizenvektoren/uebungsaufgaben/1002.tex \ chapters/10-matrizenvektoren/chapter.tex diff --git a/buch/chapters/10-vektorenmatrizen/chapter.tex b/buch/chapters/10-vektorenmatrizen/chapter.tex index 51b91ab..abe9ba9 100644 --- a/buch/chapters/10-vektorenmatrizen/chapter.tex +++ b/buch/chapters/10-vektorenmatrizen/chapter.tex @@ -12,6 +12,7 @@ \input{chapters/10-vektorenmatrizen/gruppen.tex} \input{chapters/10-vektorenmatrizen/ringe.tex} \input{chapters/10-vektorenmatrizen/algebren.tex} +\input{chapters/10-vektorenmatrizen/koerper.tex} \section*{Übungsaufgaben} \aufgabetoplevel{chapters/10-vektorenmatrizen/uebungsaufgaben} diff --git a/buch/chapters/10-vektorenmatrizen/koerper.tex b/buch/chapters/10-vektorenmatrizen/koerper.tex new file mode 100644 index 0000000..c9d3a64 --- /dev/null +++ b/buch/chapters/10-vektorenmatrizen/koerper.tex @@ -0,0 +1,18 @@ +% +% koerper.tex -- Definition eines Körpers +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschwêizer Fachhochschule +% +\section{Körper +\label{buch:section:koerper}} +Die Multiplikation ist in einer Algebra nicht immer umkehrbar. +Die Zahlenkörper von Kapitel~\ref{buch:chapter:zahlen} sind also +sehr spezielle Algebren, man nennt sie Körper. +In diesem Abschnitt sollen die wichtigsten Eigenschaften von Körpern +zusammengetragen werden. + + + + + + diff --git a/buch/chapters/10-vektorenmatrizen/linear.tex b/buch/chapters/10-vektorenmatrizen/linear.tex index 25fa1af..461bf9f 100644 --- a/buch/chapters/10-vektorenmatrizen/linear.tex +++ b/buch/chapters/10-vektorenmatrizen/linear.tex @@ -6,3 +6,1024 @@ \section{Lineare Algebra \label{buch:grundlagen:section:linearealgebra}} \rhead{Lineare Algebra} +In diesem Abschnitt tragen wir die bekannten Resultate der linearen +Algebra zusammen. +Meistens lernt man diese zuerst für Vektoren und Gleichungssyteme mit +reellen Variablen. +In der linearen Algebra werden aber nur die arithmetischen +Grundoperationen verwendet, es gibt also keinen Grund, warum sich +die Theorie nicht über einem beliebigen Zahlenkörper entwickeln +lassen sollte. +Die in Kapitel~\ref{buch:chapter:endliche-koerper} untersuchten +endlichen Körper sind zum Beispiel besser geeignet für Anwendungen in +der Kryptographie oder für die diskrete schnelle Fourier-Transformation. +Daher geht es in diesem Abschnitt weniger darum alles herzuleiten, +sondern vor allem darum, die Konzepte in Erinnerung zu rufen und +so zu formulieren, dass offensichtlich wird, dass alles mit einem +beliebigen Zahlkörper $\Bbbk$ funktioniert. + +% +% Vektoren +% +\subsection{Vektoren +\label{buch:grundlagen:subsection:vektoren}} +Koordinatensysteme haben ermöglicht, Punkte als Zahlenpaare zu beschreiben. +Dies ermöglicht, geometrische Eigenschaften als Gleichungen auszudrücken, +aber mit Punkten kann man trotzdem noch nicht rechnen. +Ein Vektor fasst die Koordinaten eines Punktes in einem Objekt zusammen, +mit dem man auch rechnen und zum Beispiel Parallelverschiebungen +algebraisieren kann. +Um auch Streckungen ausdrücken zu können, wird auch eine Menge von +Streckungsfaktoren benötigt, mit denen alle Komponenten eines Vektors +multipliziert werden können. +Sie heissen auch {\em Skalare} und liegen in $\Bbbk$. + +\subsubsection{Zeilen- und Spaltenvektoren} +Vektoren sind Tupel von Elementen aus $\Bbbk$. + +\begin{definition} +Ein $n$-dimensionaler {\em Spaltenvektor} ist ein $n$-Tupel von Zahlen aus +$\Bbbk$ geschrieben als +\[ +v = \begin{pmatrix} v_1\\v_2\\\vdots\\v_n\end{pmatrix} +\in \Bbbk^n. +\] +Ein $m$-dimensionaler {\em Zeilenvektor} wird geschrieben als +\[ +u = \begin{pmatrix}u_1&u_2&\dots&u_m\end{pmatrix} \in \Bbbk^m. +\] +\end{definition} + +Für Vektoren gleicher Dimension sind zwei Rechenoperationen definiert. +Die {\em Addition von Vektoren} $a,a\in\Bbbk^n$ und die Multiplikation +eines Vektors mit einem Skalar $\lambda\in\Bbbk$ erfolgt elementweise: +\[ +a+b += +\begin{pmatrix}a_1\\\vdots\\a_n\end{pmatrix} ++ +\begin{pmatrix}b_1\\\vdots\\b_n\end{pmatrix} += +\begin{pmatrix}a_1+b_1\\\vdots\\a_n+b_n\end{pmatrix}, +\qquad +\lambda a += +\lambda +\begin{pmatrix}a_1\\\vdots\\a_n\end{pmatrix} += +\begin{pmatrix}\lambda a_1\\\vdots\\\lambda a_n\end{pmatrix}. +\] +Die üblichen Rechenregeln sind erfüllt, nämlich +\begin{equation} +\begin{aligned} +&\text{Kommutativität:} +& +a+b&=b+a +&& +&&\forall a,b\in V +\\ +&\text{Assoziativgesetze:} +& +(a+b)+c&=a+(b+c) +& +(\lambda\mu)a&=\lambda(\mu a) +&&\forall a,b,c\in V,\; \lambda,\mu\in\Bbbk +\\ +&\text{Distributivgesetze:} +& +\lambda(a+b)&=\lambda a + \lambda b +& +(\lambda+\mu)a&=\lambda a + \mu a +&&\forall a,b\in V,\; \lambda,\mu\in\Bbbk. +\\ +\end{aligned} +\label{buch:vektoren-und-matrizen:eqn:vrgesetze} +\end{equation} +Diese Gesetze drücken aus, dass man mit Vektoren so rechnen kann, wie man +das in der Algebra gelernt hat, mit der einzigen Einschränkung, dass +man Skalare immer links von Vektoren schreiben muss. +Die Distributivgesetze zum Beispiel sagen, dass man Ausmultipilizieren +oder Ausklammern kann genauso wie in Ausdrücken, die nur Zahlen enthalten. + +Man beachte, dass es im allgemeinen kein Produkt von Vektoren gibt. +Das aus der Vektorgeometrie bekannte Vektorprodukt ist eine Spezialität +des dreidimensionalen Raumes, es gibt keine Entsprechung dafür in anderen +Dimensionen. + +\subsubsection{Standardbasisvektoren} +In $\Bbbk^n$ findet man eine Menge von speziellen Vektoren, durch die +man alle anderen Vektoren ausdrücken kann. +Mit den sogenannten {\em Standardbasisvektoren} +\[ +e_1=\begin{pmatrix}1\\0\\\vdots\\0\end{pmatrix}, +e_2=\begin{pmatrix}0\\1\\\vdots\\0\end{pmatrix}, +\dots, +e_n=\begin{pmatrix}0\\0\\\vdots\\1\end{pmatrix} +\] +kann der Vektor $a\in\Bbbk^n$ als +\[ +a += +\begin{pmatrix}a_1\\a_2\\\vdots\\a_n\end{pmatrix} += +a_1 \begin{pmatrix}1\\0\\\vdots\\0\end{pmatrix} ++ +a_2 \begin{pmatrix}0\\1\\\vdots\\0\end{pmatrix} ++ +\dots ++ +a_n \begin{pmatrix}0\\0\\\vdots\\1\end{pmatrix} += +a_1e_1+a_2e_2+\dots+a_ne_n +\] +ausgedrückt werden. + +\subsubsection{Vektorraum} +Die Rechnungen, die man gemäss der Rechengesetze +\eqref{buch:vektoren-und-matrizen:eqn:vrgesetze} +anstellen kann, verlangen nicht, dass Elemente $a$ und $b$, mit denen man +da rechnet, Zeilen- oder Spaltenvektoren sind. +Jede Art von mathematischem Objekt, mit dem man so rechen kann, +kann als (abstrakter) Vektor betrachtet werden. + +\begin{definition} +Eine Menge $V$ von Objekten, auf der zwei Operationen definiert, +nämlich die Addition, geschrieben $a+b$ für $a,b\in V$ und die +Multiplikation mit Skalaren, geschrieben $\lambda a$ für $a\in V$ und +$\lambda\in \Bbbk$, heisst ein {\em $\Bbbk$-Vektorraum} oder {\em Vektorraum +über $\Bbbk$} (oder +einfach nur {\em Vektorraum}, wenn $\Bbbk$ aus dem Kontext klar sind), +wenn die Rechenregeln~\eqref{buch:vektoren-und-matrizen:eqn:vrgesetze} +gelten +\end{definition} + +Die Mengen von Spaltenvektoren $\Bbbk^n$ sind ganz offensichtlich +Vektorräume. +Die in Kapitel~\ref{buch:chapter:polynome} studierten Mengen von +Polynomen mit Koeffizienten in $\Bbbk$ sind ebenfalls Vektorräume. + +\begin{beispiel} +Die Zahlenmenge $\mathbb{C}$ ist ein $\mathbb{R}$-Vektorraum. +Elemente von $\mathbb{C}$ können addiert und mit reellen Zahlen +multipliziert werden. +Die Rechenregeln für die komplexen Zahlen umfassen auch alle Regeln +\eqref{buch:vektoren-und-matrizen:eqn:vrgesetze}, also ist +$\mathbb{C}$ ein Vektorraum über $\mathbb{R}$. +\end{beispiel} + +\begin{beispiel} +Die Menge $C([a,b])$ der stetigen Funktionen $[a,b]\to\mathbb{Re}$ +bildet ein Vektorraum. +Funktionen können addiert und mit reellen Zahlen multipliziert werden: +\[ +(f+g)(x) = f(x) + g(x) +\qquad\text{und}\qquad +(\lambda f)(x) = \lambda f(x). +\] +Dies reicht aber noch nicht ganz, denn $f+g$ und $\lambda f$ müssen +ausserdem auch {\em stetige} Funktionen sein. +Das dem so ist, lernt man in der Analysis. +Die Vektorraum-Rechenregeln +\eqref{buch:vektoren-und-matrizen:eqn:vrgesetze} sind ebenfalls erfüllt. +\end{beispiel} + +Die Beispiele zeigen, dass der Begriff des Vektorraums die algebraischen +Eigenschaften eine grosse Zahl sehr verschiedenartiger mathematischer +Objekte beschreiben kann. +Alle Erkenntnisse, die man ausschliesslich aus Vekotorraumeigenschaften +gewonnen hat, sind auf alle diese Objekte übertragbar. +Im folgenden werden wir alle Aussagen für einen Vektorraum $V$ formulieren, +wenn wir die Darstellung als Tupel $\Bbbk^n$ nicht brauchen. + +\subsubsection{Gleichungssysteme in Vektorform} +Die Vektorraum-Operationen erlauben nun auch, lineare Gleichungssysteme +in {\em Vektorform} zu schreiben: +\index{Vektorform eines Gleichungssystems}% +\begin{equation} +\left. +\begin{linsys}{4} +a_{11} x_1 &+& \dots &+& a_{1n}x_n &=& b_1\\ +\vdots & & \ddots& & \vdots & & \vdots \\ +a_{m1} x_1 &+& \dots &+& a_{1n}x_n &=& b_m\\ +\end{linsys} +\quad +\right\} +\qquad +\Rightarrow +\qquad +x_1 +\begin{pmatrix}a_{11}\\\vdots\\a_{m1} \end{pmatrix} ++ +\dots ++ +x_n +\begin{pmatrix}a_{1n}\\\vdots\\a_{mn} \end{pmatrix} += +\begin{pmatrix}b_1\\\vdots\\b_m\end{pmatrix} +\label{buch:vektoren-und-matrizen:eqn:vektorform} +\end{equation} +Die rechte Seite von~\eqref{buch:vektoren-und-matrizen:eqn:vektorform} +ist eine Linearkombination der Spaltenvektoren. + +\begin{definition} +Eine Linearkombination der Vektoren $v_1,\dots,v_n\in V$ ist ein Ausdruck +der Form +\[ +v += +\lambda_1v_1+\dots + \lambda_n v_n +\] +mit $\lambda_1,\dots,\lambda_n\in \Bbbk$. +\end{definition} + +Die Menge aller Vektoren, die sich als Linearkombinationen einer gegebenen +Menge ausdrücken lässt, heisst der aufgespannte Raum. + +\begin{definition} +\index{aufgespannter Raum}% +Sind $a_1,\dots,a_n\in V$ Vektoren, dann heisst die Menge +\[ +\langle a_1,\dots,a_n\rangle += +\{x_1a_1+\dots+x_na_n\;|\; x_1,\dots,x_n\in\Bbbk\} +\] +aller Vektoren, die sich durch Linearkombination aus den Vektoren +$a_1,\dots,a_n$ gewinnen lassen, der von $a_1,\dots,a_n$ +aufgespannte Raum. +\end{definition} + +\subsubsection{Lineare Abhängigkeit} +Die Gleichung~\eqref{buch:vektoren-und-matrizen:eqn:vektorform} +drückt aus, dass sich der Vektor $b$ auf der rechten Seite als +Linearkombination der Spaltenvektoren ausdrücken lässt. +Oft ist eine solche Darstellung auf nur eine Art und Weise. +Betrachten wir daher jetzt den Fall, dass es zwei verschiedene +Linearkombinationen der Vektoren $a_1,\dots,a_n$ gibt, die beide den +Vektor $b$ ergeben. +Deren Differenz ist +\begin{equation} +\left. +\begin{linsys}{4} +x_1 a_1 &+& \dots &+& x_n a_n &=& b \\ +x_1'a_1 &+& \dots &+& x_n'a_n &=& b \\ +\end{linsys} +\quad\right\} +\qquad +\Rightarrow +\qquad +(\underbrace{x_1-x_1'}_{\lambda_1}) a_1 ++ +\dots ++ +(\underbrace{x_n-x_n'}_{\lambda_n}) a_n += +0. +\label{buch:vektoren-und-matrizen:eqn:linabhkomb} +\end{equation} +Die Frage, ob ein Gleichungssystem genau eine Lösung hat, hängt also +damit zusammen, ob es Zahlen $\lambda_1,\dots,\lambda_n$ gibt, für +die die Gleichung~\label{buch:vektoren-und-matrizen:eqn:linabhkomb} +erfüllt ist. + +\begin{definition} +Die Vektoren $a_1,\dots,a_n$ heissen linear abhängig, wenn es Zahlen +$\lambda_1,\dots,\lambda_n\in\Bbbk$ gibt, die nicht alle $0$ sind, so dass +\begin{equation} +\lambda_1a_1+\dots+\lambda_na_n = 0. +\label{buch:vektoren-und-matrizen:eqn:linabhdef} +\end{equation} +Die Vektoren heissen linear abhängig, wenn aus +\eqref{buch:vektoren-und-matrizen:eqn:linabhdef} +folgt, dass alle $\lambda_1,\dots,\lambda_n=0$ sind. +\end{definition} + +Lineare Abhängigkeit der Vektoren $a_1,\dots,a_n$ bedeutet auch, dass +man einzelne der Vektoren durch andere ausdrücken kann. +Hat man nämlich eine +Linearkombination~\eqref{buch:vektoren-und-matrizen:eqn:linabhdef} und +ist der Koeffizient $\lambda_k\ne 0$, dann kann man nach $a_k$ auflösen: +\[ +a_k = -\frac{1}{\lambda_k}(\lambda_1a_1+\dots+\widehat{\lambda_ka_k}+\dots+\lambda_na_n). +\] +Darin bedeutet der Hut, dass der entsprechende Term weggelassen werden +muss. +Da dies für jeden von $0$ verschiedenen Koeffizienten möglich ist, +sagt man eben nicht, $a_k$ ist linear abhängig von den anderen, sondern +man sagt $a_1,\dots,a_n$ sind (untereinander) linear abhängig. + +\subsubsection{Basis} +Ein lineares Gleichungssystem fragt danach, ob und wie ein Vektor $b$ als +Linearkombination der Vektoren $a_1,\dots,a_n$ ausgedrückt werden kann. +Wenn dies eindeutig möglich ist, dann haben die Vektoren $a_1,\dots,a_n$ +offenbar eine besondere Bedeutung. + +\begin{definition} +\index{Basis}% +\index{Dimension}% +Eine linear unabhängig Menge von Vektoren +$\mathcal{B}=\{a_1,\dots,a_n\}\subset V$ +heisst {\em Basis} von $V$. +Die maximale Anzahl linear unabhängiger Vektoren in $V$ heisst +{\em Dimension} von $V$. +\end{definition} + +Die Standardbasisvektoren bilden eine Basis von $V=\Bbbk^n$. + +\subsubsection{Unterräume} +Die Mengen $\langle a_1,\dots,a_n\rangle$ sind Teilmengen +von $V$, in denen die Addition von Vektoren und die Multiplikation mit +Skalaren immer noch möglich ist. + +\begin{definition} +Eine Teilmenge $U\subset V$ heisst ein {\em Unterraum} von $V$, wenn +$U$ selbst ein $\Bbbk$-Vektorraum ist, also +\[ +\begin{aligned} +a,b&\in U &&\Rightarrow &a+b&\in U +\\ +a&\in U, \lambda\in\Bbbk &&\Rightarrow & \lambda a&\in U +\end{aligned} +\] +gilt. +\end{definition} + +% +% Matrizen +% +\subsection{Matrizen +\label{buch:grundlagen:subsection:matrizen}} +Die Koeffizienten eines linearen Gleichungssystems finden in einem +Zeilen- oder Spaltenvektor nicht Platz. +Wir erweitern das Konzept daher in einer Art, dass Zeilen- und +Spaltenvektoren Spezialfälle sind. + +\subsubsection{Definition} +\begin{definition} +Eine $m\times n$-Matrix $A$ (über $\Bbbk$) ist rechteckiges Schema +\index{Matrix}% +\[ +A += +\begin{pmatrix} +a_{11}&a_{12}&\dots &a_{1n}\\ +a_{21}&a_{22}&\dots &a_{2n}\\ +\vdots&\vdots&\ddots&\vdots\\ +a_{m1}&a_{m2}&\dots &a_{mn}\\ +\end{pmatrix} +\] +mit $a_{ij}\in\Bbbk$. +Die Menge aller $m\times n$-Matrizen wird mit +\[ +M_{m\times n}(\Bbbk) = \{ A\;|\; \text{$A$ ist eine $m\times n$-Matrix}\}. +\] +Falls $m=n$ gilt, heisst die Matrix $A$ auch {\em quadratisch} +\index{quadratische Matrix}% +Man kürzt die Menge der quadratischen Matrizen als +$M_n(\Bbbk) = M_{n\times n}(\Bbbk)$ ab. +\end{definition} + +Die $m$-dimensionalen Spaltenvektoren $v\in \Bbbk^m$ sind $m\times 1$-Matrizen +$v\in M_{n\times 1}(\Bbbk)$, die $n$-dimensionalen Zeilenvetoren $u\in\Bbbk^n$ +sind $1\times n$-Matrizen $v\in M_{1\times n}(\Bbbk)$. +Eine $m\times n$-Matrix $A$ mit den Koeffizienten $a_{ij}$ besteht aus +den $n$ Spaltenvektoren +\[ +a_1 = \begin{pmatrix} a_{11} \\ a_{21} \\ \vdots \\ a_{m1} \end{pmatrix},\quad +a_2 = \begin{pmatrix} a_{12} \\ a_{22} \\ \vdots \\ a_{m2} \end{pmatrix},\dots, +a_n = \begin{pmatrix} a_{1n} \\ a_{2n} \\ \vdots \\ a_{mn} \end{pmatrix}. +\] +Sie besteht auch aus den $m$ Zeilenvektoren +\[ +\begin{pmatrix} a_{k1} & a_{k2} & \dots & a_{kn} \end{pmatrix} +\] +mit $k=1,\dots,m$. + +\subsubsection{Addition und Multiplikation mit Skalaren} +Die $m\times n$-Matrizen $M_{m\times n}(\Bbbk)$ bilden eine Vektorraum, +die Addition von Matrizen und die Multiplikation wird wie folgt definiert. + +\begin{definition} +Sind $A,B\in M_{m\times n}(\Bbbk)$ und $\lambda\in\Bbbk$, dann setzt man +\[ +A+B += +\begin{pmatrix} +a_{11}+b_{11}&a_{12}+b_{12}&\dots &a_{1n}+b_{1n}\\ +a_{21}+b_{21}&a_{22}+b_{22}&\dots &a_{2n}+b_{2n}\\ +\vdots &\vdots &\ddots&\vdots \\ +a_{m1}+b_{m1}&a_{m2}+b_{m2}&\dots &a_{mn}+b_{mn} +\end{pmatrix} +\qquad\text{und}\qquad +\lambda A += +\begin{pmatrix} +\lambda a_{11}&\lambda a_{12}&\dots &\lambda a_{1n}\\ +\lambda a_{21}&\lambda a_{22}&\dots &\lambda a_{2n}\\ +\vdots &\vdots &\ddots&\vdots \\ +\lambda a_{m1}&\lambda a_{m2}&\dots &\lambda a_{mn} +\end{pmatrix}. +\] +\end{definition} + +\subsubsection{Multiplikation} +Will man ein lineares Gleichungssystem mit Hilfe der Matrix $A$ der +Koeffizienten schreiben, bekommt es die Form $Ax=b$, wobei der Vektor +der rechten Seiten ist, und $x$ ein Vektor von unbekannten Zahlen. +Dies ist jedoch nur sinnvoll, wenn das Produkt $Ax$ sinnvoll definiert +werden kann. + +\begin{definition} +Eine $m\times n$-Matrix $A\in M_{m\times n}(\Bbbk)$ und eine +$n\times l$-Matrix $B\in M_{n\times l}(\Bbbk)$ haben als Produkt +eine $n\times l$-Matrix $C=AB\in M_{n\times l}(\Bbbk)$ mit den +Koeffizienten +\begin{equation} +c_{ij} = \sum_{k=1}^n a_{ik} b_{kj}. +\label{buch:vektoren-unbd-matrizen:eqn:matrixmultiplikation} +\end{equation} +\end{definition} + +Die Koeffizienten $a_{ik}$ kommen aus der Zeile $i$ von $A$, die Koeffizienten +$b_{kj}$ stehen in der Spalte $j$ von $B$, die Multiplikationsregel +\eqref{buch:vektoren-unbd-matrizen:eqn:matrixmultiplikation} +besagt also, dass das Element $c_{ij}$ entsteht als das Produkt +der Zeile $i$ von $A$ mit der Spalte $j$ von $C$. + +\subsubsection{Einheitsmatrix} +Welche $m\times m$-Matrix $E\in M_{m}(\Bbbk)$ hat die Eigenschaft, dass +$EA=A$ für jede beliebige Matrix $A\in M_{m\times n}(\Bbbk)$. +Wir bezeichnen die Koeffizienten von $E$ mit $\delta_{ij}$. +Die Bedingung $EA=A$ bedeutet +\[ +a_{ij} = \delta_{i1}a_{1j} + \dots + \delta_{im}a_{mj}, +\] +Da auf der linken Seite nur $a_{ij}$ vorkommt, müssen alle Terme auf der +rechten Seite verschwinden ausser dem Term mit $a_{ij}$, dessen +Koeffizient $\delta_{ii}=1$ sein muss. +Die Koeffizienten sind daher +\[ +\delta_{ij} += +\begin{cases} +1&\qquad i=j\\ +0&\qquad\text{sonst} +\end{cases} +\] +Die Zahlen $\delta_{ij}$ heissen auch das {\em Kronecker-Symbol} oder +{\em Kronecker-Delta}. +\index{Kronecker-$\delta$}% +\index{Kronecker-Symbol}% +Die Matrix $E$ hat die Einträge $\delta_{ij}$ und heisst die +{\em Einheitsmatrix} +\index{Einheitsmatrix}% +\[ +E += +\begin{pmatrix} +1 &0 &\dots &0 \\ +0 &1 &\dots &0 \\ +\vdots&\vdots&\ddots&\vdots\\ +0 &0 &\dots &1 +\end{pmatrix}. +\] + + +% +% Gleichungssysteme +% +\subsection{Gleichungssysteme +\label{buch:grundlagen:subsection:gleichungssyteme}} +Lineare Gleichungssysteme haben wir bereits in Vektorform geschrieben. +Matrizen wurden eingeführt, um sie noch kompakter in der Matrixform +$Ax=b$ zu schreiben. +In diesem Abschnitt sollen die bekannten Resultate über die Lösung +von linearen Gleichungssytemen zusammengetragen werden. + +\subsubsection{Eindeutige Lösung} +Mit Hilfe der Vektorform eines linearen Gleichungssystems wurde +gezeigt, dass die Lösung genau dann eindeutig ist, wenn die Spaltenvektoren +der Koeffizientenmatrix linear unabhängig sind. +Dies bedeutet, dass das Gleichungssystem +\[ +\begin{linsys}{3} +a_{11}x_1 &+& \dots &+& a_{1n}x_n &=& 0 \\ +\vdots & & \ddots& & \vdots & & \vdots \\ +a_{m1}x_1 &+& \dots &+& a_{mn}x_n &=& 0 +\end{linsys} +\] +eine nichttriviale Lösung haben muss. +Das Gleichungssystem $Ax=b$ ist also genau dann eindeutig lösbar, wenn +das homogene Gleichungssystem $Ax=0$ nur die Nulllösung hat. + +\subsubsection{Inhomogene und homogene Gleichungssysteme} +Ein Gleichungssystem mit $0$ auf der rechten Seite ist also bereits +ausreichend um zu entscheiden, ob die Lösung eindeutig ist. +Ein Gleichungssystem mit rechter Seite $0$ heisst {\em homogen}. +\index{homogenes Gleichungssystem}% +Zu jedem {\em inhomogenen} Gleichungssystem $Ax=b$ mit $b\ne 0$ +ist $Ax=0$ das zugehörige homogene Gleichungssystem. + +Ein homogenes Gleichungssytem $Ax=0$ hat immer mindestens die +Lösung $x=0$, man nennt sie auch die {\em triviale} Lösung. +Eine Lösung $x\ne 0$ heisst auch eine nichttriviale Lösung. +Die Lösungen eines inhomgenen Gleichungssystem $Ax=b$ ist also nur dann +eindeutig, wenn das zugehörige homogene Gleichungssystem eine nichttriviale +Lösung hat. + +\subsubsection{Gauss-Algorithmus} + + +\subsubsection{Inverse Matrix} +Zu jeder quadratischen Matrix $A\in M_n(\Bbbk)$ kann man versuchen, die +Gleichungen +\[ +Ac_1 = e_1,\quad Ac_2 = e_2, \dots, Ac_n = e_n +\] +mit den Standardbasisvektoren $e_i$ als rechten Seiten zu lösen, wobei +die $c_i$ Vektoren in $\Bbbk^n$ sind. +Diese Vektoren kann man mit Hilfe des Gaussalgorithmus finden: +\[ +\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|} +\hline +a_{11}&a_{12}&\dots &a_{1n}&1 &0 &\dots &0 \\ +a_{21}&a_{22}&\dots &a_{2n}&0 &1 &\dots &0 \\ +\vdots&\vdots&\ddots&\vdots&\vdots&\vdots&\ddots&\vdots\\ +a_{n1}&a_{n2}&\dots &a_{nn}&0 &0 &\dots &1 \\ +\hline +\end{tabular} +\rightarrow +\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|} +\hline +1 &0 &\dots &0 &c_{11}&c_{12}&\dots &c_{1n}\\ +0 &1 &\dots &0 &c_{21}&c_{22}&\dots &c_{2n}\\ +\vdots&\vdots&\ddots&\vdots&\vdots&\vdots&\ddots&\vdots\\ +0 &0 &\dots &1 &c_{n1}&c_{n2}&\dots &c_{nn}\\ +\hline +\end{tabular} +\] +Die Vektoren $c_k$ sind die Spaltenvektoren der Matrix $C$ mit den +Einträgen $c_{ij}$. + +Mit den Vektoren $c_k$ können jetzt beliebige inhomogene Gleichungssysteme +$Ax=b$ gelöst werden. +Da $b = b_1e_1 + b_2e_2 + \dots + b_ne_n$, kann man die Lösung $x$ als +$x = b_1c_1+b_2c_2+\dots+b_nc_n$ konstruieren. +Tatsächlich gilt +\begin{align*} +Ax +&= +A( b_1c_1+b_2c_2+\dots+b_nc_n) +\\ +&= +b_1Ac_1 + b_2Cc_2 + \dots + b_nAc_n +\\ +&= +b_1e_1 + b_2e_2 + \dots + b_ne_n += +b. +\end{align*} +Die Linearkombination $x=b_1c_1+\dots+b_nc_n$ kann in Vektorform als $x=Cb$ +geschrieben werden. + +Die Konstruktion von $C$ bedeutet auch, dass $AC=E$, daher heisst $C$ auch +die zu $A$ {\em inverse Matrix}. +\index{inverse Matrix} +Sie wird auch $C=A^{-1}$ geschrieben. + +\subsubsection{Determinante} + +% +% Lineare Abbildungen +% +\subsection{Lineare Abbildungen +\label{buch:grundlagen:subsection:lineare-abbildungen}} +Der besondere Nutzen der Matrizen ist, dass sie auch lineare Abbildungen +zwischen Vektorräumen beschreiben können. +In diesem Abschnitt werden lineare Abbildungen abstrakt definiert +und die Darstellung als Matrix mit Hilfe einer Basis eingeführt. + + +\subsubsection{Definition} +Eine lineare Abbildung zwischen Vektorräumen muss so gestaltet sein, +dass die Operationen des Vektorraums erhalten bleiben. +Dies wird von der folgenden Definition erreicht. + +\begin{definition} +Eine Abbildung $f\colon V\to U$ zwischen Vektorräumen $V$ und $U$ +heisst linear, wenn +\[ +\begin{aligned} +f(v+w) &= f(v) + f(w)&&\forall v,w\in V +\\ +f(\lambda v) &= \lambda f(v) &&\forall v\in V,\lambda \in \Bbbk +\end{aligned} +\] +gilt. +\end{definition} + +Lineare Abbildungen sind in der Mathematik sehr verbreitet. + +\begin{beispiel} +Sie $V=C^1([a,b])$ die Menge der stetig differenzierbaren Funktionen +auf dem Intervall $[a,b]$ und $U=C([a,b])$ die Menge der +stetigen Funktion aif $[a,b]$. +Die Ableitung $\frac{d}{dx}$ macht aus einer Funktion $f(x)$ die +Ableitung $f'(x)$. +Die Rechenregeln für die Ableitung stellen sicher, dass +\[ +\frac{d}{dx} +\colon +C^1([a,b]) \to C([a,b]) +: +f \mapsto f' +\] +eine lineare Abbildung ist. +\end{beispiel} + +\begin{beispiel} +Sei $V$ die Menge der Riemann-integrierbaren Funktionen auf dem +Intervall $[a,b]$ und $U=\mathbb{R}$. +Das bestimmte Integral +\[ +\int_a^b \;\colon V \to U : f \mapsto \int_a^b f(x)\,dx +\] +ist nach den bekannten Rechenregeln für bestimmte Integrale +eine lineare Abbildung. +\end{beispiel} + +\subsubsection{Matrix} +Um mit linearen Abbildungen rechnen zu können, ist eine Darstellung +mit Hilfe von Matrizen nötig. +Sei also $\mathcal{B}=\{b_1,\dots,b_n\}$ eine Basis von $V$ und +$\mathcal{C} = \{ c_1,\dots,c_m\}$ eine Basis von $U$. +Das Bild des Basisvektors $b_i$ kann als Linearkombination der +Vektoren $c_1,\dots,c_m$ dargestellt werden. +Wir verwenden die Bezeichnung +\[ +f(b_i) += +a_{1i} c_1 + \dots + a_{mi} c_m. +\] +Die lineare Abbildung $f$ bildet den Vektor $x$ mit Koordinaten +$x_1,\dots,x_n$ ab auf +\begin{align*} +f(x) +&= +f(x_1b_1 + \dots x_nb_n) +\\ +&= +x_1 f(b_1) + \dots x_nf(b_n) +\\ +&= +x_1(a_{11} c_1 + \dots + a_{m1} c_m) ++ +\dots ++ +x_n(a_{1n} c_1 + \dots + a_{mn} c_m) +\\ +&= +( a_{11} x_1 + \dots + a_{1n} x_n ) c_1 ++ +\dots ++ +( a_{m1} x_1 + \dots + a_{mn} x_n ) c_m +\end{align*} +Die Koordinaten von $f(x)$ in der Basis $\mathcal{C}$ in $U$ sind +also gegeben durch das Matrizenprodukt $Ax$, wenn $x$ der Spaltenvektor +aus den Koordinaten in der Basis $\mathcal{B}$ in $V$ ist. + +Die Matrix einer linearen Abbildung macht Aussagen über eine lineare +Abbilung der Rechnung zugänglich. +Allerdings hängt die Matrix einer linearen Abbildung von der Wahl der +Basis ab. +Gleichzeitig ist dies eine Chance, durch Wahl einer geeigneten Basis +kann man eine Matrix in eine Form bringen, die zur Lösung eines +Problems optimal geeignet ist. + +\subsubsection{Basiswechsel} +In einem Vektorraum $V$ seien zwei Basen $\mathcal{B}=\{b_1,\dots,b_n\}$ +und $\mathcal{B}'=\{b_1',\dots,b_n'\}$ gegeben. +Ein Vektor $v\in V$ kann in beiden beiden Basen dargestellt werden. +Wir bezeichnen mit dem Spaltenvektor $x$ die Koordinaten von $v$ in der +Basis $\mathcal{B}$ und mit dem Spaltenvektor $x'$ die Koordinaten +in der Basisi $\mathcal{B}'$. +Um die Koordinaten umzurechnen, muss man die Gleichung +\begin{equation} +x_1b_1 + \dots + x_nb_n = x_1'b_1' + \dots + x_n'b_n' +\label{buch:vektoren-und-matrizen:eqn:basiswechselgleichung} +\end{equation} +lösen. + +Stellt man sich die Vektoren $b_i$ und $b_j'$ als $m$-dimensionale +Spaltenvektoren vor mit $m\ge n$, dann bekommt +\eqref{buch:vektoren-und-matrizen:eqn:basiswechselgleichung} +die Form eines Gleichungssystems +\[ +\begin{linsys}{6} +b_{11}x_1&+& \dots &+&b_{1n}x_n&=&b_{11}'x_1'&+& \dots &+&b_{1n}'x_n'\\ +\vdots & & \ddots& &\vdots & &\vdots & & \ddots& &\vdots \\ +b_{m1}x_1&+& \dots &+&b_{mn}x_n&=&b_{m1}'x_1'&+& \dots &+&b_{mn}'x_n' +\end{linsys} +\] +Dieses Gleichungssystem kann man mit Hilfe eines Gauss-Tableaus lösen. +Wir schreiben die zugehörigen Variablen +\[ +\renewcommand{\arraystretch}{1.1} +\begin{tabular}{|>{$}c<{$} >{$}c<{$} >{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}|} +\hline +x_1&\dots&x_n&x_1'&\dots&x_n'\\ +\hline +b_{11}&\dots &b_{1n}&b_{11}'&\dots &v_{1n}'\\ +\vdots&\ddots&\vdots&\vdots &\ddots&\vdots \\ +b_{n1}&\dots &b_{nn}&b_{n1}'&\dots &v_{nn}'\\ +\hline +b_{n+1,1}&\dots &b_{n+1,n}&b_{n+1,1}'&\dots &v_{n+1,n}'\\ +\vdots&\ddots&\vdots&\vdots &\ddots&\vdots \\ +b_{m1}&\dots &b_{mn}&b_{m1}'&\dots &v_{mn}'\\ +\hline +\end{tabular} +\rightarrow +\begin{tabular}{|>{$}c<{$} >{$}c<{$} >{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}|} +\hline +x_1&\dots&x_n&x_1'&\dots&x_n'\\ +\hline +1 &\dots &0 &t_{11} &\dots &t_{1n} \\ +\vdots&\ddots&\vdots&\vdots &\ddots &\vdots \\ +0 &\dots &1 &t_{n1} &\dots &t_{nn} \\ +\hline +0 &\dots &0 &{\color{red}0} &{\color{red}\dots} &{\color{red}0}\\ +\vdots&\ddots&\vdots&{\color{red}\vdots}&{\color{red}\ddots}&{\color{red}\vdots}\\ +0 &\dots &0 &{\color{red}0} &{\color{red}\dots} &{\color{red}0}\\ +\hline +\end{tabular} +\] +Das rechte untere Teiltableau enthält lauter Nullen genau dann, wenn jeder +Vektor in $V$ sich in beiden Mengen $\mathcal{B}$ und $\mathcal{B}'$ +ausdrücken lässt. +Dies folgt aber aus der Tatsache, dass $\mathcal{B}$ und $\mathcal{B}'$ +beide Basen sind, also insbesondere den gleichen Raum aufspannen. +Die $n\times n$-Matrix $T$ mit Komponenten $t_{ij}$ rechnet Koordinaten +in der Basis $\mathcal{B}'$ um in Koordinaten in der Basis $\mathcal{B}$. + +\subsubsection{Umkehrabbbildung} +Sei $f$ eine umkehrbare lineare Abbildung $U\to V$ und $g\colon V\to U$. +die zugehörige Umkehrabbildung. +Für zwei Vektoren $u$ und $w$ in $U$ gibt es daher Vektoren $a=g(u)$ +und $b=g(w)$ in $V$ derart, dass $f(a)=u$ und $f(b)=w$. +Weil $f$ linear ist, folgt daraus $f(a+b)=u+w$ und $f(\lambda a)=\lambda a$ +für jedes $\lambda\in\Bbbk$. +Damit kann man jetzt +\begin{align*} +g(u+w)&=g(f(a)+f(b)) = g(f(a+b)) = a+b = g(u)+g(w) +\\ +g(\lambda u) &= g(\lambda f(a))=g(f(\lambda a)) = \lambda a = \lambda g(u) +\end{align*} +berechnen, was zeigt, dass auch $g$ eine lineare Abbildung ist. +Hat $f$ in geeignet gewählten Basen die Matrix $F$, dann hat die +Umkehrabbildung $g=f^{-1}$ die Matrix $G=F^{-1}$. +Da auch $f(g(y))=y$ gilt für jeden Vektor $y\in V$ folgt, dass $FF^{-1}=E$ +und $F^{-1}F=E$. + +\subsubsection{Kern und Bild} +Für die Eindeutigkeit der Lösung eines linearen Gleichungssytems +ist entscheidend, ob das zugehörige homogene Gleichungssystem $Ax=0$ +eine nichttriviale Lösung hat. +Seine Lösungmenge spielt also eine besondere Rolle, was rechtfertigt, +ihr einen Namen zu geben. + +\begin{definition} +\index{Kern}% +Ist $f$ eine lineare Abbildung $U\to V$, dann heisst die Menge +\[ +\ker f += +\{x\in U\;|\; f(x)=0\} +\] +der {\em Kern} oder {\em Nullraum} der linearen Abbildung $f$. +Ist $A \in M_{m\times n}(\Bbbk)$ Matrix, dann gehört dazu eine lineare +Abbildung $f\colon\Bbbk^n\to\Bbbk^m$. +Der Kern oder Nullraum der Matrix $A$ ist die Menge +\[ +\ker A += +\{ x\in\Bbbk^m \;|\; Ax=0\}. +\] +\end{definition} + +Der Kern ist ein Unterraum, denn für zwei Vektoren $u,w\in \ker f$ +\[ +\begin{aligned} +f(u+v)&=f(u) + f(v) = 0+0 = 0 &&\Rightarrow& u+v&\in\ker f\\ +f(\lambda u)&=\lambda f(u) = \lambda\cdot 0=0&&\Rightarrow& \lambda u&\in\ker f +\end{aligned} +\] +gilt. + +Ob ein Gleichungssystem $Ax=b$ überhaupt eine Lösung hat, hängt davon, +ob der Vektor $b$ als Bild der durch $A$ beschriebenen linearen Abbildung +$\Bbbk^n \to \Bbbk^m$ enthalten ist. +Wir definieren daher das Bild einer linearen Abbildung oder Matrix. + +\begin{definition} +Ist $f\colon V\to U$ eine lineare Abbildung dann ist das Bild von $f$ +der Unterraum +\[ +\operatorname{im}f = \{ f(v)\;|\;v\in V\} \subset U +\] +von $U$. +Das Bild einer $m\times n$-Matrix $A$ ist die Menge +\[ +\operatorname{im}A = \{ Av \;|\; v\in\Bbbk^n\} \subset \Bbbk^m. +\] +\end{definition} + +Zwei Vektoren $a,b\in\operatorname{im}$ haben Urbilder $u,w\in V$ mit +$f(u)=a$ und $f(w)=b$. +Für Summe und Skalarprodukt folgt +\[ +\begin{aligned} +a+b&= f(u)+f(v)=f(u+v) &&\Rightarrow a+b\in\operatorname{im}f\\ +\lambda a&=\lambda f(u) = f(\lambda u) &&\Rightarrow \lambda a&\in\operatorname{im}f, +\end{aligned} +\] +also ist auch das Bild $\operatorname{im}f$ ein Unterraum von $U$. +Das Bild der Matrix $A$ ist der Unterraum +\[ +\{ x_1f(b_1) + \dots x_n f(b_n) | x_i\in\Bbbk\} += +\langle f(b_1),\dots,f(b_n)\rangle += +\langle a_1,\dots,a_n\rangle +\] +von $\Bbbk^m$, aufgespannt von den Spaltenvektoren $a_i$ von $A$. + +\subsubsection{Kern und Bild von Matrixpotenzen} +In diesem Abschnitt ist $A\in M_n(\Bbbk)$, $A$ beschreibt eine lineare +Abbildung $f\colon\Bbbk^n\to \Bbbk^n$. +In diesem Abschnitt sollen Kern und Bild der Potenzen $A^k$ untersucht +werden. +\begin{definition} +Wir bezeichnen Kern und Bild der iterierten Abbildung $A^k$ mit +\[ +\mathcal{K}^k(A) += +\ker A^k +\qquad\text{und}\qquad +\mathcal{J}^k(A) += +\operatorname{im} A^k. +\] +\end{definition} + +Durch Iteration wird das Bild immer kleiner. +Wegen +\[ +\mathcal{J}^k (A) += +\operatorname{im} A^k += +\operatorname{im} A^{k-1} A += +\{ A^{k-1} Av\;|\; v \in \Bbbk^n\} +\subset +\{ A^{k-1} v\;|\; v \in \Bbbk^n\} += +\mathcal{J}^{k-1}(A) +\] +folgt +\begin{equation} +\Bbbk^n += +\operatorname{im}E += +\operatorname{im}A^0 += +\mathcal{J}^0(A) +\supset +\mathcal{J}^1(A) += +\operatorname{im}A +\supset +\mathcal{J}^2(A) +\supset\dots\supset +\mathcal{J}^k(A) +\supset +\mathcal{J}^{k+1}(A) +\supset \dots \supset +\{0\}. +\label{buch:vektoren-und-matrizen:eqn:Jkchain} +\end{equation} +Für die Kerne gilt etwas Ähnliches. +Ein Vektor $x\in \mathcal{K}^k(A)$ erfüllt $A^kx=0$. +Dann erfüllt er aber erst recht auch +\[ +A^{k+1}x=A\underbrace{A^kx}_{\displaystyle=0}=0, +\] +also ist $x\in\mathcal{K}^k(A)$. +Es folgt +\begin{equation} +\{0\} +\subset +\mathcal{K}^0(A) = \ker A^0 = \ker E +\subset +\mathcal{K}^1(A) = \ker A +\subset +\dots +\subset +\mathcal{K}^k(A) +\subset +\mathcal{K}^{k+1}(A) +\subset +\dots +\subset +\Bbbk^n. +\label{buch:vektoren-und-matrizen:eqn:Kkchain} +\end{equation} +Neben diesen offensichtlichen Resultaten kann man aber noch mehr +sagen. +Es ist klar, dass in beiden Ketten +\label{buch:vektoren-und-matrizen:eqn:Jkchain} +und +\label{buch:vektoren-und-matrizen:eqn:Kkchain} +nur in höchstens $n$ Schritten eine wirkliche Änderung stattfinden +kann. +Man kann aber sogar genau sagen, wo Änderungen stattfinden: + +\begin{satz} +\label{buch:vektoren-und-matrizen:satz:ketten} +Ist $A\in M_n(\Bbbk)$ eine $n\times n$-Matrix, dann gibt es eine Zahl $k$ +so, dass +\[ +\begin{array}{rcccccccccccl} +0=\mathcal{K}^0(A) +&\subsetneq& \mathcal{K}^1(A) &\subsetneq& \mathcal{K}^2(A) +&\subsetneq&\dots&\subsetneq& +\mathcal{K}^k(A) &=& \mathcal{K}^{k+1}(A) &=& \dots +\\ +\Bbbk^n= \mathcal{J}^0(A) +&\supsetneq& \mathcal{J}^1(A) &\supsetneq& \mathcal{J}^2(A) +&\supsetneq&\dots&\supsetneq& +\mathcal{J}^k(A) &=& \mathcal{J}^{k+1}(A) &=& \dots +\end{array} +\] +ist. +\end{satz} + +\begin{proof}[Beweis] +Es sind zwei Aussagen zu beweisen. +Erstens müssen wir zeigen, dass die Dimension von $\mathcal{K}^i(A)$ +nicht mehr grösser werden kann, wenn sie zweimal hintereinander gleich war. +Nehmen wir daher an, dass $\mathcal{K}^i(A) = \mathcal{K}^{i+1}(A)$. +Wir müssen $\mathcal{K}^{i+2}(A)$ bestimmen. +$\mathcal{K}^{i+2}(A)$ besteht aus allen Vektoren $x\in\Bbbk^n$ derart, +dass $Ax\in \mathcal{K}^{i+1}(A)=\mathcal{K}^i(A)$ ist. +Daraus ergibt sich, dass $AA^ix=0$, also ist $x\in\mathcal{K}^{i+1}(A)$. +Wir erhalten also +$\mathcal{K}^{i+2}(A)\subset\mathcal{K}^{i+1}\subset\mathcal{K}^{i+2}(A)$, +dies ist nur möglich, wenn beide gleich sind. + +Analog kann man für die Bilder vorgehen. +Wir nehmen an, dass $\mathcal{J}^i(A) = \mathcal{J}^{i+1}(A)$ und +bestimmten $\mathcal{J}^{i+2}(A)$. +$\mathcal{J}^{i+2}(A)$ besteht aus all jenen Vektoren, die als +$Ax$ mit $x\in\mathcal{J}^{i+1}(A)=\mathcal{J}^i(A)$ erhalten +werden können. +Es gibt also insbesondere ein $y\in\Bbbk^i$ mit $x=A^iy$. +Dann ist $Ax=A^{i+1}y\in\mathcal{J}^{i+1}(A)$. +Insbesondere besteht $\mathcal{J}^{i+2}(A)$ genau aus den Vektoren +von $\mathcal{J}^{i+1}(A)$. + +Zweitens müssen wir zeigen, dass die beiden Ketten bei der gleichen +Potenz von $A$ konstant werden. +Dies folgt jedoch daraus, dass $\dim\mathcal{J}^i(A) = \operatorname{Rang} A^i += n - \dim\ker A^i = n -\dim\mathcal{K}^i(A)$. +Der Raum $\mathcal{J}^k(A)$ hört also beim gleichen $i$ auf, kleiner +zu werden, bei dem auch $\mathcal{K}^i(A)$ aufhört, grösser zu werden. +\end{proof} + +\begin{satz} +Die Zahl $k$ in Satz~\ref{buch:vektoren-und-matrizen:satz:ketten} +ist nicht grösser als $n$, also +\[ +\mathcal{K}^n(A) = \mathcal{K}^l(A) +\qquad\text{und}\qquad +\mathcal{J}^n(A) = \mathcal{J}^l(A) +\] +für $l\ge n$. +\end{satz} + +\begin{proof}[Beweis] +Nach Satz~\ref{buch:vektoren-und-matrizen:satz:ketten} muss die +Dimension von $\mathcal{K}^i(A)$ in jedem Schritt um mindestens +$1$ zunehmen, das ist nur möglich, bis zur Dimension $n$. +Somit können sich $\mathcal{K}^i(A)$ und $\mathcal{J}^i(A)$ für $i>n$ +nicht mehr ändern. +\end{proof} + +\subsubsection{Nilpotente Matrizen} + + + + + + diff --git a/buch/chapters/40-eigenwerte/Makefile.inc b/buch/chapters/40-eigenwerte/Makefile.inc index e7237cd..b15f476 100644 --- a/buch/chapters/40-eigenwerte/Makefile.inc +++ b/buch/chapters/40-eigenwerte/Makefile.inc @@ -6,6 +6,8 @@ CHAPTERFILES = $(CHAPTERFILES) \ chapters/40-eigenwerte/numerisch.tex \ + chapters/40-eigenwerte/normalformen.tex \ + chapters/40-eigenwerte/grundlagen.tex \ chapters/40-eigenwerte/spektralradius.tex \ chapters/40-eigenwerte/spektraltheorie.tex \ chapters/40-eigenwerte/uebungsaufgaben/4001.tex \ diff --git a/buch/chapters/40-eigenwerte/chapter.tex b/buch/chapters/40-eigenwerte/chapter.tex index 2913ca5..5f237a4 100644 --- a/buch/chapters/40-eigenwerte/chapter.tex +++ b/buch/chapters/40-eigenwerte/chapter.tex @@ -1,5 +1,5 @@ % -% chapter.tex -- Kapitel über eigenwerte und eigenvektoren +% chapter.tex -- Kapitel über Eigenwerte und Eigenvektoren % % (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule % @@ -7,10 +7,34 @@ \label{buch:chapter:eigenwerte-und-eigenvektoren}} \lhead{Eigenwerte und Eigenvektoren} \rhead{} +Die algebraischen Eigenschaften einer Matrix $A$ sind eng mit der +Frage nach linearen Beziehungen unter den Potenzen von $A^k$ verbunden. +Im Allgemeinen ist die Berechnung dieser Potenzen eher unübersichtlich, +es sei denn, die Matrix hat eine spezielle Form. +Die Potenzen einer Diagonalmatrix erhält man, indem man die Diagonalelemente +potenziert. +Auch für Dreiecksmatrizen ist mindestens die Berechnung der Diagonalelemente +von $A^k$ einfach. +Die Theorie der Eigenwerte und Eigenvektoren ermöglicht, Matrizen in +eine solche besonders einfache Form zu bringen. +In Abschnitt~\ref{buch:section:grundlagen} werden die grundlegenden +Definitionen der Eigenwerttheorie in Erinnerung gerufen. +Damit kann dann in Abschnitt~\ref{buch:section:normalformen} +gezeigt werden, wie Matrizen in besonders einfache Form gebracht +werden können. +Die Eigenwerte bestimmen auch die Eigenschaften von numerischen +Algorithmen, wie in den Abschnitten~\ref{buch:section:spektralradius} +und \ref{buch:section:numerisch} dargestellt wird. +Für viele Funktionen kann man auch den Wert $f(A)$ berechnen, unter +geeigneten Voraussetzungen an den Spektralradius. +Dies wird in Abschnitt~\ref{buch:section:spektraltheorie} beschrieben. -\input{chapters/40-eigenwerte/numerisch.tex} + +\input{chapters/40-eigenwerte/grundlagen.tex} +\input{chapters/40-eigenwerte/normalformen.tex} \input{chapters/40-eigenwerte/spektralradius.tex} +\input{chapters/40-eigenwerte/numerisch.tex} \input{chapters/40-eigenwerte/spektraltheorie.tex} \section*{Übungsaufgaben} diff --git a/buch/chapters/40-eigenwerte/grundlagen.tex b/buch/chapters/40-eigenwerte/grundlagen.tex new file mode 100644 index 0000000..471c7fb --- /dev/null +++ b/buch/chapters/40-eigenwerte/grundlagen.tex @@ -0,0 +1,391 @@ +% +% grundlagen.tex -- Grundlagen +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\section{Grundlagen +\label{buch:section:grundlagen}} +\rhead{Grundlagen} +Die Potenzen $A^k$ sind besonders einfach zu berechnen, wenn die Matrix +Diagonalform hat, wenn also $A=\operatorname{diag}(\lambda_1,\dots,\lambda_n)$ +ist. +In diesem Fall ist $Ae_k=\lambda_k e_k$ für jeden Standardbasisvektor $e_k$. +Statt sich auf Diagonalmatrizen zu beschränken könnten man also auch +Vektoren $v$ suchen, für die gilt $Av=\lambda v$, die also von $A$ nur +gestreckt werden. +Gelingt es, eine Basis aus solchen sogenanten {\em Eigenvektoren} zu finden, +dann kann man die Matrix $A$ durch Basiswechsel in diese Form bringen. + +% +% +% +\subsection{Kern und Bild +\label{buch:subsection:kern-und-bild}} + +% +% Begriff des Eigenwertes und Eigenvektors +% +\subsection{Eigenwerte und Eigenvektoren +\label{buch:subsection:eigenwerte-und-eigenvektoren}} +In diesem Abschnitt betrachten wir Vektorräume $V=\Bbbk^n$ über einem +beliebigen Körper $\Bbbk$ und quadratische Matrizen +$A\in M_n(\Bbbk)$. +In den meisten Anwendungen wird $\Bbbk=\mathbb{R}$ sein. +Da aber in $\mathbb{R}$ nicht alle algebraischen Gleichungen lösbar sind, +ist es manchmal notwendig, den Vektorraum zu erweitern um zum Beispiel +Eigenschaften der Matrix $A$ abzuleiten. + +\begin{definition} +Ein Vektor $v\in V$ heisst {\em Eigenvektor} von $A$ zum Eigenwert +$\lambda\in\Bbbk$, wenn $v\ne 0$ und $Av=\lambda v$ gilt. +\end{definition} + +Die Bedingung $v\ne 0$ dient dazu, pathologische Situationen auszuschliessen. +Für den Nullvektor gilt $A0=\lambda 0$ für jeden beliebigen Wert von +$\lambda\in\Bbbk$. +Würde man $v=0$ zulassen, wäre jede Zahl in $\Bbbk$ ein Eigenwert, +ein Eigenwert von $A$ wäre nichts besonderes. +Ausserdem wäre $0$ ein Eigenvektor zu jedem beliebigen Eigenwert. + +Eigenvektoren sind nicht eindeutig bestimmt, jedes von $0$ verschiedene +Vielfache von $v$ ist ebenfalls ein Eigenvektor. +Zu einem Eigenwert kann man also einen Eigenvektor jeweils mit +geeigneten Eigenschaften finden, zum Beispiel kann man für $\Bbbk = \mathbb{R}$ +Eigenvektoren auf Länge $1$ normieren. +Im Folgenden werden wir oft die abkürzend linear unabhängige Eigenvektoren +einfach als ``verschiedene'' Eigenvektoren bezeichnen. + +Wenn $v$ ein Eigenvektor von $A$ zum Eigenwert $\lambda$ ist, dann kann +man ihn mit zusätzlichen Vektoren $v_2,\dots,v_n$ zu einer Basis +$\mathcal{B}=\{v,v_2,\dots,v_n\}$ +von $V$ ergänzen. +Die Vektoren $v_k$ mit $k=2,\dots,n$ werden von $A$ natürlich auch +in den Vektorraum $V$ abgebildet, können also als Linearkombinationen +\[ +Av = a_{1k}v + a_{2k}v_2 + a_{3k}v_3 + \dots a_{nk}v_n +\] +dargestellt werden. +In der Basis $\mathcal{B}$ bekommt die Matrix $A$ daher die Form +\[ +A' += +\begin{pmatrix} +\lambda&a_{12}&a_{13}&\dots &a_{1n}\\ + 0 &a_{22}&a_{23}&\dots &a_{2n}\\ + 0 &a_{32}&a_{33}&\dots &a_{3n}\\ +\vdots &\vdots&\vdots&\ddots&\vdots\\ + 0 &a_{n2}&a_{n3}&\dots &a_{nn} +\end{pmatrix}. +\] +Bereits ein einzelner Eigenwert und ein zugehöriger Eigenvektor +ermöglichen uns also, die Matrix in eine etwas einfachere Form +zu bringen. + +\begin{definition} +Für $\lambda\in\Bbbk$ heisst +\[ +E_\lambda += +\{ v\;|\; Av=\lambda v\} +\] +der {\em Eigenraum} zum Eigenwert $\lambda$. +\index{Eigenraum}% +\end{definition} + +Der Eigenraum $E_\lambda$ ist ein Unterraum von $V$, denn wenn +$u,v\in E_\lambda$, dann ist +\[ +A(su+tv) += +sAu+tAv += +s\lambda u + t\lambda v += +\lambda(su+tv), +\] +also ist auch $su+tv\in E_\lambda$. +Der Fall $E_\lambda = \{0\}=0$ bedeutet natürlich, dass $\lambda$ gar kein +Eigenwert ist. + +\begin{satz} +Wenn $\dim E_\lambda=n$, dann ist $A=\lambda E$. +\end{satz} + +\begin{proof}[Beweis] +Da $V$ ein $n$-dimensionaler Vektoraum ist, ist $E_\lambda=V$. +Jeder Vektor $v\in V$ erfüllt also die Bedingung $Av=\lambda v$, +oder $A=\lambda E$. +\end{proof} + +Wenn man die Eigenräume von $A$ kennt, dann kann man auch die Eigenräume +von $A+\mu E$ berechnen. +Ein Vektor $v\in E_\lambda$ erfüllt +\[ +Av=\lambda v +\qquad\Rightarrow\qquad +(A+\mu)v = \lambda v + \mu v += +(\lambda+\mu)v, +\] +somit ist $v$ ein Eigenvektor von $A+\mu E$ zum Eigenwert $\lambda+\mu$. +Insbesondere können wir statt die Eigenvektoren von $A$ zum Eigenwert $\lambda$ +zu studieren, auch die Eigenvektoren zum Eigenwert $0$ von $A-\lambda E$ +untersuchen. + +\begin{satz} +\label{buch:eigenwerte:satz:jordanblock} +Wenn $\dim E_\lambda=1$ ist, dann gibt es eine Basis von $V$ derart, dass +$A$ in dieser Matrix die Form +\begin{equation} +A' += +\begin{pmatrix} + \lambda & 1 & & & & \\ + & \lambda & 1 & & & \\ + & & \lambda & & & \\ + & & & \ddots & & \\ + & & & & \lambda & 1 \\ + & & & & & \lambda +\end{pmatrix} +\label{buch:eigenwerte:eqn:jordanblock} +\end{equation} +hat. +\end{satz} + +\begin{proof}[Beweis] +Entsprechend der Bemerkung vor dem Satz können wir uns auf die Betrachtung +der Matrix $B=A-\lambda E$ konzentrieren, deren Eigenraum zum Eigenwert $0$ +$1$-dimensional ist. +Es gibt also einen Vektor $v_1\ne 0$ mit $Bv_1=0$. +Der Vektor $v_1$ spannt den Eigenraum auf: $E_0 = \langle v_1\rangle$. + +Wir konstruieren jetzt rekursiv eine Folge $v_2,\dots,v_n$ von Vektoren +mit folgenden Eigenschaften. +Zunächst soll $v_k=Bv_{k+1}$ für $k=1,\dots,n-1$ sein. +Ausserdem soll $v_{k+1}$ in jedem Schritt linear unabhängig von den +Vektoren $v_1,\dots,v_{k-1}$ gewählt werden. +Wenn diese Konstruktion gelingt, dann ist $\mathcal{B}=\{v_1,\dots,v_n\}$ +eine Basis von $V$ und die Matrix von $B$ in dieser Basis ist +$A'$ wie in \eqref{buch:eigenwerte:eqn:jordanblock}. +\end{proof} + +\subsection{Das charakteristische Polynom +\label{buch:subsection:das-charakteristische-polynom}} +Ein Eigenvektor von $A$ erfüllt $Av=\lambda v$ oder gleichbedeutend +$(A-\lambda E)v=0$, er ist also eine nichttriviale Lösung des homogenen +Gleichungssystems mit Koeffizientenmatrix $A-\lambda E$. +Ein Eigenwert ist also ein Skalar derart, dass $A-\lambda E$ +singulär ist. +Ob eine Matrix singulär ist, kann mit der Determinante festgestellt +werden. +Die Eigenwerte einer Matrix $A$ sind daher die Nullstellen +von $\det(A-\lambda E)$. + +\begin{definition} +Das {\em charakteristische Polynom} +\[ +\chi_A(x) += +\det (A-x E) += +\left| +\begin{matrix} +a_{11}-x & a_{12} & \dots & a_{1n} \\ +a_{21} & a_{22}-x & \dots & a_{2n} \\ +\vdots &\vdots &\ddots & \vdots \\ +a_{n1} & a_{n2} &\dots & a_{nn}-x +\end{matrix} +\right|. +\] +der Matrix $A$ ist ein Polynom vom Grad $n$ mit Koeffizienten in $\Bbbk$. +\end{definition} + +Findet man eine Nullstelle $\lambda\in\Bbbk$ von $\chi_A(x)$, +dann ist die Matrix $A-\lambda E\in M_n(\Bbbk)$ und mit dem Gauss-Algorithmus +kann man auch mindestens einen Vektor $v\in \Bbbk^n$ finden, +der $Av=\lambda v$ erfüllt. +Eine Matrix der Form wie in Satz~\ref{buch:eigenwerte:satz:jordanblock} +hat +\[ +\chi_A(x) += +\left| +\begin{matrix} +\lambda-x & 1 & & & & \\ + & \lambda-x & 1 & & & \\ + & & \lambda-x & & & \\ + & & &\ddots& & \\ + & & & &\lambda-x& 1 \\ + & & & & &\lambda-x +\end{matrix} +\right| += +(\lambda-x)^n += +(-1)^n (x-\lambda)^n +\] +als charakteristisches Polynom, welches $\lambda$ als einzige +Nullstelle hat. +Der Eigenraum der Matrix ist aber nur eindimensional, man kann also +im Allgemeinen für jede Nullstelle des charakteristischen Polynoms +nicht mehr als einen Eigenvektor (d.~h.~einen eindimensionalen Eigenraum) +erwarten. + +Wenn das charakteristische Polynom von $A$ keine Nullstellen in $\Bbbk$ hat, +dann kann es auch keine Eigenvektoren in $Bbbk^n$ geben. +Gäbe es nämlich einen solchen Vektor, dann müsste eine der Komponenten +des Vektors von $0$ verschieden sein, wir nehmen an, dass es die Komponente +in Zeile $k$ ist. +Die Komponente $v_k$ kann man auf zwei Arten berechnen, einmal als +die $k$-Komponenten von $Av$ und einmal als $k$-Komponente von $\lambda v$: +\[ +a_{k1}v_1+\dots+a_{kn}v_n = \lambda v_k. +\] +Da $v_k\ne 0$ kann man nach $\lambda$ auflösen und erhält +\[ +\lambda = \frac{a_{k1}v_1+\dots + a_{kn}v_n}{v_k}. +\] +Alle Terme auf der rechten Seite sind in $\Bbbk$ und werden nur mit +Körperoperationen in $\Bbbk$ verknüpft, also muss auch $\lambda\in\Bbbk$ +sein, im Widerspruch zur Annahme. + +Durch hinzufügen von geeigneten Elementen können wir immer zu einem +Körper $\Bbbk'$ übergehen, in dem das charakteristische Polynom +in Linearfaktoren zerfällt. +In diesem Körper kann man jetzt das homogene lineare Gleichungssystem +mit Koeffizientenmatrix $A-\lambda E$ lösen und damit mindestens +einen Eigenvektor $v$ für jeden Eigenwert finden. +Die Komponenten von $v$ liegen in $\Bbbk'$, und mindestens eine davon kann +nicht in $\Bbbk$ liegen. +Das bedeutet aber nicht, dass man diese Vektoren nicht für theoretische +Überlegungen über von $\Bbbk'$ unabhängige Eigenschaften der Matrix $A$ machen. +Das folgende Beispiel soll diese Idee illustrieren. + +\begin{beispiel} +Wir arbeiten in diesem Beispiel über dem Körper $\Bbbk=\mathbb{Q}$. +Die Matrix +\[ +A=\begin{pmatrix} +-4&7\\ +-2&4 +\end{pmatrix} +\in +M_2(\mathbb{Q}) +\] +hat das charakteristische Polynom +\[ +\chi_A(x) += +\left| +\begin{matrix} +-4-x&7\\-2&4-x +\end{matrix} +\right| += +(-4-x)(4-x)-7\cdot(-2) += +-16+x^2+14 += +x^2-2. +\] +Die Nullstellen sind $\pm\sqrt{2}$ und damit nicht in $\mathbb{Q}$. +Wir gehen daher über zum Körper $\mathbb{Q}(\sqrt{2})$, in dem +sich zwei Nullstellen $\lambda=\pm\sqrt{2}$ finden lassen. +Zu jedem Eigenwert lässt sich auch ein Eigenvektor +$v_{\pm\sqrt{2}}\in \mathbb{Q}(\sqrt{2})^2$, und unter Verwendung dieser +Basis ist bekommt die Matrix $A'=TAT^{-1}$ Diagonalform. +Die Transformationsmatrix $T$ enthält Matrixelemente aus +$\mathbb{Q}(\sqrt{2})$, die nicht in $\mathbb{Q}$ liegen. +Die Matrix $A$ lässt sich also über dem Körper $\mathbb{Q}(\sqrt{2})$ +diagonalisieren, nicht aber über dem Körper $\mathbb{Q}$. + +Da $A'$ Diagonalform hat mit $\pm\sqrt{2}$ auf der Diagonalen, folgt +$A^{\prime 2} = 2E$, die Matrix $A'$ erfüllt also die Gleichung +\begin{equation} +A^{\prime 2}-E= \chi_{A}(A) = 0. +\label{buch:grundlagen:eqn:cayley-hamilton-beispiel} +\end{equation} +Dies is ein Spezialfall des Satzes von Cayley-Hamilton~\ref{XXX} +welcher besagt, dass jede Matrix $A$ eine Nullstelle ihres +charakteristischen Polynoms ist: $\chi_A(A)=0$. +Da in Gleichung~\ref{buch:grundlagen:eqn:cayley-hamilton-beispiel} +wurde zwar in $\mathbb{Q}(\sqrt{2})$ hergeleitet, aber in ihr kommen +keine Koeffizienten aus $\mathbb{Q}(\sqrt{2})$ vor, die man nicht auch +in $\mathbb{Q}$ berechnen könnte. +Sie gilt daher ganz allgemein. +\end{beispiel} + +\begin{beispiel} +Die Matrix +\[ +A=\begin{pmatrix} +32&-41\\ +24&-32 +\end{pmatrix} +\in +M_2(\mathbb{R}) +\] +über dem Körper $\Bbbk = \mathbb{R}$ +hat das charakteristische Polynom +\[ +\det(A-xE) += +\left| +\begin{matrix} +32-x&-41 \\ +25 &-32-x +\end{matrix} +\right| += +(32-x)(-32-x)-25\cdot(-41) += +x^2-32^2 + 1025 += +x^2+1. +\] +Die charakteristische Gleichung $\chi_A(x)=0$ hat in $\mathbb{R}$ +keine Lösungen, daher gehen wir zum Körper $\Bbbk'=\mathbb{C}$ über, +in dem dank dem Fundamentalsatz der Algebra alle Nullstellen zu finden +sind, sie sind $\pm i$. +In $C$ lassen sich dann auch Eigenvektoren finden, man muss dazu die +folgenden linearen Gleichungssyteme lösen: +\begin{align*} +\begin{tabular}{|>{$}c<{$}>{$}c<{$}|} +32-i&-41\\ +25 &-32-i +\end{tabular} +& +\rightarrow +\begin{tabular}{|>{$}c<{$}>{$}c<{$}|} +1 & t\\ +0 & 0 +\end{tabular} +& +\begin{tabular}{|>{$}c<{$}>{$}c<{$}|} +32+i&-41\\ +25 &-32+i +\end{tabular} +& +\rightarrow +\begin{tabular}{|>{$}c<{$}>{$}c<{$}|} +1 & \overline{t}\\ +0 & 0 +\end{tabular}, +\intertext{wobei wir $t=-41/(32-i) =-41(32+i)/1025= -1.28 -0.04i = (64-1)/50$ +abgekürzt haben. +Die zugehörigen Eigenvektoren sind} +v_i&=\begin{pmatrix}t\\i\end{pmatrix} +& +v_{-i}&=\begin{pmatrix}\overline{t}\\i\end{pmatrix} +\end{align*} +Mit den Vektoren $v_i$ und $v_{-i}$ als Basis kann die Matrix $A$ als +komplexe Matrix, also mit komplexem $T$ in die komplexe Diagonalmatrix +$A'=\operatorname{diag}(i,-i)$ transformiert werden. +Wieder kann man sofort ablesen, dass $A^{\prime2}+E=0$, und wieder kann +man schliessen, dass für die relle Matrix $A$ ebenfalls $\chi_A(A)=0$ +gelten muss. +\end{beispiel} + + + + diff --git a/buch/chapters/40-eigenwerte/normalformen.tex b/buch/chapters/40-eigenwerte/normalformen.tex new file mode 100644 index 0000000..f695435 --- /dev/null +++ b/buch/chapters/40-eigenwerte/normalformen.tex @@ -0,0 +1,81 @@ +% +% normalformen.tex -- Normalformen einer Matrix +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\section{Normalformen +\label{buch:section:normalformen}} +\rhead{Normalformen} +In den Beispielen im vorangegangenen wurde wiederholt der Trick +verwendet, den Koeffizientenkörper so zu erweitern, dass das +charakteristische Polynom in Linearfaktoren zerfällt und +für jeden Eigenwert Eigenvektoren gefunden werden können. +Diese Idee ermöglicht, eine Matrix in einer geeigneten Körpererweiterung +in eine besonders einfache Form zu bringen, das Problem dort zu lösen. +Anschliessend kann man sich darum kümmern in welchem Mass die gewonnenen +Resultate wieder in den ursprünglichen Körper transportiert werden können. + +\subsection{Diagonalform} +Sei $A$ eine beliebige Matrix mit Koeffizienten in $\Bbbk$ und sei $\Bbbk'$ +eine Körpererweiterung von $\Bbbk$ derart, dass das charakteristische +Polynom in Linearfaktoren +\[ +\chi_A(x) += +(x-\lambda_1)^{k_1}\cdot (x-\lambda_2)^{k_2}\cdot\dots\cdot (x-\lambda_m)^{k_m} +\] +mit Vielfachheiten $k_m$ zerfällt, $\lambda_i\in\Bbbk'$. +Zu jedem Eigenwert $\lambda_i$ gibt es sicher einen Eigenvektor, wir +wollen aber in diesem Abschnitt zusätzlich annehmen, dass es eine Basis +aus Eigenvektoren gibt. +In dieser Basis bekommt die Matrix Diagonalform, wobei auf der +Diagonalen nur Eigenwerte vorkommen können. +Man kann die Vektoren so anordnen, dass die Diagonalmatrix in Blöcke +der Form $\lambda_iE$ zerfällt +\[ +\def\temp#1{\multicolumn{1}{|c}{\raisebox{0pt}[12pt][7pt]{\phantom{x}$#1$}\phantom{x}}} +A' +=\left( +\begin{array}{cccc} +\cline{1-1} +\temp{\lambda_1E} &\multicolumn{1}{|c}{}& & \\ +\cline{1-2} + &\temp{\lambda_2E}&\multicolumn{1}{|c}{}& \\ +\cline{2-3} + & &\temp{\ddots}&\multicolumn{1}{|c}{}\\ +\cline{3-4} + & & &\multicolumn{1}{|c|}{\raisebox{0pt}[12pt][7pt]{\phantom{x}$\lambda_mE$}\phantom{x}}\\ +\cline{4-4} +\end{array} +\right) +\] +Über die Grösse eines solchen $\lambda_iE$-Blockes können wir zum jetzigen +Zeitpunkt noch keine Aussagen machen. + +Die Matrizen $A-\lambda_kE$ enthalten jeweils einen Block aus lauter +Nullen. +Das Produkt all dieser Matrizen ist daher +\[ +(A-\lambda_1E) +(A-\lambda_2E) +\cdots +(A-\lambda_mE) += +0. +\] +Über dem Körper $\Bbbk'$ gibt es also das Polynom +$m(x)=(x-\lambda_1)(x-\lambda_2)\cdots(x-\lambda_m)$ mit der Eigenschaft +$m(A)=0$. +Dies ist auch das Polynom von kleinstmöglichem Grad, denn für jeden +Eigenwert muss ein entsprechender Linearfaktor in so einem Polynom vorkommen. +Das Polynom $m(x)$ ist daher das Minimalpolynom der Matrix $A$. +Da jeder Faktor in $m(x)$ auch ein Faktor von $\chi_A(x)$ ist, +folgt wieder $\chi_A(A)=0$. +Ausserdem ist über dem Körper $\Bbbk'$ das Polynom $m(x)$ ein Teiler +des charakteristischen Polynoms $\chi_A(x)$. + +\subsection{Jordan-Normalform} + +\subsection{Reelle Normalform} + +\subsection{Obere Hessenberg-Form} diff --git a/buch/common/packages.tex b/buch/common/packages.tex index 68d5e45..65e5879 100644 --- a/buch/common/packages.tex +++ b/buch/common/packages.tex @@ -27,7 +27,7 @@ %\usepackage{suffix} \usepackage{paralist} \usepackage{makeidx} -\usepackage{array} +\usepackage{array,multirow} \usepackage{hyperref} \usepackage{subfigure} \usepackage{tikz} |