aboutsummaryrefslogtreecommitdiffstats
diff options
context:
space:
mode:
-rw-r--r--buch/chapters/05-zahlen/komplex.tex116
-rw-r--r--buch/chapters/10-vektorenmatrizen/Makefile.inc1
-rw-r--r--buch/chapters/10-vektorenmatrizen/chapter.tex1
-rw-r--r--buch/chapters/10-vektorenmatrizen/koerper.tex18
-rw-r--r--buch/chapters/10-vektorenmatrizen/linear.tex1021
-rw-r--r--buch/chapters/40-eigenwerte/Makefile.inc2
-rw-r--r--buch/chapters/40-eigenwerte/chapter.tex28
-rw-r--r--buch/chapters/40-eigenwerte/grundlagen.tex391
-rw-r--r--buch/chapters/40-eigenwerte/normalformen.tex81
-rw-r--r--buch/common/packages.tex2
10 files changed, 1658 insertions, 3 deletions
diff --git a/buch/chapters/05-zahlen/komplex.tex b/buch/chapters/05-zahlen/komplex.tex
index 7198e68..0c5eb70 100644
--- a/buch/chapters/05-zahlen/komplex.tex
+++ b/buch/chapters/05-zahlen/komplex.tex
@@ -276,6 +276,122 @@ komplexen Ebene eine Drehstreckung durch.
Auf diese geometrische Beschreibung der Multiplikation werden wir zurückkommen,
wenn wir die komplexen Zahlen als Matrizen beschreiben wollen.
+\subsubsection{Algebraische Vollständigkeit}
+Die komplexen Zahlen $\mathbb{C}$ sind als Erweiterung von $\mathbb{R}$
+so konstruiert worden, dass die Gleichung $x^2+1=0$ eine Lösung hat.
+Etwas überraschend ist dagegen, dass in dieser Erweiterung jetzt jede
+beliebige algebraische Gleichung lösbar geworden.
+Dies ist der Inhalt des Fundamentalsatzes der Algebra.
+
+\begin{satz}[Fundamentalsatz der Algebra]
+\index{Fundamentalsatz der Algebra}%
+Jede algebraische Gleichung der Form
+\[
+p(x)=x^n + a_{n-1}x^{n-1}+a_1x+a_0=0,\qquad a_k\in\mathbb{C}
+\]
+mit komplexen Koeffizienten hat $n$ möglicherweise mit Vielfachheit
+gezähle Nullstellen $\alpha_1,\dots,\alpha_m$, d.~h.~das Polynom $p(x)$
+lässt sich in Linearfaktoren
+\[
+p(x)
+=
+(x-\alpha_1)^{k_1}(x-\alpha_2)^{k_2}\cdot\ldots\cdot(x-\alpha_m)^{k_m}
+\]
+zerlegen, wobei $k_1+k_2+\dots+k_m=n$.
+Die Zahlen $k_j$ heisst die {\em Vielfachheit} der Nullstelle $\alpha_j$.
+\end{satz}
+
+Der Fundamentalsatz der Algebra wurde erstmals von Carl Friedrich Gauss
+\index{Gauss, Carl Friedrich}%
+bewiesen.
+Seither sind viele alternative Beweise mit Methoden aus den verschiedensten
+Gebieten der Mathematik gegeben worden.
+Etwas salopp könnten man sagen, dass der Fundamentalsatz ausdrückt, dass
+die Konstruktion der Zahlensysteme mit $\mathbb{C}$ abgeschlossen ist,
+soweit damit die Lösbarkeit beliebiger Gleichungen angestrebt ist.
+
+\subsubsection{Quaternionen und Octonionen}
+Die komplexen Zahlen ermöglichen eine sehr effiziente Beschreibung
+geometrischer Abbildungen wie Translationen, Spiegelungen und
+Drehstreckungen in der Ebene.
+Es drängt sich damit die Frage auf, ob sich $\mathbb{C}$ so erweitern
+lässt, dass man damit auch Drehungen im dreidimensionalen Raum
+beschreiben könnte.
+Da Drehungen um verschiedene Achsen nicht vertauschen, kann eine solche
+Erweiterung nicht mehr kommutativ sein.
+
+William Rowan Hamilton propagierte ab 1843 eine Erweiterung von $\mathbb{C}$
+mit zwei zusätzlichen Einheiten $j$ und $k$ mit den nichtkommutativen
+Relationen
+\begin{equation}
+i^2 = j^2 = k^2 = ijk = -1.
+\label{buch:zahlen:eqn:quaternionenregeln}
+\end{equation}
+Er nannte die Menge aller Linearkombinationen
+\[
+\mathbb{H} = \{ a_0+a_1i+a_2j+a_3k\;|\; a_l\in \mathbb{R}\}
+\]
+die {\em Quaternionen}, die Einheiten $i$, $j$ und $k$ heissen auch
+\index{Quaternionen}%
+Einheitsquaternionen.
+\index{Einheitsquaternionen}%
+Konjugation, Betrag und Division können ganz ähnlich wie bei den
+komplexen Zahlen definiert werden und machen $\mathbb{H}$ zu einer
+sogenannten {\em Divisionsalgebra}.
+\index{Divisionsalgebra}%
+Alle Rechenregeln mit Ausnahme der Kommutativität der Multiplikation
+sind weiterhin gültig und durch jede von $0$ verschiedene Quaternion
+kann auch dividiert werden.
+
+Aus den Regeln für die Quadrate der Einheiten in
+\eqref{buch:zahlen:eqn:quaternionenregeln} folgt zum Beispiel
+$i^{-1}=-i$, $j^{-1}=-j$ und $k^{-1}=-k$.
+Die letzte Bedingung liefert daraus
+\[
+ijk=-1
+\qquad\Rightarrow\qquad
+\left\{
+\quad
+\begin{aligned}
+ij
+&=
+ijkk^{-1}=-1k^{-1}=k
+\\
+i^2jk&=-i=-jk
+\\
+-j^2k&=-ji=k
+\end{aligned}
+\right.
+\]
+Aus den Relationen~\eqref{buch:zahlen:eqn:quaternionenregeln}
+folgt also insbesondere auch, dass $ij=-ji$.
+Ebenso kann abgeleitet werden, dass $jk=-kj$ und $ik=-ki$.
+Man sagt, die Einheiten sind {\em antikommutativ}.
+\index{antikommutativ}%
+
+Die Beschreibung von Drehungen mit Quaternionen ist in der
+Computergraphik sehr beliebt, weil eine Quaternion mit nur vier
+Komponenten $a_0,\dots,a_3$ vollständig beschrieben ist.
+Eine Transformationsmatrix des dreidimensionalen Raumes enthält
+dagegen neun Koeffizienten, die vergleichsweise komplizierte
+Abhängigkeiten erfüllen müssen.
+Quaternionen haben auch in weiteren Gebieten interessante Anwendungen,
+zum Beispiel in der Quantenmechanik, wo antikommutierende Operatoren
+bei der Beschreibung von Fermionen eine zentrale Rolle spielen.
+
+Aus rein algebraischer Sicht kann man die Frage stellen, ob es eventuell
+auch noch grössere Divisionsalgebren gibt, die $\mathbb{H}$ erweitern.
+Tatsächlich hat Arthur Cayley 1845 eine achtdimensionale Algebra,
+die Oktonionen $\mathbb{O}$, mit vier weiteren Einheiten beschrieben.
+\index{Cayley, Arthur}%
+Allerdings sind die Oktonionen nur beschränkt praktisch anwendbar.
+Grund dafür ist die Tatsache, dass die Multiplikation in $\mathbb{O}$
+nicht mehr assoziativ ist.
+Das Produkt von mehr als zwei Faktoren aus $\mathbb{O}$ ist von der
+Reihenfolge der Ausführung der Multiplikationen abhängig.
+
+
+
diff --git a/buch/chapters/10-vektorenmatrizen/Makefile.inc b/buch/chapters/10-vektorenmatrizen/Makefile.inc
index 69468f6..954e52c 100644
--- a/buch/chapters/10-vektorenmatrizen/Makefile.inc
+++ b/buch/chapters/10-vektorenmatrizen/Makefile.inc
@@ -9,6 +9,7 @@ CHAPTERFILES = $(CHAPTERFILES) \
chapters/10-matrizenvektoren/gruppen.tex \
chapters/10-matrizenvektoren/ringe.tex \
chapters/10-matrizenvektoren/algebren.tex \
+ chapters/10-matrizenvektoren/koerper.tex \
chapters/10-matrizenvektoren/uebungsaufgaben/1001.tex \
chapters/10-matrizenvektoren/uebungsaufgaben/1002.tex \
chapters/10-matrizenvektoren/chapter.tex
diff --git a/buch/chapters/10-vektorenmatrizen/chapter.tex b/buch/chapters/10-vektorenmatrizen/chapter.tex
index 51b91ab..abe9ba9 100644
--- a/buch/chapters/10-vektorenmatrizen/chapter.tex
+++ b/buch/chapters/10-vektorenmatrizen/chapter.tex
@@ -12,6 +12,7 @@
\input{chapters/10-vektorenmatrizen/gruppen.tex}
\input{chapters/10-vektorenmatrizen/ringe.tex}
\input{chapters/10-vektorenmatrizen/algebren.tex}
+\input{chapters/10-vektorenmatrizen/koerper.tex}
\section*{Übungsaufgaben}
\aufgabetoplevel{chapters/10-vektorenmatrizen/uebungsaufgaben}
diff --git a/buch/chapters/10-vektorenmatrizen/koerper.tex b/buch/chapters/10-vektorenmatrizen/koerper.tex
new file mode 100644
index 0000000..c9d3a64
--- /dev/null
+++ b/buch/chapters/10-vektorenmatrizen/koerper.tex
@@ -0,0 +1,18 @@
+%
+% koerper.tex -- Definition eines Körpers
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschwêizer Fachhochschule
+%
+\section{Körper
+\label{buch:section:koerper}}
+Die Multiplikation ist in einer Algebra nicht immer umkehrbar.
+Die Zahlenkörper von Kapitel~\ref{buch:chapter:zahlen} sind also
+sehr spezielle Algebren, man nennt sie Körper.
+In diesem Abschnitt sollen die wichtigsten Eigenschaften von Körpern
+zusammengetragen werden.
+
+
+
+
+
+
diff --git a/buch/chapters/10-vektorenmatrizen/linear.tex b/buch/chapters/10-vektorenmatrizen/linear.tex
index 25fa1af..461bf9f 100644
--- a/buch/chapters/10-vektorenmatrizen/linear.tex
+++ b/buch/chapters/10-vektorenmatrizen/linear.tex
@@ -6,3 +6,1024 @@
\section{Lineare Algebra
\label{buch:grundlagen:section:linearealgebra}}
\rhead{Lineare Algebra}
+In diesem Abschnitt tragen wir die bekannten Resultate der linearen
+Algebra zusammen.
+Meistens lernt man diese zuerst für Vektoren und Gleichungssyteme mit
+reellen Variablen.
+In der linearen Algebra werden aber nur die arithmetischen
+Grundoperationen verwendet, es gibt also keinen Grund, warum sich
+die Theorie nicht über einem beliebigen Zahlenkörper entwickeln
+lassen sollte.
+Die in Kapitel~\ref{buch:chapter:endliche-koerper} untersuchten
+endlichen Körper sind zum Beispiel besser geeignet für Anwendungen in
+der Kryptographie oder für die diskrete schnelle Fourier-Transformation.
+Daher geht es in diesem Abschnitt weniger darum alles herzuleiten,
+sondern vor allem darum, die Konzepte in Erinnerung zu rufen und
+so zu formulieren, dass offensichtlich wird, dass alles mit einem
+beliebigen Zahlkörper $\Bbbk$ funktioniert.
+
+%
+% Vektoren
+%
+\subsection{Vektoren
+\label{buch:grundlagen:subsection:vektoren}}
+Koordinatensysteme haben ermöglicht, Punkte als Zahlenpaare zu beschreiben.
+Dies ermöglicht, geometrische Eigenschaften als Gleichungen auszudrücken,
+aber mit Punkten kann man trotzdem noch nicht rechnen.
+Ein Vektor fasst die Koordinaten eines Punktes in einem Objekt zusammen,
+mit dem man auch rechnen und zum Beispiel Parallelverschiebungen
+algebraisieren kann.
+Um auch Streckungen ausdrücken zu können, wird auch eine Menge von
+Streckungsfaktoren benötigt, mit denen alle Komponenten eines Vektors
+multipliziert werden können.
+Sie heissen auch {\em Skalare} und liegen in $\Bbbk$.
+
+\subsubsection{Zeilen- und Spaltenvektoren}
+Vektoren sind Tupel von Elementen aus $\Bbbk$.
+
+\begin{definition}
+Ein $n$-dimensionaler {\em Spaltenvektor} ist ein $n$-Tupel von Zahlen aus
+$\Bbbk$ geschrieben als
+\[
+v = \begin{pmatrix} v_1\\v_2\\\vdots\\v_n\end{pmatrix}
+\in \Bbbk^n.
+\]
+Ein $m$-dimensionaler {\em Zeilenvektor} wird geschrieben als
+\[
+u = \begin{pmatrix}u_1&u_2&\dots&u_m\end{pmatrix} \in \Bbbk^m.
+\]
+\end{definition}
+
+Für Vektoren gleicher Dimension sind zwei Rechenoperationen definiert.
+Die {\em Addition von Vektoren} $a,a\in\Bbbk^n$ und die Multiplikation
+eines Vektors mit einem Skalar $\lambda\in\Bbbk$ erfolgt elementweise:
+\[
+a+b
+=
+\begin{pmatrix}a_1\\\vdots\\a_n\end{pmatrix}
++
+\begin{pmatrix}b_1\\\vdots\\b_n\end{pmatrix}
+=
+\begin{pmatrix}a_1+b_1\\\vdots\\a_n+b_n\end{pmatrix},
+\qquad
+\lambda a
+=
+\lambda
+\begin{pmatrix}a_1\\\vdots\\a_n\end{pmatrix}
+=
+\begin{pmatrix}\lambda a_1\\\vdots\\\lambda a_n\end{pmatrix}.
+\]
+Die üblichen Rechenregeln sind erfüllt, nämlich
+\begin{equation}
+\begin{aligned}
+&\text{Kommutativität:}
+&
+a+b&=b+a
+&&
+&&\forall a,b\in V
+\\
+&\text{Assoziativgesetze:}
+&
+(a+b)+c&=a+(b+c)
+&
+(\lambda\mu)a&=\lambda(\mu a)
+&&\forall a,b,c\in V,\; \lambda,\mu\in\Bbbk
+\\
+&\text{Distributivgesetze:}
+&
+\lambda(a+b)&=\lambda a + \lambda b
+&
+(\lambda+\mu)a&=\lambda a + \mu a
+&&\forall a,b\in V,\; \lambda,\mu\in\Bbbk.
+\\
+\end{aligned}
+\label{buch:vektoren-und-matrizen:eqn:vrgesetze}
+\end{equation}
+Diese Gesetze drücken aus, dass man mit Vektoren so rechnen kann, wie man
+das in der Algebra gelernt hat, mit der einzigen Einschränkung, dass
+man Skalare immer links von Vektoren schreiben muss.
+Die Distributivgesetze zum Beispiel sagen, dass man Ausmultipilizieren
+oder Ausklammern kann genauso wie in Ausdrücken, die nur Zahlen enthalten.
+
+Man beachte, dass es im allgemeinen kein Produkt von Vektoren gibt.
+Das aus der Vektorgeometrie bekannte Vektorprodukt ist eine Spezialität
+des dreidimensionalen Raumes, es gibt keine Entsprechung dafür in anderen
+Dimensionen.
+
+\subsubsection{Standardbasisvektoren}
+In $\Bbbk^n$ findet man eine Menge von speziellen Vektoren, durch die
+man alle anderen Vektoren ausdrücken kann.
+Mit den sogenannten {\em Standardbasisvektoren}
+\[
+e_1=\begin{pmatrix}1\\0\\\vdots\\0\end{pmatrix},
+e_2=\begin{pmatrix}0\\1\\\vdots\\0\end{pmatrix},
+\dots,
+e_n=\begin{pmatrix}0\\0\\\vdots\\1\end{pmatrix}
+\]
+kann der Vektor $a\in\Bbbk^n$ als
+\[
+a
+=
+\begin{pmatrix}a_1\\a_2\\\vdots\\a_n\end{pmatrix}
+=
+a_1 \begin{pmatrix}1\\0\\\vdots\\0\end{pmatrix}
++
+a_2 \begin{pmatrix}0\\1\\\vdots\\0\end{pmatrix}
++
+\dots
++
+a_n \begin{pmatrix}0\\0\\\vdots\\1\end{pmatrix}
+=
+a_1e_1+a_2e_2+\dots+a_ne_n
+\]
+ausgedrückt werden.
+
+\subsubsection{Vektorraum}
+Die Rechnungen, die man gemäss der Rechengesetze
+\eqref{buch:vektoren-und-matrizen:eqn:vrgesetze}
+anstellen kann, verlangen nicht, dass Elemente $a$ und $b$, mit denen man
+da rechnet, Zeilen- oder Spaltenvektoren sind.
+Jede Art von mathematischem Objekt, mit dem man so rechen kann,
+kann als (abstrakter) Vektor betrachtet werden.
+
+\begin{definition}
+Eine Menge $V$ von Objekten, auf der zwei Operationen definiert,
+nämlich die Addition, geschrieben $a+b$ für $a,b\in V$ und die
+Multiplikation mit Skalaren, geschrieben $\lambda a$ für $a\in V$ und
+$\lambda\in \Bbbk$, heisst ein {\em $\Bbbk$-Vektorraum} oder {\em Vektorraum
+über $\Bbbk$} (oder
+einfach nur {\em Vektorraum}, wenn $\Bbbk$ aus dem Kontext klar sind),
+wenn die Rechenregeln~\eqref{buch:vektoren-und-matrizen:eqn:vrgesetze}
+gelten
+\end{definition}
+
+Die Mengen von Spaltenvektoren $\Bbbk^n$ sind ganz offensichtlich
+Vektorräume.
+Die in Kapitel~\ref{buch:chapter:polynome} studierten Mengen von
+Polynomen mit Koeffizienten in $\Bbbk$ sind ebenfalls Vektorräume.
+
+\begin{beispiel}
+Die Zahlenmenge $\mathbb{C}$ ist ein $\mathbb{R}$-Vektorraum.
+Elemente von $\mathbb{C}$ können addiert und mit reellen Zahlen
+multipliziert werden.
+Die Rechenregeln für die komplexen Zahlen umfassen auch alle Regeln
+\eqref{buch:vektoren-und-matrizen:eqn:vrgesetze}, also ist
+$\mathbb{C}$ ein Vektorraum über $\mathbb{R}$.
+\end{beispiel}
+
+\begin{beispiel}
+Die Menge $C([a,b])$ der stetigen Funktionen $[a,b]\to\mathbb{Re}$
+bildet ein Vektorraum.
+Funktionen können addiert und mit reellen Zahlen multipliziert werden:
+\[
+(f+g)(x) = f(x) + g(x)
+\qquad\text{und}\qquad
+(\lambda f)(x) = \lambda f(x).
+\]
+Dies reicht aber noch nicht ganz, denn $f+g$ und $\lambda f$ müssen
+ausserdem auch {\em stetige} Funktionen sein.
+Das dem so ist, lernt man in der Analysis.
+Die Vektorraum-Rechenregeln
+\eqref{buch:vektoren-und-matrizen:eqn:vrgesetze} sind ebenfalls erfüllt.
+\end{beispiel}
+
+Die Beispiele zeigen, dass der Begriff des Vektorraums die algebraischen
+Eigenschaften eine grosse Zahl sehr verschiedenartiger mathematischer
+Objekte beschreiben kann.
+Alle Erkenntnisse, die man ausschliesslich aus Vekotorraumeigenschaften
+gewonnen hat, sind auf alle diese Objekte übertragbar.
+Im folgenden werden wir alle Aussagen für einen Vektorraum $V$ formulieren,
+wenn wir die Darstellung als Tupel $\Bbbk^n$ nicht brauchen.
+
+\subsubsection{Gleichungssysteme in Vektorform}
+Die Vektorraum-Operationen erlauben nun auch, lineare Gleichungssysteme
+in {\em Vektorform} zu schreiben:
+\index{Vektorform eines Gleichungssystems}%
+\begin{equation}
+\left.
+\begin{linsys}{4}
+a_{11} x_1 &+& \dots &+& a_{1n}x_n &=& b_1\\
+\vdots & & \ddots& & \vdots & & \vdots \\
+a_{m1} x_1 &+& \dots &+& a_{1n}x_n &=& b_m\\
+\end{linsys}
+\quad
+\right\}
+\qquad
+\Rightarrow
+\qquad
+x_1
+\begin{pmatrix}a_{11}\\\vdots\\a_{m1} \end{pmatrix}
++
+\dots
++
+x_n
+\begin{pmatrix}a_{1n}\\\vdots\\a_{mn} \end{pmatrix}
+=
+\begin{pmatrix}b_1\\\vdots\\b_m\end{pmatrix}
+\label{buch:vektoren-und-matrizen:eqn:vektorform}
+\end{equation}
+Die rechte Seite von~\eqref{buch:vektoren-und-matrizen:eqn:vektorform}
+ist eine Linearkombination der Spaltenvektoren.
+
+\begin{definition}
+Eine Linearkombination der Vektoren $v_1,\dots,v_n\in V$ ist ein Ausdruck
+der Form
+\[
+v
+=
+\lambda_1v_1+\dots + \lambda_n v_n
+\]
+mit $\lambda_1,\dots,\lambda_n\in \Bbbk$.
+\end{definition}
+
+Die Menge aller Vektoren, die sich als Linearkombinationen einer gegebenen
+Menge ausdrücken lässt, heisst der aufgespannte Raum.
+
+\begin{definition}
+\index{aufgespannter Raum}%
+Sind $a_1,\dots,a_n\in V$ Vektoren, dann heisst die Menge
+\[
+\langle a_1,\dots,a_n\rangle
+=
+\{x_1a_1+\dots+x_na_n\;|\; x_1,\dots,x_n\in\Bbbk\}
+\]
+aller Vektoren, die sich durch Linearkombination aus den Vektoren
+$a_1,\dots,a_n$ gewinnen lassen, der von $a_1,\dots,a_n$
+aufgespannte Raum.
+\end{definition}
+
+\subsubsection{Lineare Abhängigkeit}
+Die Gleichung~\eqref{buch:vektoren-und-matrizen:eqn:vektorform}
+drückt aus, dass sich der Vektor $b$ auf der rechten Seite als
+Linearkombination der Spaltenvektoren ausdrücken lässt.
+Oft ist eine solche Darstellung auf nur eine Art und Weise.
+Betrachten wir daher jetzt den Fall, dass es zwei verschiedene
+Linearkombinationen der Vektoren $a_1,\dots,a_n$ gibt, die beide den
+Vektor $b$ ergeben.
+Deren Differenz ist
+\begin{equation}
+\left.
+\begin{linsys}{4}
+x_1 a_1 &+& \dots &+& x_n a_n &=& b \\
+x_1'a_1 &+& \dots &+& x_n'a_n &=& b \\
+\end{linsys}
+\quad\right\}
+\qquad
+\Rightarrow
+\qquad
+(\underbrace{x_1-x_1'}_{\lambda_1}) a_1
++
+\dots
++
+(\underbrace{x_n-x_n'}_{\lambda_n}) a_n
+=
+0.
+\label{buch:vektoren-und-matrizen:eqn:linabhkomb}
+\end{equation}
+Die Frage, ob ein Gleichungssystem genau eine Lösung hat, hängt also
+damit zusammen, ob es Zahlen $\lambda_1,\dots,\lambda_n$ gibt, für
+die die Gleichung~\label{buch:vektoren-und-matrizen:eqn:linabhkomb}
+erfüllt ist.
+
+\begin{definition}
+Die Vektoren $a_1,\dots,a_n$ heissen linear abhängig, wenn es Zahlen
+$\lambda_1,\dots,\lambda_n\in\Bbbk$ gibt, die nicht alle $0$ sind, so dass
+\begin{equation}
+\lambda_1a_1+\dots+\lambda_na_n = 0.
+\label{buch:vektoren-und-matrizen:eqn:linabhdef}
+\end{equation}
+Die Vektoren heissen linear abhängig, wenn aus
+\eqref{buch:vektoren-und-matrizen:eqn:linabhdef}
+folgt, dass alle $\lambda_1,\dots,\lambda_n=0$ sind.
+\end{definition}
+
+Lineare Abhängigkeit der Vektoren $a_1,\dots,a_n$ bedeutet auch, dass
+man einzelne der Vektoren durch andere ausdrücken kann.
+Hat man nämlich eine
+Linearkombination~\eqref{buch:vektoren-und-matrizen:eqn:linabhdef} und
+ist der Koeffizient $\lambda_k\ne 0$, dann kann man nach $a_k$ auflösen:
+\[
+a_k = -\frac{1}{\lambda_k}(\lambda_1a_1+\dots+\widehat{\lambda_ka_k}+\dots+\lambda_na_n).
+\]
+Darin bedeutet der Hut, dass der entsprechende Term weggelassen werden
+muss.
+Da dies für jeden von $0$ verschiedenen Koeffizienten möglich ist,
+sagt man eben nicht, $a_k$ ist linear abhängig von den anderen, sondern
+man sagt $a_1,\dots,a_n$ sind (untereinander) linear abhängig.
+
+\subsubsection{Basis}
+Ein lineares Gleichungssystem fragt danach, ob und wie ein Vektor $b$ als
+Linearkombination der Vektoren $a_1,\dots,a_n$ ausgedrückt werden kann.
+Wenn dies eindeutig möglich ist, dann haben die Vektoren $a_1,\dots,a_n$
+offenbar eine besondere Bedeutung.
+
+\begin{definition}
+\index{Basis}%
+\index{Dimension}%
+Eine linear unabhängig Menge von Vektoren
+$\mathcal{B}=\{a_1,\dots,a_n\}\subset V$
+heisst {\em Basis} von $V$.
+Die maximale Anzahl linear unabhängiger Vektoren in $V$ heisst
+{\em Dimension} von $V$.
+\end{definition}
+
+Die Standardbasisvektoren bilden eine Basis von $V=\Bbbk^n$.
+
+\subsubsection{Unterräume}
+Die Mengen $\langle a_1,\dots,a_n\rangle$ sind Teilmengen
+von $V$, in denen die Addition von Vektoren und die Multiplikation mit
+Skalaren immer noch möglich ist.
+
+\begin{definition}
+Eine Teilmenge $U\subset V$ heisst ein {\em Unterraum} von $V$, wenn
+$U$ selbst ein $\Bbbk$-Vektorraum ist, also
+\[
+\begin{aligned}
+a,b&\in U &&\Rightarrow &a+b&\in U
+\\
+a&\in U, \lambda\in\Bbbk &&\Rightarrow & \lambda a&\in U
+\end{aligned}
+\]
+gilt.
+\end{definition}
+
+%
+% Matrizen
+%
+\subsection{Matrizen
+\label{buch:grundlagen:subsection:matrizen}}
+Die Koeffizienten eines linearen Gleichungssystems finden in einem
+Zeilen- oder Spaltenvektor nicht Platz.
+Wir erweitern das Konzept daher in einer Art, dass Zeilen- und
+Spaltenvektoren Spezialfälle sind.
+
+\subsubsection{Definition}
+\begin{definition}
+Eine $m\times n$-Matrix $A$ (über $\Bbbk$) ist rechteckiges Schema
+\index{Matrix}%
+\[
+A
+=
+\begin{pmatrix}
+a_{11}&a_{12}&\dots &a_{1n}\\
+a_{21}&a_{22}&\dots &a_{2n}\\
+\vdots&\vdots&\ddots&\vdots\\
+a_{m1}&a_{m2}&\dots &a_{mn}\\
+\end{pmatrix}
+\]
+mit $a_{ij}\in\Bbbk$.
+Die Menge aller $m\times n$-Matrizen wird mit
+\[
+M_{m\times n}(\Bbbk) = \{ A\;|\; \text{$A$ ist eine $m\times n$-Matrix}\}.
+\]
+Falls $m=n$ gilt, heisst die Matrix $A$ auch {\em quadratisch}
+\index{quadratische Matrix}%
+Man kürzt die Menge der quadratischen Matrizen als
+$M_n(\Bbbk) = M_{n\times n}(\Bbbk)$ ab.
+\end{definition}
+
+Die $m$-dimensionalen Spaltenvektoren $v\in \Bbbk^m$ sind $m\times 1$-Matrizen
+$v\in M_{n\times 1}(\Bbbk)$, die $n$-dimensionalen Zeilenvetoren $u\in\Bbbk^n$
+sind $1\times n$-Matrizen $v\in M_{1\times n}(\Bbbk)$.
+Eine $m\times n$-Matrix $A$ mit den Koeffizienten $a_{ij}$ besteht aus
+den $n$ Spaltenvektoren
+\[
+a_1 = \begin{pmatrix} a_{11} \\ a_{21} \\ \vdots \\ a_{m1} \end{pmatrix},\quad
+a_2 = \begin{pmatrix} a_{12} \\ a_{22} \\ \vdots \\ a_{m2} \end{pmatrix},\dots,
+a_n = \begin{pmatrix} a_{1n} \\ a_{2n} \\ \vdots \\ a_{mn} \end{pmatrix}.
+\]
+Sie besteht auch aus den $m$ Zeilenvektoren
+\[
+\begin{pmatrix} a_{k1} & a_{k2} & \dots & a_{kn} \end{pmatrix}
+\]
+mit $k=1,\dots,m$.
+
+\subsubsection{Addition und Multiplikation mit Skalaren}
+Die $m\times n$-Matrizen $M_{m\times n}(\Bbbk)$ bilden eine Vektorraum,
+die Addition von Matrizen und die Multiplikation wird wie folgt definiert.
+
+\begin{definition}
+Sind $A,B\in M_{m\times n}(\Bbbk)$ und $\lambda\in\Bbbk$, dann setzt man
+\[
+A+B
+=
+\begin{pmatrix}
+a_{11}+b_{11}&a_{12}+b_{12}&\dots &a_{1n}+b_{1n}\\
+a_{21}+b_{21}&a_{22}+b_{22}&\dots &a_{2n}+b_{2n}\\
+\vdots &\vdots &\ddots&\vdots \\
+a_{m1}+b_{m1}&a_{m2}+b_{m2}&\dots &a_{mn}+b_{mn}
+\end{pmatrix}
+\qquad\text{und}\qquad
+\lambda A
+=
+\begin{pmatrix}
+\lambda a_{11}&\lambda a_{12}&\dots &\lambda a_{1n}\\
+\lambda a_{21}&\lambda a_{22}&\dots &\lambda a_{2n}\\
+\vdots &\vdots &\ddots&\vdots \\
+\lambda a_{m1}&\lambda a_{m2}&\dots &\lambda a_{mn}
+\end{pmatrix}.
+\]
+\end{definition}
+
+\subsubsection{Multiplikation}
+Will man ein lineares Gleichungssystem mit Hilfe der Matrix $A$ der
+Koeffizienten schreiben, bekommt es die Form $Ax=b$, wobei der Vektor
+der rechten Seiten ist, und $x$ ein Vektor von unbekannten Zahlen.
+Dies ist jedoch nur sinnvoll, wenn das Produkt $Ax$ sinnvoll definiert
+werden kann.
+
+\begin{definition}
+Eine $m\times n$-Matrix $A\in M_{m\times n}(\Bbbk)$ und eine
+$n\times l$-Matrix $B\in M_{n\times l}(\Bbbk)$ haben als Produkt
+eine $n\times l$-Matrix $C=AB\in M_{n\times l}(\Bbbk)$ mit den
+Koeffizienten
+\begin{equation}
+c_{ij} = \sum_{k=1}^n a_{ik} b_{kj}.
+\label{buch:vektoren-unbd-matrizen:eqn:matrixmultiplikation}
+\end{equation}
+\end{definition}
+
+Die Koeffizienten $a_{ik}$ kommen aus der Zeile $i$ von $A$, die Koeffizienten
+$b_{kj}$ stehen in der Spalte $j$ von $B$, die Multiplikationsregel
+\eqref{buch:vektoren-unbd-matrizen:eqn:matrixmultiplikation}
+besagt also, dass das Element $c_{ij}$ entsteht als das Produkt
+der Zeile $i$ von $A$ mit der Spalte $j$ von $C$.
+
+\subsubsection{Einheitsmatrix}
+Welche $m\times m$-Matrix $E\in M_{m}(\Bbbk)$ hat die Eigenschaft, dass
+$EA=A$ für jede beliebige Matrix $A\in M_{m\times n}(\Bbbk)$.
+Wir bezeichnen die Koeffizienten von $E$ mit $\delta_{ij}$.
+Die Bedingung $EA=A$ bedeutet
+\[
+a_{ij} = \delta_{i1}a_{1j} + \dots + \delta_{im}a_{mj},
+\]
+Da auf der linken Seite nur $a_{ij}$ vorkommt, müssen alle Terme auf der
+rechten Seite verschwinden ausser dem Term mit $a_{ij}$, dessen
+Koeffizient $\delta_{ii}=1$ sein muss.
+Die Koeffizienten sind daher
+\[
+\delta_{ij}
+=
+\begin{cases}
+1&\qquad i=j\\
+0&\qquad\text{sonst}
+\end{cases}
+\]
+Die Zahlen $\delta_{ij}$ heissen auch das {\em Kronecker-Symbol} oder
+{\em Kronecker-Delta}.
+\index{Kronecker-$\delta$}%
+\index{Kronecker-Symbol}%
+Die Matrix $E$ hat die Einträge $\delta_{ij}$ und heisst die
+{\em Einheitsmatrix}
+\index{Einheitsmatrix}%
+\[
+E
+=
+\begin{pmatrix}
+1 &0 &\dots &0 \\
+0 &1 &\dots &0 \\
+\vdots&\vdots&\ddots&\vdots\\
+0 &0 &\dots &1
+\end{pmatrix}.
+\]
+
+
+%
+% Gleichungssysteme
+%
+\subsection{Gleichungssysteme
+\label{buch:grundlagen:subsection:gleichungssyteme}}
+Lineare Gleichungssysteme haben wir bereits in Vektorform geschrieben.
+Matrizen wurden eingeführt, um sie noch kompakter in der Matrixform
+$Ax=b$ zu schreiben.
+In diesem Abschnitt sollen die bekannten Resultate über die Lösung
+von linearen Gleichungssytemen zusammengetragen werden.
+
+\subsubsection{Eindeutige Lösung}
+Mit Hilfe der Vektorform eines linearen Gleichungssystems wurde
+gezeigt, dass die Lösung genau dann eindeutig ist, wenn die Spaltenvektoren
+der Koeffizientenmatrix linear unabhängig sind.
+Dies bedeutet, dass das Gleichungssystem
+\[
+\begin{linsys}{3}
+a_{11}x_1 &+& \dots &+& a_{1n}x_n &=& 0 \\
+\vdots & & \ddots& & \vdots & & \vdots \\
+a_{m1}x_1 &+& \dots &+& a_{mn}x_n &=& 0
+\end{linsys}
+\]
+eine nichttriviale Lösung haben muss.
+Das Gleichungssystem $Ax=b$ ist also genau dann eindeutig lösbar, wenn
+das homogene Gleichungssystem $Ax=0$ nur die Nulllösung hat.
+
+\subsubsection{Inhomogene und homogene Gleichungssysteme}
+Ein Gleichungssystem mit $0$ auf der rechten Seite ist also bereits
+ausreichend um zu entscheiden, ob die Lösung eindeutig ist.
+Ein Gleichungssystem mit rechter Seite $0$ heisst {\em homogen}.
+\index{homogenes Gleichungssystem}%
+Zu jedem {\em inhomogenen} Gleichungssystem $Ax=b$ mit $b\ne 0$
+ist $Ax=0$ das zugehörige homogene Gleichungssystem.
+
+Ein homogenes Gleichungssytem $Ax=0$ hat immer mindestens die
+Lösung $x=0$, man nennt sie auch die {\em triviale} Lösung.
+Eine Lösung $x\ne 0$ heisst auch eine nichttriviale Lösung.
+Die Lösungen eines inhomgenen Gleichungssystem $Ax=b$ ist also nur dann
+eindeutig, wenn das zugehörige homogene Gleichungssystem eine nichttriviale
+Lösung hat.
+
+\subsubsection{Gauss-Algorithmus}
+
+
+\subsubsection{Inverse Matrix}
+Zu jeder quadratischen Matrix $A\in M_n(\Bbbk)$ kann man versuchen, die
+Gleichungen
+\[
+Ac_1 = e_1,\quad Ac_2 = e_2, \dots, Ac_n = e_n
+\]
+mit den Standardbasisvektoren $e_i$ als rechten Seiten zu lösen, wobei
+die $c_i$ Vektoren in $\Bbbk^n$ sind.
+Diese Vektoren kann man mit Hilfe des Gaussalgorithmus finden:
+\[
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+a_{11}&a_{12}&\dots &a_{1n}&1 &0 &\dots &0 \\
+a_{21}&a_{22}&\dots &a_{2n}&0 &1 &\dots &0 \\
+\vdots&\vdots&\ddots&\vdots&\vdots&\vdots&\ddots&\vdots\\
+a_{n1}&a_{n2}&\dots &a_{nn}&0 &0 &\dots &1 \\
+\hline
+\end{tabular}
+\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+1 &0 &\dots &0 &c_{11}&c_{12}&\dots &c_{1n}\\
+0 &1 &\dots &0 &c_{21}&c_{22}&\dots &c_{2n}\\
+\vdots&\vdots&\ddots&\vdots&\vdots&\vdots&\ddots&\vdots\\
+0 &0 &\dots &1 &c_{n1}&c_{n2}&\dots &c_{nn}\\
+\hline
+\end{tabular}
+\]
+Die Vektoren $c_k$ sind die Spaltenvektoren der Matrix $C$ mit den
+Einträgen $c_{ij}$.
+
+Mit den Vektoren $c_k$ können jetzt beliebige inhomogene Gleichungssysteme
+$Ax=b$ gelöst werden.
+Da $b = b_1e_1 + b_2e_2 + \dots + b_ne_n$, kann man die Lösung $x$ als
+$x = b_1c_1+b_2c_2+\dots+b_nc_n$ konstruieren.
+Tatsächlich gilt
+\begin{align*}
+Ax
+&=
+A( b_1c_1+b_2c_2+\dots+b_nc_n)
+\\
+&=
+b_1Ac_1 + b_2Cc_2 + \dots + b_nAc_n
+\\
+&=
+b_1e_1 + b_2e_2 + \dots + b_ne_n
+=
+b.
+\end{align*}
+Die Linearkombination $x=b_1c_1+\dots+b_nc_n$ kann in Vektorform als $x=Cb$
+geschrieben werden.
+
+Die Konstruktion von $C$ bedeutet auch, dass $AC=E$, daher heisst $C$ auch
+die zu $A$ {\em inverse Matrix}.
+\index{inverse Matrix}
+Sie wird auch $C=A^{-1}$ geschrieben.
+
+\subsubsection{Determinante}
+
+%
+% Lineare Abbildungen
+%
+\subsection{Lineare Abbildungen
+\label{buch:grundlagen:subsection:lineare-abbildungen}}
+Der besondere Nutzen der Matrizen ist, dass sie auch lineare Abbildungen
+zwischen Vektorräumen beschreiben können.
+In diesem Abschnitt werden lineare Abbildungen abstrakt definiert
+und die Darstellung als Matrix mit Hilfe einer Basis eingeführt.
+
+
+\subsubsection{Definition}
+Eine lineare Abbildung zwischen Vektorräumen muss so gestaltet sein,
+dass die Operationen des Vektorraums erhalten bleiben.
+Dies wird von der folgenden Definition erreicht.
+
+\begin{definition}
+Eine Abbildung $f\colon V\to U$ zwischen Vektorräumen $V$ und $U$
+heisst linear, wenn
+\[
+\begin{aligned}
+f(v+w) &= f(v) + f(w)&&\forall v,w\in V
+\\
+f(\lambda v) &= \lambda f(v) &&\forall v\in V,\lambda \in \Bbbk
+\end{aligned}
+\]
+gilt.
+\end{definition}
+
+Lineare Abbildungen sind in der Mathematik sehr verbreitet.
+
+\begin{beispiel}
+Sie $V=C^1([a,b])$ die Menge der stetig differenzierbaren Funktionen
+auf dem Intervall $[a,b]$ und $U=C([a,b])$ die Menge der
+stetigen Funktion aif $[a,b]$.
+Die Ableitung $\frac{d}{dx}$ macht aus einer Funktion $f(x)$ die
+Ableitung $f'(x)$.
+Die Rechenregeln für die Ableitung stellen sicher, dass
+\[
+\frac{d}{dx}
+\colon
+C^1([a,b]) \to C([a,b])
+:
+f \mapsto f'
+\]
+eine lineare Abbildung ist.
+\end{beispiel}
+
+\begin{beispiel}
+Sei $V$ die Menge der Riemann-integrierbaren Funktionen auf dem
+Intervall $[a,b]$ und $U=\mathbb{R}$.
+Das bestimmte Integral
+\[
+\int_a^b \;\colon V \to U : f \mapsto \int_a^b f(x)\,dx
+\]
+ist nach den bekannten Rechenregeln für bestimmte Integrale
+eine lineare Abbildung.
+\end{beispiel}
+
+\subsubsection{Matrix}
+Um mit linearen Abbildungen rechnen zu können, ist eine Darstellung
+mit Hilfe von Matrizen nötig.
+Sei also $\mathcal{B}=\{b_1,\dots,b_n\}$ eine Basis von $V$ und
+$\mathcal{C} = \{ c_1,\dots,c_m\}$ eine Basis von $U$.
+Das Bild des Basisvektors $b_i$ kann als Linearkombination der
+Vektoren $c_1,\dots,c_m$ dargestellt werden.
+Wir verwenden die Bezeichnung
+\[
+f(b_i)
+=
+a_{1i} c_1 + \dots + a_{mi} c_m.
+\]
+Die lineare Abbildung $f$ bildet den Vektor $x$ mit Koordinaten
+$x_1,\dots,x_n$ ab auf
+\begin{align*}
+f(x)
+&=
+f(x_1b_1 + \dots x_nb_n)
+\\
+&=
+x_1 f(b_1) + \dots x_nf(b_n)
+\\
+&=
+x_1(a_{11} c_1 + \dots + a_{m1} c_m)
++
+\dots
++
+x_n(a_{1n} c_1 + \dots + a_{mn} c_m)
+\\
+&=
+( a_{11} x_1 + \dots + a_{1n} x_n ) c_1
++
+\dots
++
+( a_{m1} x_1 + \dots + a_{mn} x_n ) c_m
+\end{align*}
+Die Koordinaten von $f(x)$ in der Basis $\mathcal{C}$ in $U$ sind
+also gegeben durch das Matrizenprodukt $Ax$, wenn $x$ der Spaltenvektor
+aus den Koordinaten in der Basis $\mathcal{B}$ in $V$ ist.
+
+Die Matrix einer linearen Abbildung macht Aussagen über eine lineare
+Abbilung der Rechnung zugänglich.
+Allerdings hängt die Matrix einer linearen Abbildung von der Wahl der
+Basis ab.
+Gleichzeitig ist dies eine Chance, durch Wahl einer geeigneten Basis
+kann man eine Matrix in eine Form bringen, die zur Lösung eines
+Problems optimal geeignet ist.
+
+\subsubsection{Basiswechsel}
+In einem Vektorraum $V$ seien zwei Basen $\mathcal{B}=\{b_1,\dots,b_n\}$
+und $\mathcal{B}'=\{b_1',\dots,b_n'\}$ gegeben.
+Ein Vektor $v\in V$ kann in beiden beiden Basen dargestellt werden.
+Wir bezeichnen mit dem Spaltenvektor $x$ die Koordinaten von $v$ in der
+Basis $\mathcal{B}$ und mit dem Spaltenvektor $x'$ die Koordinaten
+in der Basisi $\mathcal{B}'$.
+Um die Koordinaten umzurechnen, muss man die Gleichung
+\begin{equation}
+x_1b_1 + \dots + x_nb_n = x_1'b_1' + \dots + x_n'b_n'
+\label{buch:vektoren-und-matrizen:eqn:basiswechselgleichung}
+\end{equation}
+lösen.
+
+Stellt man sich die Vektoren $b_i$ und $b_j'$ als $m$-dimensionale
+Spaltenvektoren vor mit $m\ge n$, dann bekommt
+\eqref{buch:vektoren-und-matrizen:eqn:basiswechselgleichung}
+die Form eines Gleichungssystems
+\[
+\begin{linsys}{6}
+b_{11}x_1&+& \dots &+&b_{1n}x_n&=&b_{11}'x_1'&+& \dots &+&b_{1n}'x_n'\\
+\vdots & & \ddots& &\vdots & &\vdots & & \ddots& &\vdots \\
+b_{m1}x_1&+& \dots &+&b_{mn}x_n&=&b_{m1}'x_1'&+& \dots &+&b_{mn}'x_n'
+\end{linsys}
+\]
+Dieses Gleichungssystem kann man mit Hilfe eines Gauss-Tableaus lösen.
+Wir schreiben die zugehörigen Variablen
+\[
+\renewcommand{\arraystretch}{1.1}
+\begin{tabular}{|>{$}c<{$} >{$}c<{$} >{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+x_1&\dots&x_n&x_1'&\dots&x_n'\\
+\hline
+b_{11}&\dots &b_{1n}&b_{11}'&\dots &v_{1n}'\\
+\vdots&\ddots&\vdots&\vdots &\ddots&\vdots \\
+b_{n1}&\dots &b_{nn}&b_{n1}'&\dots &v_{nn}'\\
+\hline
+b_{n+1,1}&\dots &b_{n+1,n}&b_{n+1,1}'&\dots &v_{n+1,n}'\\
+\vdots&\ddots&\vdots&\vdots &\ddots&\vdots \\
+b_{m1}&\dots &b_{mn}&b_{m1}'&\dots &v_{mn}'\\
+\hline
+\end{tabular}
+\rightarrow
+\begin{tabular}{|>{$}c<{$} >{$}c<{$} >{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+x_1&\dots&x_n&x_1'&\dots&x_n'\\
+\hline
+1 &\dots &0 &t_{11} &\dots &t_{1n} \\
+\vdots&\ddots&\vdots&\vdots &\ddots &\vdots \\
+0 &\dots &1 &t_{n1} &\dots &t_{nn} \\
+\hline
+0 &\dots &0 &{\color{red}0} &{\color{red}\dots} &{\color{red}0}\\
+\vdots&\ddots&\vdots&{\color{red}\vdots}&{\color{red}\ddots}&{\color{red}\vdots}\\
+0 &\dots &0 &{\color{red}0} &{\color{red}\dots} &{\color{red}0}\\
+\hline
+\end{tabular}
+\]
+Das rechte untere Teiltableau enthält lauter Nullen genau dann, wenn jeder
+Vektor in $V$ sich in beiden Mengen $\mathcal{B}$ und $\mathcal{B}'$
+ausdrücken lässt.
+Dies folgt aber aus der Tatsache, dass $\mathcal{B}$ und $\mathcal{B}'$
+beide Basen sind, also insbesondere den gleichen Raum aufspannen.
+Die $n\times n$-Matrix $T$ mit Komponenten $t_{ij}$ rechnet Koordinaten
+in der Basis $\mathcal{B}'$ um in Koordinaten in der Basis $\mathcal{B}$.
+
+\subsubsection{Umkehrabbbildung}
+Sei $f$ eine umkehrbare lineare Abbildung $U\to V$ und $g\colon V\to U$.
+die zugehörige Umkehrabbildung.
+Für zwei Vektoren $u$ und $w$ in $U$ gibt es daher Vektoren $a=g(u)$
+und $b=g(w)$ in $V$ derart, dass $f(a)=u$ und $f(b)=w$.
+Weil $f$ linear ist, folgt daraus $f(a+b)=u+w$ und $f(\lambda a)=\lambda a$
+für jedes $\lambda\in\Bbbk$.
+Damit kann man jetzt
+\begin{align*}
+g(u+w)&=g(f(a)+f(b)) = g(f(a+b)) = a+b = g(u)+g(w)
+\\
+g(\lambda u) &= g(\lambda f(a))=g(f(\lambda a)) = \lambda a = \lambda g(u)
+\end{align*}
+berechnen, was zeigt, dass auch $g$ eine lineare Abbildung ist.
+Hat $f$ in geeignet gewählten Basen die Matrix $F$, dann hat die
+Umkehrabbildung $g=f^{-1}$ die Matrix $G=F^{-1}$.
+Da auch $f(g(y))=y$ gilt für jeden Vektor $y\in V$ folgt, dass $FF^{-1}=E$
+und $F^{-1}F=E$.
+
+\subsubsection{Kern und Bild}
+Für die Eindeutigkeit der Lösung eines linearen Gleichungssytems
+ist entscheidend, ob das zugehörige homogene Gleichungssystem $Ax=0$
+eine nichttriviale Lösung hat.
+Seine Lösungmenge spielt also eine besondere Rolle, was rechtfertigt,
+ihr einen Namen zu geben.
+
+\begin{definition}
+\index{Kern}%
+Ist $f$ eine lineare Abbildung $U\to V$, dann heisst die Menge
+\[
+\ker f
+=
+\{x\in U\;|\; f(x)=0\}
+\]
+der {\em Kern} oder {\em Nullraum} der linearen Abbildung $f$.
+Ist $A \in M_{m\times n}(\Bbbk)$ Matrix, dann gehört dazu eine lineare
+Abbildung $f\colon\Bbbk^n\to\Bbbk^m$.
+Der Kern oder Nullraum der Matrix $A$ ist die Menge
+\[
+\ker A
+=
+\{ x\in\Bbbk^m \;|\; Ax=0\}.
+\]
+\end{definition}
+
+Der Kern ist ein Unterraum, denn für zwei Vektoren $u,w\in \ker f$
+\[
+\begin{aligned}
+f(u+v)&=f(u) + f(v) = 0+0 = 0 &&\Rightarrow& u+v&\in\ker f\\
+f(\lambda u)&=\lambda f(u) = \lambda\cdot 0=0&&\Rightarrow& \lambda u&\in\ker f
+\end{aligned}
+\]
+gilt.
+
+Ob ein Gleichungssystem $Ax=b$ überhaupt eine Lösung hat, hängt davon,
+ob der Vektor $b$ als Bild der durch $A$ beschriebenen linearen Abbildung
+$\Bbbk^n \to \Bbbk^m$ enthalten ist.
+Wir definieren daher das Bild einer linearen Abbildung oder Matrix.
+
+\begin{definition}
+Ist $f\colon V\to U$ eine lineare Abbildung dann ist das Bild von $f$
+der Unterraum
+\[
+\operatorname{im}f = \{ f(v)\;|\;v\in V\} \subset U
+\]
+von $U$.
+Das Bild einer $m\times n$-Matrix $A$ ist die Menge
+\[
+\operatorname{im}A = \{ Av \;|\; v\in\Bbbk^n\} \subset \Bbbk^m.
+\]
+\end{definition}
+
+Zwei Vektoren $a,b\in\operatorname{im}$ haben Urbilder $u,w\in V$ mit
+$f(u)=a$ und $f(w)=b$.
+Für Summe und Skalarprodukt folgt
+\[
+\begin{aligned}
+a+b&= f(u)+f(v)=f(u+v) &&\Rightarrow a+b\in\operatorname{im}f\\
+\lambda a&=\lambda f(u) = f(\lambda u) &&\Rightarrow \lambda a&\in\operatorname{im}f,
+\end{aligned}
+\]
+also ist auch das Bild $\operatorname{im}f$ ein Unterraum von $U$.
+Das Bild der Matrix $A$ ist der Unterraum
+\[
+\{ x_1f(b_1) + \dots x_n f(b_n) | x_i\in\Bbbk\}
+=
+\langle f(b_1),\dots,f(b_n)\rangle
+=
+\langle a_1,\dots,a_n\rangle
+\]
+von $\Bbbk^m$, aufgespannt von den Spaltenvektoren $a_i$ von $A$.
+
+\subsubsection{Kern und Bild von Matrixpotenzen}
+In diesem Abschnitt ist $A\in M_n(\Bbbk)$, $A$ beschreibt eine lineare
+Abbildung $f\colon\Bbbk^n\to \Bbbk^n$.
+In diesem Abschnitt sollen Kern und Bild der Potenzen $A^k$ untersucht
+werden.
+\begin{definition}
+Wir bezeichnen Kern und Bild der iterierten Abbildung $A^k$ mit
+\[
+\mathcal{K}^k(A)
+=
+\ker A^k
+\qquad\text{und}\qquad
+\mathcal{J}^k(A)
+=
+\operatorname{im} A^k.
+\]
+\end{definition}
+
+Durch Iteration wird das Bild immer kleiner.
+Wegen
+\[
+\mathcal{J}^k (A)
+=
+\operatorname{im} A^k
+=
+\operatorname{im} A^{k-1} A
+=
+\{ A^{k-1} Av\;|\; v \in \Bbbk^n\}
+\subset
+\{ A^{k-1} v\;|\; v \in \Bbbk^n\}
+=
+\mathcal{J}^{k-1}(A)
+\]
+folgt
+\begin{equation}
+\Bbbk^n
+=
+\operatorname{im}E
+=
+\operatorname{im}A^0
+=
+\mathcal{J}^0(A)
+\supset
+\mathcal{J}^1(A)
+=
+\operatorname{im}A
+\supset
+\mathcal{J}^2(A)
+\supset\dots\supset
+\mathcal{J}^k(A)
+\supset
+\mathcal{J}^{k+1}(A)
+\supset \dots \supset
+\{0\}.
+\label{buch:vektoren-und-matrizen:eqn:Jkchain}
+\end{equation}
+Für die Kerne gilt etwas Ähnliches.
+Ein Vektor $x\in \mathcal{K}^k(A)$ erfüllt $A^kx=0$.
+Dann erfüllt er aber erst recht auch
+\[
+A^{k+1}x=A\underbrace{A^kx}_{\displaystyle=0}=0,
+\]
+also ist $x\in\mathcal{K}^k(A)$.
+Es folgt
+\begin{equation}
+\{0\}
+\subset
+\mathcal{K}^0(A) = \ker A^0 = \ker E
+\subset
+\mathcal{K}^1(A) = \ker A
+\subset
+\dots
+\subset
+\mathcal{K}^k(A)
+\subset
+\mathcal{K}^{k+1}(A)
+\subset
+\dots
+\subset
+\Bbbk^n.
+\label{buch:vektoren-und-matrizen:eqn:Kkchain}
+\end{equation}
+Neben diesen offensichtlichen Resultaten kann man aber noch mehr
+sagen.
+Es ist klar, dass in beiden Ketten
+\label{buch:vektoren-und-matrizen:eqn:Jkchain}
+und
+\label{buch:vektoren-und-matrizen:eqn:Kkchain}
+nur in höchstens $n$ Schritten eine wirkliche Änderung stattfinden
+kann.
+Man kann aber sogar genau sagen, wo Änderungen stattfinden:
+
+\begin{satz}
+\label{buch:vektoren-und-matrizen:satz:ketten}
+Ist $A\in M_n(\Bbbk)$ eine $n\times n$-Matrix, dann gibt es eine Zahl $k$
+so, dass
+\[
+\begin{array}{rcccccccccccl}
+0=\mathcal{K}^0(A)
+&\subsetneq& \mathcal{K}^1(A) &\subsetneq& \mathcal{K}^2(A)
+&\subsetneq&\dots&\subsetneq&
+\mathcal{K}^k(A) &=& \mathcal{K}^{k+1}(A) &=& \dots
+\\
+\Bbbk^n= \mathcal{J}^0(A)
+&\supsetneq& \mathcal{J}^1(A) &\supsetneq& \mathcal{J}^2(A)
+&\supsetneq&\dots&\supsetneq&
+\mathcal{J}^k(A) &=& \mathcal{J}^{k+1}(A) &=& \dots
+\end{array}
+\]
+ist.
+\end{satz}
+
+\begin{proof}[Beweis]
+Es sind zwei Aussagen zu beweisen.
+Erstens müssen wir zeigen, dass die Dimension von $\mathcal{K}^i(A)$
+nicht mehr grösser werden kann, wenn sie zweimal hintereinander gleich war.
+Nehmen wir daher an, dass $\mathcal{K}^i(A) = \mathcal{K}^{i+1}(A)$.
+Wir müssen $\mathcal{K}^{i+2}(A)$ bestimmen.
+$\mathcal{K}^{i+2}(A)$ besteht aus allen Vektoren $x\in\Bbbk^n$ derart,
+dass $Ax\in \mathcal{K}^{i+1}(A)=\mathcal{K}^i(A)$ ist.
+Daraus ergibt sich, dass $AA^ix=0$, also ist $x\in\mathcal{K}^{i+1}(A)$.
+Wir erhalten also
+$\mathcal{K}^{i+2}(A)\subset\mathcal{K}^{i+1}\subset\mathcal{K}^{i+2}(A)$,
+dies ist nur möglich, wenn beide gleich sind.
+
+Analog kann man für die Bilder vorgehen.
+Wir nehmen an, dass $\mathcal{J}^i(A) = \mathcal{J}^{i+1}(A)$ und
+bestimmten $\mathcal{J}^{i+2}(A)$.
+$\mathcal{J}^{i+2}(A)$ besteht aus all jenen Vektoren, die als
+$Ax$ mit $x\in\mathcal{J}^{i+1}(A)=\mathcal{J}^i(A)$ erhalten
+werden können.
+Es gibt also insbesondere ein $y\in\Bbbk^i$ mit $x=A^iy$.
+Dann ist $Ax=A^{i+1}y\in\mathcal{J}^{i+1}(A)$.
+Insbesondere besteht $\mathcal{J}^{i+2}(A)$ genau aus den Vektoren
+von $\mathcal{J}^{i+1}(A)$.
+
+Zweitens müssen wir zeigen, dass die beiden Ketten bei der gleichen
+Potenz von $A$ konstant werden.
+Dies folgt jedoch daraus, dass $\dim\mathcal{J}^i(A) = \operatorname{Rang} A^i
+= n - \dim\ker A^i = n -\dim\mathcal{K}^i(A)$.
+Der Raum $\mathcal{J}^k(A)$ hört also beim gleichen $i$ auf, kleiner
+zu werden, bei dem auch $\mathcal{K}^i(A)$ aufhört, grösser zu werden.
+\end{proof}
+
+\begin{satz}
+Die Zahl $k$ in Satz~\ref{buch:vektoren-und-matrizen:satz:ketten}
+ist nicht grösser als $n$, also
+\[
+\mathcal{K}^n(A) = \mathcal{K}^l(A)
+\qquad\text{und}\qquad
+\mathcal{J}^n(A) = \mathcal{J}^l(A)
+\]
+für $l\ge n$.
+\end{satz}
+
+\begin{proof}[Beweis]
+Nach Satz~\ref{buch:vektoren-und-matrizen:satz:ketten} muss die
+Dimension von $\mathcal{K}^i(A)$ in jedem Schritt um mindestens
+$1$ zunehmen, das ist nur möglich, bis zur Dimension $n$.
+Somit können sich $\mathcal{K}^i(A)$ und $\mathcal{J}^i(A)$ für $i>n$
+nicht mehr ändern.
+\end{proof}
+
+\subsubsection{Nilpotente Matrizen}
+
+
+
+
+
+
diff --git a/buch/chapters/40-eigenwerte/Makefile.inc b/buch/chapters/40-eigenwerte/Makefile.inc
index e7237cd..b15f476 100644
--- a/buch/chapters/40-eigenwerte/Makefile.inc
+++ b/buch/chapters/40-eigenwerte/Makefile.inc
@@ -6,6 +6,8 @@
CHAPTERFILES = $(CHAPTERFILES) \
chapters/40-eigenwerte/numerisch.tex \
+ chapters/40-eigenwerte/normalformen.tex \
+ chapters/40-eigenwerte/grundlagen.tex \
chapters/40-eigenwerte/spektralradius.tex \
chapters/40-eigenwerte/spektraltheorie.tex \
chapters/40-eigenwerte/uebungsaufgaben/4001.tex \
diff --git a/buch/chapters/40-eigenwerte/chapter.tex b/buch/chapters/40-eigenwerte/chapter.tex
index 2913ca5..5f237a4 100644
--- a/buch/chapters/40-eigenwerte/chapter.tex
+++ b/buch/chapters/40-eigenwerte/chapter.tex
@@ -1,5 +1,5 @@
%
-% chapter.tex -- Kapitel über eigenwerte und eigenvektoren
+% chapter.tex -- Kapitel über Eigenwerte und Eigenvektoren
%
% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
%
@@ -7,10 +7,34 @@
\label{buch:chapter:eigenwerte-und-eigenvektoren}}
\lhead{Eigenwerte und Eigenvektoren}
\rhead{}
+Die algebraischen Eigenschaften einer Matrix $A$ sind eng mit der
+Frage nach linearen Beziehungen unter den Potenzen von $A^k$ verbunden.
+Im Allgemeinen ist die Berechnung dieser Potenzen eher unübersichtlich,
+es sei denn, die Matrix hat eine spezielle Form.
+Die Potenzen einer Diagonalmatrix erhält man, indem man die Diagonalelemente
+potenziert.
+Auch für Dreiecksmatrizen ist mindestens die Berechnung der Diagonalelemente
+von $A^k$ einfach.
+Die Theorie der Eigenwerte und Eigenvektoren ermöglicht, Matrizen in
+eine solche besonders einfache Form zu bringen.
+In Abschnitt~\ref{buch:section:grundlagen} werden die grundlegenden
+Definitionen der Eigenwerttheorie in Erinnerung gerufen.
+Damit kann dann in Abschnitt~\ref{buch:section:normalformen}
+gezeigt werden, wie Matrizen in besonders einfache Form gebracht
+werden können.
+Die Eigenwerte bestimmen auch die Eigenschaften von numerischen
+Algorithmen, wie in den Abschnitten~\ref{buch:section:spektralradius}
+und \ref{buch:section:numerisch} dargestellt wird.
+Für viele Funktionen kann man auch den Wert $f(A)$ berechnen, unter
+geeigneten Voraussetzungen an den Spektralradius.
+Dies wird in Abschnitt~\ref{buch:section:spektraltheorie} beschrieben.
-\input{chapters/40-eigenwerte/numerisch.tex}
+
+\input{chapters/40-eigenwerte/grundlagen.tex}
+\input{chapters/40-eigenwerte/normalformen.tex}
\input{chapters/40-eigenwerte/spektralradius.tex}
+\input{chapters/40-eigenwerte/numerisch.tex}
\input{chapters/40-eigenwerte/spektraltheorie.tex}
\section*{Übungsaufgaben}
diff --git a/buch/chapters/40-eigenwerte/grundlagen.tex b/buch/chapters/40-eigenwerte/grundlagen.tex
new file mode 100644
index 0000000..471c7fb
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/grundlagen.tex
@@ -0,0 +1,391 @@
+%
+% grundlagen.tex -- Grundlagen
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\section{Grundlagen
+\label{buch:section:grundlagen}}
+\rhead{Grundlagen}
+Die Potenzen $A^k$ sind besonders einfach zu berechnen, wenn die Matrix
+Diagonalform hat, wenn also $A=\operatorname{diag}(\lambda_1,\dots,\lambda_n)$
+ist.
+In diesem Fall ist $Ae_k=\lambda_k e_k$ für jeden Standardbasisvektor $e_k$.
+Statt sich auf Diagonalmatrizen zu beschränken könnten man also auch
+Vektoren $v$ suchen, für die gilt $Av=\lambda v$, die also von $A$ nur
+gestreckt werden.
+Gelingt es, eine Basis aus solchen sogenanten {\em Eigenvektoren} zu finden,
+dann kann man die Matrix $A$ durch Basiswechsel in diese Form bringen.
+
+%
+%
+%
+\subsection{Kern und Bild
+\label{buch:subsection:kern-und-bild}}
+
+%
+% Begriff des Eigenwertes und Eigenvektors
+%
+\subsection{Eigenwerte und Eigenvektoren
+\label{buch:subsection:eigenwerte-und-eigenvektoren}}
+In diesem Abschnitt betrachten wir Vektorräume $V=\Bbbk^n$ über einem
+beliebigen Körper $\Bbbk$ und quadratische Matrizen
+$A\in M_n(\Bbbk)$.
+In den meisten Anwendungen wird $\Bbbk=\mathbb{R}$ sein.
+Da aber in $\mathbb{R}$ nicht alle algebraischen Gleichungen lösbar sind,
+ist es manchmal notwendig, den Vektorraum zu erweitern um zum Beispiel
+Eigenschaften der Matrix $A$ abzuleiten.
+
+\begin{definition}
+Ein Vektor $v\in V$ heisst {\em Eigenvektor} von $A$ zum Eigenwert
+$\lambda\in\Bbbk$, wenn $v\ne 0$ und $Av=\lambda v$ gilt.
+\end{definition}
+
+Die Bedingung $v\ne 0$ dient dazu, pathologische Situationen auszuschliessen.
+Für den Nullvektor gilt $A0=\lambda 0$ für jeden beliebigen Wert von
+$\lambda\in\Bbbk$.
+Würde man $v=0$ zulassen, wäre jede Zahl in $\Bbbk$ ein Eigenwert,
+ein Eigenwert von $A$ wäre nichts besonderes.
+Ausserdem wäre $0$ ein Eigenvektor zu jedem beliebigen Eigenwert.
+
+Eigenvektoren sind nicht eindeutig bestimmt, jedes von $0$ verschiedene
+Vielfache von $v$ ist ebenfalls ein Eigenvektor.
+Zu einem Eigenwert kann man also einen Eigenvektor jeweils mit
+geeigneten Eigenschaften finden, zum Beispiel kann man für $\Bbbk = \mathbb{R}$
+Eigenvektoren auf Länge $1$ normieren.
+Im Folgenden werden wir oft die abkürzend linear unabhängige Eigenvektoren
+einfach als ``verschiedene'' Eigenvektoren bezeichnen.
+
+Wenn $v$ ein Eigenvektor von $A$ zum Eigenwert $\lambda$ ist, dann kann
+man ihn mit zusätzlichen Vektoren $v_2,\dots,v_n$ zu einer Basis
+$\mathcal{B}=\{v,v_2,\dots,v_n\}$
+von $V$ ergänzen.
+Die Vektoren $v_k$ mit $k=2,\dots,n$ werden von $A$ natürlich auch
+in den Vektorraum $V$ abgebildet, können also als Linearkombinationen
+\[
+Av = a_{1k}v + a_{2k}v_2 + a_{3k}v_3 + \dots a_{nk}v_n
+\]
+dargestellt werden.
+In der Basis $\mathcal{B}$ bekommt die Matrix $A$ daher die Form
+\[
+A'
+=
+\begin{pmatrix}
+\lambda&a_{12}&a_{13}&\dots &a_{1n}\\
+ 0 &a_{22}&a_{23}&\dots &a_{2n}\\
+ 0 &a_{32}&a_{33}&\dots &a_{3n}\\
+\vdots &\vdots&\vdots&\ddots&\vdots\\
+ 0 &a_{n2}&a_{n3}&\dots &a_{nn}
+\end{pmatrix}.
+\]
+Bereits ein einzelner Eigenwert und ein zugehöriger Eigenvektor
+ermöglichen uns also, die Matrix in eine etwas einfachere Form
+zu bringen.
+
+\begin{definition}
+Für $\lambda\in\Bbbk$ heisst
+\[
+E_\lambda
+=
+\{ v\;|\; Av=\lambda v\}
+\]
+der {\em Eigenraum} zum Eigenwert $\lambda$.
+\index{Eigenraum}%
+\end{definition}
+
+Der Eigenraum $E_\lambda$ ist ein Unterraum von $V$, denn wenn
+$u,v\in E_\lambda$, dann ist
+\[
+A(su+tv)
+=
+sAu+tAv
+=
+s\lambda u + t\lambda v
+=
+\lambda(su+tv),
+\]
+also ist auch $su+tv\in E_\lambda$.
+Der Fall $E_\lambda = \{0\}=0$ bedeutet natürlich, dass $\lambda$ gar kein
+Eigenwert ist.
+
+\begin{satz}
+Wenn $\dim E_\lambda=n$, dann ist $A=\lambda E$.
+\end{satz}
+
+\begin{proof}[Beweis]
+Da $V$ ein $n$-dimensionaler Vektoraum ist, ist $E_\lambda=V$.
+Jeder Vektor $v\in V$ erfüllt also die Bedingung $Av=\lambda v$,
+oder $A=\lambda E$.
+\end{proof}
+
+Wenn man die Eigenräume von $A$ kennt, dann kann man auch die Eigenräume
+von $A+\mu E$ berechnen.
+Ein Vektor $v\in E_\lambda$ erfüllt
+\[
+Av=\lambda v
+\qquad\Rightarrow\qquad
+(A+\mu)v = \lambda v + \mu v
+=
+(\lambda+\mu)v,
+\]
+somit ist $v$ ein Eigenvektor von $A+\mu E$ zum Eigenwert $\lambda+\mu$.
+Insbesondere können wir statt die Eigenvektoren von $A$ zum Eigenwert $\lambda$
+zu studieren, auch die Eigenvektoren zum Eigenwert $0$ von $A-\lambda E$
+untersuchen.
+
+\begin{satz}
+\label{buch:eigenwerte:satz:jordanblock}
+Wenn $\dim E_\lambda=1$ ist, dann gibt es eine Basis von $V$ derart, dass
+$A$ in dieser Matrix die Form
+\begin{equation}
+A'
+=
+\begin{pmatrix}
+ \lambda & 1 & & & & \\
+ & \lambda & 1 & & & \\
+ & & \lambda & & & \\
+ & & & \ddots & & \\
+ & & & & \lambda & 1 \\
+ & & & & & \lambda
+\end{pmatrix}
+\label{buch:eigenwerte:eqn:jordanblock}
+\end{equation}
+hat.
+\end{satz}
+
+\begin{proof}[Beweis]
+Entsprechend der Bemerkung vor dem Satz können wir uns auf die Betrachtung
+der Matrix $B=A-\lambda E$ konzentrieren, deren Eigenraum zum Eigenwert $0$
+$1$-dimensional ist.
+Es gibt also einen Vektor $v_1\ne 0$ mit $Bv_1=0$.
+Der Vektor $v_1$ spannt den Eigenraum auf: $E_0 = \langle v_1\rangle$.
+
+Wir konstruieren jetzt rekursiv eine Folge $v_2,\dots,v_n$ von Vektoren
+mit folgenden Eigenschaften.
+Zunächst soll $v_k=Bv_{k+1}$ für $k=1,\dots,n-1$ sein.
+Ausserdem soll $v_{k+1}$ in jedem Schritt linear unabhängig von den
+Vektoren $v_1,\dots,v_{k-1}$ gewählt werden.
+Wenn diese Konstruktion gelingt, dann ist $\mathcal{B}=\{v_1,\dots,v_n\}$
+eine Basis von $V$ und die Matrix von $B$ in dieser Basis ist
+$A'$ wie in \eqref{buch:eigenwerte:eqn:jordanblock}.
+\end{proof}
+
+\subsection{Das charakteristische Polynom
+\label{buch:subsection:das-charakteristische-polynom}}
+Ein Eigenvektor von $A$ erfüllt $Av=\lambda v$ oder gleichbedeutend
+$(A-\lambda E)v=0$, er ist also eine nichttriviale Lösung des homogenen
+Gleichungssystems mit Koeffizientenmatrix $A-\lambda E$.
+Ein Eigenwert ist also ein Skalar derart, dass $A-\lambda E$
+singulär ist.
+Ob eine Matrix singulär ist, kann mit der Determinante festgestellt
+werden.
+Die Eigenwerte einer Matrix $A$ sind daher die Nullstellen
+von $\det(A-\lambda E)$.
+
+\begin{definition}
+Das {\em charakteristische Polynom}
+\[
+\chi_A(x)
+=
+\det (A-x E)
+=
+\left|
+\begin{matrix}
+a_{11}-x & a_{12} & \dots & a_{1n} \\
+a_{21} & a_{22}-x & \dots & a_{2n} \\
+\vdots &\vdots &\ddots & \vdots \\
+a_{n1} & a_{n2} &\dots & a_{nn}-x
+\end{matrix}
+\right|.
+\]
+der Matrix $A$ ist ein Polynom vom Grad $n$ mit Koeffizienten in $\Bbbk$.
+\end{definition}
+
+Findet man eine Nullstelle $\lambda\in\Bbbk$ von $\chi_A(x)$,
+dann ist die Matrix $A-\lambda E\in M_n(\Bbbk)$ und mit dem Gauss-Algorithmus
+kann man auch mindestens einen Vektor $v\in \Bbbk^n$ finden,
+der $Av=\lambda v$ erfüllt.
+Eine Matrix der Form wie in Satz~\ref{buch:eigenwerte:satz:jordanblock}
+hat
+\[
+\chi_A(x)
+=
+\left|
+\begin{matrix}
+\lambda-x & 1 & & & & \\
+ & \lambda-x & 1 & & & \\
+ & & \lambda-x & & & \\
+ & & &\ddots& & \\
+ & & & &\lambda-x& 1 \\
+ & & & & &\lambda-x
+\end{matrix}
+\right|
+=
+(\lambda-x)^n
+=
+(-1)^n (x-\lambda)^n
+\]
+als charakteristisches Polynom, welches $\lambda$ als einzige
+Nullstelle hat.
+Der Eigenraum der Matrix ist aber nur eindimensional, man kann also
+im Allgemeinen für jede Nullstelle des charakteristischen Polynoms
+nicht mehr als einen Eigenvektor (d.~h.~einen eindimensionalen Eigenraum)
+erwarten.
+
+Wenn das charakteristische Polynom von $A$ keine Nullstellen in $\Bbbk$ hat,
+dann kann es auch keine Eigenvektoren in $Bbbk^n$ geben.
+Gäbe es nämlich einen solchen Vektor, dann müsste eine der Komponenten
+des Vektors von $0$ verschieden sein, wir nehmen an, dass es die Komponente
+in Zeile $k$ ist.
+Die Komponente $v_k$ kann man auf zwei Arten berechnen, einmal als
+die $k$-Komponenten von $Av$ und einmal als $k$-Komponente von $\lambda v$:
+\[
+a_{k1}v_1+\dots+a_{kn}v_n = \lambda v_k.
+\]
+Da $v_k\ne 0$ kann man nach $\lambda$ auflösen und erhält
+\[
+\lambda = \frac{a_{k1}v_1+\dots + a_{kn}v_n}{v_k}.
+\]
+Alle Terme auf der rechten Seite sind in $\Bbbk$ und werden nur mit
+Körperoperationen in $\Bbbk$ verknüpft, also muss auch $\lambda\in\Bbbk$
+sein, im Widerspruch zur Annahme.
+
+Durch hinzufügen von geeigneten Elementen können wir immer zu einem
+Körper $\Bbbk'$ übergehen, in dem das charakteristische Polynom
+in Linearfaktoren zerfällt.
+In diesem Körper kann man jetzt das homogene lineare Gleichungssystem
+mit Koeffizientenmatrix $A-\lambda E$ lösen und damit mindestens
+einen Eigenvektor $v$ für jeden Eigenwert finden.
+Die Komponenten von $v$ liegen in $\Bbbk'$, und mindestens eine davon kann
+nicht in $\Bbbk$ liegen.
+Das bedeutet aber nicht, dass man diese Vektoren nicht für theoretische
+Überlegungen über von $\Bbbk'$ unabhängige Eigenschaften der Matrix $A$ machen.
+Das folgende Beispiel soll diese Idee illustrieren.
+
+\begin{beispiel}
+Wir arbeiten in diesem Beispiel über dem Körper $\Bbbk=\mathbb{Q}$.
+Die Matrix
+\[
+A=\begin{pmatrix}
+-4&7\\
+-2&4
+\end{pmatrix}
+\in
+M_2(\mathbb{Q})
+\]
+hat das charakteristische Polynom
+\[
+\chi_A(x)
+=
+\left|
+\begin{matrix}
+-4-x&7\\-2&4-x
+\end{matrix}
+\right|
+=
+(-4-x)(4-x)-7\cdot(-2)
+=
+-16+x^2+14
+=
+x^2-2.
+\]
+Die Nullstellen sind $\pm\sqrt{2}$ und damit nicht in $\mathbb{Q}$.
+Wir gehen daher über zum Körper $\mathbb{Q}(\sqrt{2})$, in dem
+sich zwei Nullstellen $\lambda=\pm\sqrt{2}$ finden lassen.
+Zu jedem Eigenwert lässt sich auch ein Eigenvektor
+$v_{\pm\sqrt{2}}\in \mathbb{Q}(\sqrt{2})^2$, und unter Verwendung dieser
+Basis ist bekommt die Matrix $A'=TAT^{-1}$ Diagonalform.
+Die Transformationsmatrix $T$ enthält Matrixelemente aus
+$\mathbb{Q}(\sqrt{2})$, die nicht in $\mathbb{Q}$ liegen.
+Die Matrix $A$ lässt sich also über dem Körper $\mathbb{Q}(\sqrt{2})$
+diagonalisieren, nicht aber über dem Körper $\mathbb{Q}$.
+
+Da $A'$ Diagonalform hat mit $\pm\sqrt{2}$ auf der Diagonalen, folgt
+$A^{\prime 2} = 2E$, die Matrix $A'$ erfüllt also die Gleichung
+\begin{equation}
+A^{\prime 2}-E= \chi_{A}(A) = 0.
+\label{buch:grundlagen:eqn:cayley-hamilton-beispiel}
+\end{equation}
+Dies is ein Spezialfall des Satzes von Cayley-Hamilton~\ref{XXX}
+welcher besagt, dass jede Matrix $A$ eine Nullstelle ihres
+charakteristischen Polynoms ist: $\chi_A(A)=0$.
+Da in Gleichung~\ref{buch:grundlagen:eqn:cayley-hamilton-beispiel}
+wurde zwar in $\mathbb{Q}(\sqrt{2})$ hergeleitet, aber in ihr kommen
+keine Koeffizienten aus $\mathbb{Q}(\sqrt{2})$ vor, die man nicht auch
+in $\mathbb{Q}$ berechnen könnte.
+Sie gilt daher ganz allgemein.
+\end{beispiel}
+
+\begin{beispiel}
+Die Matrix
+\[
+A=\begin{pmatrix}
+32&-41\\
+24&-32
+\end{pmatrix}
+\in
+M_2(\mathbb{R})
+\]
+über dem Körper $\Bbbk = \mathbb{R}$
+hat das charakteristische Polynom
+\[
+\det(A-xE)
+=
+\left|
+\begin{matrix}
+32-x&-41 \\
+25 &-32-x
+\end{matrix}
+\right|
+=
+(32-x)(-32-x)-25\cdot(-41)
+=
+x^2-32^2 + 1025
+=
+x^2+1.
+\]
+Die charakteristische Gleichung $\chi_A(x)=0$ hat in $\mathbb{R}$
+keine Lösungen, daher gehen wir zum Körper $\Bbbk'=\mathbb{C}$ über,
+in dem dank dem Fundamentalsatz der Algebra alle Nullstellen zu finden
+sind, sie sind $\pm i$.
+In $C$ lassen sich dann auch Eigenvektoren finden, man muss dazu die
+folgenden linearen Gleichungssyteme lösen:
+\begin{align*}
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}|}
+32-i&-41\\
+25 &-32-i
+\end{tabular}
+&
+\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}|}
+1 & t\\
+0 & 0
+\end{tabular}
+&
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}|}
+32+i&-41\\
+25 &-32+i
+\end{tabular}
+&
+\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}|}
+1 & \overline{t}\\
+0 & 0
+\end{tabular},
+\intertext{wobei wir $t=-41/(32-i) =-41(32+i)/1025= -1.28 -0.04i = (64-1)/50$
+abgekürzt haben.
+Die zugehörigen Eigenvektoren sind}
+v_i&=\begin{pmatrix}t\\i\end{pmatrix}
+&
+v_{-i}&=\begin{pmatrix}\overline{t}\\i\end{pmatrix}
+\end{align*}
+Mit den Vektoren $v_i$ und $v_{-i}$ als Basis kann die Matrix $A$ als
+komplexe Matrix, also mit komplexem $T$ in die komplexe Diagonalmatrix
+$A'=\operatorname{diag}(i,-i)$ transformiert werden.
+Wieder kann man sofort ablesen, dass $A^{\prime2}+E=0$, und wieder kann
+man schliessen, dass für die relle Matrix $A$ ebenfalls $\chi_A(A)=0$
+gelten muss.
+\end{beispiel}
+
+
+
+
diff --git a/buch/chapters/40-eigenwerte/normalformen.tex b/buch/chapters/40-eigenwerte/normalformen.tex
new file mode 100644
index 0000000..f695435
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/normalformen.tex
@@ -0,0 +1,81 @@
+%
+% normalformen.tex -- Normalformen einer Matrix
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\section{Normalformen
+\label{buch:section:normalformen}}
+\rhead{Normalformen}
+In den Beispielen im vorangegangenen wurde wiederholt der Trick
+verwendet, den Koeffizientenkörper so zu erweitern, dass das
+charakteristische Polynom in Linearfaktoren zerfällt und
+für jeden Eigenwert Eigenvektoren gefunden werden können.
+Diese Idee ermöglicht, eine Matrix in einer geeigneten Körpererweiterung
+in eine besonders einfache Form zu bringen, das Problem dort zu lösen.
+Anschliessend kann man sich darum kümmern in welchem Mass die gewonnenen
+Resultate wieder in den ursprünglichen Körper transportiert werden können.
+
+\subsection{Diagonalform}
+Sei $A$ eine beliebige Matrix mit Koeffizienten in $\Bbbk$ und sei $\Bbbk'$
+eine Körpererweiterung von $\Bbbk$ derart, dass das charakteristische
+Polynom in Linearfaktoren
+\[
+\chi_A(x)
+=
+(x-\lambda_1)^{k_1}\cdot (x-\lambda_2)^{k_2}\cdot\dots\cdot (x-\lambda_m)^{k_m}
+\]
+mit Vielfachheiten $k_m$ zerfällt, $\lambda_i\in\Bbbk'$.
+Zu jedem Eigenwert $\lambda_i$ gibt es sicher einen Eigenvektor, wir
+wollen aber in diesem Abschnitt zusätzlich annehmen, dass es eine Basis
+aus Eigenvektoren gibt.
+In dieser Basis bekommt die Matrix Diagonalform, wobei auf der
+Diagonalen nur Eigenwerte vorkommen können.
+Man kann die Vektoren so anordnen, dass die Diagonalmatrix in Blöcke
+der Form $\lambda_iE$ zerfällt
+\[
+\def\temp#1{\multicolumn{1}{|c}{\raisebox{0pt}[12pt][7pt]{\phantom{x}$#1$}\phantom{x}}}
+A'
+=\left(
+\begin{array}{cccc}
+\cline{1-1}
+\temp{\lambda_1E} &\multicolumn{1}{|c}{}& & \\
+\cline{1-2}
+ &\temp{\lambda_2E}&\multicolumn{1}{|c}{}& \\
+\cline{2-3}
+ & &\temp{\ddots}&\multicolumn{1}{|c}{}\\
+\cline{3-4}
+ & & &\multicolumn{1}{|c|}{\raisebox{0pt}[12pt][7pt]{\phantom{x}$\lambda_mE$}\phantom{x}}\\
+\cline{4-4}
+\end{array}
+\right)
+\]
+Über die Grösse eines solchen $\lambda_iE$-Blockes können wir zum jetzigen
+Zeitpunkt noch keine Aussagen machen.
+
+Die Matrizen $A-\lambda_kE$ enthalten jeweils einen Block aus lauter
+Nullen.
+Das Produkt all dieser Matrizen ist daher
+\[
+(A-\lambda_1E)
+(A-\lambda_2E)
+\cdots
+(A-\lambda_mE)
+=
+0.
+\]
+Über dem Körper $\Bbbk'$ gibt es also das Polynom
+$m(x)=(x-\lambda_1)(x-\lambda_2)\cdots(x-\lambda_m)$ mit der Eigenschaft
+$m(A)=0$.
+Dies ist auch das Polynom von kleinstmöglichem Grad, denn für jeden
+Eigenwert muss ein entsprechender Linearfaktor in so einem Polynom vorkommen.
+Das Polynom $m(x)$ ist daher das Minimalpolynom der Matrix $A$.
+Da jeder Faktor in $m(x)$ auch ein Faktor von $\chi_A(x)$ ist,
+folgt wieder $\chi_A(A)=0$.
+Ausserdem ist über dem Körper $\Bbbk'$ das Polynom $m(x)$ ein Teiler
+des charakteristischen Polynoms $\chi_A(x)$.
+
+\subsection{Jordan-Normalform}
+
+\subsection{Reelle Normalform}
+
+\subsection{Obere Hessenberg-Form}
diff --git a/buch/common/packages.tex b/buch/common/packages.tex
index 68d5e45..65e5879 100644
--- a/buch/common/packages.tex
+++ b/buch/common/packages.tex
@@ -27,7 +27,7 @@
%\usepackage{suffix}
\usepackage{paralist}
\usepackage{makeidx}
-\usepackage{array}
+\usepackage{array,multirow}
\usepackage{hyperref}
\usepackage{subfigure}
\usepackage{tikz}