aboutsummaryrefslogtreecommitdiffstats
path: root/buch/chapters
diff options
context:
space:
mode:
Diffstat (limited to 'buch/chapters')
-rw-r--r--buch/chapters/00-einleitung/chapter.tex230
-rw-r--r--buch/chapters/05-zahlen/Makefile.inc13
-rw-r--r--buch/chapters/05-zahlen/chapter.tex37
-rw-r--r--buch/chapters/05-zahlen/ganz.tex124
-rw-r--r--buch/chapters/05-zahlen/images/komplex.pdfbin0 -> 18852 bytes
-rw-r--r--buch/chapters/05-zahlen/images/komplex.tex39
-rw-r--r--buch/chapters/05-zahlen/komplex.tex380
-rw-r--r--buch/chapters/05-zahlen/natuerlich.tex276
-rw-r--r--buch/chapters/05-zahlen/rational.tex177
-rw-r--r--buch/chapters/05-zahlen/reell.tex88
-rw-r--r--buch/chapters/10-vektorenmatrizen/Makefile.inc4
-rw-r--r--buch/chapters/10-vektorenmatrizen/algebren.tex130
-rw-r--r--buch/chapters/10-vektorenmatrizen/chapter.tex7
-rw-r--r--buch/chapters/10-vektorenmatrizen/gruppen.tex336
-rw-r--r--buch/chapters/10-vektorenmatrizen/hadamard.tex307
-rw-r--r--buch/chapters/10-vektorenmatrizen/images/Makefile18
-rw-r--r--buch/chapters/10-vektorenmatrizen/images/gausszahlen.pdfbin0 -> 19127 bytes
-rw-r--r--buch/chapters/10-vektorenmatrizen/images/gausszahlen.tex48
-rw-r--r--buch/chapters/10-vektorenmatrizen/images/ideale.pdfbin0 -> 73185 bytes
-rw-r--r--buch/chapters/10-vektorenmatrizen/images/ideale.tex72
-rw-r--r--buch/chapters/10-vektorenmatrizen/images/rref.pdfbin0 -> 15112 bytes
-rw-r--r--buch/chapters/10-vektorenmatrizen/images/rref.tex253
-rw-r--r--buch/chapters/10-vektorenmatrizen/images/strukturen.pdfbin0 -> 45339 bytes
-rw-r--r--buch/chapters/10-vektorenmatrizen/images/strukturen.tex122
-rw-r--r--buch/chapters/10-vektorenmatrizen/koerper.tex20
-rw-r--r--buch/chapters/10-vektorenmatrizen/linear.tex1127
-rw-r--r--buch/chapters/10-vektorenmatrizen/ringe.tex364
-rw-r--r--buch/chapters/10-vektorenmatrizen/skalarprodukt.tex813
-rw-r--r--buch/chapters/10-vektorenmatrizen/strukturen.tex38
-rw-r--r--buch/chapters/20-polynome/chapter.tex13
-rw-r--r--buch/chapters/20-polynome/definitionen.tex248
-rw-r--r--buch/chapters/20-polynome/vektoren.tex8
-rw-r--r--buch/chapters/30-endlichekoerper/Makefile.inc6
-rw-r--r--buch/chapters/30-endlichekoerper/beispiele/inverse.m15
-rw-r--r--buch/chapters/30-endlichekoerper/chapter.tex17
-rw-r--r--buch/chapters/30-endlichekoerper/euklid.tex617
-rw-r--r--buch/chapters/30-endlichekoerper/galois.tex553
-rw-r--r--buch/chapters/30-endlichekoerper/images/Makefile12
-rw-r--r--buch/chapters/30-endlichekoerper/images/binomial2.pdfbin0 -> 19246 bytes
-rw-r--r--buch/chapters/30-endlichekoerper/images/binomial2.tex306
-rw-r--r--buch/chapters/30-endlichekoerper/images/binomial5.pdfbin0 -> 26050 bytes
-rw-r--r--buch/chapters/30-endlichekoerper/images/binomial5.tex379
-rw-r--r--buch/chapters/30-endlichekoerper/images/farben.tex4
-rw-r--r--buch/chapters/30-endlichekoerper/rechnungen/euinv.maxima31
-rw-r--r--buch/chapters/30-endlichekoerper/rechnungen/invbeispiel.maxima81
-rw-r--r--buch/chapters/30-endlichekoerper/rechnungen/inverse.maxima35
-rw-r--r--buch/chapters/30-endlichekoerper/rechnungen/multiplikation.maxima38
-rw-r--r--buch/chapters/30-endlichekoerper/uebungsaufgaben/3001.tex102
-rw-r--r--buch/chapters/30-endlichekoerper/uebungsaufgaben/3002.tex9
-rw-r--r--buch/chapters/30-endlichekoerper/uebungsaufgaben/3003.tex72
-rw-r--r--buch/chapters/30-endlichekoerper/uebungsaufgaben/3004.tex234
-rw-r--r--buch/chapters/30-endlichekoerper/uebungsaufgaben/3004/matrix.m22
-rw-r--r--buch/chapters/30-endlichekoerper/uebungsaufgaben/3005.tex205
-rw-r--r--buch/chapters/30-endlichekoerper/wurzeln.tex894
-rw-r--r--buch/chapters/40-eigenwerte/Makefile.inc4
-rw-r--r--buch/chapters/40-eigenwerte/beispiele/Makefile8
-rw-r--r--buch/chapters/40-eigenwerte/beispiele/i.m65
-rw-r--r--buch/chapters/40-eigenwerte/beispiele/jp.maxima19
-rw-r--r--buch/chapters/40-eigenwerte/beispiele/n.m55
-rw-r--r--buch/chapters/40-eigenwerte/beispiele/n.maxima20
-rw-r--r--buch/chapters/40-eigenwerte/chapter.tex37
-rw-r--r--buch/chapters/40-eigenwerte/grundlagen.tex1002
-rw-r--r--buch/chapters/40-eigenwerte/images/Makefile16
-rw-r--r--buch/chapters/40-eigenwerte/images/nilpotent.pdfbin0 -> 14254 bytes
-rw-r--r--buch/chapters/40-eigenwerte/images/nilpotent.tex76
-rw-r--r--buch/chapters/40-eigenwerte/images/sp.pdfbin0 -> 24022 bytes
-rw-r--r--buch/chapters/40-eigenwerte/images/sp.tex62
-rw-r--r--buch/chapters/40-eigenwerte/images/spbeispiel.m51
-rw-r--r--buch/chapters/40-eigenwerte/normalformen.tex338
-rw-r--r--buch/chapters/40-eigenwerte/spektralradius.tex803
-rw-r--r--buch/chapters/40-eigenwerte/uebungsaufgaben/4001.tex76
-rw-r--r--buch/chapters/40-eigenwerte/uebungsaufgaben/4002.tex23
-rw-r--r--buch/chapters/40-eigenwerte/uebungsaufgaben/4003.m66
-rw-r--r--buch/chapters/40-eigenwerte/uebungsaufgaben/4003.maxima16
-rw-r--r--buch/chapters/40-eigenwerte/uebungsaufgaben/4003.tex241
-rw-r--r--buch/chapters/50-permutationen/beispiele/perm.m44
-rw-r--r--buch/chapters/50-permutationen/chapter.tex16
-rw-r--r--buch/chapters/50-permutationen/endlich.tex189
-rw-r--r--buch/chapters/50-permutationen/images/Makefile20
-rw-r--r--buch/chapters/50-permutationen/images/komposition.pdfbin0 -> 13951 bytes
-rw-r--r--buch/chapters/50-permutationen/images/komposition.tex55
-rw-r--r--buch/chapters/50-permutationen/images/permutation.pdfbin0 -> 13814 bytes
-rw-r--r--buch/chapters/50-permutationen/images/permutation.tex43
-rw-r--r--buch/chapters/50-permutationen/images/transpositionen.pdfbin0 -> 22548 bytes
-rw-r--r--buch/chapters/50-permutationen/images/transpositionen.tex103
-rw-r--r--buch/chapters/50-permutationen/images/zyklenzerlegung.pdfbin0 -> 14937 bytes
-rw-r--r--buch/chapters/50-permutationen/images/zyklenzerlegung.tex60
-rw-r--r--buch/chapters/50-permutationen/matrizen.tex187
-rw-r--r--buch/chapters/50-permutationen/transpositionen.tex134
-rw-r--r--buch/chapters/50-permutationen/uebungsaufgaben/5001.tex121
-rw-r--r--buch/chapters/70-graphen/beschreibung.tex270
-rw-r--r--buch/chapters/70-graphen/chapter.tex9
-rw-r--r--buch/chapters/70-graphen/images/Makefile19
-rw-r--r--buch/chapters/70-graphen/images/adjazenzd.pdfbin0 -> 23490 bytes
-rw-r--r--buch/chapters/70-graphen/images/adjazenzd.tex100
-rw-r--r--buch/chapters/70-graphen/images/adjazenzu.pdfbin0 -> 21744 bytes
-rw-r--r--buch/chapters/70-graphen/images/adjazenzu.tex98
-rw-r--r--buch/chapters/70-graphen/images/kreis.pdfbin0 -> 23540 bytes
-rw-r--r--buch/chapters/70-graphen/images/kreis.tex47
-rw-r--r--buch/chapters/70-graphen/images/peterson.pdfbin0 -> 10833 bytes
-rw-r--r--buch/chapters/70-graphen/images/peterson.tex38
-rw-r--r--buch/chapters/70-graphen/wavelets.tex125
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/Makefile.inc1
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/chapter.tex1
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/google.tex86
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/Makefile79
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/diffusion.jpgbin0 -> 203856 bytes
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/diffusion.m33
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/diffusion.pdfbin0 -> 220008 bytes
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/diffusion.pngbin0 -> 265323 bytes
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/diffusion.pov87
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/diffusion.tex46
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/dreieck.m41
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/dreieck.pdfbin0 -> 23945 bytes
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/dreieck.tex90
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/internet.pdfbin0 -> 10681 bytes
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/internet.tex58
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/konvex.pdfbin0 -> 24033 bytes
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/konvex.tex75
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/markov.pdfbin0 -> 28921 bytes
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/markov.tex99
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/markov2.pdfbin0 -> 31027 bytes
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/markov2.tex113
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/markov3.pdfbin0 -> 30437 bytes
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/markov3.tex113
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/positiv.jpgbin0 -> 111361 bytes
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/positiv.m36
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/positiv.pdfbin0 -> 124093 bytes
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/positiv.pngbin0 -> 191808 bytes
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/positiv.pov137
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/positiv.tex51
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/spielB.pdfbin0 -> 9917 bytes
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/spielB.tex59
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/spielBtilde.pdfbin0 -> 14592 bytes
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/spielBtilde.tex59
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/trenn.pdfbin0 -> 13272 bytes
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/trenn.tex44
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/vergleich.jpgbin0 -> 105809 bytes
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/vergleich.pdfbin0 -> 120558 bytes
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/vergleich.pngbin0 -> 223136 bytes
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/vergleich.pov203
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/images/vergleich.tex46
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/markov.tex914
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/parrondo.tex798
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/positiv.tex721
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/rechnungen/btilde.maxima103
-rw-r--r--buch/chapters/90-crypto/Makefile.inc12
-rw-r--r--buch/chapters/90-crypto/aes.tex35
-rw-r--r--buch/chapters/90-crypto/arith.tex25
-rw-r--r--buch/chapters/90-crypto/chapter.tex31
-rw-r--r--buch/chapters/90-crypto/ff.tex664
-rw-r--r--buch/chapters/90-crypto/images/Makefile13
-rw-r--r--buch/chapters/90-crypto/images/dh.pdfbin0 -> 27689 bytes
-rw-r--r--buch/chapters/90-crypto/images/dh.tex53
-rw-r--r--buch/chapters/90-crypto/images/elliptic.pdfbin0 -> 21278 bytes
-rw-r--r--buch/chapters/90-crypto/images/elliptic.tex97
-rw-r--r--buch/chapters/90-crypto/rechnungen/elliptic.maxima42
-rw-r--r--buch/chapters/90-crypto/rechnungen/tangent.maxima67
-rw-r--r--buch/chapters/90-crypto/rs.tex41
-rw-r--r--buch/chapters/90-crypto/uebungsaufgaben/9001.tex31
-rw-r--r--buch/chapters/95-homologie/Makefile.inc20
-rw-r--r--buch/chapters/95-homologie/chapter.tex49
-rw-r--r--buch/chapters/95-homologie/fixpunkte.tex25
-rw-r--r--buch/chapters/95-homologie/homologie.tex18
-rw-r--r--buch/chapters/95-homologie/images/Makefile10
-rw-r--r--buch/chapters/95-homologie/images/dreieck.pdfbin0 -> 12089 bytes
-rw-r--r--buch/chapters/95-homologie/images/dreieck.tex54
-rw-r--r--buch/chapters/95-homologie/komplex.tex14
-rw-r--r--buch/chapters/95-homologie/mayervietoris.tex28
-rw-r--r--buch/chapters/95-homologie/simplex.tex238
-rw-r--r--buch/chapters/Makefile.inc2
-rw-r--r--buch/chapters/part1.tex2
-rw-r--r--buch/chapters/references.bib20
173 files changed, 19067 insertions, 197 deletions
diff --git a/buch/chapters/00-einleitung/chapter.tex b/buch/chapters/00-einleitung/chapter.tex
index 4c49622..f673aa4 100644
--- a/buch/chapters/00-einleitung/chapter.tex
+++ b/buch/chapters/00-einleitung/chapter.tex
@@ -7,4 +7,234 @@
\lhead{Einleitung}
\rhead{}
\addcontentsline{toc}{chapter}{Einleitung}
+Die Mathematik befasst sich neben dem Rechnen mit Zahlen, der Arithmetik,
+mit einer Vielzahl von Abstraktionen, die oft überhaupt nichts mit
+Zahlen zu tun haben.
+Die Geometrie studiert zum Beispiel Objekte wie Punkte, Geraden, Kreise
+und deren Beziehungen untereinander, die man definieren kann ganz ohne
+das Wissen, was eine Zahl ist.
+Apollonius von Perga (262--190 BCE) hat in seinem Buch über Kegelschnitte
+als erster einen algebraischen Zusammenhang zwischen Zahlen festgestellt,
+die man also die Vorläufer heutiger Koordinaten eines Punktes ansehen könnte.
+Erst im 16.~Jahrhundert entwickelte sich die Algebra allerdings weit genug,
+dass eine Algebraisierung der Geometrie möglich wurde.
+Pierre de Fermat
+\index{Fermat, Pierre de}%
+und René Descartes
+\index{Descartes, René}%
+schufen die sogenannte {\em analytische Geometrie}.
+Das rechtwinklige Koordinatensystem, nach Descartes auch karteisches
+Koordinatensystem genannt, beschreibt Punkte als Zahlenpaare $(x,y)$
+und Kurven in der Ebene durch ihre Gleichungen.
+Geraden können als Graphen der Funktion $f(x) = ax+b$ oder als Lösungsmenge
+linearer Gleichungen wie $ax+by=c$ verstanden werden.
+Eine Parabel kann als Graph einer quadratischen Funktion $f(x)=ax^2+bx+c$
+dargestellt werden.
+Die Punkte $(x,y)$ eines Kreises lösen eine Gleichung der Form
+\[
+(x-x_M)^2 + (y-y_M)^2 = r^2.
+\]
+Mit dieser einfachen Idee konnte jedes geometrische Problem in der Ebene
+in ein algebraisches Problem übersetzt werden und umgekehrt.
+
+Die Algebraisierung macht allerdings auch klar, dass dem Aufbau des
+Zahlensystems mehr Beachtung geschenkt werden muss.
+Zum Beispiel beschreibt die Gleichung
+\[
+x^2+(y-1)^2=4
+\]
+einen Kreis mit Radius $2$ um den Punkt $(0,1)$.
+Der Kreis hat natürlich zwei Schnittpunkte mit der $x$-Achse, wie mit jeder
+Gerade, deren Abstand vom Mittelpunkt des Kreises kleiner ist als der Radius.
+Schnittpunkte haben die Koordinaten $(x_S,0)$ und $x_S$ muss die
+Gleichung
+\[
+x_S^2 + (0-1)^2 = x_S^2+1=4
+\qquad\Rightarrow\qquad
+x_S^2=3
+\]
+erfüllen.
+Eine solche Lösung ist nicht möglich, wenn man sich auf rationale
+Koordinaten $x_S\in\mathbb{Q}$ beschränkt, die Erweiterung auf
+reelle Zahlen ist notwendig.
+
+Kapitel~\ref{buch:chapter:zahlen} übernimmt die Aufgabe, die Zahlensysteme
+klar zu definieren und ihre wichtigsten Eigenschaften zusammenzutragen.
+Sie bilden das Fundament aller folgenden Konstruktionen.
+
+Die reellen Zahlen erweitern die rationalen Zahlen derart, dass damit
+zum Beispiel quaddratische Gleichungen gelöst werden können.
+Dies ist aber nicht die einzige mögliche Vorgehensweise.
+Die Zahl $\alpha=\sqrt{2}$ ist ja nur ein Objekt, mit dem gerechnet werden
+kann wie mit jeder anderen Zahl, welche aber die zusätzliche Rechenregel
+$\alpha^2=2$ erfüllt.
+Die Erweiterung von $\mathbb{R}$ zu den komplexen Zahl verlangt nur,
+dass man der Menge $\mathbb{R}$ ein neues algebraisches Objekt $i$
+hinzufügt, welches als spezielle Eigenschaft die Gleichung $i^2=-1$ hat.
+Bei $\sqrt{2}$ hat die geometrische Anschauung suggeriert, dass es eine
+solche Zahl ``zwischen'' den rationalen Zahlen gibt, aber für $i$
+gibt es keine solche Anschauung.
+Die imaginäre Einheit $i$ erhielt daher auch diesen durchaus
+abwertend gemeinten Namen.
+
+Die Zahlensysteme lassen sich also verstehen als einfachere Zahlensysteme,
+denen man zusätzliche Objekte mit besonderen algebraischen Eigenschaften
+hinzufügt.
+Doch was sind das für Objekte?
+Gibt es die überhaupt?
+Kann man deren Existenz einfach so postulieren, so wie man das mit $i$
+gemacht hat?
+Und was macht man, wenn man sich den nächsten ``algebraischen Wunsch''
+erfüllen will, auch einfach wieder die Existenz des neuen Objektes
+postulieren?
+
+Komplexen Zahlen und Matrizen zeigen, wie das gehen könnte.
+Indem man vier rationale Zahlen als $2\times 2$-Matrix in der Form
+\[
+A=
+\begin{pmatrix}
+a_{11}&a_{12}\\
+a_{21}&a_{22}
+\end{pmatrix}
+\]
+gruppiert und die Rechenoperationen
+\begin{align*}
+A+B
+&=
+\begin{pmatrix}
+a_{11}&a_{12}\\
+a_{21}&a_{22}
+\end{pmatrix}
++
+\begin{pmatrix}
+b_{11}&b_{12}\\
+b_{21}&b_{22}
+\end{pmatrix}
+=
+\begin{pmatrix}
+a_{11}+b_{11}&a_{12}+b_{12}\\
+a_{21}+b_{21}&a_{22}+b_{22}
+\end{pmatrix}
+\\
+AB
+&=
+\begin{pmatrix}
+a_{11}&a_{12}\\
+a_{21}&a_{22}
+\end{pmatrix}
+\begin{pmatrix}
+b_{11}&b_{12}\\
+b_{21}&b_{22}
+\end{pmatrix}
+=
+\begin{pmatrix}
+a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\
+a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22}
+\end{pmatrix}
+\end{align*}
+definiert, kann man neue Objekte mit zum Teil bekannten, zum Teil
+aber auch ungewohnten algebraischen Eigenschaften bekommen.
+Die Matrizen der Form
+\[
+aI
+=
+\begin{pmatrix} a&0\\0&a \end{pmatrix},
+\quad
+a\in\mathbb{Q}
+\]
+zum Beispiel erfüllen alle Regeln für das Rechnen mit rationalen Zahlen.
+$\mathbb{Q}$ kann man also als Teilmenge des neuen ``Zahlensystems'' ansehen.
+Aber die Matrix
+\[
+J
+=
+\begin{pmatrix} 0&-1\\1&0 \end{pmatrix}
+\]
+hat die Eigenschaft
+\[
+J^2 =
+\begin{pmatrix} 0&-1\\1&0 \end{pmatrix}
+\begin{pmatrix} 0&-1\\1&0 \end{pmatrix}
+=
+\begin{pmatrix} -1&0\\0&-1\end{pmatrix}
+=
+-I.
+\]
+Das neue Objekt $J$ ist ein explizit konstruiertes Objekt, welches
+genau die rechnerischen Eigenschaften der imaginären Einheit $i$ hat.
+
+Die imaginäre Einheit ist nicht die einzige Grösse, die sich auf diese
+Weise konstruieren lässt.
+Zum Beispiel erfüllt die Matrix
+\[
+W=\begin{pmatrix} 0&2\\1&0 \end{pmatrix}
+\qquad\text{die Gleichung}\qquad
+W^2 = \begin{pmatrix} 2&0\\0&2\end{pmatrix} = 2I,
+\]
+die Menge der Matrizen
+\[
+\mathbb{Q}(\!\sqrt{2})
+=
+\left\{\left.
+\begin{pmatrix} a&2b\\ b&a\end{pmatrix}
+\;\right|\;
+a,b\in\mathbb{Q}
+\right\}
+\]
+verhält sich daher genau so wie die Menge der rationalen Zahlen, denen
+man ein ``imaginäres'' neues Objekt $\!\sqrt{2}$ hinzugefügt hat.
+
+Matrizen sind also ein Werkzeug, mit dem sich ein algebraisches Systeme
+mit fast beliebigen Eigenschaften konstruieren lässt.
+Dies führt zu einer Explosion der denkbaren algebraischen Strukturen.
+Kapitel~\ref{buch:chapter:vektoren-und-matrizen} bringt etwas Ordnung
+in diese Vielfalt, indem die grundlegenden Strukturen charakterisiert
+und benannt werden.
+
+In den folgenden Kapiteln sollen dann weitere algebraische Konstrukte
+studiert und mit Matrizen realisiert werden.
+Den Anfang machen in Kapitel~\ref{buch:chapter:polynome} die Polynome.
+Polynome beschreiben grundlegende algebraische Eigenschaften eines
+einzelnen Objektes, sowohl $\sqrt{2}$ wie auch $i$ sind Lösungen einer
+Polynomgleichung.
+
+Eine besondere Rolle spielen in der Mathematik die Symmetrien.
+Eine der frühesten Anwendungen dieses Gedankens in der Algebra war
+die Überlegung, dass sich die Nullstellen einer Polynomgleichung
+permutieren lassen.
+Die Idee der Permutationsgruppe taucht auch in algebraischen Konstruktionen
+wie der Determinanten auf.
+Tatsächlich lassen sich Permutationen auch als Matrizen schreiben
+und die Rechenregeln für Determinanten sind ein direktes Abbild
+gewisser Eigenschaften von Transpositionen.
+Einmal mehr haben Matrizen ermöglicht, ein neues Konzept in einer
+bekannten Sprache auszudrücken.
+
+Die Darstellungstheorie ist das Bestreben, nicht nur Permutationen,
+sondern beliebige Gruppen von Symmetrien als Mengen von Matrizen
+darzustellen.
+Die abstrakten Symmetriegruppen erhalten damit immer konkrete
+Realisierungen als Matrizenmengen.
+Auch kompliziertere Strukturen wie Ringe, Körper oder Algebren
+lassen sich mit Matrizen realisieren.
+Aber die Idee ist nicht auf die Geometrie beschränkt, auch analytische
+oder kombinatorische Eigenschaften lassen sich in Matrizenstrukturen
+abbilden und damit neuen rechnerischen Behandlungen zugänglich
+machen.
+
+Das Kapitel~\ref{buch:chapter:homologie} illustriert, wie weit dieser
+Plan führen kann.
+Die Konstruktion der Homologiegruppen zeigt, wie sich die Eigenschaften
+der Gestalt gewisser geometrischer Strukturen zunächst mit Matrizen,
+die kombinatorische Eigenschaften beschreiben, ausdrücken lassen.
+Anschliessend können daraus wieder algebraische Strukturen gewonnen
+werden.
+Gestalteigenschaften werden damit der rechnerischen Untersuchung zugänglich.
+
+Die folgenden Kapitel sollen zeigen, wie Matrizen der Schlüssel dafür
+sein können, fast jede denkbare rechnerische Struktur zu verstehen und
+auch zum Beispiel für die Berechnung mit dem Computer zu realisieren.
+
+
+
diff --git a/buch/chapters/05-zahlen/Makefile.inc b/buch/chapters/05-zahlen/Makefile.inc
new file mode 100644
index 0000000..566217d
--- /dev/null
+++ b/buch/chapters/05-zahlen/Makefile.inc
@@ -0,0 +1,13 @@
+#
+# Makefile.inc -- Makefile dependencies for chapter 0.5
+#
+# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+#
+
+CHAPTERFILES = $(CHAPTERFILES) \
+ chapters/05-zahlen/natuerlich.tex \
+ chapters/05-zahlen/ganz.tex \
+ chapters/05-zahlen/rational.tex \
+ chapters/05-zahlen/reell.tex \
+ chapters/05-zahlen/komplex.tex \
+ chapters/05-zahlen/chapter.tex
diff --git a/buch/chapters/05-zahlen/chapter.tex b/buch/chapters/05-zahlen/chapter.tex
new file mode 100644
index 0000000..56ef096
--- /dev/null
+++ b/buch/chapters/05-zahlen/chapter.tex
@@ -0,0 +1,37 @@
+%
+% chapter.tex -- Kapitel mit den Grunddefinition und Notationen
+%
+% (c) 2020 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\chapter{Zahlen
+\label{buch:chapter:zahlen}}
+\lhead{Zahlen}
+\rhead{}
+
+Das Thema dieses Buches ist die Konstruktion interessanter
+mathematischer Objekte mit Hilfe von Matrizen.
+Die Einträge dieser Matrizen sind natürlich Zahlen.
+Wir wollen von diesen grundlegenden Bausteinen ausgehen.
+Dies schliesst natürlich nicht aus, dass man auch Zahlenmengen
+mit Hilfe von Matrizen beschreiben kann, wie wir es später für die
+komplexen Zahlen machen werden.
+
+In diesem Kapitel sollen daher die Eigenschaften der bekannten
+Zahlensysteme der natürlichen, ganzen, rationalen, reellen und
+komplexen Zahlen nochmals in einer Übersicht zusammengetragen
+werden.
+Dabei wird besonderes Gewicht darauf gelegt, wie in jedem Fall
+einerseits neue Objekte postuliert, andererseits
+aber auch konkrete Objekte konstruiert werden können.
+
+\input{chapters/05-zahlen/natuerlich.tex}
+\input{chapters/05-zahlen/ganz.tex}
+\input{chapters/05-zahlen/rational.tex}
+\input{chapters/05-zahlen/reell.tex}
+\input{chapters/05-zahlen/komplex.tex}
+
+%\section*{Übungsaufgaben}
+%\aufgabetoplevel{chapters/05-zahlen/uebungsaufgaben}
+%\begin{uebungsaufgaben}
+%\end{uebungsaufgaben}
+
diff --git a/buch/chapters/05-zahlen/ganz.tex b/buch/chapters/05-zahlen/ganz.tex
new file mode 100644
index 0000000..fab2dcb
--- /dev/null
+++ b/buch/chapters/05-zahlen/ganz.tex
@@ -0,0 +1,124 @@
+%
+% ganz.tex -- Ganze Zahlen
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+% !TeX spellcheck = de_CH
+\section{Ganze Zahlen
+\label{buch:section:ganze-zahlen}}
+\rhead{Ganze Zahlen}
+Die Menge der ganzen Zahlen löst das Problem, dass nicht jede
+Gleichung der Form $x+a=b$ mit $a, b \in \mathbb N$
+eine Lösung $x \in \mathbb N$ hat.
+Dazu ist erforderlich, den natürlichen Zahlen die negativen Zahlen
+hinzuzufügen, also wieder die Existenz neuer Objekte zu postulieren,
+die die Rechenregeln weiterhin erfüllen.
+
+\subsubsection{Paare von natürlichen Zahlen}
+Die ganzen Zahlen können konstruiert werden als Paare $(u,v)$ von
+natürlichen Zahlen $u,v\in\mathbb{N}$.
+Die Paare der Form $(u,0)$ entsprechen den natürlichen Zahlen, die
+Paare $(0,v)$ sind die negativen Zahlen.
+Die Rechenoperationen sind wie folgt definiert:
+\begin{equation}
+\begin{aligned}
+(a,b)+(u,v) &= (a+u,b+v)
+\\
+(a,b)\cdot (u,v) &= (au+bv,av+bu)
+\end{aligned}
+\label{buch:zahlen:ganze-rechenregeln}
+\end{equation}
+Die Darstellung ganzer Zahlen als Paare von natürlichen Zahlen
+findet man auch in der Buchhaltung, wo man statt eines Vorzeichen
+{\em Soll} und {\em Haben} verwendet.
+Dabei kommt es nur auf die Differenz der beiden Positionen an.
+Fügt man beiden Positionen den gleichen Betrag hinzu, ändert sich
+nichts.
+Viele der Paare $(a,b)$ müssen also als äquivalent angesehen
+werden.
+
+\subsubsection{Äquivalenzrelation}
+Die Definition~\eqref{buch:zahlen:ganze-rechenregeln}
+erzeugt neue Paare, die wir noch nicht interpretieren können.
+Zum Beispiel ist $0=1+(-1) = (1,0) + (0,1) = (1,1)$.
+Die Paare $(u,u)$ müssen daher alle mit $0$ identifiziert werden.
+Es folgt dann auch, dass alle Paare von natürlichen Zahlen mit
+``gleicher Differenz'' den gleichen ganzzahligen Wert darstellen,
+allerdings können wir das nicht so formulieren, da ja die Differenz
+noch gar nicht definiert ist.
+Stattdessen gelten zwei Paare als äquivalent, wenn
+\begin{equation}
+(a,b) \sim (c,d)
+\qquad\Leftrightarrow\qquad
+a+d = c+b
+\label{buch:zahlen:ganz-aquivalenz}
+\end{equation}
+gilt.
+Diese Bedingung erhält man, indem man zu $a-b=c-d$ die Summe $b+d$
+hinzuaddiert.
+Ein ganzen Zahl $z$ ist daher eine Menge von Paaren von natürlichen
+Zahlen mit der Eigenschaft
+\[
+(a,b)\in z\;\wedge (a',b')\in z
+\qquad\Leftrightarrow\qquad
+(a,b)\sim(a',b')
+\qquad\Leftrightarrow\qquad
+a+b' = a'+b.
+\]
+Man nennt eine solche Menge eine {\em Äquivalenzklasse} der Relation $\sim$.
+
+Die Menge $\mathbb{Z}$ der {\em ganzen Zahlen} ist die Menge aller solchen
+Äquivalenzklassen.
+Die Menge der natürlichen Zahlen $\mathbb{N}$ ist in evidenter Weise
+darin eingebettet als die Menge der Äquivalenzklassen von Paaren der
+Form $(n,0)$.
+
+\subsubsection{Entgegengesetzter Wert}
+Zu jeder ganzen Zahl $z$ dargestellt durch das Paar $(a,b)$
+stellt das Paar $(b,a)$ eine ganze Zahl dar mit der Eigenschaft
+\begin{equation}
+z+(b,a)
+=
+(a,b) + (b+a) = (a+b,a+b) \sim (0,0) = 0.
+\label{buch:zahlen:eqn:entgegengesetzt}
+\end{equation}
+Die von $(b,a)$ dargestellte ganze Zahl wird mit $-z$ bezeichnet,
+die Rechnung~\eqref{buch:zahlen:eqn:entgegengesetzt} lässt sich damit
+abgekürzt als $z+(-z)=0$ schreiben.
+
+\subsubsection{Lösung von Gleichungen}
+Gleichungen der Form $a=x+b$ können jetzt für beliebige ganze Zahlen
+immer gelöst werden.
+Dazu schreibt man $a,b\in\mathbb{N}$ als Paare und sucht die
+Lösung in der Form $x=(u,v)$.
+Man erhält
+\begin{align*}
+(a,0) &= (u,v) + (b,0)
+\\
+(a+b,b) &= (u+b,v)
+\end{align*}
+Das Paar $(u,v) = (a,b)$ ist eine Lösung, die man normalerweise als
+$a-b = (a,0) + (-(b,0)) = (a,0) + (0,b) = (a,b)$ schreibt.
+
+\subsubsection{Ring}
+\index{Ring}%
+Die ganzen Zahlen sind ein Beispiel für einen sogenannten Ring,
+eine algebraische Struktur in der Addition, Subtraktion und
+Multiplikation definiert sind.
+Weitere Beispiel werden später vorgestellt,
+der Ring der Polynome $\mathbb{Z}[X]$ in Kapitel~\ref{buch:chapter:polynome}
+und
+der Ring der $n\times n$-Matrizen in
+Kapitel~\ref{buch:chapter:vektoren-und-matrizen}.
+In einem Ring wird nicht verlangt, dass die Multiplikation kommutativ
+ist, Matrizenringe sind nicht kommutativ.
+$\mathbb{Z}$ ist ein kommutativer Ring ebenso sind die Polynomringe
+kommutativ.
+Die Theorie der nicht kommutativen Ringe ist sehr viel reichhaltiger
+und leider auch komplizierter als die kommutative Theorie.
+\index{Ring!kommutativer}%
+
+
+
+
+
diff --git a/buch/chapters/05-zahlen/images/komplex.pdf b/buch/chapters/05-zahlen/images/komplex.pdf
new file mode 100644
index 0000000..d502e3c
--- /dev/null
+++ b/buch/chapters/05-zahlen/images/komplex.pdf
Binary files differ
diff --git a/buch/chapters/05-zahlen/images/komplex.tex b/buch/chapters/05-zahlen/images/komplex.tex
new file mode 100644
index 0000000..8cda85b
--- /dev/null
+++ b/buch/chapters/05-zahlen/images/komplex.tex
@@ -0,0 +1,39 @@
+%
+% komplex.tex -- Betrag und Argument einer komplexen Zahl
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1.5}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\pgfmathparse{atan(2/3)}
+\xdef\winkel{\pgfmathresult}
+\fill[color=blue!20] (0,0) -- (1.5,0) arc (0:\winkel:1.5) -- cycle;
+\draw[->] (-1,0) -- (4,0) coordinate[label={$\Re z$}];
+\draw[->] (0,-1) -- (0,3) coordinate[label={right:$\Im z$}];
+\draw[line width=0.5pt] (3,0) -- (3,2);
+\node at (3,1) [right] {$\Im z=b$};
+\node at (1.5,0) [below] {$\Re z=a$};
+\draw[->,color=red,line width=1.4pt] (0,0) -- (3,2);
+\node at (3,2) [above right] {$z=a+bi$};
+\def\punkt#1{
+ \fill[color=white] #1 circle[radius=0.04];
+ \draw #1 circle[radius=0.04];
+}
+\punkt{(0,0)}
+\punkt{(3,2)}
+\node[color=red] at (1.5,1) [rotate=\winkel,above] {$r=|z|$};
+\node[color=blue] at ({\winkel/2}:1.0)
+ [rotate={\winkel/2}] {$\varphi=\operatorname{arg}z$};
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/05-zahlen/komplex.tex b/buch/chapters/05-zahlen/komplex.tex
new file mode 100644
index 0000000..4ccea89
--- /dev/null
+++ b/buch/chapters/05-zahlen/komplex.tex
@@ -0,0 +1,380 @@
+%
+% komplex.tex -- komplexe Zahlen
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\section{Komplexe Zahlen
+\label{buch:section:komplexe-zahlen}}
+\rhead{Komplexe Zahlen}
+In den reellen Zahlen lassen sich viele algebraische Gleichungen lösen.
+Andere, z.~B.~die Gleichung
+\begin{equation}
+x^2+1=0,
+\label{buch:zahlen:eqn:igleichung}
+\end{equation}
+haben weiterhin keine Lösung.
+Der Grund dafür ist das Bestreben bei der Konstruktion der reellen Zahlen,
+die Ordnungsrelation zu erhalten.
+Diese ermöglicht, Näherungsintervall und Intervallschachtelungen
+zu definieren.
+
+Die Ordnungsrelation sagt aber auch, dass $x^2\ge 0$ ist für jedes
+$x\in\mathbb{R}$, so dass $x^2+1>0$ sein muss.
+Dies ist der Grund, warum die Gleichung \ref{buch:zahlen:eqn:igleichung}
+keine Lösung in $\mathbb{R}$ haben kann.
+Im Umkehrschluss folgt auch, dass eine Erweiterung der reellen Zahlen,
+in der die Gleichung \eqref{buch:zahlen:eqn:igleichung} lösbar ist,
+ohne die Ordnungsrelation auskommen muss.
+Es muss darin Zahlen geben, deren Quadrat negativ ist und der
+Grössenvergleich dieser Zahlen untereinander ist nur eingeschränkt
+möglich.
+
+\subsubsection{Imaginäre und komplexe Zahlen}
+Den reellen Zahlen fehlen also Zahlen, deren Quadrat negativ ist.
+Nach inzwischen bewährtem Muster konstruieren wird die neuen Zahlen
+daher als Paare $(a,b)$.
+Die erste Komponente soll die bekannten reellen Zahlen darstellen,
+deren Quadrat positiv ist.
+Die zweite Komponente soll für die Zahlen verwendet werden, deren Quadrat
+negativ ist.
+Die Zahl, deren Quadrat $-1$ sein soll, bezeichnen wir auch mit dem
+Paar $(0,1)$ und schreiben dafür auch $i=(0,1)$ mit $i^2=-1$.
+
+Die Rechenregeln sollen weiterhin erhalten bleiben, sie müssen daher
+wie folgt definiert werden:
+\begin{equation}
+\begin{aligned}
+(a,b) + (c,d) &= (a+c,b+d) & (a+bi) + (c+di) &= (a+c) + (b+d)i
+\\
+(a,b) \cdot (c,d) & (ad-bd, ad+bc) & (a+bi)\cdot(c+di) &= ac-bd + (ad+bc)i.
+\end{aligned}
+\label{buch:zahlen:cregeln}
+\end{equation}
+Diese Regeln ergeben sich ganz natürlich aus den Rechenregeln
+in $\mathbb{R}$ unter Berücksichtigung der Regel $i^2=-1$.
+
+Eine komplexe Zahl ist ein solches Paar, die Menge der komplexen Zahlen
+ist
+\[
+\mathbb{C}
+=
+\{a+bi\;|\;a,b\in\mathbb{R}\}
+\]
+mit den Rechenoperationen~\eqref{buch:zahlen:cregeln}.
+Die Menge $\mathbb{C}$ verhält sich daher wie eine zweidimensionaler
+reeller Vektorraum.
+
+\subsubsection{Real- und Imaginärteil}
+Ist $z=a+bi$ eine komplexe Zahl, dann heisst $a$ der Realteil $a=\Re z$
+und $b$ heisst der Imaginärteil $\Im z$.
+Real- und Imaginärteil sind lineare Abbildungen $\mathbb{C}\to\mathbb{R}$,
+sie projizieren einen Punkt auf die Koordinatenachsen, die entsprechend
+auch die reelle und die imaginäre Achse heissen.
+
+Die Multiplikation mit $i$ vertauscht Real- und Imaginärteil:
+\[
+\Re (iz)
+=
+-b
+=
+-\Im z
+\qquad\text{und}\qquad
+\Im (iz)
+=
+a
+=
+\Re z.
+\]
+Zusätzlich kehrt das Vorzeichen der einen Komponente.
+Wir kommen auf diese Eigenschaft zurück, wenn wir später in Abschnitt~XXX
+komplexe Zahlen als Matrizen beschreiben.
+
+\subsubsection{Komplexe Konjugation}
+Der komplexen Zahl $u=a+bi$ ordnen wir die sogenannte
+{\em komplex konjugierte} Zahl $\overline{z} = a-bi$.
+Mit Hilfe der komplexen Konjugation kann man den Real- und Imaginärteil
+algebraisch ausdrücken:
+\[
+\Re z
+=
+\frac{z+\overline{z}}2
+=
+\frac{a+bi+a-bi}{2}
+=
+\frac{2a}2
+=a
+\qquad\text{und}\qquad
+\Im z
+=
+\frac{z-\overline{z}}{2i}
+=
+\frac{a+bi-a+bi}{2i}
+=
+\frac{2bi}{2i}
+=
+b.
+\]
+In der Gaussschen Zahlenebene ist die komplexe Konjugation eine
+Spiegelung an der reellen Achse.
+
+\subsubsection{Betrag}
+In $\mathbb{R}$ kann man die Ordnungsrelation dazu verwenden zu entscheiden,
+ob eine Zahl $0$ ist.
+Wenn $x\ge 0$ ist und $x\le 0$, dann ist $x=0$.
+In $\mathbb{C}$ steht diese Ordnungsrelation nicht mehr zur Verfügung.
+Eine komplexe Zahl ist von $0$ verschieden, wenn die Länge des Vektors in der
+Zahlenebene verschieden von $0$ ist.
+Wir definieren daher den Betrag einer komplexen Zahl $z=a+bi$ als
+\[
+|z|^2
+=
+a^2 +b^2
+=
+(\Re z)^2 + (\Im z)^2
+\qquad\Rightarrow\qquad
+|z|
+=
+\sqrt{a^2+b^2}
+=
+\sqrt{(\Re z)^2 + (\Im z)^2}.
+\]
+Der Betrag lässt sich auch mit Hilfe der komplexen Konjugation ausdrücken,
+es ist $z\overline{z} = (a+bi)(a-bi) = a^2+abi-abi+b^2 = |z|^2$.
+Der Betrag ist immer eine reelle Zahl.
+
+\subsubsection{Division}
+Die Erweiterung zu den komplexen Zahlen muss auch die Division erhalten.
+Dies ist durchaus nicht selbstverständlich.
+Man kann zeigen, dass ein Produkt von Vektoren eines Vektorraums nur für
+einige wenige, niedrige Dimensionen überhaupt möglich ist.
+Für die Division sind die Einschränkungen noch gravierender, die einzigen
+Dimensionen $>1$, in denen ein Produkt mit einer Division definiert werden
+kann\footnote{Der Beweis dieser Aussage ist ziemlich schwierig und wurde
+erst im 20.~Jahrhundert mit Hilfe der Methoden der algebraischen Topologie
+erbracht. Eine Übersicht über den Beweis kann in Kapitel~10 von
+\cite{buch:ebbinghaus} gefunden werden.}, sind $2$, $4$ und $8$.
+Nur in Dimension $2$ ist ein kommutatives Produkt möglich, dies muss das
+Produkt der komplexen Zahlen sein.
+
+Wie berechnet man den Quotienten $\frac{z}{w}$ für zwei beliebige komplexe
+Zahlen $z=a+bi$ und $w=c+di$ mit $w\ne 0$?
+Dazu erweitert man den Bruch mit der komplex konjugierten des Nenners:
+\begin{align*}
+\frac{z}{w}
+&=
+\frac{z\overline{w}}{w\overline{w}}
+=
+\frac{z\overline{w}}{|w|^2}
+\end{align*}
+Da der Nenner $|w|^2>0$ eine reelle Zahl ist, ist die Division einfach,
+es ist die Multiplikation mit der reellen Zahl $1/|w|^2$.
+
+Wir können den Quotienten auch in Komponenten ausdrücken:
+\begin{align*}
+\frac{z}{w}
+&=
+\frac{a+bi}{c+di}
+=
+\frac{(a+bi)(c+di)}{(c+di)(c-di)}
+=
+\frac{ac-bd +(ad+bc)i}{c^2+d^2}.
+\end{align*}
+
+\subsubsection{Gausssche Zahlenebene}
+Beschränkt man die Multiplikation auf einen reellen Faktor, wird $\mathbb{C}$
+zu einem zweidimensionalen reellen Vektorraum.
+Man kann die komplexe Zahl $a+bi$ daher auch als Punkt $(a,b)$ in der
+sogenannten Gaussschen Ebene betrachten.
+Die Addition von komplexen Zahlen ist in diesem Bild die vektorielle
+Addition, die Multiplikation mit reellen Zahlen werden wir weiter unten
+genauer untersuchen müssen.
+
+\begin{figure}
+\centering
+\includegraphics{chapters/05-zahlen/images/komplex.pdf}
+\caption{Argument und Betrag einer komplexen Zahl $z=a+ib$ in der
+Gaussschen Zahlenebene
+\label{buch:zahlen:cfig}}
+\end{figure}
+Die Zahlenebene führt auf eine weitere Parametrisierung einer
+komplexen Zahl.
+Ein Punkt $z$ der Ebene kann in Polarkoordinaten auch durch den Betrag
+und den Winkel zwischen der reellen Achse und dem Radiusvektor zum Punkt
+beschrieben werden.
+
+
+\subsubsection{Geometrische Interpretation der Rechenoperationen}
+Die Addition kompelxer Zahlen wurde bereits als Vektoraddition
+in der Gausschen Zahlenebene.
+Die Multiplikation ist etwas komplizierter, wir berechnen Betrag
+und Argument von $zw$ separat.
+Für den Betrag erhalten wir
+\begin{align*}
+|zw|^2
+&=
+z\overline{z}w\overline{w}
+=
+|z|^2|w|^2
+\end{align*}
+Der Betrag des Produktes ist also das Produkt der Beträge.
+
+Für das Argument verwenden wir, dass
+\[
+\tan\operatorname{arg}z
+=
+\frac{\Im z}{\Re z}
+=
+\frac{b}{a}
+\qquad\Rightarrow\qquad
+b=a\tan\operatorname{arg}z
+\]
+und analog für $w$.
+Bei der Berechnung des Produktes behandeln wir nur den Fall $a\ne 0$
+und $c\ne 0$, was uns ermöglicht, den Bruch durch $ac$ zu kürzen:
+\begin{align*}
+\tan\arg wz
+&=
+\frac{\Im wz}{\Re wz}
+=
+\frac{ad+bc}{ac-bd}
+=
+\frac{\frac{d}{c} + \frac{b}{a}}{1-\frac{b}{a}\frac{d}{c}}
+=
+\frac{
+\tan\operatorname{arg}z+\tan\operatorname{arg}w
+}{
+1+
+\tan\operatorname{arg}z\cdot\tan\operatorname{arg}w
+}
+=
+\tan\bigl(
+\operatorname{arg}z+\operatorname{arg}w
+\bigr).
+\end{align*}
+Im letzten Schritt haben wir die Additionsformel für den Tangens verwendet.
+Daraus liest man ab, dass das Argument eines Produkts die Summe der
+Argumente ist.
+Die Multiplikation mit einer festen komplexen Zahl führt also mit der ganzen
+komplexen Ebene eine Drehstreckung durch.
+Auf diese geometrische Beschreibung der Multiplikation werden wir zurückkommen,
+wenn wir die komplexen Zahlen als Matrizen beschreiben wollen.
+
+\subsubsection{Algebraische Vollständigkeit}
+Die komplexen Zahlen $\mathbb{C}$ sind als Erweiterung von $\mathbb{R}$
+so konstruiert worden, dass die Gleichung $x^2+1=0$ eine Lösung hat.
+Etwas überraschend ist dagegen, dass in dieser Erweiterung jetzt jede
+beliebige algebraische Gleichung lösbar geworden.
+Dies ist der Inhalt des Fundamentalsatzes der Algebra.
+
+\begin{satz}[Fundamentalsatz der Algebra]
+\index{Fundamentalsatz der Algebra}%
+Jede algebraische Gleichung der Form
+\[
+p(x)=x^n + a_{n-1}x^{n-1}+a_1x+a_0=0,\qquad a_k\in\mathbb{C}
+\]
+mit komplexen Koeffizienten hat $n$ möglicherweise mit Vielfachheit
+gezähle Nullstellen $\alpha_1,\dots,\alpha_m$, d.~h.~das Polynom $p(x)$
+lässt sich in Linearfaktoren
+\[
+p(x)
+=
+(x-\alpha_1)^{k_1}(x-\alpha_2)^{k_2}\cdot\ldots\cdot(x-\alpha_m)^{k_m}
+\]
+zerlegen, wobei $k_1+k_2+\dots+k_m=n$.
+Die Zahlen $k_j$ heisst die {\em Vielfachheit} der Nullstelle $\alpha_j$.
+\end{satz}
+
+Der Fundamentalsatz der Algebra wurde erstmals von Carl Friedrich Gauss
+\index{Gauss, Carl Friedrich}%
+bewiesen.
+Seither sind viele alternative Beweise mit Methoden aus den verschiedensten
+Gebieten der Mathematik gegeben worden.
+Etwas salopp könnten man sagen, dass der Fundamentalsatz ausdrückt, dass
+die Konstruktion der Zahlensysteme mit $\mathbb{C}$ abgeschlossen ist,
+soweit damit die Lösbarkeit beliebiger Gleichungen angestrebt ist.
+
+\subsubsection{Quaternionen und Octonionen}
+Die komplexen Zahlen ermöglichen eine sehr effiziente Beschreibung
+geometrischer Abbildungen wie Translationen, Spiegelungen und
+Drehstreckungen in der Ebene.
+Es drängt sich damit die Frage auf, ob sich $\mathbb{C}$ so erweitern
+lässt, dass man damit auch Drehungen im dreidimensionalen Raum
+beschreiben könnte.
+Da Drehungen um verschiedene Achsen nicht vertauschen, kann eine solche
+Erweiterung nicht mehr kommutativ sein.
+
+William Rowan Hamilton propagierte ab 1843 eine Erweiterung von $\mathbb{C}$
+mit zwei zusätzlichen Einheiten $j$ und $k$ mit den nichtkommutativen
+Relationen
+\begin{equation}
+i^2 = j^2 = k^2 = ijk = -1.
+\label{buch:zahlen:eqn:quaternionenregeln}
+\end{equation}
+Er nannte die Menge aller Linearkombinationen
+\[
+\mathbb{H} = \{ a_0+a_1i+a_2j+a_3k\;|\; a_l\in \mathbb{R}\}
+\]
+die {\em Quaternionen}, die Einheiten $i$, $j$ und $k$ heissen auch
+\index{Quaternionen}%
+Einheitsquaternionen.
+\index{Einheitsquaternionen}%
+Konjugation, Betrag und Division können ganz ähnlich wie bei den
+komplexen Zahlen definiert werden und machen $\mathbb{H}$ zu einer
+sogenannten {\em Divisionsalgebra}.
+\index{Divisionsalgebra}%
+Alle Rechenregeln mit Ausnahme der Kommutativität der Multiplikation
+sind weiterhin gültig und durch jede von $0$ verschiedene Quaternion
+kann auch dividiert werden.
+
+Aus den Regeln für die Quadrate der Einheiten in
+\eqref{buch:zahlen:eqn:quaternionenregeln} folgt zum Beispiel
+$i^{-1}=-i$, $j^{-1}=-j$ und $k^{-1}=-k$.
+Die letzte Bedingung liefert daraus
+\[
+ijk=-1
+\qquad\Rightarrow\qquad
+\left\{
+\quad
+\begin{aligned}
+ij
+&=
+ijkk^{-1}=-1k^{-1}=k
+\\
+i^2jk&=-i=-jk
+\\
+-j^2k&=-ji=k
+\end{aligned}
+\right.
+\]
+Aus den Relationen~\eqref{buch:zahlen:eqn:quaternionenregeln}
+folgt also insbesondere auch, dass $ij=-ji$.
+Ebenso kann abgeleitet werden, dass $jk=-kj$ und $ik=-ki$.
+Man sagt, die Einheiten sind {\em antikommutativ}.
+\index{antikommutativ}%
+
+Die Beschreibung von Drehungen mit Quaternionen ist in der
+Computergraphik sehr beliebt, weil eine Quaternion mit nur vier
+Komponenten $a_0,\dots,a_3$ vollständig beschrieben ist.
+Eine Transformationsmatrix des dreidimensionalen Raumes enthält
+dagegen neun Koeffizienten, die vergleichsweise komplizierte
+Abhängigkeiten erfüllen müssen.
+Quaternionen haben auch in weiteren Gebieten interessante Anwendungen,
+zum Beispiel in der Quantenmechanik, wo antikommutierende Operatoren
+bei der Beschreibung von Fermionen eine zentrale Rolle spielen.
+
+Aus rein algebraischer Sicht kann man die Frage stellen, ob es eventuell
+auch noch grössere Divisionsalgebren gibt, die $\mathbb{H}$ erweitern.
+Tatsächlich hat Arthur Cayley 1845 eine achtdimensionale Algebra,
+die Oktonionen $\mathbb{O}$, mit vier weiteren Einheiten beschrieben.
+\index{Cayley, Arthur}%
+Allerdings sind die Oktonionen nur beschränkt praktisch anwendbar.
+Grund dafür ist die Tatsache, dass die Multiplikation in $\mathbb{O}$
+nicht mehr assoziativ ist.
+Das Produkt von mehr als zwei Faktoren aus $\mathbb{O}$ ist von der
+Reihenfolge der Ausführung der Multiplikationen abhängig.
+
+
+
+
+
+
diff --git a/buch/chapters/05-zahlen/natuerlich.tex b/buch/chapters/05-zahlen/natuerlich.tex
new file mode 100644
index 0000000..f378aaf
--- /dev/null
+++ b/buch/chapters/05-zahlen/natuerlich.tex
@@ -0,0 +1,276 @@
+%
+% natuerlich.tex
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+% !TeX spellcheck = de_CH
+\section{Natürliche Zahlen
+\label{buch:section:natuerliche-zahlen}}
+\rhead{Natürliche Zahlen}
+Die natürlichen Zahlen sind die Zahlen, mit denen wir zählen.
+\index{natürliche Zahlen}%
+\index{$\mathbb{N}$}%
+Sie abstrahieren das Konzept der Anzahl der Elemente einer endlichen
+Menge.
+Da die leere Menge keine Elemente hat, muss die Menge der natürlichen
+Zahlen auch die Zahl $0$ enthalten.
+Wir schreiben
+\[
+\mathbb{N}
+=
+\{
+0,1,2,3,\dots
+\}.
+\]
+
+\subsubsection{Peano-Axiome}
+Man kann den Zählprozess durch die folgenden Axiome von Peano beschreiben:
+\index{Peano-Axiome}%
+\begin{enumerate}
+\item $0\in\mathbb N$.
+\item Jede Zahl $n\in \mathbb{N}$ hat einen {\em Nachfolger}
+$n'\in \mathbb{N}$.
+\index{Nachfolger}%
+\item $0$ ist nicht Nachfolger einer Zahl.
+\item Wenn zwei Zahlen $n,m\in\mathbb{N}$ den gleichen Nachfolger haben,
+$n'=m'$, dann sind sie gleich $n=m$.
+\item Enthält eine Menge $X$ die Zahl $0$ und mit jeder Zahl auch ihren
+Nachfolger, dann ist $\mathbb{N}\subset X$.
+\end{enumerate}
+
+\subsubsection{Vollständige Induktion}
+Es letzte Axiom formuliert das Prinzip der vollständigen Induktion.
+Um eine Aussage $P(n)$ für alle natürlichen Zahlen $n$
+mit vollständiger Induktion zu beweisen, bezeichnet man mit
+$X$ die Menge aller Zahlen, für die $P(n)$ wahr ist.
+Die Induktionsverankerung beweist, dass $P(0)$ wahr ist, dass also $0\in X$.
+Der Induktionsschritt beweist, dass mit einer Zahl $n\in X$ auch der
+Nachfolger $n'\in X$ ist.
+Nach dem letzten Axiom ist $\mathbb{N}\subset X$, oder anders ausgedrückt,
+die Aussage $P(n)$ ist wahr für jede natürliche Zahl.
+
+\subsubsection{Addition}
+Aus der Nachfolgereigenschaft lässt sich durch wiederholte Anwendung
+die vertrautere Addition konstruieren.
+\index{Addition!in $\mathbb{N}$}%
+Um die Zahl $n\in\mathbb{N}$ um $m\in\mathbb{N}$ zu vermehren, also
+$n+m$ auszurechnen, kann man rekursive Regeln
+\begin{align*}
+n+0&=n\\
+n+m'&=(n+m)'
+\end{align*}
+festlegen.
+Nach diesen Regeln ist
+\[
+5+3
+=
+5+2'
+=
+(5+2)'
+=
+(5+1')'
+=
+((5+1)')'
+=
+((5+0')')'
+=
+(((5)')')'.
+\]
+Dies ist genau die Art und Weise, wie kleine Kinder Rechnen lernen.
+Sie Zählen von $5$ ausgehend um $3$ weiter.
+Der dritte Nachfolger von $5$ heisst üblicherweise $8$.
+
+Die algebraische Struktur, die hier konstruiert worden ist, heisst
+eine Halbgruppe.
+Allerdings kann man darin zum Beispiel nur selten Gleichungen
+lösen, zum Beispiel hat $3+x=1$ keine Lösung.
+Die Addition ist nicht immer umkehrbar.
+
+\subsubsection{Multiplikation}
+Es ist klar, dass auch die Multiplikation definiert werden kann,
+sobald die Addition definiert ist.
+Die Rekursionsformeln
+\begin{align}
+n\cdot 0 &= 0 \notag \\
+n\cdot m' &= n\cdot m + n
+\label{buch:zahlen:multiplikation-rekursion}
+\end{align}
+legen jedes Produkt von natürlichen Zahlen fest, zum Beispiel
+\[
+5\cdot 3
+=
+5\cdot 2'
+=
+5\cdot 2 + 5
+=
+5\cdot 1' + 5
+=
+5\cdot 1 + 5 + 5
+=
+5\cdot 0' + 5 + 5
+=
+5\cdot 0 + 5 + 5 + 5
+=
+5 + 5 + 5.
+\]
+Doch auch bezüglich der Multiplikation ist $\mathbb{N}$ unvollständig,
+die Beispielgleichung $3x=1$ hat keine Lösung in $\mathbb{N}$.
+
+\subsubsection{Rechenregeln}
+Aus den Definitionen lassen sich auch die Rechenregeln ableiten,
+die man für die alltägliche Rechnung braucht.
+Zum Beispiel kommt es nicht auf die Reihenfolge der Summanden
+oder Faktoren an.
+Das {\em Kommutativgesetz} besagt
+\[
+a+b=b+a
+\qquad\text{und}\qquad
+a\cdot b = b\cdot a.
+\]
+\index{Kommutativgesetz}%
+Die Kommutativität der Addition werden wir auch in allen weiteren
+Konstruktionen voraussetzen.
+Die Kommutativität des Produktes ist allerdings weniger selbstverständlich
+und wird beim Matrizenprodukt nur noch für spezielle Faktoren zutreffen.
+
+Eine Summe oder ein Produkt mit mehr als zwei Summanden bzw.~Faktoren
+kann in jeder beliebigen Reihenfolge ausgewertet werden,
+\[
+(a+b)+c
+=
+a+(b+c)
+\qquad\text{und}\qquad
+(a\cdot b)\cdot c
+=
+a\cdot (b\cdot c)
+\]
+dies ist das Assoziativgesetz.
+Es gestattet auch eine solche Summe oder ein solches Produkt einfach
+als $a+b+c$ bzw.~$a\cdot b\cdot c$ zu schreiben, da es ja keine Rolle
+spielt, in welcher Reihenfolge man die Teilprodukte berechnet.
+
+Die Konstruktion der Multiplikation als iterierte Addition mit Hilfe
+der Rekursionsformel \eqref{buch:zahlen:multiplikation-rekursion}
+hat auch zur Folge, dass die {\em Distributivgesetze}
+\[
+a\cdot(b+c) = ab+ac
+\qquad\text{und}\qquad
+(a+b)c = ac+bc
+\]
+gelten.
+Bei einem nicht-kommutativen Produkt ist es hierbei notwendig,
+zwischen Links- und Rechts-Distributivgesetz zu unterscheiden.
+
+Die Distributivgesetze drücken die wohlbekannte Regel des
+Ausmultiplizierens aus.
+Ein Distributivgesetz ist also grundlegend dafür, dass man mit den
+Objekten so rechnen kann, wie man das in der elementaren Algebra
+gelernt hat.
+Auch die Distributivgesetze sind daher Rechenregeln, die wir in
+Zukunft immer dann fordern werden, wenn Addition und Multiplikation
+definiert sind.
+Sie gelten immer für Matrizen.
+
+\subsubsection{Teilbarkeit}
+Die Lösbarkeit von Gleichungen der Form $ax=b$ mit $a,b\in\mathbb{N}$
+gibt Anlass zum sehr nützlichen Konzept der Teilbarkeit.
+\index{Teilbarkeit}%
+Die Zahl $b$ heisst teilbar durch $a$, wenn die Gleichung $ax=b$ eine
+Lösung in $\mathbb{N}$ hat.
+\index{teilbar}%
+Jede natürlich Zahl $n$ ist durch $1$ und durch sich selbst teilbar,
+denn $n\cdot 1 = n$.
+Andere Teiler sind dagegen nicht selbstverständlich.
+Die Zahlen
+\[
+\mathbb{P}
+=
+\{2,3,5,7,11,13,17,19,23,29,\dots\}
+\]
+haben keine weiteren Teiler. Sie heissen {\em Primzahlen}.
+\index{Primzahl}%
+Die Menge der natürlichen Zahlen ist die naheliegende Arena
+für die Zahlentheorie.
+\index{Zahlentheorie}%
+
+\subsubsection{Konstruktion der natürlichen Zahlen aus der Mengenlehre}
+Die Peano-Axiome postulieren, dass es natürliche Zahlen gibt.
+Es werden keine Anstrengungen unternommen, die natürlichen Zahlen
+aus noch grundlegenderen mathematischen Objekten zu konstruieren.
+Die Mengenlehre bietet eine solche Möglichkeit.
+
+Da die natürlichen Zahlen das Konzept der Anzahl der Elemente einer
+Menge abstrahieren, gehört die leere Menge zur Zahl $0$.
+Die Zahl $0$ kann also durch die leere Menge $\emptyset = \{\}$
+wiedergegeben werden.
+
+Der Nachfolger muss jetzt als eine Menge mit einem Element konstruiert
+werden.
+Das einzige mit Sicherheit existierende Objekt, das für diese Menge
+zur Verfügung steht, ist $\emptyset$.
+Zur Zahl $1$ gehört daher die Menge $\{\emptyset\}$, eine Menge mit
+genau einem Element.
+Stellt die Menge $N$ die Zahl $n$ dar, dann können wir die zu $n+1$
+gehörige Menge $N'$ dadurch konstruieren, dass wir zu den Elemente
+von $N$ ein zusätzliches Element hinzufügen, das noch nicht in $N$ ist,
+zum Beispiel $\{N\}$:
+\[
+N' = N \cup \{ N \}.
+\]
+
+Die natürlichen Zahlen existieren also, wenn wir akzeptieren, dass es
+Mengen gibt.
+Die natürlichen Zahlen sind dann nacheinander die Mengen
+\begin{align*}
+0 &= \emptyset
+\\
+1 &= 0 \cup \{0\} = \emptyset \cup \{0\} = \{0\}
+\\
+2 &= 1 \cup \{1\} = \{0\}\cup\{1\} = \{0,1\}
+\\
+3 &= 2 \cup \{2\} = \{0,1\}\cup \{2\} = \{0,1,2\}
+\\
+&\phantom{n}\vdots
+\\
+n+1&= n \cup \{n\} = \{0,\dots,n-1\} \cup \{n\} = \{0,1,\dots,n\}
+\\
+&\phantom{n}\vdots
+\end{align*}
+
+\subsubsection{Natürliche Zahlen als Äquivalenzklassen}
+Im vorangegangenen Abschnitt haben wir die natürlichen Zahlen aus
+der leeren Menge schrittweise sozusagen ``von unten'' aufgebaut.
+Wir können aber auch eine Sicht ``von oben'' einnehmen.
+Dazu definieren wir, was eine endliche Menge ist und was es heisst,
+dass endliche Mengen gleiche Mächtigkeit haben.
+
+\begin{definition}
+Eine Menge $A$ heisst {\em endlich}, wenn es jede injektive Abbildung
+$A\to A$ auch surjektiv ist.
+\index{endlich}%
+Zwei endliche Mengen $A$ und $B$ heissen {\em gleich mächtig},
+\index{gleich mächtig}%
+in Zeichen $A\sim B$, wenn es eine Bijektion
+$A\to B$ gibt.
+\end{definition}
+
+Der Vorteil dieser Definition ist, dass sie die früher definierten
+natürlichen Zahlen nicht braucht, diese werden jetzt erst konstruiert.
+Dazu fassen wir in der Menge aller endlichen Mengen die gleich mächtigen
+Mengen zusammen, bilden also die Äquivalenzklassen der Relation $\sim$.
+
+Der Vorteil dieser Sichtweise ist, dass die natürlichen Zahlen ganz
+explizit als die Anzahlen von Elementen einer endlichen Menge entstehen.
+Eine natürlich Zahl ist also eine Äquivalenzklasse
+$\llbracket A\rrbracket$, die alle endlichen Mengen enthält, die die
+gleiche Mächtigkeit wie $A$ haben.
+Zum Beispiel gehört dazu auch die Menge, die im vorangegangenen
+Abschnitt aus der leeren Menge aufgebaut wurde.
+
+Die Mächtigkeit einer endlichen Menge $A$ ist die Äquivalenzklasse, in der
+die Menge drin ist: $|A| = \llbracket A\rrbracket\in \mathbb{N}$ nach
+Konstruktion von $\mathbb{N}$.
+Aus logischer Sicht etwas problematisch ist allerdings, dass wir
+von der ``Menge aller endlichen Mengen'' sprechen ohne uns zu versichern,
+dass dies tatsächlich eine zulässige Konstruktion ist.
+
diff --git a/buch/chapters/05-zahlen/rational.tex b/buch/chapters/05-zahlen/rational.tex
new file mode 100644
index 0000000..9d2f59e
--- /dev/null
+++ b/buch/chapters/05-zahlen/rational.tex
@@ -0,0 +1,177 @@
+%
+% rational.tex -- rationale Zahlen
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+% !TeX spellcheck = de_CH
+\section{Rationale Zahlen
+\label{buch:section:rationale-zahlen}}
+\rhead{Rationale Zahlen}
+In den ganzen Zahlen sind immer noch nicht alle linearen Gleichungen
+lösbar, es gibt keine ganze Zahl $x$ mit $3x=1$.
+Die nötige Erweiterung der ganzen Zahlen lernen Kinder noch bevor sie
+die negativen Zahlen kennenlernen.
+
+Wir können hierbei denselben Trick anwenden,
+wie schon beim Übergang von den natürlichen zu den ganzen Zahlen.
+Wir kreieren wieder Paare $(z, n)$, deren Elemente nennen wir \emph{Zähler} und
+\emph{Nenner}, wobei $z, n \in \mathbb Z$ und zudem $n \ne 0$.
+Die Rechenregeln für Addition und Multiplikation lauten
+\[
+(a, b) + (c, d)
+=
+(ad + bc, bd)
+\qquad \text{und} \qquad
+(a, b) \cdot (c, d)
+=
+(ac, bd)
+.
+\]
+Die ganzen Zahlen lassen sich als in dieser Darstellung als
+$z \mapsto (z, 1)$ einbetten.
+
+Ähnlich wie schon bei den ganzen Zahlen ist diese Darstellung
+aber nicht eindeutig.
+Zwei Paare sind äquivalent, wenn sich deren beide Elemente um denselben Faktor
+unterscheiden,
+\[
+(a, b)
+\sim
+(c, d)
+\quad \Leftrightarrow \quad
+\exists \lambda \in \mathbb Z \colon
+\lambda a = c
+\wedge
+\lambda b = d
+.
+\]
+Dass es sich hierbei wieder um eine Äquivalenzrelation handelt, lässt sich
+einfach nachprüfen.
+
+Durch die neuen Regen gibt es nun zu jedem Paar $(a, b)$ mit $a \ne 0$
+ein Inverses $(b, a)$ bezüglich der Multiplikation,
+wie man anhand der folgenden Rechnung sieht,
+\[
+(a, b) \cdot (b, a)
+=
+(a \cdot b, b \cdot a)
+=
+(a \cdot b, a \cdot b)
+\sim
+(1, 1)
+.
+\]
+
+\subsubsection{Brüche}
+Rationale Zahlen sind genau die Äquivalenzklassen dieser Paare $(a, b)$ von
+ganzen Zahlen $a$ und $b\ne 0$.
+Da diese Schreibweise recht unhandlich ist, wird normalerweise die Notation
+als Bruch $\frac{a}{b}$ verwendet.
+Die Rechenregeln werden dadurch zu den wohlvertrauten
+\[
+\frac{a}{b}+\frac{c}{d}
+=
+\frac{ad+bc}{bd},
+\qquad\text{und}\qquad
+\frac{a}{b}\cdot\frac{c}{d}
+=
+\frac{ac}{bd}
+\]
+und die speziellen Brüche $\frac{0}{b}$ und $\frac{1}{1}$ erfüllen die
+Regeln
+\[
+\frac{a}{b}+\frac{0}{d} = \frac{ad}{bd} \sim \frac{a}{b},
+\qquad
+\frac{a}{b}\cdot \frac{0}{c} = \frac{0}{bc}
+\qquad\text{und}\qquad
+\frac{a}{b}\cdot \frac{1}{1} = \frac{a}{b}.
+\]
+Wir sind uns gewohnt, die Brüche $\frac{0}{b}$ mit der Zahl $0$ und
+$\frac{1}{1}$ mit der Zahl $1$ zu identifizieren.
+
+\subsubsection{Kürzen}
+Wie bei den ganzen Zahlen entstehen durch die Rechenregeln viele Brüche,
+denen wir den gleichen Wert zuordnen möchten.
+Zum Beispiel folgt
+\[
+\frac{ac}{bc} - \frac{a}{b}
+=
+\frac{abc-abc}{b^2c}
+=
+\frac{0}{b^2c},
+\]
+wir müssen also die beiden Brüche als gleichwertig betrachten.
+Allgemein gelten die zwei Brüche $\frac{a}{b}$ und $\frac{c}{d}$
+als äquivalent, wenn $ad-bc= 0$ gilt.
+Dies ist gleichbedeutend mit der früher definierten Äquivalenzrelation
+und bestätigt, dass die beiden Brüche
+\[
+\frac{ac}{bc}
+\qquad\text{und}\qquad
+\frac{a}{b}
+\]
+als gleichwertig zu betrachten sind.
+Der Übergang von links nach rechts heisst {\em Kürzen},
+\index{Kürzen}%
+der Übergang von rechts nach links heisst {\em Erweitern}.
+\index{Erweitern}%
+Eine rationale Zahl ist also eine Menge von Brüchen, die durch
+Kürzen und Erweitern ineinander übergeführt werden können.
+
+Die Menge der Äquivalenzklassen von Brüchen ist die Menge $\mathbb{Q}$
+der rationalen Zahlen.
+In $\mathbb{Q}$ sind Addition, Subtraktion und Multiplikation mit den
+gewohnten Rechenregeln, die bereits in $\mathbb{Z}$ gegolten haben,
+uneingeschränkt möglich.
+
+\subsubsection{Kehrwert}
+Zu jedem Bruch $\frac{a}{b}$ lässt sich der Bruch $\frac{b}{a}$,
+der sogenannte {\em Kehrwert}
+\index{Kehrwert}
+konstruieren.
+Er hat die Eigenschaft, dass
+\[
+\frac{a}{b}\cdot\frac{b}{a}
+=
+\frac{ab}{ba}
+=
+1
+\]
+gilt.
+Der Kehrwert ist also das multiplikative Inverse, jede von $0$ verschiedene
+rationale Zahl hat eine Inverse.
+
+\subsubsection{Lösung von linearen Gleichungen}
+Mit dem Kehrwert lässt sich jetzt jede lineare Gleichung lösen.
+\index{lineares Gleichungssystem}%
+Die Gleichung $ax=b$ hat die Lösung
+\[
+ax = \frac{a}{1} \frac{u}{v} = \frac{b}{1}
+\qquad\Rightarrow\qquad
+\frac{1}{a}
+ \frac{a}{1} \frac{u}{v} = \frac{1}{a}\frac{b}{1}
+\qquad\Rightarrow\qquad
+\frac{u}{v} = \frac{b}{a}.
+\]
+Dasselbe gilt auch für rationale Koeffizienten $a$ und $b$.
+In der Menge $\mathbb{Q}$ kann man also beliebige lineare Gleichungen
+lösen.
+
+\subsubsection{Körper}
+$\mathbb{Q}$ ist ein Beispiel für einen sogenannten {\em Körper},
+\index{Körper}%
+in dem die arithmetischen Operationen Addition, Subtraktion, Multiplikation
+und Division möglich sind mit der einzigen Einschränkung, dass nicht durch
+$0$ dividiert werden kann.
+Körper sind die natürliche Bühne für die lineare Algebra, da sich lineare
+Gleichungssysteme ausschliesslich mit den Grundoperation lösen lassen.
+
+Wir werden im Folgenden für verschiedene Anwendungszwecke weitere Körper
+konstruieren, zum Beispiel die reellen Zahlen $\mathbb{R}$ und die
+rationalen Zahlen $\mathbb{C}$.
+Wann immer die Wahl des Körpers keine Rolle spielt, werden wir den
+Körper mit $\Bbbk$ bezeichnen.
+\index{$\Bbbk$}%
+
+
+
diff --git a/buch/chapters/05-zahlen/reell.tex b/buch/chapters/05-zahlen/reell.tex
new file mode 100644
index 0000000..d5a193f
--- /dev/null
+++ b/buch/chapters/05-zahlen/reell.tex
@@ -0,0 +1,88 @@
+%
+% reell.tex -- reelle Zahlen
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\section{Reelle Zahlen
+\label{buch:section:reelle-zahlen}}
+\rhead{Reelle Zahlen}
+In den rationalen Zahlen lassen sich algebraische Gleichungen höheren
+Grades immer noch nicht lösen.
+Dass die Gleichung $x^2=2$ keine rationale Lösung hat, ist schon den
+Pythagoräern aufgefallen.
+Die geometrische Intuition der Zahlengeraden führt uns dazu, nach
+Zahlen zu suchen, die gute Approximationen für $\sqrt{2}$ sind.
+Wir können zwar keinen Bruch angeben, dessen Quadrat $2$ ist, aber
+wenn es eine Zahl $\sqrt{2}$ mit dieser Eigenschaft gibt, dann können
+wir dank der Ordnungsrelation feststellen, dass sie in all den folgenden,
+kleiner werdenden Intervallen
+\[
+\biggl[1,\frac32\biggr],\;
+\biggl[\frac75,\frac{17}{12}\biggr],\;
+\biggl[\frac{41}{29},\frac{99}{70}\biggr],\;
+\biggl[\frac{239}{169},\frac{577}{408}\biggr],\;
+\dots
+\]
+enthalten sein muss\footnote{Die Näherungsbrüche konvergieren sehr
+schnell, sie sind mit der sogenannten Kettenbruchentwicklung der
+Zahl $\sqrt{2}$ gewonnen worden.}.
+Jedes der Intervalle enthält auch das nachfolgende Intervall, und
+die intervalllänge konvergiert gegen 0.
+Eine solche \emph{Intervallschachtelung} beschreibt also genau eine Zahl,
+aber möglicherweise keine, die sich als Bruch schreiben lässt.
+
+Die Menge $\mathbb{R}$ der reellen Zahlen kann man auch als Menge
+aller Cauchy-Folgen $(a_n)_{n\in\mathbb{N}}$ betrachten.
+Eine Folge ist eine Cauchy-Folge, wenn es für jedes $\varepsilon>0$
+eine Zahl $N(\varepsilon)$ gibt derart, dass $|a_n-a_m|<\varepsilon$
+für $n,m>N(\varepsilon)$.
+Ab einer geeigneten Stelle $N(\varepsilon)$ sind die Folgenglieder also
+mit Genauigkeit $\varepsilon$ nicht mehr unterscheidbar.
+
+Nicht jede Cauchy-Folge hat eine rationale Zahl als Grenzwert.
+Da wir für solche Folgen noch keine Zahlen als Grenzwerte haben,
+nehmen wir die Folge als eine mögliche Darstellung der Zahl.
+Die Folge kann man ja auch verstehen als eine Vorschrift, wie man
+Approximationen der Zahl berechnen kann.
+
+Zwei verschiedene Cauchy-Folgen $(a_n)_{n\in\mathbb{N}}$ und
+$(b_n)_{n\in\mathbb{N}}$
+können den gleichen Grenzwert haben.
+So sind
+\[
+\begin{aligned}
+a_n&\colon&&
+1,\frac32,\frac75,\frac{17}{12},\frac{41}{29},\frac{99}{70},\frac{239}{169},
+\frac{577}{408},\dots
+\\
+b_n&\colon&&
+1,1.4,1.41,1.412,1.4142,1.41421,1.414213,1.4142135,\dots
+\end{aligned}
+\]
+beide Folgen, die die Zahl $\sqrt{2}$ approximieren.
+Im Allgemeinen tritt dieser Fall ein, wenn $|a_n-b_n|$ eine
+Folge mit Grenzwert $0$ oder Nullfolge ist.
+Eine reelle Zahl ist also die Menge aller rationalen Cauchy-Folgen,
+deren Differenzen Nullfolgen sind.
+
+Die Menge $\mathbb{R}$ der reellen Zahlen kann man also ansehen
+als bestehend aus Mengen von Folgen, die alle den gleichen Grenzwert
+haben.
+Die Rechenregeln der Analysis
+\[
+\lim_{n\to\infty} (a_n + b_n)
+=
+\lim_{n\to\infty} a_n +
+\lim_{n\to\infty} b_n
+\qquad\text{und}\qquad
+\lim_{n\to\infty} a_n \cdot b_n
+=
+\lim_{n\to\infty} a_n \cdot
+\lim_{n\to\infty} b_n
+\]
+stellen sicher, dass sich die Rechenoperationen von den rationalen
+Zahlen auf die reellen Zahlen übertragen lassen.
+
+
+
+
diff --git a/buch/chapters/10-vektorenmatrizen/Makefile.inc b/buch/chapters/10-vektorenmatrizen/Makefile.inc
index 69468f6..f211854 100644
--- a/buch/chapters/10-vektorenmatrizen/Makefile.inc
+++ b/buch/chapters/10-vektorenmatrizen/Makefile.inc
@@ -6,9 +6,13 @@
CHAPTERFILES = $(CHAPTERFILES) \
chapters/10-matrizenvektoren/linear.tex \
+ chapters/10-matrizenvektoren/strukturen.tex \
chapters/10-matrizenvektoren/gruppen.tex \
chapters/10-matrizenvektoren/ringe.tex \
chapters/10-matrizenvektoren/algebren.tex \
+ chapters/10-matrizenvektoren/koerper.tex \
+ chapters/10-matrizenvektoren/skalarprodukt.tex \
+ chapters/10-matrizenvektoren/hadamard.tex \
chapters/10-matrizenvektoren/uebungsaufgaben/1001.tex \
chapters/10-matrizenvektoren/uebungsaufgaben/1002.tex \
chapters/10-matrizenvektoren/chapter.tex
diff --git a/buch/chapters/10-vektorenmatrizen/algebren.tex b/buch/chapters/10-vektorenmatrizen/algebren.tex
index 821c408..9e1d3dc 100644
--- a/buch/chapters/10-vektorenmatrizen/algebren.tex
+++ b/buch/chapters/10-vektorenmatrizen/algebren.tex
@@ -3,5 +3,131 @@
%
% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
%
-\section{Algebren
-\label{buch:grundlagen:section:algebren}}
+\subsection{Algebren
+\label{buch:grundlagen:subsection:algebren}}
+Die Skalar-Multiplikation eines Vektorraums ist in einem Ring nicht
+vorhanden.
+Die Menge der Matrizen $M_n(\Bbbk)$ ist sowohl ein Ring als auch
+ein Vektorraum.
+Man nennt eine {\em $\Bbbk$-Algebra} oder {\em Algebra über $\Bbbk$}
+ein Ring $A$, der auch eine $\Bbbk$-Vektorraum ist.
+Die Multiplikation des Ringes muss dazu mit der Skalarmultiplikation
+verträglich sein.
+Dazu müssen Assoziativgesetze
+\[
+\lambda(\mu a) = (\lambda \mu) a
+\qquad\text{und}\qquad
+\lambda(ab) = (\lambda a) b
+\]
+für $a,b\in A$ und $\lambda,\mu\in\Bbbk$
+und eine Regel der Form
+\begin{equation}
+a(\lambda b) = \lambda (ab)
+\label{buch:vektorenmatrizen:eqn:algebrakommutativ}
+\end{equation}
+gelten.
+Die Bedingung \eqref{buch:vektorenmatrizen:eqn:algebrakommutativ} ist
+eine Folge der Forderung, dass die Multiplikation
+eine lineare Abbildung sein soll.
+Dies bedeutet, dass
+\begin{equation}
+a(\lambda b+\mu c) = \lambda (ab) + \mu (ac),
+\label{buch:vektorenmatrizen:eqn:algebralinear}
+\end{equation}
+woraus
+\eqref{buch:vektorenmatrizen:eqn:algebrakommutativ}
+für $\mu=0$ folgt.
+Die Regel \eqref{buch:vektorenmatrizen:eqn:algebralinear}
+beinhaltet aber auch das Distributivgesetz.
+$M_n(\Bbbk)$ ist eine Algebra.
+
+\subsubsection{Die Algebra der Funktionen $\Bbbk^X$}
+Sie $X$ eine Menge und $\Bbbk^X$ die Menge aller Funktionen $X\to \Bbbk$.
+Auf $\Bbbk^X$ kann man Addition, Multiplikation mit Skalaren und
+Multiplikation von Funktionen punktweise definieren.
+Für zwei Funktion $f,g\in\Bbbk^X$ und $\lambda\in\Bbbk$ definiert man
+\[
+\begin{aligned}
+&\text{Summe $f+g$:}
+&
+(f+g)(x) &= f(x)+g(x)
+\\
+&\text{Skalare $\lambda f$:}
+&
+(\lambda f)(x) &= \lambda f(x)
+\\
+&\text{Produkt $f\cdot g$:}
+&
+(f\cdot g)(x) &= f(x) g(x)
+\end{aligned}
+\]
+Man kann leicht nachprüfen, dass die Menge der Funktionen $\Bbbk^X$
+mit diesen Verknüfungen die Struktur einer $\Bbbk$-Algebra erhält.
+
+Die Algebra der Funktionen $\Bbbk^X$ hat auch ein Einselement:
+die konstante Funktion
+\[
+1\colon [a,b] \to \Bbbk : x \mapsto 1
+\]
+mit Wert $1$ erfüllt
+\[
+(1\cdot f)(x) = 1(x) f(x) = f(x)
+\qquad\Rightarrow\qquad 1\cdot f = f,
+\]
+die Eigenschaft einer Eins in der Algebra.
+
+\subsubsection{Die Algebra der stetigen Funktionen $C([a,b])$}
+Die Menge der stetigen Funktionen $C([a,b])$ ist natürlich eine Teilmenge
+aller Funktionen: $C([a,b])\subset \mathbb{R}^{[a,b]}$ und erbt damit
+auch die Algebraoperationen.
+Man muss nur noch sicherstellen, dass die Summe von stetigen Funktionen,
+das Produkt einer stetigen Funktion mit einem Skalar und das Produkt von
+stetigen Funktionen wieder eine stetige Funktion ist.
+Eine Funktion ist genau dann stetig, wenn an jeder Stelle der Grenzwert
+mit dem Funktionswert übereinstimmt.
+Genau dies garantieren die bekannten Rechenregeln für stetige Funktionen.
+Für zwei stetige Funktionen $f,g\in C([a,b])$ und einen Skalar
+$\lambda\in\mathbb{R}$ gilt
+\[
+\begin{aligned}
+&\text{Summe:}
+&
+\lim_{x\to x_0} (f+g)(x)
+&=
+\lim_{x\to x_0} (f(x)+g(x))
+=
+\lim_{x\to x_0} f(x) + \lim_{x\to x_0}g(x)
+=
+f(x_0)+g(x_0) = (f+g)(x_0)
+\\
+&\text{Skalare:}
+&
+\lim_{x\to x_0} (\lambda f)(x)
+&=
+\lim_{x\to x_0} (\lambda f(x)) = \lambda \lim_{x\to x_0} f(x)
+=
+\lambda f(x_0) = (\lambda f)(x_0)
+\\
+&\text{Produkt:}
+&
+\lim_{x\to x_0}(f\cdot g)(x)
+&=
+\lim_{x\to x_0} f(x)\cdot g(x)
+=
+\lim_{x\to x_0} f(x)\cdot
+\lim_{x\to x_0} g(x)
+=
+f(x_0)g(x_0)
+=
+(f\cdot g)(x_0).
+\end{aligned}
+\]
+für jeden Punkt $x_0\in[a,b]$.
+Damit ist $C([a,b])$ eine $\mathbb{R}$-Algebra.
+Die Algebra hat auch eine Eins, da die konstante Funktion $1(x)=1$
+stetig ist.
+
+
+
+
+
diff --git a/buch/chapters/10-vektorenmatrizen/chapter.tex b/buch/chapters/10-vektorenmatrizen/chapter.tex
index 51b91ab..a2fa94b 100644
--- a/buch/chapters/10-vektorenmatrizen/chapter.tex
+++ b/buch/chapters/10-vektorenmatrizen/chapter.tex
@@ -9,11 +9,12 @@
\rhead{}
\input{chapters/10-vektorenmatrizen/linear.tex}
-\input{chapters/10-vektorenmatrizen/gruppen.tex}
-\input{chapters/10-vektorenmatrizen/ringe.tex}
-\input{chapters/10-vektorenmatrizen/algebren.tex}
+\input{chapters/10-vektorenmatrizen/skalarprodukt.tex}
+\input{chapters/10-vektorenmatrizen/strukturen.tex}
+\input{chapters/10-vektorenmatrizen/hadamard.tex}
\section*{Übungsaufgaben}
+\rhead{Übungsaufgaben}
\aufgabetoplevel{chapters/10-vektorenmatrizen/uebungsaufgaben}
\begin{uebungsaufgaben}
\uebungsaufgabe{1001}
diff --git a/buch/chapters/10-vektorenmatrizen/gruppen.tex b/buch/chapters/10-vektorenmatrizen/gruppen.tex
index fe77009..9848469 100644
--- a/buch/chapters/10-vektorenmatrizen/gruppen.tex
+++ b/buch/chapters/10-vektorenmatrizen/gruppen.tex
@@ -3,6 +3,336 @@
%
% (c) 2021 Prof Dr Andreas Müller, Hochschule Rapeprswil
%
-\section{Gruppen
-\label{buch:grundlagen:setion:gruppen}}
-\rhead{Gruppen}
+\subsection{Gruppen
+\label{buch:grundlagen:subsection:gruppen}}
+Die kleinste sinnvolle Struktur ist die einer Gruppe.
+Eine solche besteht aus einer Menge $G$ mit einer Verknüpfung,
+die additiv
+\begin{align*}
+G\times G \to G&: (g,h) = gh
+\intertext{oder multiplikativ }
+G\times G \to G&: (g,h) = g+h
+\end{align*}
+geschrieben werden kann.
+Ein Element $0\in G$ heisst {\em neutrales Element} bezüglich der additiv
+geschriebenen Verknüpfung falls $0+x=x$ für alle $x\in G$.
+\index{neutrales Element}%
+Ein Element $e\in G$ heisst neutrales Element bezüglich der multiplikativ
+geschriebneen Verknüpfung, wenn $ex=x$ für alle $x\in G$.
+In den folgenden Definitionen werden wir immer die multiplikative
+Schreibweise verwenden, für Fälle additiv geschriebener siehe auch die
+Beispiele weiter unten.
+
+\begin{definition}
+\index{Gruppe}%
+Ein {\em Gruppe}
+\index{Gruppe}%
+ist eine Menge $G$ mit einer Verknüfung mit folgenden
+Eigenschaften:
+\begin{enumerate}
+\item
+Die Verknüpfung ist assoziativ: $(ab)c=a(bc)$ für alle $a,b,c\in G$.
+\item
+Es gibt ein neutrales Element $e\in G$
+\item
+Für jedes Element $g\in G$ gibt es ein Element $h\in G$ mit
+$hg=e$.
+\end{enumerate}
+Das Element $h$ heisst auch das Inverse Element zu $g$.
+\end{definition}
+
+Falls nicht jedes Element invertierbar ist, aber wenigstens ein neutrales
+Element vorhanden ist, spricht man von einem {\em Monoid}.
+\index{Monoid}%
+Hat man nur eine Verknüpfung, spricht man oft von einer {\em Halbruppe}.
+\index{Halbgruppe}%
+
+\begin{definition}
+Eine Gruppe $G$ heisst abelsch, wenn $ab=ba$ für alle $a,b\in G$.
+\end{definition}
+
+Additiv geschrieben Gruppen werden immer als abelsch angenommen,
+multiplikativ geschrieben Gruppen können abelsch oder nichtabelsch sein.
+
+\subsubsection{Beispiele von Gruppen}
+
+\begin{beispiel}
+Die Menge $\mathbb{Z}$ mit der Addition ist eine additive Gruppe mit
+dem neutralen Element $0$.
+Das additive Inverse eines Elementes $a$ ist $-a$.
+\end{beispiel}
+
+\begin{beispiel}
+Die von Null verschiedenen Elemente $\Bbbk^*$ eines Zahlekörpers bilden
+bezüglich der Multiplikation eine Gruppe mit neutralem Element $1$.
+Das multiplikative Inverse eines Elementes $a\in \Bbbk$ mit $a\ne 0$
+ist $a^{-1}=\frac1{a}$.
+\end{beispiel}
+
+\begin{beispiel}
+Die Vektoren $\Bbbk^n$ bilden bezüglich der Addition eine Gruppe mit
+dem Nullvektor als neutralem Element.
+Betrachtet man $\Bbbk^n$ als Gruppe, verliert man die Multiplikation
+mit Skalaren aus den Augen.
+$\Bbbk^n$ als Gruppe zu bezeichnen ist also nicht falsch, man
+verliert dadurch aber
+\end{beispiel}
+
+\begin{beispiel}
+Die Menge aller quadratischen $n\times n$-Matrizen $M_n(\Bbbk)$ ist
+eine Gruppe bezüglich der Addition mit der Nullmatrix als neutralem
+Element.
+Bezügich der Matrizenmultiplikation ist $M_n(\Bbbk)$ aber keine
+Gruppe, da sich die singulären Matrizen nicht inverieren lassen.
+Die Menge der invertierbaren Matrizen
+\[
+\operatorname{GL}_n(\Bbbk)
+=
+\{
+A\in M_n(\Bbbk)\;|\; \text{$A$ invertierbar}
+\}
+\]
+ist bezüglich der Multiplikation eine Gruppe.
+Die Gruppe $\operatorname{GL}_n(\Bbbk)$ ist eine echte Teilmenge
+von $M_n(\Bbbk)$, die Addition und Multiplikation führen im Allgemeinen
+aus der Gruppe heraus, es gibt also keine Mögichkeit, in der Gruppe
+$\operatorname{GL}_n(\Bbbk)$ diese Operationen zu verwenden.
+\end{beispiel}
+
+\subsubsection{Einige einfache Rechenregeln in Gruppen}
+Die Struktur einer Gruppe hat bereits eine Reihe von
+Einschränkungen zur Folge.
+Zum Beispiel sprach die Definition des neutralen Elements $e$ nur von
+Produkten der Form $ex=x$, nicht von Produkten $xe$.
+Und die Definition des inversen Elements $h$ von $g$ hat nur
+verlangt, dass $gh=e$, es wurde nichts gesagt über das Produkt $hg$.
+
+\begin{satz}
+\label{buch:vektorenmatrizen:satz:gruppenregeln}
+Ist $G$ eine Gruppe mit neutralem Element $e$, dann gilt
+\begin{enumerate}
+\item
+$xe=x$ für alle $x\in G$
+\item
+Es gibt nur ein neutrales Element.
+Wenn also $f\in G$ mit $fx=x$ für alle $x\in G$, ist dann folgt $f=e$.
+\item
+Wenn $hg=e$ gilt, dann auch $gh=e$ und $h$ ist durch $g$ eindeutig bestimmt.
+\end{enumerate}
+\end{satz}
+
+\begin{proof}[Beweis]
+Wir beweisen als Erstes den ersten Teil der Eigenschaft~3.
+Sei $h$ die Inverse von $g$, also $hg=e$.
+Sei weiter $i$ die Inverse von $h$, also $ih=e$.
+Damit folgt jetzt
+\[
+g
+=
+eg
+=
+(ih)g
+=
+i(hg)
+=
+ie.
+\]
+Wende man dies auf das Produkt $gh$ an, folgt
+\[
+gh
+=
+(ie)h
+=
+i(eh)
+=
+ih
+=
+e
+\]
+Es ist also nicht nur $hg=e$ sondern immer auch $gh=e$.
+
+Für eine Inverse $h$ von $g$ folgt
+\[
+ge
+=
+g(hg)
+=
+(gh)g
+=
+eg
+=
+g,
+\]
+dies ist die Eigenschaft~1.
+
+Sind $f$ und $e$ neutrale Elemente, dann folgt
+\[
+f = fe = e
+\]
+aus der Eigenschaft~1.
+
+Schliesslich sei $x$ ein beliebiges Inverses von $g$, dann ist
+$xg=e$, dann folgt
+$x=xe=x(gh)=(xg)h = eh = h$, es gibt also nur ein Inverses von $g$.
+\end{proof}
+
+Diesem Problem sind wir zum Beispiel auch in
+Abschnitt~\ref{buch:grundlagen:subsection:gleichungssyteme}
+begegnet, wo wir nur gezeigt haben, dass $AA^{-1}=E$ ist.
+Da aber die invertierbaren Matrizen eine Gruppe
+bilden, folgt jetzt aus dem Satz automatisch, dass auch $A^{-1}A=E$.
+
+\subsubsection{Homomorphismen}
+Lineare Abbildung zwischen Vektorräumen zeichnen sich dadurch aus,
+dass sie die algebraische Struktur des Vektorraumes respektieren.
+Für eine Abbildung zwischen Gruppen heisst dies, dass die Verknüpfung,
+das neutrale Element und die Inverse respektiert werden müssen.
+
+\begin{definition}
+Ein Abbildung $\varphi\colon G\to H$ zwischen Gruppen heisst ein
+{\em Homomorphismus}, wenn
+$\varphi(g_1g_2)=\varphi(g_1)\varphi(g_2)$ für alle $g_1,g_2\in G$ gilt.
+\index{Homomorphismus}%
+\end{definition}
+
+Der Begriff des Kerns einer linearen Abbildung lässt sich ebenfalls auf
+die Gruppensituation erweitern.
+Auch hier ist der Kern der Teil der Gruppe, er unter dem
+Homomorphismus ``unsichtbar'' wird.
+
+\begin{definition}
+Ist $\varphi\colon G\to H$ ein Homomorphisus, dann ist
+\[
+\ker\varphi
+=
+\{g\in G\;|\; \varphi(g)=e\}
+\]
+eine Untergruppe.
+\index{Kern}%
+\end{definition}
+
+\subsubsection{Normalteiler}
+Der Kern eines Homomorphismus ist nicht nur eine Untergruppe, er erfüllt
+noch eine zusätzliche Bedingung.
+Für jedes $g\in G$ und $h\in\ker\varphi$ gilt
+\[
+\varphi(ghg^{-1})
+=
+\varphi(g)\varphi(h)\varphi(g^{-1})
+=
+\varphi(g)\varphi(g^{-1})
+=
+\varphi(gg^{-1})
+=
+\varphi(e)
+=
+e
+\qquad\Rightarrow\qquad
+ghg^{-1}\in\ker\varphi.
+\]
+Der Kern wird also von der Abbildung $h\mapsto ghg^{-1}$,
+der {\em Konjugation} in sich abgebildet.
+
+\begin{definition}
+Eine Untergruppe $H \subset G$ heisst ein {\em Normalteiler},
+geschrieben $H \triangleleft G$
+wenn $gHg^{-1}\subset H$ für jedes $g\in G$.
+\index{Normalteiler}
+\end{definition}
+
+Die Konjugation selbst ist ebenfalls keine Unbekannte, sie ist uns
+bei der Basistransformationsformel schon begegnet.
+Die Tatsache, dass $\ker\varphi$ unter Konjugation erhalten bleibt,
+kann man also interpretieren als eine Eigenschaft, die unter
+Basistransformation erhalten bleibt.
+
+\subsubsection{Faktorgruppen}
+Ein Unterraum $U\subset V$ eines Vektorraumes gibt Anlass zum
+Quotientenraum, der dadurch entsteht, dass man die Vektoren in $U$
+zu $0$ kollabieren lässt.
+Eine ähnliche Konstruktion könnte man für eine Untergruppe $H \subset G$
+versuchen.
+Man bildet also wieder die Mengen von Gruppenelementen, die sich um
+ein Elemente in $H$ unterscheiden.
+Man kann diese Mengen in der Form $gH$ mit $g\in G$ schreiben.
+
+Man möchte jetzt aber auch die Verknüpfung für solche Mengen
+definieren, natürlich so, dass $g_1H\cdot g_2H = (g_1g_2)H$ ist.
+Da die Verknüpfung nicht abelsch sein muss, entsteht hier
+ein Problem.
+Für $g_1=e$ folgt, dass $Hg_2H=g_2H$ sein muss.
+Das geht nur, wenn $Hg_2=g_2H$ oder $g_2Hg_2^{-1}=H$ ist, wenn
+also $H$ ein Normalteiler ist.
+
+\begin{definition}
+Für eine Gruppe $G$ mit Normalteiler $H\triangleleft G$ ist die
+Menge
+\[
+G/H = \{ gH \;|\; g\in G\}
+\]
+eine Gruppe mit der Verknüpfung $g_1H\cdot g_2H=(g_1g_2)H$.
+$G/H$ heisst {\em Faktorgruppe} oder {\em Quotientengruppe}.
+\index{Faktorgruppe}%
+\index{Quotientengruppe}%
+\end{definition}
+
+Für abelsche Gruppen ist die Normalteilerbedingung keine zusätzliche
+Einschränkung, jeder Untergruppe ist auch ein Normalteiler.
+
+\begin{beispiel}
+Die ganzen Zahlen $\mathbb{Z}$ bilden eine abelsche Gruppe und
+die Menge der Vielfachen von $n$
+$n\mathbb{Z}\subset\mathbb{Z}$ ist eine Untergruppe.
+Da $\mathbb{Z}$ abelsch ist, ist $n\mathbb{Z}$ ein Normalteiler
+und die Faktorgruppe $\mathbb{Z}/n\mathbb{Z}$ ist wohldefiniert.
+Nur die Elemente
+\[
+0+n\mathbb{Z},
+1+n\mathbb{Z},
+2+n\mathbb{Z},
+\dots
+(n-1)+n\mathbb{Z}
+\]
+sind in der Faktorgruppe verschieden.
+Die Gruppe $\mathbb{Z}/n\mathbb{Z}$ besteht also aus den Resten
+bei Teilung durch $n$.
+Diese Gruppe wird in Kapitel~\ref{buch:chapter:endliche-koerper}
+genauer untersucht.
+\end{beispiel}
+
+Das Beispiel suggeriert, dass man sich die Elemente von $G/H$
+als Reste vorstellen kann.
+
+\subsubsection{Darstellungen}
+Abstrakt definierte Gruppen können schwierig zu verstehen sein.
+Oft hilft es, wenn man eine geometrische Darstellung der Gruppenoperation
+finden kann.
+Die Gruppenelemente werden dann zu umkehrbaren linearen Operationen
+auf einem geeigneten Vektorraum.
+
+\begin{definition}
+\label{buch:vektorenmatrizen:def:darstellung}
+Eine Darstellung einer Gruppe $G$ ist ein Homomorphismus
+$G\to\operatorname{GL}_(\mathbb{R})$.
+\index{Darstellung}
+\end{definition}
+
+\begin{beispiel}
+Die Gruppen $\operatorname{GL}_n(\mathbb{Z})$,
+$\operatorname{SL}_n(\mathbb{Z})$ oder $\operatorname{SO}(n)$
+sind alle Teilmengen von $\operatorname{GL}_n(\mathbb{R}$.
+Die Einbettungsabbildung $G\hookrightarrow \operatorname{GL}_n(\mathbb{R})$
+ist damit automatisch eine Darstellung, sie heisst auch die
+{\em reguläre Darstellung} der Gruppe $G$.
+\index{reguläre Darstellung}
+\end{beispiel}
+
+In Kapitel~\ref{buch:chapter:permutationen} wird gezeigt,
+dass Permutationen einer endlichen eine Gruppe bilden und wie
+sie durch Matrizen dargestellt werden können.
+
+
+
+
+
+
diff --git a/buch/chapters/10-vektorenmatrizen/hadamard.tex b/buch/chapters/10-vektorenmatrizen/hadamard.tex
new file mode 100644
index 0000000..1fd0373
--- /dev/null
+++ b/buch/chapters/10-vektorenmatrizen/hadamard.tex
@@ -0,0 +1,307 @@
+%
+% hadamard.tex
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\section{Hadamard-Algebra
+\label{buch:section:hadamard-algebra}}
+\rhead{Hadamard-Algebra}
+Das Matrizenprodukt ist nicht die einzige Möglichkeit, ein Produkt auf
+Vektoren oder Matrizen zu definieren.
+In diesem Abschnitt soll das Hadamard-Produkt beschrieben werden,
+welches zu einer kommutativen-Algebra-Struktur führt.
+
+%
+% Definition des Hadamard-Produktes
+%
+\subsection{Hadamard-Produkt
+\label{buch:vektorenmatrizen:subsection:hadamard-produkt}}
+Im Folgenden werden wir $\Bbbk^n =M_{n\times 1}(\Bbbk)$ setzen
+und den Fall der Vektoren nicht mehr separat diskutieren.
+Die Addition und Multiplikation mit Skalaren ist in
+$M_{m\times n}(\Bbbk)$ komponentenweise definiert.
+Wir können natürlich auch ein Produkt komponentenweise definieren,
+dies ist das Hadamard-Produkt.
+
+\begin{definition}
+Das {\em Hadamard-Produkt} zweier Matrizen
+$A,B\in M_{m\times n}(\Bbbk)$ ist definiert als die Matrix
+$A\odot B$
+mit den Komponenten
+\[
+(A\odot B)_{ij} = (A)_{ij} (B)_{ij}.
+\]
+Wir nennen $M_{m\times n}(\Bbbk)$ mit der Multiplikation $\odot$
+auch die Hadamard-Algebra $H_{m\times n}(\Bbbk)$.
+\end{definition}
+
+Dies ist jedoch nur interessant, wenn $M_{m\times n}(\Bbbk)$ mit diesem
+Produkt eine interessante algebraische Struktur erhält.
+Dazu müssen die üblichen Verträglichkeitsgesetze zwischen den
+Vektorraumoperationen von $M_{m\times n}(\Bbbk)$ und dem neuen Produkt
+gelten, wir erhalten dann eine Algebra.
+Da alle Operationen elementweise definiert sind, muss man auch alle
+Rechengesetze nur elementweise prüfen.
+Es gilt
+\begin{align*}
+A\odot(B\odot C) &= (A\odot B)\odot C
+&&\Leftrightarrow&
+a_{ij}(b_{ij}c_{ij}) &= (a_{ij}b_{ij})c_{ij}
+\\
+A\odot(B+C) &= A\odot B + A\odot C
+&&\Leftrightarrow&
+a_{ij}(b_{ij}+c_{ij}) &= a_{ij}b_{ij} + a_{ij}c_{ij}
+\\
+(A+B)\odot C&=A\odot C+B\odot C
+&&\Leftrightarrow&
+(a_{ij}+b_{ij})c_{ij}&=a_{ij}c_{ij} + b_{ij}c_{ij}
+\\
+(\lambda A)\odot B &= \lambda (A\odot B)
+&&\Leftrightarrow&
+(\lambda a_{ij})b_{ij}&=\lambda(a_{ij}b_{ij})
+\\
+A\odot(\lambda B)&=\lambda(A\odot B)
+&&\Leftrightarrow&
+a_{ij}(\lambda b_{ij})&=\lambda(a_{ij}b_{ij})
+\end{align*}
+für alle $i,j$.
+
+Das Hadamard-Produkt ist kommutativ, da die Multiplikation in $\Bbbk$
+kommuativ ist.
+Das Hadamard-Produkt kann auch für Matrizen mit Einträgen in einem
+Ring definiert werden, in diesem Fall ist es möglich, dass die entsehende
+Algebra nicht kommutativ ist.
+
+Die Hadamard-Algebra hat auch ein Eins-Elemente, nämlich die Matrix,
+die aus lauter Einsen besteht.
+
+\begin{definition}
+Die sogenannte {\em Einsmatrix} $U$ ist die Matrix
+\[
+U=\begin{pmatrix}
+1&1&\dots&1\\
+\vdots&\vdots&\ddots&\vdots\\
+1&1&\dots&1
+\end{pmatrix}
+\in
+M_{m\times n}(\Bbbk)
+\]
+mit lauter Einträgen $1\in\Bbbk$.
+\end{definition}
+
+Die Hadamard-Algebra ist ein Spezialfall der Algebra der Funktionen
+$\Bbbk^X$.
+Ordnet man dem Vektor $v\in \Bbbk^n$ mit den Komponenten $v_i$
+die Abbildung
+\[
+v\colon [n] \to \Bbbk: i \mapsto v_i
+\]
+zu, dann geht die Addition von Vektoren in die Addition von
+Funktionen über, die Multiplikation von Skalaren mit Vektoren
+geht in die Multiplikation von Funktionen mit Skalaren über
+und die Hadamard-Multiplikation geht über in das Produkt von
+Funktionen.
+
+Auch die Hadamard-Algebra $H_{m\times n}(\Bbbk)$ kann als Funktionenalgebra
+betrachtet werden.
+Einer Matrix $A\in H_{m\times n}(\Bbbk)$ ordnet man die Funktion
+\[
+a\colon [m]\times [n] : (i,j) \mapsto a_{ij}
+\]
+zu.
+Dabei gehen die Algebraoperationen von $H_{m\times n}(\Bbbk)$ über
+in die Algebraoperationen der Funktionenalgebra $\Bbbk^{[m]\times [n]}$.
+Aus der Einsmatrix der Hadamard-Algebra wird dabei zur konstanten
+Funktion $1$ auf $[m]\times[n]$.
+
+\subsection{Hadamard-Produkt und Matrizenalgebra
+\label{buch:vektorenmatrizen:subsection:vertraeglichkeit}}
+Es ist nur in Ausnahmefällen, Hadamard-Produkt und Matrizen-Produkt
+gleichzeitig zu verwenden.
+Das liegt daran, dass die beiden Produkte sich überhaupt nicht
+vertragen.
+
+\subsubsection{Unverträglichkeit von Hadamard- und Matrizen-Produkt}
+Das Hadamard-Produkt und das gewöhnliche Matrizenprodukt sind
+in keiner Weise kompatibel.
+Die beiden Matrizen
+\[
+A=\begin{pmatrix}3&4\\4&5\end{pmatrix}
+\qquad\text{und}\qquad
+B=\begin{pmatrix}-5&4\\4&-3\end{pmatrix}
+\]
+sind inverse Matrizen bezüglich des Matrizenproduktes, also
+$AB=E$.
+Für das Hadamard-Produkt gilt dagegen
+\[
+A\odot B
+=
+\begin{pmatrix}
+-15& 16\\
+ 16&-15
+\end{pmatrix}.
+\]
+Die Inverse einer Matrix $A$ Bezüglich des Hadamard-Produktes hat
+die Einträge $a_{ij}^{-1}$.
+Die Matrix $E$ ist bezüglich des gewöhnlichen Matrizenproduktes
+invertierbar, aber sie ist bezüglich des Hadamard-Produktes nicht
+invertierbar.
+
+\subsubsection{Einbettung der Hadamard-Algebra ein eine Matrizenalgebra}
+Hadamard-Algebren können als Unteralgebren einer Matrizenalgebra
+betrachtet werden.
+Der Operator $\operatorname{diag}$ bildet Vektoren ab in Diagonalmatrizen
+nach der Regel
+\[
+\operatorname{diag}
+\colon
+\Bbbk^n \to M_n(\Bbbk)
+:
+\begin{pmatrix}
+v_1\\
+\vdots\\
+v_n
+\end{pmatrix}
+\mapsto
+\begin{pmatrix}
+v_1&\dots&0\\
+\vdots&\ddots&\vdots\\
+0&\dots&v_n
+\end{pmatrix}
+\]
+Das Produkt von Diagonalmatrizen ist besonders einfach.
+Für zwei Vektoren $a,b\in\Bbbk^n$
+\[
+a\odot b
+=
+\begin{pmatrix}
+a_1b_1\\
+\vdots\\
+a_nb_n
+\end{pmatrix}
+\mapsto
+\begin{pmatrix}
+a_1b_1&\dots&0\\
+\vdots&\ddots&\vdots\\
+0&\dots&a_nb_n
+\end{pmatrix}
+=
+\begin{pmatrix}
+a_1&\dots&0\\
+\vdots&\ddots&\vdots\\
+0&\dots&a_n
+\end{pmatrix}
+\begin{pmatrix}
+b_1&\dots&0\\
+\vdots&\ddots&\vdots\\
+0&\dots&b_n
+\end{pmatrix}.
+\]
+Das Hadamard-Produkt der Vektoren geht also über in das gewöhnliche
+Matrizenprodukt der Diagonalmatrizen.
+
+Für die Hadamard-Matrix ist die Einbettung etwas komplizierter.
+Wir machen aus einer Matrix erst einen Vektor, den wir dann mit
+dem $\operatorname{diag}$ in eine Diagonalmatrix umwandeln:
+\[
+\begin{pmatrix}
+a_{11}&\dots&a_{1n}\\
+\vdots&\ddots&\vdots\\
+a_{m1}&\dots
+\end{pmatrix}
+\mapsto
+\begin{pmatrix}
+a_{11}\\
+\vdots\\
+a_{1n}\\
+a_{21}\\
+\vdots\\
+a_{2n}\\
+\vdots\\
+a_{nn}
+\end{pmatrix}
+\]
+Bei dieser Abbildung geht die Hadamard-Multiplikation wieder in
+das gewöhnliche Matrizenprodukt über.
+
+% XXX Faltungsmatrizen und Fouriertheorie
+\subsubsection{Beispiel: Faltung und Fourier-Theorie}
+
+\subsection{Weitere Verknüpfungen
+\label{buch:vektorenmatrizen:subsection:weitere}}
+
+\subsubsection{Transposition}
+Das Hadamard-Produkt verträgt sich mit der Transposition:
+\[
+(A\odot B)^t = A^t \odot B^t.
+\]
+Insbesondere ist das Hadamard-Produkt zweier symmetrischer Matrizen auch
+wieder symmetrisch.
+
+\subsubsection{Frobeniusnorm}
+Das Hadamard-Produkt in der Hadamard-Algebra $H_{m\times n}(\mathbb{R})$
+nimmt keine Rücksicht auf die Dimensionen einer Matrix und ist nicht
+unterscheidbar von $\mathbb{R}^{m\times n}$ mit dem Hadamard-Produkt.
+Daher darf auch der Begriff einer mit den algebraischen Operationen
+verträglichen Norm nicht von von den Dimensionen abhängen.
+Dies führt auf die folgende Definition einer Norm.
+
+\begin{definition}
+Die {\em Frobenius-Norm} einer Matrix $A\in H_{m\times n}\mathbb{R})$
+mit den Einträgen $(a_{ij})=A$ ist
+\[
+\| A\|_F
+=
+\sqrt{
+\sum_{i,j} a_{ij}^2
+}.
+\]
+Das {\em Frobenius-Skalarprodukt} zweier Matrizen
+$A,B\in H_{m\times n}(\mathbb{R})$
+ist
+\[
+\langle A,B\rangle_F
+=
+\sum_{i,j} a_{ij} b_{ij}
+=
+\operatorname{Spur} A^t B
+\]
+und es gilt $\|A\|_F = \sqrt{\langle A,A\rangle}$.
+\end{definition}
+
+Für komplexe Matrizen muss
+
+\begin{definition}
+Die {\em komplexe Frobenius-Norm} einer Matrix $A\in H_{m\times n}(\mathbb{C})$
+ist
+\[
+\| A\|
+=
+\sqrt{
+\sum_{i,j} |a_{ij}|^2
+}
+=
+\sqrt{
+\sum_{i,u} \overline{a}_{ij} a_{ij}
+}
+\]
+das {\em komplexe Frobenius-Skalarprodukt} zweier Matrizen
+$A,B\in H_{m\times n}(\mathbb{C})$ ist das Produkt
+\[
+\langle A,B\rangle_F
+=
+\sum_{i,j}\overline{a}_{ij} b_{ij}
+=
+\operatorname{Spur} (A^* B)
+\]
+und es gilt $\|A\|_F = \sqrt{\langle A,A\rangle}$.
+\end{definition}
+
+% XXX Frobeniusnorm
+
+\subsubsection{Skalarprodukt}
+
+% XXX Skalarprodukt
+
+
+
diff --git a/buch/chapters/10-vektorenmatrizen/images/Makefile b/buch/chapters/10-vektorenmatrizen/images/Makefile
new file mode 100644
index 0000000..2c94e8a
--- /dev/null
+++ b/buch/chapters/10-vektorenmatrizen/images/Makefile
@@ -0,0 +1,18 @@
+#
+# Makefile -- build images
+#
+# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+#
+all: ideale.pdf gausszahlen.pdf strukturen.pdf rref.pdf
+
+ideale.pdf: ideale.tex
+ pdflatex ideale.tex
+
+gausszahlen.pdf: gausszahlen.tex
+ pdflatex gausszahlen.tex
+
+strukturen.pdf: strukturen.tex
+ pdflatex strukturen.tex
+
+rref.pdf: rref.tex
+ pdflatex rref.tex
diff --git a/buch/chapters/10-vektorenmatrizen/images/gausszahlen.pdf b/buch/chapters/10-vektorenmatrizen/images/gausszahlen.pdf
new file mode 100644
index 0000000..181499c
--- /dev/null
+++ b/buch/chapters/10-vektorenmatrizen/images/gausszahlen.pdf
Binary files differ
diff --git a/buch/chapters/10-vektorenmatrizen/images/gausszahlen.tex b/buch/chapters/10-vektorenmatrizen/images/gausszahlen.tex
new file mode 100644
index 0000000..6786f05
--- /dev/null
+++ b/buch/chapters/10-vektorenmatrizen/images/gausszahlen.tex
@@ -0,0 +1,48 @@
+%
+% gausszahlen.tex -- Ganze Gausssche Zahlen
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usepackage{color}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\definecolor{darkgreen}{rgb}{0,0.6,0}
+\begin{tikzpicture}[>=latex,thick,scale=0.8]
+\draw[->] (-8.5,0) -- (8.5,0) coordinate[label={$\Re z$}];
+\draw[->] (0,-4.5) -- (0,4.5) coordinate[label={right:$\Im z$}];
+\foreach \x in {-8,...,8}{
+ \foreach \y in {-4,...,4}{
+ \fill (\x,\y) circle[radius=0.05];
+ }
+}
+
+
+\coordinate (O) at (0,0);
+\coordinate (A) at (2,2);
+\coordinate (B) at (-3,1);
+\coordinate (C) at (-8,-4);
+\coordinate (D) at (-1,3);
+\draw[line width=0.5pt] (A)--(D)--(B);
+\draw[->,color=red] (O) -- (A);
+\draw[->,color=red] (O) -- (B);
+\draw[->,color=blue] (O) -- (C);
+\draw[->,color=darkgreen] (O) -- (D);
+\fill[color=red] (A) circle[radius=0.08];
+\fill[color=red] (B) circle[radius=0.08];
+\fill[color=blue] (C) circle[radius=0.08];
+\fill[color=darkgreen] (D) circle[radius=0.08];
+\fill[color=black] (O) circle[radius=0.08];
+\node[color=red] at (A) [above right] {$z$};
+\node[color=red] at (B) [above left] {$w$};
+\node[color=darkgreen] at (D) [above] {$z+w$};
+\node[color=blue] at (C) [below right] {$z\cdot w$};
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/10-vektorenmatrizen/images/ideale.pdf b/buch/chapters/10-vektorenmatrizen/images/ideale.pdf
new file mode 100644
index 0000000..439afcc
--- /dev/null
+++ b/buch/chapters/10-vektorenmatrizen/images/ideale.pdf
Binary files differ
diff --git a/buch/chapters/10-vektorenmatrizen/images/ideale.tex b/buch/chapters/10-vektorenmatrizen/images/ideale.tex
new file mode 100644
index 0000000..9793c8e
--- /dev/null
+++ b/buch/chapters/10-vektorenmatrizen/images/ideale.tex
@@ -0,0 +1,72 @@
+%
+% ideale.tex -- Ideale in den ganzen Gaussschen Zahlen
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\begin{tikzpicture}[>=latex,thick,scale=0.35]
+\begin{scope}[xshift=-9.5cm]
+\begin{scope}
+\clip (-8.3,-8.3) rectangle (8.3,8.3);
+ \foreach \x in {-8,...,8}{
+ \foreach \y in {-8,...,8}{
+ \fill (\x,\y) circle[radius=0.08];
+ }
+ }
+ \foreach \x in {-8,...,8}{
+ \foreach \y in {-8,...,8}{
+ \fill[color=blue]
+ ({\x-2*\y},{2*\x+\y}) circle[radius=0.12];
+ }
+ }
+ \foreach \x in {-8,...,8}{
+ \draw[color=blue,line width=0.5pt]
+ ({\x-2*(-8)},{2*\x+(-8)})
+ --
+ ({\x-2*8},{2*\x+8});
+ }
+ \foreach \y in {-8,...,8}{
+ \draw[color=blue,line width=0.5pt]
+ ({(-8)-2*\y},{2*(-8)+\y})
+ --
+ ({8-2*\y},{2*8+\y});
+ }
+\end{scope}
+ \draw[->] (-8.3,0) -- (9.1,0) coordinate[label={$\Re z$}];
+ \draw[->] (0,-8.3) -- (0,8.9) coordinate[label={right:$\Im z$}];
+\end{scope}
+
+\begin{scope}[xshift=9.5cm]
+\begin{scope}
+\clip (-8.3,-8.3) rectangle (8.3,8.3);
+ \foreach \x in {-8,...,8}{
+ \foreach \y in {-8,...,8}{
+ \fill[color=red] ({\x-\y},{\x+\y}) circle[radius=0.12];
+ }
+ }
+ \foreach \x in {-8,...,8}{
+ \foreach \y in {-8,...,8}{
+ \fill (\x,\y) circle[radius=0.08];
+ }
+ }
+ \foreach \x in {-8,...,8}{
+ \draw[color=red,line width=0.5pt]
+ ({\x+8},{\x-8}) -- ({\x-8},{\x+8});
+ \draw[color=red,line width=0.5pt]
+ ({-8-\x},{-8+\x}) -- ({8-\x},{8+\x});
+ }
+\end{scope}
+ \draw[->] (-8.3,0) -- (9.1,0) coordinate[label={$\Re z$}];
+ \draw[->] (0,-8.3) -- (0,8.9) coordinate[label={right:$\Im z$}];
+\end{scope}
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/10-vektorenmatrizen/images/rref.pdf b/buch/chapters/10-vektorenmatrizen/images/rref.pdf
new file mode 100644
index 0000000..56fbfee
--- /dev/null
+++ b/buch/chapters/10-vektorenmatrizen/images/rref.pdf
Binary files differ
diff --git a/buch/chapters/10-vektorenmatrizen/images/rref.tex b/buch/chapters/10-vektorenmatrizen/images/rref.tex
new file mode 100644
index 0000000..9b2bf50
--- /dev/null
+++ b/buch/chapters/10-vektorenmatrizen/images/rref.tex
@@ -0,0 +1,253 @@
+%
+% rref.tex -- Visualisierung des Gauss-Algorithmus
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math,calc}
+\begin{document}
+\def\skala{0.21}
+\def\r{0.4}
+\definecolor{darkgreen}{rgb}{0,0.6,0}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\def\pivot#1#2{
+ \fill[color=red!20] ({#1-0.5},{-#2+0.5}) circle[radius=\r];
+ \draw[color=red] ({#1-0.5},{-#2+0.5}) circle[radius=\r];
+}
+
+\def\spalteoben#1#2#3{
+ \fill[color=blue!20] ({(#1)-0.5+\r},{-(#3)})
+ -- ({(#1)-0.5+\r},{-(#2)+0.5}) arc (0:180:\r)
+ -- ({(#1)-0.5-\r},{-(#3)}) -- cycle;
+ \draw[color=blue] ({(#1)-0.5+\r},{-(#3)})
+ -- ({(#1)-0.5+\r},{-(#2)+0.5}) arc (0:180:\r)
+ -- ({(#1)-0.5-\r},{-(#3)});
+}
+
+\def\spalteunten#1#2#3{
+ \fill[color=blue!20] ({(#1)-0.5-\r},{-(#2)+1})
+ -- ({(#1)-0.5-\r},{-(#3)+0.5}) arc (-180:0:\r)
+ -- ({(#1)-0.5+\r},{-(#2)+1});
+ \draw[color=blue] ({(#1)-0.5-\r},{-(#2)+1})
+ -- ({(#1)-0.5-\r},{-(#3)+0.5}) arc (-180:0:\r)
+ -- ({(#1)-0.5+\r},{-(#2)+1});
+}
+
+\def\fuellung{
+ \fill[color=gray!50] (0,0) rectangle (8,-6);
+}
+\def\rahmen{
+ \draw (0,0) rectangle (8,-6);
+ \draw (7,0) -- (7,-6);
+}
+
+\def\eins#1#2{
+ \fill[color=gray] ({#1-1},{-#2}) rectangle ({#1},{-#2+1});
+}
+
+\def\null#1#2#3{
+ \fill[color=white] ({#1-1-0.01},{-#3-0.01})
+ rectangle ({#1+0.01},{-#2+1+0.01});
+}
+
+\fill[color=darkgreen!20] (-1.0,-10.81) rectangle (67.0,5);
+\fill[color=orange!20] (-1.0,-27) rectangle (67.0,-11.94);
+
+\node at (33,2) [above] {Vorwärtsreduktion};
+\node at (33,-24) [below] {Rückwärtseinsetzen};
+
+\draw[->] (9,-3.375)--(11,-3.375);
+\draw[->] (21,-3.375)--(23,-3.375);
+\draw[->] (33,-3.375)--(35,-3.375);
+\draw[->] (45,-3.375)--(47,-3.375);
+
+\draw[->] (57,-3.375) .. controls (62,-3.375) .. (62,-7.5);
+\draw[->] (62,-15.375) .. controls (62,-19.375) .. (57,-19.375);
+
+\draw[<-] (9,-19.375)--(11,-19.375);
+\draw[<-] (21,-19.375)--(23,-19.375);
+\draw[<-] (33,-19.375)--(35,-19.375);
+\draw[<-] (45,-19.375)--(47,-19.375);
+
+\begin{scope}[xshift=-0.5cm,scale=1.125]
+\fuellung
+\pivot{1}{1}
+\spalteoben{1}{2}{6}
+\rahmen
+\end{scope}
+
+\begin{scope}[xshift=11.5cm,scale=1.125]
+\fuellung
+\eins{1}{1}
+\null{1}{2}{6}
+\pivot{2}{2}
+\spalteoben{2}{3}{6}
+\rahmen
+\end{scope}
+
+\begin{scope}[xshift=23.54cm,scale=1.125]
+\fuellung
+\eins{1}{1}
+\null{1}{2}{6}
+\eins{2}{2}
+\null{2}{3}{6}
+\pivot{3}{3}
+\spalteoben{3}{4}{6}
+\rahmen
+\end{scope}
+
+\begin{scope}[xshift=35.5cm,scale=1.125]
+\fuellung
+\eins{1}{1}
+\null{1}{2}{6}
+\eins{2}{2}
+\null{2}{3}{6}
+\eins{3}{3}
+\null{3}{4}{6}
+\null{4}{4}{6}
+\pivot{5}{4}
+\spalteoben{5}{5}{6}
+\rahmen
+\end{scope}
+
+\begin{scope}[xshift=47.5cm,scale=1.125]
+\fuellung
+\eins{1}{1}
+\null{1}{2}{6}
+\eins{2}{2}
+\null{2}{3}{6}
+\eins{3}{3}
+\null{3}{4}{6}
+\eins{5}{4}
+\null{5}{5}{6}
+\null{6}{5}{6}
+\pivot{7}{5}
+\spalteoben{7}{6}{6}
+\rahmen
+\end{scope}
+
+\begin{scope}[xshift=57.5cm,yshift=-8cm,scale=1.125]
+\fuellung
+\eins{1}{1}
+\null{1}{2}{6}
+\eins{2}{2}
+\null{2}{3}{6}
+\eins{3}{3}
+\null{3}{4}{6}
+\null{4}{4}{6}
+\eins{5}{4}
+\null{5}{5}{6}
+\null{6}{5}{6}
+\eins{7}{5}
+\null{7}{6}{6}
+\rahmen
+\end{scope}
+
+\begin{scope}[xshift=47.5cm,yshift=-16cm,scale=1.125]
+\fuellung
+\eins{1}{1}
+\null{1}{2}{6}
+\eins{2}{2}
+\null{2}{3}{6}
+\eins{3}{3}
+\null{3}{4}{6}
+\null{4}{4}{6}
+\eins{5}{4}
+\null{5}{5}{6}
+\null{6}{5}{6}
+\eins{7}{5}
+\null{7}{6}{6}
+\spalteunten{7}{1}{4}
+\rahmen
+\end{scope}
+
+\begin{scope}[xshift=35.5cm,yshift=-16cm,scale=1.125]
+\fuellung
+\eins{1}{1}
+\null{1}{2}{6}
+\eins{2}{2}
+\null{2}{3}{6}
+\eins{3}{3}
+\null{3}{4}{6}
+\null{4}{4}{6}
+\eins{5}{4}
+\null{5}{5}{6}
+\null{6}{5}{6}
+\eins{7}{5}
+\null{7}{6}{6}
+\null{7}{1}{4}
+\spalteunten{5}{1}{3}
+\rahmen
+\end{scope}
+
+\begin{scope}[xshift=23.5cm,yshift=-16cm,scale=1.125]
+\fuellung
+\eins{1}{1}
+\null{1}{2}{6}
+\eins{2}{2}
+\null{2}{3}{6}
+\eins{3}{3}
+\null{3}{4}{6}
+\null{4}{4}{6}
+\eins{5}{4}
+\null{5}{5}{6}
+\null{6}{5}{6}
+\eins{7}{5}
+\null{7}{6}{6}
+\null{7}{1}{4}
+\null{5}{1}{3}
+\spalteunten{3}{1}{2}
+\rahmen
+\end{scope}
+
+\begin{scope}[xshift=11.5cm,yshift=-16cm,scale=1.125]
+\fuellung
+\eins{1}{1}
+\null{1}{2}{6}
+\eins{2}{2}
+\null{2}{3}{6}
+\eins{3}{3}
+\null{3}{4}{6}
+\null{4}{4}{6}
+\eins{5}{4}
+\null{5}{5}{6}
+\null{6}{5}{6}
+\eins{7}{5}
+\null{7}{6}{6}
+\null{7}{1}{4}
+\null{5}{1}{3}
+\null{3}{1}{2}
+\spalteunten{2}{1}{1}
+\rahmen
+\end{scope}
+
+\begin{scope}[xshift=-0.5cm,yshift=-16cm,scale=1.125]
+\fuellung
+\eins{1}{1}
+\null{1}{2}{6}
+\eins{2}{2}
+\null{2}{3}{6}
+\eins{3}{3}
+\null{3}{4}{6}
+\null{4}{4}{6}
+\eins{5}{4}
+\null{5}{5}{6}
+\null{6}{5}{6}
+\eins{7}{5}
+\null{7}{6}{6}
+\null{7}{1}{4}
+\null{5}{1}{3}
+\null{3}{1}{2}
+\null{2}{1}{1}
+\rahmen
+\end{scope}
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/10-vektorenmatrizen/images/strukturen.pdf b/buch/chapters/10-vektorenmatrizen/images/strukturen.pdf
new file mode 100644
index 0000000..14f7e59
--- /dev/null
+++ b/buch/chapters/10-vektorenmatrizen/images/strukturen.pdf
Binary files differ
diff --git a/buch/chapters/10-vektorenmatrizen/images/strukturen.tex b/buch/chapters/10-vektorenmatrizen/images/strukturen.tex
new file mode 100644
index 0000000..02ca71d
--- /dev/null
+++ b/buch/chapters/10-vektorenmatrizen/images/strukturen.tex
@@ -0,0 +1,122 @@
+%
+% strukturen.tex -- Bezug der verschiedenen algebraischen Strukturen
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\definecolor{darkgreen}{rgb}{0,0.6,0}
+
+% assoziative Verknüpfung
+\draw[rounded corners=1cm] (-7,-11.5) rectangle (7,7);
+
+\begin{scope}[yshift=6cm]
+\node at (0,0.5) [left] {{\bf assoziative Verknüpfung}:\strut};
+\node at (0,0.5) [right] {$a(bc)=(ab)c\;\forall a,b,c$\strut};
+\node at (0,-0.3) {\small $\mathbb{N}$, $\Sigma^*$};
+\end{scope}
+
+% Gruppe
+\fill[rounded corners=1cm,color=gray!40] (-6.5,-11.0) rectangle (6.5,5.3);
+\draw[rounded corners=1cm] (-6.5,-11.0) rectangle (6.5,5.3);
+
+\begin{scope}[xshift=-3cm,yshift=4.3cm]
+\node at (0,0.5) [left] {{\bf Gruppe}:};
+\node at (0,0.5) [right] {neutrales Element $e$:\strut};
+\node at (3.3,0.5) [right] {$eg=ge=g$\strut};
+\node at (5.7,0.5) [right] {$\forall g\in G$\strut};
+\node at (0,0.0) [right] {inverses Element $g^{-1}$:\strut};
+\node at (3.3,0.0) [right] {$gg^{-1}=g^{-1}g=e$\strut};
+\node at (5.7,0.0) [right] {$\forall g\in G$\strut};
+\node at (3,-1) {\small $\mathbb{Z}$, $\operatorname{GL}_n(\mathbb R)$, $S_n$, $A_n$};
+\end{scope}
+
+% abelsche Gruppe
+\fill[rounded corners=0.7cm,color=gray!20] (-6.2,-10.7) rectangle (6.2,2.7);
+\draw[rounded corners=0.7cm] (-6.2,-10.7) rectangle (6.2,2.7);
+\begin{scope}[yshift=1.5cm]
+\node at (0,0.5) [left] {{\bf abelsche Gruppe}:\strut};
+\node at (0,0.5) [right] {$a+b=b+a\;\forall a,b$\strut};
+\node at (0,0.0) {Addition\strut};
+
+\node at (0,-1) {\small $\mathbb{Q}^*$, $\operatorname{SO}(2)$, $C_n$ };
+\end{scope}
+
+\fill[rounded corners=0.5cm,color=white] (-2,-10.5) rectangle (6,-0.5);
+\fill[rounded corners=0.5cm,color=blue!20] (-6,-10.1) rectangle (2,0);
+%\draw[rounded corners=0.5cm] (-6,-10.0) rectangle (2,0);
+
+% Vektorraum
+\begin{scope}[yshift=-1cm]
+\node at (-5.8,0.5) [right] {{\bf Vektorraum}:\strut};
+\node at (-5.8,0.0) [right] {Skalarmultiplikation\strut};
+
+\node at (-5.8,-0.5) [right] {$\lambda(a+b)=\lambda a+\lambda b$\strut};
+\node at (-5.8,-1.0) [right] {$(\lambda+\mu)a=\lambda a+\mu a$\strut};
+\node at (-5.8,-1.5) [right] {$\forall\lambda,\mu\in \Bbbk\;\forall a,b\in V$};
+
+\node at (-5.8,-2.5) [right] {\small $\mathbb{R}^n$, $\mathbb{C}^n$, $l^2$};
+\end{scope}
+
+\fill[rounded corners=0.5cm,color=red!40,opacity=0.5]
+ (-2,-10.5) rectangle (6,-0.5);
+\draw[rounded corners=0.5cm] (-2,-10.5) rectangle (6,-0.5);
+
+\begin{scope}[yshift=-1cm]
+\node at (0,0.0) {{\bf Algebra}:\strut};
+\node at (0,-1.0) {$a(\lambda b) = \lambda ab$\strut};
+\node at (0,-1.5) {$\forall a,b\in A, \lambda\in \Bbbk$\strut};
+\node at (0,-3.0) {\small $c_0(\mathbb{R})$};
+\end{scope}
+
+\begin{scope}[yshift=-1cm]
+\node at (5.8,0) [left] {{\bf Ring}:};
+\node at (5.8,-0.5) [left] {Multiplikation};
+
+\node at (5.8,-1.0) [left] {$a(b+c)=ab+ac$\strut};
+\node at (5.8,-1.5) [left] {$(a+b)c=ac+bc$\strut};
+\node at (5.8,-2.0) [left] {$\forall a,b,c\in R$\strut};
+
+\node at (5.8,-3) [left] {\small $c_0(\mathbb{Z})$, $L^2(\mathbb R)$};
+\end{scope}
+
+\fill[rounded corners=0.3cm,color=yellow!20,opacity=0.5]
+ (-1.8,-10.3) rectangle (5.8,-4.5);
+\draw[rounded corners=0.3cm] (-1.8,-10.3) rectangle (5.8,-4.5);
+
+% boundary of blue area
+\draw[rounded corners=0.5cm] (-6,-10.1) rectangle (2,0);
+
+\begin{scope}[yshift=-5cm]
+\node at (5.6,0) [left] {{\bf Ring mit Eins}:};
+\node at (5.6,-1) [left] {$1\cdot a= a\cdot 1 = a\forall a\in R$\strut};
+\node at (5.6,-3) [left] {\small $\mathbb{Z}[X]$, $M_n(\mathbb{Z})$};
+\end{scope}
+
+\begin{scope}[yshift=-5cm]
+\node at (0,0) {{\bf Algebra mit Eins}};
+\node at (0,-1.2) {\small $M_n(\mathbb R)$, $C([a,b])$};
+\end{scope}
+
+\fill[rounded corners=0.1cm,color=darkgreen!20]
+ (-1.6,-9.9) rectangle (1.6,-6.9);
+\draw[rounded corners=0.1cm] (-1.6,-9.9) rectangle (1.6,-6.9);
+
+\begin{scope}[yshift=-7cm]
+\node at (0,-0.3) {{\bf Körper}:\strut};
+\node at (0,-1) {$a\in K\setminus\{0\}\Rightarrow \exists a^{-1}$\strut};
+\node at (0,-2.2) {\small $\mathbb{F}_p$, $\mathbb{R}$, $\mathbb{C}$, $\mathbb{Q}(X)$};
+\end{scope}
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/10-vektorenmatrizen/koerper.tex b/buch/chapters/10-vektorenmatrizen/koerper.tex
new file mode 100644
index 0000000..e1dda6d
--- /dev/null
+++ b/buch/chapters/10-vektorenmatrizen/koerper.tex
@@ -0,0 +1,20 @@
+%
+% koerper.tex -- Definition eines Körpers
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschwêizer Fachhochschule
+%
+\subsection{Körper
+\label{buch:subsection:koerper}}
+Die Multiplikation ist in einer Algebra nicht immer umkehrbar.
+Die Zahlenkörper von Kapitel~\ref{buch:chapter:zahlen} sind also
+sehr spezielle Algebren, man nennt sie Körper.
+In diesem Abschnitt sollen die wichtigsten Eigenschaften von Körpern
+zusammengetragen werden.
+
+
+XXX TODO
+
+
+
+
+
diff --git a/buch/chapters/10-vektorenmatrizen/linear.tex b/buch/chapters/10-vektorenmatrizen/linear.tex
index 25fa1af..2fcf199 100644
--- a/buch/chapters/10-vektorenmatrizen/linear.tex
+++ b/buch/chapters/10-vektorenmatrizen/linear.tex
@@ -6,3 +6,1130 @@
\section{Lineare Algebra
\label{buch:grundlagen:section:linearealgebra}}
\rhead{Lineare Algebra}
+In diesem Abschnitt tragen wir die bekannten Resultate der linearen
+Algebra zusammen.
+Meistens lernt man diese zuerst für Vektoren und Gleichungssyteme mit
+reellen Variablen.
+In der linearen Algebra werden aber nur die arithmetischen
+Grundoperationen verwendet, es gibt also keinen Grund, warum sich
+die Theorie nicht über einem beliebigen Zahlenkörper entwickeln
+lassen sollte.
+Die in Kapitel~\ref{buch:chapter:endliche-koerper} untersuchten
+endlichen Körper sind zum Beispiel besser geeignet für Anwendungen in
+der Kryptographie oder für die diskrete schnelle Fourier-Transformation.
+Daher geht es in diesem Abschnitt weniger darum alles herzuleiten,
+sondern vor allem darum, die Konzepte in Erinnerung zu rufen und
+so zu formulieren, dass offensichtlich wird, dass alles mit einem
+beliebigen Zahlkörper $\Bbbk$ funktioniert.
+
+%
+% Vektoren
+%
+\subsection{Vektoren
+\label{buch:grundlagen:subsection:vektoren}}
+Koordinatensysteme haben ermöglicht, Punkte als Zahlenpaare zu beschreiben.
+Dies ermöglicht, geometrische Eigenschaften als Gleichungen auszudrücken,
+aber mit Punkten kann man trotzdem noch nicht rechnen.
+Ein Vektor fasst die Koordinaten eines Punktes in einem Objekt zusammen,
+mit dem man auch rechnen und zum Beispiel Parallelverschiebungen
+algebraisieren kann.
+Um auch Streckungen ausdrücken zu können, wird auch eine Menge von
+Streckungsfaktoren benötigt, mit denen alle Komponenten eines Vektors
+multipliziert werden können.
+Sie heissen auch {\em Skalare} und liegen in $\Bbbk$.
+
+\subsubsection{Zeilen- und Spaltenvektoren}
+Vektoren sind Tupel von Elementen aus $\Bbbk$.
+
+\begin{definition}
+Ein $n$-dimensionaler {\em Spaltenvektor} ist ein $n$-Tupel von Zahlen aus
+$\Bbbk$ geschrieben als
+\[
+v = \begin{pmatrix} v_1\\v_2\\\vdots\\v_n\end{pmatrix}
+\in \Bbbk^n.
+\]
+Ein $m$-dimensionaler {\em Zeilenvektor} wird geschrieben als
+\[
+u = \begin{pmatrix}u_1&u_2&\dots&u_m\end{pmatrix} \in \Bbbk^m.
+\]
+\end{definition}
+
+Für Vektoren gleicher Dimension sind zwei Rechenoperationen definiert.
+Die {\em Addition von Vektoren} $a,a\in\Bbbk^n$ und die Multiplikation
+eines Vektors mit einem Skalar $\lambda\in\Bbbk$ erfolgt elementweise:
+\[
+a+b
+=
+\begin{pmatrix}a_1\\\vdots\\a_n\end{pmatrix}
++
+\begin{pmatrix}b_1\\\vdots\\b_n\end{pmatrix}
+=
+\begin{pmatrix}a_1+b_1\\\vdots\\a_n+b_n\end{pmatrix},
+\qquad
+\lambda a
+=
+\lambda
+\begin{pmatrix}a_1\\\vdots\\a_n\end{pmatrix}
+=
+\begin{pmatrix}\lambda a_1\\\vdots\\\lambda a_n\end{pmatrix}.
+\]
+Die üblichen Rechenregeln sind erfüllt, nämlich
+\begin{equation}
+\begin{aligned}
+&\text{Kommutativität:}
+&
+a+b&=b+a
+&&
+&&\forall a,b\in V
+\\
+&\text{Assoziativgesetze:}
+&
+(a+b)+c&=a+(b+c)
+&
+(\lambda\mu)a&=\lambda(\mu a)
+&&\forall a,b,c\in V,\; \lambda,\mu\in\Bbbk
+\\
+&\text{Distributivgesetze:}
+&
+\lambda(a+b)&=\lambda a + \lambda b
+&
+(\lambda+\mu)a&=\lambda a + \mu a
+&&\forall a,b\in V,\; \lambda,\mu\in\Bbbk.
+\\
+\end{aligned}
+\label{buch:vektoren-und-matrizen:eqn:vrgesetze}
+\end{equation}
+Diese Gesetze drücken aus, dass man mit Vektoren so rechnen kann, wie man
+das in der Algebra gelernt hat, mit der einzigen Einschränkung, dass
+man Skalare immer links von Vektoren schreiben muss.
+Die Distributivgesetze zum Beispiel sagen, dass man Ausmultipilizieren
+oder Ausklammern kann genauso wie in Ausdrücken, die nur Zahlen enthalten.
+
+Man beachte, dass es im allgemeinen kein Produkt von Vektoren gibt.
+Das aus der Vektorgeometrie bekannte Vektorprodukt ist eine Spezialität
+des dreidimensionalen Raumes, es gibt keine Entsprechung dafür in anderen
+Dimensionen.
+
+\subsubsection{Standardbasisvektoren}
+In $\Bbbk^n$ findet man eine Menge von speziellen Vektoren, durch die
+man alle anderen Vektoren ausdrücken kann.
+Mit den sogenannten {\em Standardbasisvektoren}
+\[
+e_1=\begin{pmatrix}1\\0\\\vdots\\0\end{pmatrix},
+e_2=\begin{pmatrix}0\\1\\\vdots\\0\end{pmatrix},
+\dots,
+e_n=\begin{pmatrix}0\\0\\\vdots\\1\end{pmatrix}
+\]
+kann der Vektor $a\in\Bbbk^n$ als
+\[
+a
+=
+\begin{pmatrix}a_1\\a_2\\\vdots\\a_n\end{pmatrix}
+=
+a_1 \begin{pmatrix}1\\0\\\vdots\\0\end{pmatrix}
++
+a_2 \begin{pmatrix}0\\1\\\vdots\\0\end{pmatrix}
++
+\dots
++
+a_n \begin{pmatrix}0\\0\\\vdots\\1\end{pmatrix}
+=
+a_1e_1+a_2e_2+\dots+a_ne_n
+\]
+ausgedrückt werden.
+
+\subsubsection{Vektorraum}
+Die Rechnungen, die man gemäss der Rechengesetze
+\eqref{buch:vektoren-und-matrizen:eqn:vrgesetze}
+anstellen kann, verlangen nicht, dass Elemente $a$ und $b$, mit denen man
+da rechnet, Zeilen- oder Spaltenvektoren sind.
+Jede Art von mathematischem Objekt, mit dem man so rechen kann,
+kann als (abstrakter) Vektor betrachtet werden.
+
+\begin{definition}
+Eine Menge $V$ von Objekten, auf der zwei Operationen definiert,
+nämlich die Addition, geschrieben $a+b$ für $a,b\in V$ und die
+Multiplikation mit Skalaren, geschrieben $\lambda a$ für $a\in V$ und
+$\lambda\in \Bbbk$, heisst ein {\em $\Bbbk$-Vektorraum} oder {\em Vektorraum
+über $\Bbbk$} (oder
+einfach nur {\em Vektorraum}, wenn $\Bbbk$ aus dem Kontext klar sind),
+wenn die Rechenregeln~\eqref{buch:vektoren-und-matrizen:eqn:vrgesetze}
+gelten
+\end{definition}
+
+Die Mengen von Spaltenvektoren $\Bbbk^n$ sind ganz offensichtlich
+Vektorräume.
+Die in Kapitel~\ref{buch:chapter:polynome} studierten Mengen von
+Polynomen mit Koeffizienten in $\Bbbk$ sind ebenfalls Vektorräume.
+
+\begin{beispiel}
+Die Zahlenmenge $\mathbb{C}$ ist ein $\mathbb{R}$-Vektorraum.
+Elemente von $\mathbb{C}$ können addiert und mit reellen Zahlen
+multipliziert werden.
+Die Rechenregeln für die komplexen Zahlen umfassen auch alle Regeln
+\eqref{buch:vektoren-und-matrizen:eqn:vrgesetze}, also ist
+$\mathbb{C}$ ein Vektorraum über $\mathbb{R}$.
+\end{beispiel}
+
+\begin{beispiel}
+Die Menge $C([a,b])$ der stetigen Funktionen $[a,b]\to\mathbb{Re}$
+bildet ein Vektorraum.
+Funktionen können addiert und mit reellen Zahlen multipliziert werden:
+\[
+(f+g)(x) = f(x) + g(x)
+\qquad\text{und}\qquad
+(\lambda f)(x) = \lambda f(x).
+\]
+Dies reicht aber noch nicht ganz, denn $f+g$ und $\lambda f$ müssen
+ausserdem auch {\em stetige} Funktionen sein.
+Das dem so ist, lernt man in der Analysis.
+Die Vektorraum-Rechenregeln
+\eqref{buch:vektoren-und-matrizen:eqn:vrgesetze} sind ebenfalls erfüllt.
+\end{beispiel}
+
+Die Beispiele zeigen, dass der Begriff des Vektorraums die algebraischen
+Eigenschaften eine grosse Zahl sehr verschiedenartiger mathematischer
+Objekte beschreiben kann.
+Alle Erkenntnisse, die man ausschliesslich aus Vekotorraumeigenschaften
+gewonnen hat, sind auf alle diese Objekte übertragbar.
+Im folgenden werden wir alle Aussagen für einen Vektorraum $V$ formulieren,
+wenn wir die Darstellung als Tupel $\Bbbk^n$ nicht brauchen.
+
+\subsubsection{Gleichungssysteme in Vektorform}
+Die Vektorraum-Operationen erlauben nun auch, lineare Gleichungssysteme
+in {\em Vektorform} zu schreiben:
+\index{Vektorform eines Gleichungssystems}%
+\begin{equation}
+\left.
+\begin{linsys}{4}
+a_{11} x_1 &+& \dots &+& a_{1n}x_n &=& b_1\\
+\vdots & & \ddots& & \vdots & & \vdots \\
+a_{m1} x_1 &+& \dots &+& a_{1n}x_n &=& b_m\\
+\end{linsys}
+\quad
+\right\}
+\qquad
+\Rightarrow
+\qquad
+x_1
+\begin{pmatrix}a_{11}\\\vdots\\a_{m1} \end{pmatrix}
++
+\dots
++
+x_n
+\begin{pmatrix}a_{1n}\\\vdots\\a_{mn} \end{pmatrix}
+=
+\begin{pmatrix}b_1\\\vdots\\b_m\end{pmatrix}
+\label{buch:vektoren-und-matrizen:eqn:vektorform}
+\end{equation}
+Die rechte Seite von~\eqref{buch:vektoren-und-matrizen:eqn:vektorform}
+ist eine Linearkombination der Spaltenvektoren.
+
+\begin{definition}
+Eine Linearkombination der Vektoren $v_1,\dots,v_n\in V$ ist ein Ausdruck
+der Form
+\[
+v
+=
+\lambda_1v_1+\dots + \lambda_n v_n
+\]
+mit $\lambda_1,\dots,\lambda_n\in \Bbbk$.
+\end{definition}
+
+Die Menge aller Vektoren, die sich als Linearkombinationen einer gegebenen
+Menge ausdrücken lässt, heisst der aufgespannte Raum.
+
+\begin{definition}
+\index{aufgespannter Raum}%
+Sind $a_1,\dots,a_n\in V$ Vektoren, dann heisst die Menge
+\[
+\langle a_1,\dots,a_n\rangle
+=
+\{x_1a_1+\dots+x_na_n\;|\; x_1,\dots,x_n\in\Bbbk\}
+\]
+aller Vektoren, die sich durch Linearkombination aus den Vektoren
+$a_1,\dots,a_n$ gewinnen lassen, der von $a_1,\dots,a_n$
+aufgespannte Raum.
+\end{definition}
+
+\subsubsection{Lineare Abhängigkeit}
+Die Gleichung~\eqref{buch:vektoren-und-matrizen:eqn:vektorform}
+drückt aus, dass sich der Vektor $b$ auf der rechten Seite als
+Linearkombination der Spaltenvektoren ausdrücken lässt.
+Oft ist eine solche Darstellung auf nur eine Art und Weise möglich.
+Betrachten wir daher jetzt den Fall, dass es zwei verschiedene
+Linearkombinationen der Vektoren $a_1,\dots,a_n$ gibt, die beide den
+Vektor $b$ ergeben.
+Deren Differenz ist
+\begin{equation}
+\left.
+\begin{linsys}{4}
+x_1 a_1 &+& \dots &+& x_n a_n &=& b \\
+x_1'a_1 &+& \dots &+& x_n'a_n &=& b \\
+\end{linsys}
+\quad\right\}
+\qquad
+\Rightarrow
+\qquad
+(\underbrace{x_1-x_1'}_{\lambda_1}) a_1
++
+\dots
++
+(\underbrace{x_n-x_n'}_{\lambda_n}) a_n
+=
+0.
+\label{buch:vektoren-und-matrizen:eqn:linabhkomb}
+\end{equation}
+Die Frage, ob ein Gleichungssystem genau eine Lösung hat, hängt also
+damit zusammen, ob es Zahlen $\lambda_1,\dots,\lambda_n$ gibt, für
+die die Gleichung~\label{buch:vektoren-und-matrizen:eqn:linabhkomb}
+erfüllt ist.
+
+\begin{definition}
+Die Vektoren $a_1,\dots,a_n$ heissen linear abhängig, wenn es Zahlen
+$\lambda_1,\dots,\lambda_n\in\Bbbk$ gibt, die nicht alle $0$ sind, so dass
+\begin{equation}
+\lambda_1a_1+\dots+\lambda_na_n = 0.
+\label{buch:vektoren-und-matrizen:eqn:linabhdef}
+\end{equation}
+Die Vektoren heissen linear abhängig, wenn aus
+\eqref{buch:vektoren-und-matrizen:eqn:linabhdef}
+folgt, dass alle $\lambda_1,\dots,\lambda_n=0$ sind.
+\end{definition}
+
+Lineare Abhängigkeit der Vektoren $a_1,\dots,a_n$ bedeutet auch, dass
+man einzelne der Vektoren durch andere ausdrücken kann.
+Hat man nämlich eine
+Linearkombination~\eqref{buch:vektoren-und-matrizen:eqn:linabhdef} und
+ist der Koeffizient $\lambda_k\ne 0$, dann kann man nach $a_k$ auflösen:
+\[
+a_k = -\frac{1}{\lambda_k}(\lambda_1a_1+\dots+\widehat{\lambda_ka_k}+\dots+\lambda_na_n).
+\]
+Darin bedeutet der Hut, dass der entsprechende Term weggelassen werden
+muss.
+Da dies für jeden von $0$ verschiedenen Koeffizienten möglich ist,
+sagt man eben nicht, $a_k$ ist linear abhängig von den anderen, sondern
+man sagt $a_1,\dots,a_n$ sind (untereinander) linear abhängig.
+
+\subsubsection{Basis}
+Ein lineares Gleichungssystem fragt danach, ob und wie ein Vektor $b$ als
+Linearkombination der Vektoren $a_1,\dots,a_n$ ausgedrückt werden kann.
+Wenn dies eindeutig möglich ist, dann haben die Vektoren $a_1,\dots,a_n$
+offenbar eine besondere Bedeutung.
+
+\begin{definition}
+\index{Basis}%
+\index{Dimension}%
+Eine linear unabhängig Menge von Vektoren
+$\mathcal{B}=\{a_1,\dots,a_n\}\subset V$
+heisst {\em Basis} von $V$.
+Die maximale Anzahl linear unabhängiger Vektoren in $V$ heisst
+{\em Dimension} von $V$.
+\end{definition}
+
+Die Standardbasisvektoren bilden eine Basis von $V=\Bbbk^n$.
+
+\subsubsection{Unterräume}
+Die Mengen $\langle a_1,\dots,a_n\rangle$ sind Teilmengen
+von $V$, in denen die Addition von Vektoren und die Multiplikation mit
+Skalaren immer noch möglich ist.
+
+\begin{definition}
+Eine Teilmenge $U\subset V$ heisst ein {\em Unterraum} von $V$, wenn
+$U$ selbst ein $\Bbbk$-Vektorraum ist, also
+\[
+\begin{aligned}
+a,b&\in U &&\Rightarrow &a+b&\in U
+\\
+a&\in U, \lambda\in\Bbbk &&\Rightarrow & \lambda a&\in U
+\end{aligned}
+\]
+gilt.
+\end{definition}
+
+%
+% Matrizen
+%
+\subsection{Matrizen
+\label{buch:grundlagen:subsection:matrizen}}
+Die Koeffizienten eines linearen Gleichungssystems finden in einem
+Zeilen- oder Spaltenvektor nicht Platz.
+Wir erweitern das Konzept daher in einer Art, dass Zeilen- und
+Spaltenvektoren Spezialfälle sind.
+
+\subsubsection{Definition einer Matrix}
+\begin{definition}
+Eine $m\times n$-Matrix $A$ (über $\Bbbk$) ist rechteckiges Schema
+\index{Matrix}%
+\[
+A
+=
+\begin{pmatrix}
+a_{11}&a_{12}&\dots &a_{1n}\\
+a_{21}&a_{22}&\dots &a_{2n}\\
+\vdots&\vdots&\ddots&\vdots\\
+a_{m1}&a_{m2}&\dots &a_{mn}\\
+\end{pmatrix}
+\]
+mit $a_{ij}\in\Bbbk$.
+Die Menge aller $m\times n$-Matrizen wird mit
+\[
+M_{m\times n}(\Bbbk) = \{ A\;|\; \text{$A$ ist eine $m\times n$-Matrix}\}.
+\]
+Falls $m=n$ gilt, heisst die Matrix $A$ auch {\em quadratisch}
+\index{quadratische Matrix}%
+Man kürzt die Menge der quadratischen Matrizen als
+$M_n(\Bbbk) = M_{n\times n}(\Bbbk)$ ab.
+\end{definition}
+
+Die $m$-dimensionalen Spaltenvektoren $v\in \Bbbk^m$ sind $m\times 1$-Matrizen
+$v\in M_{n\times 1}(\Bbbk)$, die $n$-dimensionalen Zeilenvetoren $u\in\Bbbk^n$
+sind $1\times n$-Matrizen $v\in M_{1\times n}(\Bbbk)$.
+Eine $m\times n$-Matrix $A$ mit den Koeffizienten $a_{ij}$ besteht aus
+den $n$ Spaltenvektoren
+\[
+a_1 = \begin{pmatrix} a_{11} \\ a_{21} \\ \vdots \\ a_{m1} \end{pmatrix},\quad
+a_2 = \begin{pmatrix} a_{12} \\ a_{22} \\ \vdots \\ a_{m2} \end{pmatrix},\dots,
+a_n = \begin{pmatrix} a_{1n} \\ a_{2n} \\ \vdots \\ a_{mn} \end{pmatrix}.
+\]
+Sie besteht auch aus den $m$ Zeilenvektoren
+\[
+\begin{pmatrix} a_{k1} & a_{k2} & \dots & a_{kn} \end{pmatrix}
+\]
+mit $k=1,\dots,m$.
+
+\subsubsection{Addition und Multiplikation mit Skalaren}
+Die $m\times n$-Matrizen $M_{m\times n}(\Bbbk)$ bilden eine Vektorraum,
+die Addition von Matrizen und die Multiplikation wird wie folgt definiert.
+
+\begin{definition}
+Sind $A,B\in M_{m\times n}(\Bbbk)$ und $\lambda\in\Bbbk$, dann setzt man
+\[
+A+B
+=
+\begin{pmatrix}
+a_{11}+b_{11}&a_{12}+b_{12}&\dots &a_{1n}+b_{1n}\\
+a_{21}+b_{21}&a_{22}+b_{22}&\dots &a_{2n}+b_{2n}\\
+\vdots &\vdots &\ddots&\vdots \\
+a_{m1}+b_{m1}&a_{m2}+b_{m2}&\dots &a_{mn}+b_{mn}
+\end{pmatrix}
+\qquad\text{und}\qquad
+\lambda A
+=
+\begin{pmatrix}
+\lambda a_{11}&\lambda a_{12}&\dots &\lambda a_{1n}\\
+\lambda a_{21}&\lambda a_{22}&\dots &\lambda a_{2n}\\
+\vdots &\vdots &\ddots&\vdots \\
+\lambda a_{m1}&\lambda a_{m2}&\dots &\lambda a_{mn}
+\end{pmatrix}.
+\]
+\end{definition}
+
+\subsubsection{Multiplikation}
+Will man ein lineares Gleichungssystem mit Hilfe der Matrix $A$ der
+Koeffizienten schreiben, bekommt es die Form $Ax=b$, wobei der Vektor
+der rechten Seiten ist, und $x$ ein Vektor von unbekannten Zahlen.
+Dies ist jedoch nur sinnvoll, wenn das Produkt $Ax$ sinnvoll definiert
+werden kann.
+
+\begin{definition}
+Eine $m\times n$-Matrix $A\in M_{m\times n}(\Bbbk)$ und eine
+$n\times l$-Matrix $B\in M_{n\times l}(\Bbbk)$ haben als Produkt
+eine $n\times l$-Matrix $C=AB\in M_{n\times l}(\Bbbk)$ mit den
+Koeffizienten
+\begin{equation}
+c_{ij} = \sum_{k=1}^n a_{ik} b_{kj}.
+\label{buch:vektoren-unbd-matrizen:eqn:matrixmultiplikation}
+\end{equation}
+\end{definition}
+
+Die Koeffizienten $a_{ik}$ kommen aus der Zeile $i$ von $A$, die Koeffizienten
+$b_{kj}$ stehen in der Spalte $j$ von $B$, die Multiplikationsregel
+\eqref{buch:vektoren-unbd-matrizen:eqn:matrixmultiplikation}
+besagt also, dass das Element $c_{ij}$ entsteht als das Produkt
+der Zeile $i$ von $A$ mit der Spalte $j$ von $C$.
+
+\subsubsection{Einheitsmatrix}
+Welche $m\times m$-Matrix $I\in M_{m}(\Bbbk)$ hat die Eigenschaft, dass
+$IA=A$ für jede beliebige Matrix $A\in M_{m\times n}(\Bbbk)$.
+Wir bezeichnen die Einträge von $I$ mit $\delta_{ij}$.
+Die Bedingung $IA=A$ bedeutet
+\[
+a_{ij} = \delta_{i1}a_{1j} + \dots + \delta_{im}a_{mj},
+\]
+Da auf der linken Seite nur $a_{ij}$ vorkommt, müssen alle Terme auf der
+rechten Seite verschwinden ausser dem Term mit $a_{ij}$, dessen
+Koeffizient $\delta_{ii}=1$ sein muss.
+Die Koeffizienten sind daher
+\[
+\delta_{ij}
+=
+\begin{cases}
+1&\qquad i=j\\
+0&\qquad\text{sonst}
+\end{cases}
+\]
+Die Zahlen $\delta_{ij}$ heissen auch das {\em Kronecker-Symbol} oder
+{\em Kronecker-Delta}.
+\index{Kronecker-$\delta$}%
+\index{Kronecker-Symbol}%
+Die Matrix $I$ hat die Einträge $\delta_{ij}$ und heisst die
+{\em Einheitsmatrix}
+\index{Einheitsmatrix}%
+\[
+I
+=
+\begin{pmatrix}
+1 &0 &\dots &0 \\
+0 &1 &\dots &0 \\[-2pt]
+\vdots&\vdots&\ddots&\vdots\\
+0 &0 &\dots &1
+\end{pmatrix}.
+\]
+
+
+%
+% Gleichungssysteme
+%
+\subsection{Gleichungssysteme
+\label{buch:grundlagen:subsection:gleichungssyteme}}
+Lineare Gleichungssysteme haben wir bereits in Vektorform geschrieben.
+Matrizen wurden eingeführt, um sie noch kompakter in der Matrixform
+$Ax=b$ zu schreiben.
+In diesem Abschnitt sollen die bekannten Resultate über die Lösung
+von linearen Gleichungssytemen zusammengetragen werden.
+
+\subsubsection{Eindeutige Lösung}
+Mit Hilfe der Vektorform eines linearen Gleichungssystems wurde
+gezeigt, dass die Lösung genau dann eindeutig ist, wenn die Spaltenvektoren
+der Koeffizientenmatrix linear unabhängig sind.
+Dies bedeutet, dass das Gleichungssystem
+\begin{equation}
+\begin{linsys}{3}
+a_{11}x_1 &+& \dots &+& a_{1n}x_n &=& 0 \\
+\vdots & & \ddots& & \vdots & & \vdots \\
+a_{m1}x_1 &+& \dots &+& a_{mn}x_n &=& 0
+\end{linsys}
+\label{buch:grundlagen:eqn:homogenessystem}
+\end{equation}
+eine nichttriviale Lösung haben muss.
+Das Gleichungssystem $Ax=b$ ist also genau dann eindeutig lösbar, wenn
+das homogene Gleichungssystem $Ax=0$ nur die Nulllösung hat.
+
+\subsubsection{Inhomogene und homogene Gleichungssysteme}
+Ein Gleichungssystem mit $0$ auf der rechten Seite ist also bereits
+ausreichend um zu entscheiden, ob die Lösung eindeutig ist.
+Ein Gleichungssystem mit rechter Seite $0$ heisst {\em homogen}.
+\index{homogenes Gleichungssystem}%
+Zu jedem {\em inhomogenen} Gleichungssystem $Ax=b$ mit $b\ne 0$
+ist $Ax=0$ das zugehörige homogene Gleichungssystem.
+
+Ein homogenes Gleichungssytem $Ax=0$ hat immer mindestens die
+Lösung $x=0$, man nennt sie auch die {\em triviale} Lösung.
+Eine Lösung $x\ne 0$ heisst auch eine nichttriviale Lösung.
+Die Lösungen eines inhomgenen Gleichungssystem $Ax=b$ ist also nur dann
+eindeutig, wenn das zugehörige homogene Gleichungssystem eine nichttriviale
+Lösung hat.
+
+\subsubsection{Gauss-Algorithmus}
+Der Gauss-Algorithmus oder genauer Gausssche Eliminations-Algorithmus
+löst ein lineare Gleichungssystem der
+Form~\eqref{buch:vektoren-und-matrizen:eqn:vektorform}.
+Die Koeffizienten werden dazu in das Tableau
+\[
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|}
+\hline
+a_{11}&\dots &a_{1n}&b_1 \\[-2pt]
+\vdots&\ddots&\vdots&\vdots\\
+a_{m1}&\dots &a_{mn}&b_m \\
+\hline
+\end{tabular}
+\]
+geschrieben.
+Die vertikale Linie erinnert an die Position des Gleichheitszeichens.
+Es beinhaltet alle Informationen zur Durchführung des Algorithmus.
+Der Algorithmus is so gestaltet, dass er nicht mehr Speicher als
+das Tableau benötigt, alle Schritte operieren direkt auf den Daten
+des Tableaus.
+
+In jedem Schritt des Algorithmus wird zunächst eine Zeile $i$ und
+Spalte $j$ ausgewählt, das Elemente $a_{ij}$ heisst das Pivotelement.
+\index{Pivotelement}%
+Die {\em Pivotdivision}
+\[
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|}
+\hline
+a_{11}&\dots &a_{1j}&\dots &a_{1n}&b_1 \\[-2pt]
+\vdots& &\vdots&\ddots&\vdots&\vdots\\
+a_{i1}&\dots &{\color{red}a_{ij}}&\dots &a_{in}&b_i \\[-2pt]
+\vdots& &\vdots&\ddots&\vdots&\vdots\\
+a_{m1}&\dots &a_{mj}&\dots &a_{mn}&b_m \\
+\hline
+\end{tabular}
+\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|}
+\hline
+a_{11}&\dots &a_{1j}&\dots &a_{1n}&b_1 \\[-2pt]
+\vdots& &\vdots&\ddots&\vdots&\vdots\\
+{\color{red}\frac{a_{i1}}{a_{ij}}}&\dots &{\color{red}1}&\dots &{\color{red}\frac{a_{in}}{a_{ij}}}&{\color{red}\frac{b_i}{a_{ij}}}\\[-2pt]
+\vdots& &\vdots&\ddots&\vdots&\vdots\\
+a_{m1}&\dots &a_{mj}&\dots &a_{mn}&b_m \\
+\hline
+\end{tabular}
+\]
+stellt sicher, dass das Pivot-Element zu $1$ wird.
+\index{Pivotdivision}
+Dies ist gleichbedeutend mit der Auflösung der Gleichung $i$ noch der
+Variablen $x_j$.
+Mit der {\em Zeilensubtraktion} auf Zeile $k\ne i$ können die Einträge in der
+Spalte $j$ zu Null gemacht werden.
+Dazu wird das $a_{kj}$-fache der Zeile $i$ von Zeile $k$ subtrahiert:
+\[
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|}
+\hline
+\vdots& &\vdots&\ddots&\vdots&\vdots\\
+a_{i1}&\dots &{\color{red}1}&\dots &a_{in}&b_i \\[-2pt]
+\vdots& &\vdots&\ddots&\vdots&\vdots\\
+a_{k1}&\dots &a_{kj}&\dots &a_{kn}&b_m \\[-2pt]
+\vdots& &\vdots&\ddots&\vdots&\vdots\\
+\hline
+\end{tabular}
+\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|}
+\hline
+\vdots& &\vdots&\ddots&\vdots&\vdots\\
+a_{i1}&\dots &{\color{red}1}&\dots &a_{in}&b_i \\[-2pt]
+\vdots& &\vdots&\ddots&\vdots&\vdots\\
+{\color{blue}a_{k1}-a_{kj}a_{i1}}&\dots &{\color{blue}0}&\dots &{\color{blue}a_{kn}-a_{kj}a_{in}}&{\color{blue}b_m-a_{kj}b_{n}}\\[-2pt]
+\vdots& &\vdots&\ddots&\vdots&\vdots\\
+\hline
+\end{tabular}
+\]
+Typischerweise werden nach jeder Pivotdivision mehrer Zeilensubtraktionen
+durchgeführt um alle anderen Elemente der Pivotspalte ausser dem
+Pivotelement zu $0$ zu machen.
+Beide Operationen können in einem Durchgang durchgeführt werden.
+
+Die beiden Operationen Pivotdivision und Zeilensubtraktion werden jetzt
+kombiniert um im linken Teil des Tableaus möglichst viele Nullen und
+Einsen zu erzeugen.
+Im Idealfall wird ein Tableau der Form
+\[
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|}
+\hline
+ 1& 0&\dots & 0&u_1 \\
+ 0& 1&\dots & 0&u_2 \\[-2pt]
+\vdots&\vdots&\ddots&\vdots&\vdots\\
+ 0& 0&\dots & 1&u_m \\
+\hline
+\end{tabular}
+\]
+erreicht, was natürlich nur $m=n$ möglich ist.
+Interpretiert man die Zeilen dieses Tableaus wieder als Gleichungen,
+dann liefert die Zeile $i$ den Wert $x_i=u_i$ für die Variable $i$.
+Die Lösung kann also in der Spalte rechts abgelesen werden.
+
+\begin{figure}
+\centering
+\includegraphics[width=\textwidth]{chapters/10-vektorenmatrizen/images/rref.pdf}
+\caption{Zweckmässiger Ablauf der Berechnung des Gauss-Algorithmus.
+Falls in einer Spalte kein weiteres von $0$ verschiedenes Pivotelement
+zur Verfügung steht, wird die Zeile übersprungen.
+Weisse Felder enthalten $0$, dunkelgraue $1$.
+Die roten Kreise bezeichnen Pivot-Elemente, die blauen Felder
+die mit einer Zeilensubtraktion zu $0$ gemacht werden sollen.
+\label{buch:grundlagen:fig:gaussalgorithmus}}
+\end{figure}
+Die effizienteste Strategie für die Verwendung der beiden Operationen
+ist in Abbildung~\ref{buch:grundlagen:fig:gaussalgorithmus} dargestellt.
+In der Phase der {\em Vorwärtsreduktion} werden Pivotelemente von links
+nach rechts möglichst auf der Diagonale gewählt und mit Zeilensubtraktionen
+die darunterliegenden Spalten freigeräumt.
+\index{Vorwärtsreduktion}%
+Während des Rückwärtseinsetzens werden die gleichen Pivotelemente von
+rechts nach links genutzt, um mit Zeilensubtraktionen auch die
+Spalten über den Pivotelemnten frei zu räumen.
+\index{Rückwärtseinsetzen}%
+Wenn in einer Spalte kein von $0$ verschiedenes Element als Pivotelement
+zur Verfügung steht, wird diese Spalte übersprungen.
+Die so erzeuge Tableau-Form heisst auch die {\em reduzierte Zeilenstufenform}
+({\em reduced row echelon form}, RREF).
+\index{reduzierte Zeilenstufenform}%
+\index{reduced row echelon form}%
+
+Da der Ablauf des Gauss-Algorithmus vollständig von den Koeffizienten der
+Matrix $A$ bestimmt ist, kann er gleichzeitig für mehrere Spalten auf der
+rechten Seite oder ganz ohne rechte Seite durchgeführt werden.
+
+\subsubsection{Lösungsmenge}
+\index{Lösungsmenge}%
+Die Spalten, in denen im Laufe des Gauss-Algorithmus kein Pivotelement
+gefunden werden kann, gehören zu Variablen, nach denen sich das
+Gleichungssystem nicht auflösen lässt.
+Diese Variablen sind daher nicht bestimmt, sie können beliebig gewählt
+werden.
+Alle anderen Variablen sind durch diese frei wählbaren Variablen
+bestimmt.
+
+Für ein Gleichungssystem $Ax=b$ mit Schlusstableau
+\index{Schlusstableau}%
+\begin{equation}
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|}
+\hline
+ x_1& x_2&\dots &x_{j_i-1}&{\color{darkgreen}x_{j_1}}&x_{j_1+1}&\dots &x_{j_2-1}&{\color{darkgreen}x_{j_2}}&\dots&{\color{darkgreen}x_{j_k}}& \\
+\hline
+ 1& 0&\dots & 0&c_{1j_1} & 0&\dots & 0&c_{1j_2} &\dots &c_{1j_k} &d_1 \\
+ 0& 1&\dots & 0&c_{2j_1} & 0&\dots & 0&c_{2j_2} &\dots &c_{1j_k} &d_2 \\[-2pt]
+\vdots&\vdots&\ddots&\vdots &\vdots &\vdots&\ddots&\vdots&\vdots &\ddots&\vdots &\vdots \\
+ 0& 0&\dots & 1&c_{i_1,j_1}& 0&\dots & 0&c_{i_1,j_2} &\dots &c_{i_1j_k} &d_{i_1} \\
+ 0& 0&\dots & 0& 0& 1&\dots & 0&c_{i_1+1,j_2}&\dots &c_{i_1+1,j_k}&d_{i_1+1}\\[-2pt]
+\vdots&\vdots&\ddots&\vdots &\vdots &\vdots&\vdots&\vdots&\vdots &\ddots&\vdots &\vdots \\
+ 0& 0&\dots & 0& 0& 0&\dots & 1&c_{i_2,j_2} &\dots &c_{i_2j_k} &d_{i_2} \\
+ 0& 0&\dots & 0& 0& 0&\dots & 0& 0&\dots &c_{i_2+1,j_k}&d_{i_2+1}\\[-2pt]
+\vdots&\vdots&\ddots&\vdots &\vdots &\vdots&\ddots&\vdots&\vdots &\ddots&\vdots &\vdots \\
+ 0& 0&\dots & 0& 0& 0&\dots & 0& 0&\dots & 0&d_{m} \\
+\hline
+\end{tabular}
+\end{equation}
+mit den $k$ frei wählbaren Variablen
+$x_{j_1}, x_{j_2},\dots, x_{j_k}$ kann die Lösungsmenge als
+\[
+\mathbb{L}
+=
+\left\{
+\left.
+\begin{pmatrix}
+d_1\\
+d_2\\
+\vdots\\
+d_{i_1}\\
+d_{i_1+1}\\
+\vdots\\
+d_{i_2}\\
+d_{i_2+1}\\
+\vdots\\
+d_{m}
+\end{pmatrix}
++
+{\color{darkgreen}x_{j_1}}
+\begin{pmatrix}
+-c_{1j_1}\\
+-c_{2j_1}\\
+\vdots\\
+-c_{i_1,j_1}\\
+{\color{darkgreen}1}\\
+\vdots\\
+0\\
+0\\
+\vdots\\
+0\\
+\end{pmatrix}
++
+{\color{darkgreen}x_{j_1}}
+\begin{pmatrix}
+-c_{1j_2}\\
+-c_{2j_2}\\
+\vdots\\
+-c_{j_1,j_2}\\
+-c_{j_1+1,j_2}\\
+\vdots\\
+-c_{i_2,j_2}\\
+{\color{darkgreen}1}\\
+\vdots\\
+0\\
+\end{pmatrix}
++
+\dots
++
+{\color{darkgreen}x_{j_k}}
+\begin{pmatrix}
+-c_{1j_k}\\
+-c_{2j_k}\\
+\vdots\\
+-c_{j_1,j_k}\\
+-c_{j_1+1,j_k}\\
+\vdots\\
+-c_{i_2,j_k}\\
+-c_{i_2+1,j_k}\\
+\vdots\\
+0\\
+\end{pmatrix}
+\;
+\right|
+{\color{darkgreen}x_{i_1}},{\color{darkgreen}x_{i_2}},\dots,{\color{darkgreen}x_{i_k}}\in\Bbbk
+\right\}
+\]
+geschrieben werden.
+Insbesondere ist die Lösungsmenge $k$-dimensional.
+
+\subsubsection{Inverse Matrix}
+Zu jeder quadratischen Matrix $A\in M_n(\Bbbk)$ kann man versuchen, die
+Gleichungen
+\[
+Ac_1 = e_1,\quad Ac_2 = e_2, \dots, Ac_n = e_n
+\]
+mit den Standardbasisvektoren $e_i$ als rechten Seiten zu lösen, wobei
+die $c_i$ Vektoren in $\Bbbk^n$ sind.
+Diese Vektoren kann man mit Hilfe des Gauss-Algorithmus finden:
+\[
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+a_{11}&a_{12}&\dots &a_{1n}&1 &0 &\dots &0 \\
+a_{21}&a_{22}&\dots &a_{2n}&0 &1 &\dots &0 \\
+\vdots&\vdots&\ddots&\vdots&\vdots&\vdots&\ddots&\vdots\\
+a_{n1}&a_{n2}&\dots &a_{nn}&0 &0 &\dots &1 \\
+\hline
+\end{tabular}
+\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+1 &0 &\dots &0 &c_{11}&c_{12}&\dots &c_{1n}\\
+0 &1 &\dots &0 &c_{21}&c_{22}&\dots &c_{2n}\\
+\vdots&\vdots&\ddots&\vdots&\vdots&\vdots&\ddots&\vdots\\
+0 &0 &\dots &1 &c_{n1}&c_{n2}&\dots &c_{nn}\\
+\hline
+\end{tabular}
+\]
+Die Vektoren $c_k$ sind die Spaltenvektoren der Matrix $C$ mit den
+Einträgen $c_{ij}$.
+
+Mit den Vektoren $c_k$ können jetzt beliebige inhomogene Gleichungssysteme
+$Ax=b$ gelöst werden.
+Da $b = b_1e_1 + b_2e_2 + \dots + b_ne_n$, kann man die Lösung $x$ als
+$x = b_1c_1+b_2c_2+\dots+b_nc_n$ konstruieren.
+Tatsächlich gilt
+\begin{align*}
+Ax
+&=
+A( b_1c_1+b_2c_2+\dots+b_nc_n)
+\\
+&=
+b_1Ac_1 + b_2Cc_2 + \dots + b_nAc_n
+\\
+&=
+b_1e_1 + b_2e_2 + \dots + b_ne_n
+=
+b.
+\end{align*}
+Die Linearkombination $x=b_1c_1+\dots+b_nc_n$ kann in Vektorform als $x=Cb$
+geschrieben werden.
+
+Die Konstruktion von $C$ bedeutet auch, dass $AC=E$, daher heisst $C$ auch
+die zu $A$ {\em inverse Matrix}.
+\index{inverse Matrix}
+Sie wird auch $C=A^{-1}$ geschrieben.
+
+Die Definition der inversen Matrix stellt sicher, dass $AA^{-1}=I$ gilt,
+daraus folgt aber noch nicht, dass auch $A^{-1}A=I$ ist.
+Diese Eigenschaft kann man jedoch wie folgt erhalten.
+Sei $C$ die inverse Matrix von $A$, also $AC=I$.
+Sei weiter $D$ die inverse Matrix von $C$, also $CD=I$.
+Dann ist zunächst $A=AE=A(CD)=(AC)D=ID=D$ und weiter
+$CA=CD=I$.
+Mit der Bezeichnung $C=A^{-1}$ erhalten wir also auch $A^{-1}A=I$.
+
+Die Eigenschaften der Matrizenmultiplikation stellen sicher,
+dass die Menge der invertierbaren Matrizen eine Struktur bilden,
+die man Gruppe nennt, die in Abschnitt~\ref{buch:grundlagen:subsection:gruppen}
+genauer untersucht wird.
+In diesem Zusammenhang wird dann auf
+Seite~\pageref{buch:vektorenmatrizen:satz:gruppenregeln}
+die Eigenschaft $A^{-1}A=I$ ganz allgemein gezeigt.
+
+\subsubsection{Determinante}
+XXX TODO
+
+%
+% Lineare Abbildungen
+%
+\subsection{Lineare Abbildungen
+\label{buch:grundlagen:subsection:lineare-abbildungen}}
+Der besondere Nutzen der Matrizen ist, dass sie auch lineare Abbildungen
+zwischen Vektorräumen beschreiben können.
+In diesem Abschnitt werden lineare Abbildungen abstrakt definiert
+und die Darstellung als Matrix mit Hilfe einer Basis eingeführt.
+
+
+\subsubsection{Definition}
+Eine lineare Abbildung zwischen Vektorräumen muss so gestaltet sein,
+dass die Operationen des Vektorraums erhalten bleiben.
+Dies wird von der folgenden Definition erreicht.
+
+\begin{definition}
+Eine Abbildung $f\colon V\to U$ zwischen Vektorräumen $V$ und $U$
+heisst linear, wenn
+\[
+\begin{aligned}
+f(v+w) &= f(v) + f(w)&&\forall v,w\in V
+\\
+f(\lambda v) &= \lambda f(v) &&\forall v\in V,\lambda \in \Bbbk
+\end{aligned}
+\]
+gilt.
+\end{definition}
+
+Lineare Abbildungen sind in der Mathematik sehr verbreitet.
+
+\begin{beispiel}
+Sie $V=C^1([a,b])$ die Menge der stetig differenzierbaren Funktionen
+auf dem Intervall $[a,b]$ und $U=C([a,b])$ die Menge der
+stetigen Funktion aif $[a,b]$.
+Die Ableitung $\frac{d}{dx}$ macht aus einer Funktion $f(x)$ die
+Ableitung $f'(x)$.
+Die Rechenregeln für die Ableitung stellen sicher, dass
+\[
+\frac{d}{dx}
+\colon
+C^1([a,b]) \to C([a,b])
+:
+f \mapsto f'
+\]
+eine lineare Abbildung ist.
+\end{beispiel}
+
+\begin{beispiel}
+Sei $V$ die Menge der Riemann-integrierbaren Funktionen auf dem
+Intervall $[a,b]$ und $U=\mathbb{R}$.
+Das bestimmte Integral
+\[
+\int_a^b \;\colon V \to U : f \mapsto \int_a^b f(x)\,dx
+\]
+ist nach den bekannten Rechenregeln für bestimmte Integrale
+eine lineare Abbildung.
+\end{beispiel}
+
+\subsubsection{Matrix}
+Um mit linearen Abbildungen rechnen zu können, ist eine Darstellung
+mit Hilfe von Matrizen nötig.
+Sei also $\mathcal{B}=\{b_1,\dots,b_n\}$ eine Basis von $V$ und
+$\mathcal{C} = \{ c_1,\dots,c_m\}$ eine Basis von $U$.
+Das Bild des Basisvektors $b_i$ kann als Linearkombination der
+Vektoren $c_1,\dots,c_m$ dargestellt werden.
+Wir verwenden die Bezeichnung
+\[
+f(b_i)
+=
+a_{1i} c_1 + \dots + a_{mi} c_m.
+\]
+Die lineare Abbildung $f$ bildet den Vektor $x$ mit Koordinaten
+$x_1,\dots,x_n$ ab auf
+\begin{align*}
+f(x)
+&=
+f(x_1b_1 + \dots x_nb_n)
+\\
+&=
+x_1 f(b_1) + \dots x_nf(b_n)
+\\
+&=
+x_1(a_{11} c_1 + \dots + a_{m1} c_m)
++
+\dots
++
+x_n(a_{1n} c_1 + \dots + a_{mn} c_m)
+\\
+&=
+( a_{11} x_1 + \dots + a_{1n} x_n ) c_1
++
+\dots
++
+( a_{m1} x_1 + \dots + a_{mn} x_n ) c_m
+\end{align*}
+Die Koordinaten von $f(x)$ in der Basis $\mathcal{C}$ in $U$ sind
+also gegeben durch das Matrizenprodukt $Ax$, wenn $x$ der Spaltenvektor
+aus den Koordinaten in der Basis $\mathcal{B}$ in $V$ ist.
+
+Die Matrix einer linearen Abbildung macht Aussagen über eine lineare
+Abbilung der Rechnung zugänglich.
+Allerdings hängt die Matrix einer linearen Abbildung von der Wahl der
+Basis ab.
+Gleichzeitig ist dies eine Chance, durch Wahl einer geeigneten Basis
+kann man eine Matrix in eine Form bringen, die zur Lösung eines
+Problems optimal geeignet ist.
+
+\subsubsection{Basiswechsel}
+In einem Vektorraum $V$ seien zwei Basen $\mathcal{B}=\{b_1,\dots,b_n\}$
+und $\mathcal{B}'=\{b_1',\dots,b_n'\}$ gegeben.
+Ein Vektor $v\in V$ kann in beiden beiden Basen dargestellt werden.
+Wir bezeichnen mit dem Spaltenvektor $x$ die Koordinaten von $v$ in der
+Basis $\mathcal{B}$ und mit dem Spaltenvektor $x'$ die Koordinaten
+in der Basisi $\mathcal{B}'$.
+Um die Koordinaten umzurechnen, muss man die Gleichung
+\begin{equation}
+x_1b_1 + \dots + x_nb_n = x_1'b_1' + \dots + x_n'b_n'
+\label{buch:vektoren-und-matrizen:eqn:basiswechselgleichung}
+\end{equation}
+lösen.
+
+Stellt man sich die Vektoren $b_i$ und $b_j'$ als $m$-dimensionale
+Spaltenvektoren vor mit $m\ge n$, dann bekommt
+\eqref{buch:vektoren-und-matrizen:eqn:basiswechselgleichung}
+die Form eines Gleichungssystems
+\[
+\begin{linsys}{6}
+b_{11}x_1&+& \dots &+&b_{1n}x_n&=&b_{11}'x_1'&+& \dots &+&b_{1n}'x_n'\\
+\vdots & & \ddots& &\vdots & &\vdots & & \ddots& &\vdots \\
+b_{m1}x_1&+& \dots &+&b_{mn}x_n&=&b_{m1}'x_1'&+& \dots &+&b_{mn}'x_n'
+\end{linsys}
+\]
+Dieses Gleichungssystem kann man mit Hilfe eines Gauss-Tableaus lösen.
+Wir schreiben die zugehörigen Variablen
+\[
+\renewcommand{\arraystretch}{1.1}
+\begin{tabular}{|>{$}c<{$} >{$}c<{$} >{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+x_1&\dots&x_n&x_1'&\dots&x_n'\\
+\hline
+b_{11}&\dots &b_{1n}&b_{11}'&\dots &v_{1n}'\\
+\vdots&\ddots&\vdots&\vdots &\ddots&\vdots \\
+b_{n1}&\dots &b_{nn}&b_{n1}'&\dots &v_{nn}'\\
+\hline
+b_{n+1,1}&\dots &b_{n+1,n}&b_{n+1,1}'&\dots &v_{n+1,n}'\\
+\vdots&\ddots&\vdots&\vdots &\ddots&\vdots \\
+b_{m1}&\dots &b_{mn}&b_{m1}'&\dots &v_{mn}'\\
+\hline
+\end{tabular}
+\rightarrow
+\begin{tabular}{|>{$}c<{$} >{$}c<{$} >{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+x_1&\dots&x_n&x_1'&\dots&x_n'\\
+\hline
+1 &\dots &0 &t_{11} &\dots &t_{1n} \\
+\vdots&\ddots&\vdots&\vdots &\ddots &\vdots \\
+0 &\dots &1 &t_{n1} &\dots &t_{nn} \\
+\hline
+0 &\dots &0 &{\color{red}0} &{\color{red}\dots} &{\color{red}0}\\
+\vdots&\ddots&\vdots&{\color{red}\vdots}&{\color{red}\ddots}&{\color{red}\vdots}\\
+0 &\dots &0 &{\color{red}0} &{\color{red}\dots} &{\color{red}0}\\
+\hline
+\end{tabular}
+\]
+Das rechte untere Teiltableau enthält lauter Nullen genau dann, wenn jeder
+Vektor in $V$ sich in beiden Mengen $\mathcal{B}$ und $\mathcal{B}'$
+ausdrücken lässt.
+Dies folgt aber aus der Tatsache, dass $\mathcal{B}$ und $\mathcal{B}'$
+beide Basen sind, also insbesondere den gleichen Raum aufspannen.
+Die $n\times n$-Matrix $T$ mit Komponenten $t_{ij}$ rechnet Koordinaten
+in der Basis $\mathcal{B}'$ um in Koordinaten in der Basis $\mathcal{B}$.
+
+\subsubsection{Umkehrabbbildung}
+Sei $f$ eine umkehrbare lineare Abbildung $U\to V$ und $g\colon V\to U$.
+die zugehörige Umkehrabbildung.
+Für zwei Vektoren $u$ und $w$ in $U$ gibt es daher Vektoren $a=g(u)$
+und $b=g(w)$ in $V$ derart, dass $f(a)=u$ und $f(b)=w$.
+Weil $f$ linear ist, folgt daraus $f(a+b)=u+w$ und $f(\lambda a)=\lambda a$
+für jedes $\lambda\in\Bbbk$.
+Damit kann man jetzt
+\begin{align*}
+g(u+w)&=g(f(a)+f(b)) = g(f(a+b)) = a+b = g(u)+g(w)
+\\
+g(\lambda u) &= g(\lambda f(a))=g(f(\lambda a)) = \lambda a = \lambda g(u)
+\end{align*}
+berechnen, was zeigt, dass auch $g$ eine lineare Abbildung ist.
+Hat $f$ in geeignet gewählten Basen die Matrix $F$, dann hat die
+Umkehrabbildung $g=f^{-1}$ die Matrix $G=F^{-1}$.
+Da auch $f(g(y))=y$ gilt für jeden Vektor $y\in V$ folgt, dass $FF^{-1}=E$
+und $F^{-1}F=E$.
+
+\subsubsection{Kern und Bild}
+Für die Eindeutigkeit der Lösung eines linearen Gleichungssytems
+ist entscheidend, ob das zugehörige homogene Gleichungssystem $Ax=0$
+eine nichttriviale Lösung hat.
+Seine Lösungmenge spielt also eine besondere Rolle, was rechtfertigt,
+ihr einen Namen zu geben.
+
+\begin{definition}
+\index{Kern}%
+Ist $f$ eine lineare Abbildung $U\to V$, dann heisst die Menge
+\[
+\ker f
+=
+\{x\in U\;|\; f(x)=0\}
+\]
+der {\em Kern} oder {\em Nullraum} der linearen Abbildung $f$.
+Ist $A \in M_{m\times n}(\Bbbk)$ Matrix, dann gehört dazu eine lineare
+Abbildung $f\colon\Bbbk^n\to\Bbbk^m$.
+Der Kern oder Nullraum der Matrix $A$ ist die Menge
+\[
+\ker A
+=
+\{ x\in\Bbbk^m \;|\; Ax=0\}.
+\]
+\end{definition}
+
+Der Kern ist ein Unterraum, denn für zwei Vektoren $u,w\in \ker f$
+\[
+\begin{aligned}
+f(u+v)&=f(u) + f(v) = 0+0 = 0 &&\Rightarrow& u+v&\in\ker f\\
+f(\lambda u)&=\lambda f(u) = \lambda\cdot 0=0&&\Rightarrow& \lambda u&\in\ker f
+\end{aligned}
+\]
+gilt.
+
+Ob ein Gleichungssystem $Ax=b$ überhaupt eine Lösung hat, hängt davon,
+ob der Vektor $b$ als Bild der durch $A$ beschriebenen linearen Abbildung
+$\Bbbk^n \to \Bbbk^m$ enthalten ist.
+Wir definieren daher das Bild einer linearen Abbildung oder Matrix.
+
+\begin{definition}
+Ist $f\colon V\to U$ eine lineare Abbildung dann ist das Bild von $f$
+der Unterraum
+\[
+\operatorname{im}f = \{ f(v)\;|\;v\in V\} \subset U
+\]
+von $U$.
+Das Bild einer $m\times n$-Matrix $A$ ist die Menge
+\[
+\operatorname{im}A = \{ Av \;|\; v\in\Bbbk^n\} \subset \Bbbk^m.
+\]
+\end{definition}
+
+Zwei Vektoren $a,b\in\operatorname{im} f$ haben Urbilder $u,w\in V$ mit
+$f(u)=a$ und $f(w)=b$.
+Für Summe und Multiplikation mit Skalaren folgt
+\[
+\begin{aligned}
+a+b&= f(u)+f(v)=f(u+v) &&\Rightarrow a+b\in\operatorname{im}f\\
+\lambda a&=\lambda f(u) = f(\lambda u) &&\Rightarrow \lambda a&\in\operatorname{im}f,
+\end{aligned}
+\]
+also ist auch das Bild $\operatorname{im}f$ ein Unterraum von $U$.
+Das Bild der Matrix $A$ ist der Unterraum
+\[
+\{ x_1f(b_1) + \dots x_n f(b_n) | x_i\in\Bbbk\}
+=
+\langle f(b_1),\dots,f(b_n)\rangle
+=
+\langle a_1,\dots,a_n\rangle
+\]
+von $\Bbbk^m$, aufgespannt von den Spaltenvektoren $a_i$ von $A$.
+
+\subsubsection{Rang und Defekt}
+Die Dimensionen von Bild und Kern sind wichtige Kennzahlen einer Matrix.
+\begin{definition}
+Sei $A$ eine Matrix $A\in M_{m\times n}(\Bbbk)$.
+Der {\em Rang} der Matrix $A$ ist die Dimension des Bildraumes von $A$:
+$\operatorname{rank}A=\dim\operatorname{im} A$.
+\index{Rang einer Matrix}%
+Der {\em Defekt} der Matrix $A$ ist die Dimension des Kernes von $A$:
+$\operatorname{def}A=\dim\ker A$.
+\index{Defekt einer Matrix}%
+\end{definition}
+
+Da der Kern mit Hilfe des Gauss-Algorithmus bestimmt werden kann,
+können Rang und Defekt aus dem Schlusstableau
+eines homogenen Gleichungssystems mit $A$ als Koeffizientenmatrix
+abgelesen werden.
+
+\begin{satz}
+Ist $A\in M_{m\times n}(\Bbbk)$ eine $m\times n$-Matrix,
+dann gilt
+\[
+\operatorname{rank}A
+=
+n-\operatorname{def}A.
+\]
+\end{satz}
+
+\subsubsection{Quotient}
+TODO: $\operatorname{im} A \simeq \Bbbk^m/\ker A$
diff --git a/buch/chapters/10-vektorenmatrizen/ringe.tex b/buch/chapters/10-vektorenmatrizen/ringe.tex
index f35c490..21b29c2 100644
--- a/buch/chapters/10-vektorenmatrizen/ringe.tex
+++ b/buch/chapters/10-vektorenmatrizen/ringe.tex
@@ -3,6 +3,364 @@
%
% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
%
-\section{Ringe und Moduln
-\label{buch:grundlagen:section:ringe}}
-\rhead{Ringe}
+\subsection{Ringe und Moduln
+\label{buch:grundlagen:subsection:ringe}}
+Die ganzen Zahlen haben ausser der Addition mit neutralem Element $0$
+auch noch eine Multiplikation mit dem neutralen Element $1$.
+Die Multiplikation ist aber nicht immer invertierbar und zwar
+nicht nur für $0$.
+Eine ähnliche Situation haben wir bei $M_n(\Bbbk)$ angetroffen.
+$M_n(\Bbbk)$ ist eine zunächst eine Gruppe bezüglich der Addition,
+hat aber auch noch eine Multiplikation, die nicht immer umkehrbar ist.
+Diese Art von Struktur nennt man einen Ring.
+
+\subsubsection{Definition eines Rings}
+
+\begin{definition}
+\index{Ring}%
+Eine Menge $R$ mit einer additiven Operation $+$ mit neutralem Element
+$0$ und einer multiplikativ geschriebenen Operation $\cdot$ heisst ein
+{\em Ring}, wenn folgendes gilt.
+\begin{enumerate}
+\item
+$R$ ist eine Gruppe bezüglich der Addition.
+\item
+$R\setminus\{0\}$ ist eine Halbgruppe.
+\item
+Es gelten die {\em Distributivgesetze}
+\[
+a(b+c)=ab+ac
+\qquad\text{und}\qquad
+(a+b)c=ac+bc
+\]
+für beliebige Elemente $a,b,c\in R$.
+\index{Distributivgesetz}%
+\end{enumerate}
+\end{definition}
+
+Die Distributivgesetze stellen sicher, dass man in $R$ beliebig
+ausmultiplizieren kann.
+Man kann also so rechnen kann, wie man sich das gewohnt ist.
+Es stellt auch sicher, dass die Multiplikation mit $0$ immer $0$
+ergibt, denn es ist
+\[
+r0 = r(a-a) = ra-ra=0.
+\]
+
+Man beachte, dass weder verlangt wurde, dass die Multiplikation
+ein neutrales Element hat oder kommutativ ist.
+Der Ring $\mathbb{Z}$ erfüllt beide Bedingungen.
+Die Beispiele weiter unten werden zeigen, dass es auch Ringe gibt,
+in denen die Multiplikation nicht kommutativ ist, die Multiplikation
+kein neutrales Element hat oder beides.
+
+\begin{definition}
+\index{Ring mit Eins}%
+Ein Ring $R$ heisst ein Ring mit Eins, wenn die Multiplikation ein
+neutrales Element hat.
+\end{definition}
+
+\begin{definition}
+\index{Ring!kommutativ}%
+\index{kommutativer Ring}%
+Ein Ring $R$ heisst kommutativ, wenn die Multiplikation kommutativ
+ist.
+\end{definition}
+
+\subsubsection{Beispiele von Ringen}
+
+\begin{beispiel}
+Alle Zahlenkörper aus Kapitel~\ref{buch:chapter:zahlen} sind kommutative
+Ringe mit Eins.
+\end{beispiel}
+
+\begin{beispiel}
+Die Menge $c(\mathbb{Z})$ der Folgen $(a_n)_{n\in\mathbb{N}}$ mit
+Folgengliedern in $\mathbb{Z}$ wird eine Ring, wenn man die Addition
+und Multiplikation elementweise definiert, also
+\begin{align*}
+&\text{Addition:}
+&
+a+b&\text{\;ist die Folge mit Folgengliedern}&
+(a+b)_n &= a_nb_n \quad\text{für alle $n\in\mathbb{N}$}
+\\
+&\text{Multiplikation:}
+&
+a\cdot b&\text{\;ist die Folge mit Folgengliedern}&
+(a\cdot b)_n &= a_nb_n \quad\text{für alle $n\in\mathbb{N}$}
+\end{align*}
+für $a,b\in c(\mathbb{Z})$.
+Die Algebra ist kommutativ und hat die konstante Folge
+$u_n = 1\;\forall n$ als Eins.
+
+Wir betrachten jetzt ein Unterring $c_0(\mathbb{Z})\subset c(\mathbb{Z})$
+bestehend aus den Folgen, die nur für endlich viele Folgenglieder von
+$0$ verschieden sind.
+Für eine Folge $a\in c_0(\mathbb{Z})$ gibt es eine Zahl $N$ derart, dass
+$a_n=0$ für $n\ge N$.
+Die konstante Folge $u_n=1$, die in $c(\mathbb{Z})$ erfüllt diese
+Bedingung nicht, die Eins des Ringes $c(\mathbb{Z})$ ist also nicht in
+$c_0(\mathbb{Z})$.
+$c_0(\mathbb{Z})$ ist immer noch ein Ring, aber er hat kein Eins.
+\end{beispiel}
+
+\begin{beispiel}
+\begin{figure}
+\centering
+\includegraphics{chapters/10-vektorenmatrizen/images/gausszahlen.pdf}
+\caption{Der Ring der ganzen Gausschen Zahlen besteht aus den ganzahligen
+Gitterpunkten in der Gausschen Zahlenebene
+\label{buch:vektorenmatrizen:fig:ganzgauss}}
+\end{figure}
+Die Menge
+\[
+\mathbb{Z} + i\mathbb{Z}
+=
+\{a+bi\;|\; a,b\in\mathbb{Z}\}
+=
+\mathbb{Z}[i]
+\subset
+\mathbb{C}
+\]
+ist eine Teilmenge von $\mathbb{C}$ und erbt natürlich die
+arithmetischen Operationen.
+Die Summe zweier solcher Zahlen $a+bi\in\mathbb{Z}[i]$ und
+$c+di\in\mathbb{Z}[i]$ ist
+$(a+bi)+(c+di)=(a+c) + (b+d)i\in \mathbb{Z}[i]$, weil $a+c\in\mathbb{Z}$
+und $b+d\in\mathbb{Z}$ ganze Zahlen sind.
+Ebenso ist das Produkt dieser Zahlen
+\(
+(a+bi)(c+di)
+=
+(ac-bd) + (ad+bc)i
+\in \mathbb{Z}[i]
+\)
+weil Realteil $ac-bd\in\mathbb{Z}$ und der Imaginärteil $ad+bc\in\mathbb{Z}$
+ganze Zahlen sind.
+Die Menge $\mathbb{Z}[i]$ ist also ein kommutative Ring mit Eins, er
+heisst der Ring der ganzen {\em Gaussschen Zahlen}.
+\index{Gausssche Zahlen}%
+\end{beispiel}
+
+\begin{beispiel}
+Die Menge der Matrizen $M_n(\mathbb{Z})$ ist ein Ring mit Eins.
+Für $n>1$ ist er nicht kommutativ.
+Der Ring $M_2(\mathbb{Z})$ enthält den Teilring
+\[
+G
+=
+\biggl\{
+\begin{pmatrix}
+a&-b\\b&a
+\end{pmatrix}
+\;\bigg|\;
+a,b\in\mathbb{Z}
+\biggr\}
+=
+\mathbb{Z}+ \mathbb{Z}J
+\subset
+M_2(\mathbb{Z}).
+\]
+Da die Matrix $J$ die Relation $J^2=-E$ erfüllt, ist der Ring $G$
+nichts anderes als der Ring der ganzen Gaussschen Zahlen.
+Der Ring $\mathbb{Z}[i]$ ist also ein Unterring des Matrizenrings
+$M_2(\mathbb{Z})$.
+\end{beispiel}
+
+\subsubsection{Einheiten}
+In einem Ring mit Eins sind normalerweise nicht alle von $0$ verschiedenen
+Elemente intertierbar.
+Die Menge der von $0$ verschiedenen Elemente in $R$ wir mit $R^*$
+bezeichnet.
+\index{$R^*$}%
+Die Menge der invertierbaren Elemente verdient einen besonderen Namen.
+
+\begin{definition}
+Ist $R$ ein Ring mit Eins, dann heissen die Elemente von
+\[
+U(R) = \{ r\in R \;|\; \text{$r$ in $R$ invertierbar}\}.
+\]
+die {\em Einheiten} von $R$.
+\index{Einheit}%
+\end{definition}
+
+\begin{satz}
+$U(R)$ ist eine Gruppe, die sogenannte {\em Einheitengruppe}.
+\index{Einheitengruppe}%
+\end{satz}
+
+\begin{beispiel}
+Die Menge $M_2(\mathbb{Z})$ ist ein Ring mit Eins, die Einheitengruppe
+besteht aus den invertierbaren $2\times 2$-Matrizen.
+Aus der Formel für
+\[
+\begin{pmatrix}
+a&b\\
+c&d
+\end{pmatrix}^{-1}
+=
+\frac{1}{ad-bc}\begin{pmatrix}
+d&-b\\
+-c&a
+\end{pmatrix}
+\]
+zeigt, dass $U(M_2(\mathbb{Z})) = \operatorname{SL}_2(\mathbb{Z})$.
+\end{beispiel}
+
+\begin{beispiel}
+Die Einheitengruppe von $M_n(\Bbbk)$ ist die allgemeine lineare Gruppe
+$U(M_n(\Bbbk))=\operatorname{GL}_n(\Bbbk)$.
+\end{beispiel}
+
+\subsubsection{Nullteiler}
+Ein möglicher Grund, warum ein Element $r\in R$ nicht invertierbar
+ist, kann sein, dass es ein Element $s\in R$ gibt mit $rs=0$.
+Wäre nämlich $t$ ein inverses Element, dann wäre $0=t0 = t(rs) = (tr)s=s$.
+
+\begin{definition}
+Ein Element $r\in R^*$ heisst ein {\em Nullteiler} in $R$,
+wenn es ein $s\in R^*$ gibt mit $rs=0$
+Ein Ring ohne Nullteiler heisst {\em nullteilerfrei}.
+\end{definition}
+
+In $\mathbb{R}$ ist man sich gewohnt zu argumentieren, dass wenn ein
+Produkt $ab=0$ ist, dann muss einer der Faktoren $a=0$ oder $b=0$ sein.
+Dieses Argument funktioniert nur, weil $\mathbb{R}$ ein nullteilerfreier
+Ring ist.
+In $M_2(\mathbb{R})$ ist dies nicht mehr möglich.
+Die beiden Matrizen
+\[
+A=\begin{pmatrix}
+1&0\\0&0
+\end{pmatrix}
+,\qquad
+B=\begin{pmatrix}
+0&0\\0&1
+\end{pmatrix}
+\qquad\Rightarrow\qquad
+AB=0
+\]
+sind Nullteiler in $M_2(\mathbb{Z})$.
+
+\subsubsection{Homomorphismus}
+Eine Abbildung zwischen Ringen muss die algebraische Struktur respektieren,
+wenn sich damit Eigenschaften vom einen Ring auf den anderen transportieren
+lassen sollen.
+
+\begin{definition}
+Eine Abbildung $\varphi:R \to S$ zwischen Ringen heisst ein
+{\em Homomorphismus}
+\index{Homomorphismus}%
+oder {\em Ringhomomorphismus},
+\index{Ringhomomorphismus}%
+wenn $\varphi$ ein Gruppenhomomorphismus der additiven Gruppen der Ringe
+ist und ausserdem gilt
+\[
+\varphi(r_1r_2) = \varphi(r_1)\varphi(r_2).
+\]
+Der Kern ist die Menge
+\[
+\ker\varphi = \{ r\in R\;|\; \varphi(r)=0\}
+\]
+\index{Kern}%
+\end{definition}
+
+Wieder hat der Kern zusätzliche Eigenschaften.
+Er ist natürlich bezüglich der additiven Struktur des Ringes ein
+Normalteiler, aber weil die additive Gruppe ja abelsch ist, ist das
+keine wirkliche Einschränkung.
+Für ein beliebiges Element $r\in R$ und $k\in \ker\varphi$ gilt
+\begin{align*}
+\varphi(kr) &= \varphi(k)\varphi(r) = 0\cdot\varphi(r) = 0
+\\
+\varphi(rk) &= \varphi(r)\varphi(k) = \varphi(r)\cdot 0 = 0.
+\end{align*}
+Für den Kern gilt also, dass $\ker\varphi\cdot R\subset \ker\varphi$
+und $R\cdot\ker\varphi\subset\ker\varphi$.
+
+\subsubsection{Ideale}
+\begin{figure}
+\centering
+\includegraphics{chapters/10-vektorenmatrizen/images/ideale.pdf}
+\caption{Ideale im Ring der ganzen Gaussschen Zahlen $\mathbb{Z}[i]$.
+Für jedes Element $r\in \mathbb{Z}[i]$ ist die Menge $r\mathbb{Z}[i]$
+ein ein Ideal in $\mathbb{Z}[i]$.
+Links das Ideal $(1+2i)\mathbb{Z}[i]$ (blau), rechts das Ideal
+$(1+i)\mathbb{Z}[i]$ (rot).
+\label{buch:vektorenmatrizen:fig:ideale}}
+\end{figure}
+Bei der Betrachtung der additiven Gruppe des Ringes $\mathbb{Z}$ der
+ganzen Zahlen wurde bereits die Untergruppe $n\mathbb{Z}$ diskutiert
+und die Faktorgruppe $\mathbb{Z}/n\mathbb{Z}$ der Reste konstruiert.
+Reste können aber auch multipliziert werden, es muss also auch möglich
+sein, der Faktorgruppe eine multiplikative Struktur zu verpassen.
+
+Sei jetzt also $I\subset R$ ein Unterring.
+Die Faktorgruppe $R/I$ hat bereits die additive Struktur, es muss
+aber auch die Multiplikation definiert werden.
+Die Elemente $r_1+I$ und $r_2+I$ der Faktorgruppe $R/I$ haben das
+Produkt
+\[
+(r_1+I)(r_2+I)
+=
+r_1r_2 + r_1I + Ir_2 + II.
+\]
+Dies stimmt nur dann mit $r_1r_2+I$ überein, wenn $r_1I\subset I$ und
+$r_2I\subset I$ ist.
+
+\begin{definition}
+Ein Unterring $I\subset R$ heisst ein {\em Ideal}, wenn für jedes $r\in R$ gilt
+$rI\subset I$ und $Ir\subset I$ gilt.
+\index{Ideal}%
+Die Faktorgruppe $R/I$ erhält eine natürliche Ringstruktur, $R/I$
+heisst der {\em Quotientenring}.
+\index{Quotientenring}%
+\end{definition}
+
+\begin{beispiel}
+Die Menge $n\mathbb{Z}\subset\mathbb{Z}$ besteht aus den durch $n$ teilbaren
+Zahlen.
+Multipliziert man durch $n$ teilbare Zahlen mit einer ganzen Zahl,
+bleiben sie durch $n$ teilbar, $n\mathbb{Z}$ ist also ein Ideal in
+$\mathbb{Z}$.
+Der Quotientenring ist der Ring der Reste bei Teilung durch $n$,
+er wird in
+Kapitel~\ref{buch:chapter:endliche-koerper}
+im Detail untersucht.
+\end{beispiel}
+
+Ein Ideal $I\subset R$ drückt als die Idee ``gemeinsamer Faktoren''
+auf algebraische Weise aus und der Quotientenring $R/I$ beschreibt
+das, was übrig bleibt, wenn man diese Faktoren ignoriert.
+
+\begin{beispiel}
+In Abbildung~\ref{buch:vektorenmatrizen:fig:ideale} sind zwei
+Ideale im Ring der ganzen Gaussschen Zahlen dargestellt.
+Die blauen Punkte sind $I_1=(1+2i)\mathbb{Z}$ und die roten Punkte sind
+$I_2=(1+i)\mathbb{Z}$.
+Die Faktorgruppen $R/I_1$ und $R/I_2$ fassen jeweils Punkte, die sich
+um ein Element von $I_1$ bzw.~$I_2$ unterscheiden, zusammen.
+
+Im Falle von $I_2$ gibt es nur zwei Arten von Punkten, nämlich
+die roten und die schwarzen, der Quotientenring hat
+daher nur zwei Elemente, $R/I_2 = \{0+I_2,1+I_2\}$.
+Wegen $1+1=0$ in diesem Quotientenring, ist $R/I_2=\mathbb{Z}/2\mathbb{Z}$.
+
+Im Falle von $I_1$ gibt es fünf verschiedene Punkte, als Menge ist
+\[
+R/I_1
+=
+\{
+0+I_1,
+1+I_1,
+2+I_1,
+3+I_1,
+4+I_1
+\}.
+\]
+Die Rechenregeln sind also dieselben wie im Ring $\mathbb{Z}/5\mathbb{Z}$.
+In gewisser Weise verhält sich die Zahl $1+2i$ in den ganzen
+Gaussschen Zahlen bezüglich Teilbarkeit ähnlich wie die Zahl $5$ in den
+ganzen Zahlen.
+\end{beispiel}
+
diff --git a/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex
new file mode 100644
index 0000000..d951221
--- /dev/null
+++ b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex
@@ -0,0 +1,813 @@
+%
+% skalarprodukt.tex
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschulen
+%
+\section{Skalarprodukt
+\label{buch:section:skalarprodukt}}
+\rhead{Skalarprodukt}
+In der bisher dargestellten Form ist die lineare Algebra nicht
+in der Lage, unsere vom Abstandsbegriff dominierte Geometrie adäquat
+darzustellen.
+Als zusätzliches Hilfsmittel wird eine Methode benötigt, Längen
+und Winkel auszudrücken.
+Das Skalarprodukt passt in den algebraischen Rahmen der
+linearen Algebra, bringt aber auch einen Abstandsbegriff hervor,
+der genau der geometrischen Intuition entspricht.
+
+\subsection{Bilinearformen und Skalarprodukte
+\label{buch:subsection:bilinearformen}}
+Damit man mit einem Skalarprodukt rechnen kann wie mit jedem anderen
+Produkt, müssen man auf beiden Seiten des Zeichesn ausmultiplizieren können:
+\begin{align*}
+(\lambda x_1 + \mu x_2)\cdot y &= \lambda x_1\cdot y + \mu x_2\cdot y\\
+x\cdot (\lambda y_1 + \mu y_2) &= \lambda x\cdot y_1 + \mu x\cdot y_2.
+\end{align*}
+Man kann dies interpretieren als Linearität der Abbildungen
+$x\mapsto x\cdot y$ und $y\mapsto x\cdot y$.
+Dies wird Bilinearität genannt und wie folgt definiert.
+
+% XXX Bilinearität
+\begin{definition}
+Seien $U,V,W$ $\Bbbk$-Vektorräume.
+Eine Abbildung $f\colon U\times V\to W$ heisst {\em bilinear},
+\index{bilinear}%
+wenn die partiellen Abbildungen $U\to W:x\mapsto f(x,y_0)$ und
+$V\to W:y\mapsto f(x_0,y)$
+linear sind für alle $x_0\in U$ und $y_0\in V$, d.~h.
+\begin{align*}
+f(\lambda x_1 + \mu x_2,y) &= \lambda f(x_1,y) + \mu f(x_2,y)
+\\
+f(x,\lambda y_1 + \mu y_2) &= \lambda f(x,y_1) + \mu f(x,y_2)
+\end{align*}
+Eine bilineare Funktion mit Werten in $\Bbbk$ heisst auch {\em Bilinearform}.
+\index{Bilinearform}%
+\end{definition}
+
+\subsubsection{Symmetrische bilineare Funktionen}
+Das Skalarprodukt hängt nicht von der Reihenfolge der Faktoren ab.
+In Frage dafür kommen daher nur Bilnearformen $f\colon V\times V\to\Bbbk$,
+die zusätzlich $f(x,y)=f(y,x)$ erfüllen.
+Solche Bilinearformen heissen symmetrisch.
+Für eine symmetrische Bilinearform gilt die binomische Formel
+\begin{align*}
+f(x+y,x+y)
+&=
+f(x,x+y)+f(y,x+y)
+=
+f(x,x)+f(x,y)+f(y,x)+f(y,y)
+\\
+&=
+f(x,x)+2f(x,y)+f(y,y)
+\end{align*}
+wegen $f(x,y)=f(y,x)$.
+
+\subsubsection{Positiv definite Bilinearformen und Skalarprodukt}
+Bilinearität alleine genügt nicht, um einen Vektorraum mit einem
+nützlichen Abstandsbegriff auszustatten.
+Dazu müssen die berechneten Abstände vergleichbar sein, es muss also
+eine Ordnungsrelation definiert sein, wie wir sie nur in $\mathbb{R}$
+kennen.
+Wir sind daher gezwungen uns auf $\mathbb{R}$- oder
+$\mathbb{Q}$-Vektorräume zu beschränken.
+
+Man lernt in der Vektorgeometrie, dass sich mit einer Bilinearform
+$f\colon V\times V\to\mathbb{R}$
+die Länge eines Vektors $x$ definieren lässt, indem man $\|x\|^2 = f(x,x)$
+setzt.
+Ausserdem muss $f(x,x)\ge 0$ sein für alle $x$, was die Bilinearität
+allein nicht garantieren kann.
+Verschiedene Punkte in einem Vektorraum sollen in dem aus der Bilinearform
+abgeleiteten Abstandsbegriff immer unterscheidbar sein.
+Dazu muss jeder von $0$ verschiedene Vektor positive Länge haben.
+
+% XXX Positiv definite Form
+\begin{definition}
+Eine Bilinearform $f\colon V\times V\to\mathbb{R}$
+heisst {\em positiv definit}, wenn
+\index{positiv definit}%
+\[
+f(x,x) > 0\qquad\forall x\in V\setminus\{0\}.
+\]
+Das zugehörige {\em Skalarprodukt} wird $f(x,y)=\langle x,y\rangle$
+geschrieben.
+\index{Skalarprodukt}%
+Die {\em $l^2$-Norm} $\|x\|_2$ eines Vektors ist definiert durch
+$\|x\|_2^2 = \langle x,x\rangle$.
+\end{definition}
+
+\subsubsection{Dreiecksungleichung}
+% XXX Dreiecksungleichung
+Damit man sinnvoll über Abstände sprechen kann, muss die Norm
+$\|\;\cdot\;\|_2$ der geometrischen Intuition folgen, die durch
+die Dreiecksungleichung ausgedrückt wird.
+In diesem Abschnitt soll gezeigt werden, dass die $l^2$-Norm
+diese immer erfüllt.
+Dazu sei $V$ ein $\mathbb{R}$-Vektorraum mit Skalarprodukt
+$\langle\;,\;\rangle$.
+
+\begin{satz}[Cauchy-Schwarz-Ungleichung]
+Für $x,y\in V$ gilt
+\[
+|\langle x,y\rangle |
+\le
+\| x\|_2\cdot \|y\|_2
+\]
+mit Gleichheit genau dann, wenn $x$ und $y$ linear abhängig sind.
+\end{satz}
+
+\begin{proof}[Beweis]
+Wir die Norm von $z=x-ty$:
+\begin{align}
+\|x-ty\|_2^2
+&=
+\|x\|_2^2 -2t\langle x,y\rangle +t^2\|y\|_2^2 \ge 0.
+\notag
+\end{align}
+Sie nimmt den kleinsten Wert genau dann an, wenn es ein $t$ gibt derart,
+dass $x=ty$.
+Die rechte Seite ist ein quadratischer Ausdruck in $t$,
+er hat sein Minimum bei
+\begin{align*}
+t&=-\frac{-2\langle x,y\rangle}{2\|y\|_2^2}
+&&\Rightarrow&
+\biggl\|
+x - \frac{\langle x,y\rangle}{\|y\|_2^2}y
+\biggr\|_2^2
+&=
+\|x\|_2^2
+-
+2\frac{(\langle x,y\rangle)^2}{\|y\|_2^2}
++
+\frac{(\langle x,y\rangle)^2}{\|y\|_2^4} \|y\|_2^2
+\\
+&&&&
+&=
+\|x\|_2^2
+-
+\frac{(\langle x,y\rangle)^2}{\|y\|_2^2}
+=
+\frac{
+\|x\|_2^2\cdot\|y\|_2^2 - (\langle x,y\rangle)^2
+}{
+\|y\|_2^2
+}
+\ge 0
+\intertext{Es folgt}
+&&&\Rightarrow&
+\|x\|_2^2\cdot\|y\|_2^2 - (\langle x,y\rangle)^2 &\ge 0
+\\
+&&&\Rightarrow&
+\|x\|_2\cdot\|y\|_2 &\ge |\langle x,y\rangle |
+\end{align*}
+mit Gleichheit genau dann, wenn es ein $t$ gibt mit $x=ty$.
+\end{proof}
+
+\begin{satz}[Dreiecksungleichung]
+Für $x,y\in V$ ist
+\[
+\| x + y \|_2 \le \|x\|_2 + \|y\|_2
+\]
+mit Gleichheit genau dann, wenn $x=ty$ ist für ein $t\ge 0$.
+\end{satz}
+
+\begin{proof}[Beweis]
+\begin{align*}
+\|x+y\|_2^2
+&=
+\langle x+y,x+y\rangle
+=
+\langle x,x\rangle
++
+2\langle x,y\rangle
++
+\langle y,y\rangle
+\\
+&=
+\|x\|_2^2
++
+2\langle x,y\rangle
++
+\|y\|_2^2
+=
+\|x\|_2^2 + 2\langle x,y\rangle + \|y\|_2^2
+\le
+\|x\|_2^2 + 2\|x\|_2\cdot\|y\|_2 + \|y\|_2^2
+\\
+&=
+(\|x\|_2 + \|y\|_2)^2
+\\
+\|x\|_2 + \|y\|_2
+&\le \|x\|_2 + \|y\|_2,
+\end{align*}
+Gleichheit tritt genau dann ein, wenn
+$\langle x,y\rangle=\|x\|_2\cdot \|y\|_2$.
+Dies tritt genau dann ein, wenn die beiden Vektoren linear abhängig sind.
+\end{proof}
+
+\subsubsection{Polarformel}
+% XXX Polarformel
+Auf den ersten Blick scheint die Norm $\|x\|_2$ weniger Information
+zu beinhalten, als die symmetrische Bilinearform, aus der sie
+hervorgegangen ist.
+Dem ist aber nicht so, denn die Bilinearform lässt sich aus der
+Norm zurückgewinnen.
+Dies ist der Inhalt der sogenannte Polarformel.
+
+\begin{satz}[Polarformel]
+Ist $\|\cdot\|_2$ eine Norm, die aus einer symmetrischen Bilinearform
+$\langle\;,\;\rangle$ hervorgegangen ist, dann kann die Bilinearform
+mit Hilfe der Formel
+\begin{equation}
+\langle x,y\rangle
+=
+\frac12(
+\|x+y\|_2^2
+-
+\|x\|_2^2
+-
+\|y\|_2^2
+)
+\label{buch:grundlagen:eqn:polarformel}
+\end{equation}
+für $x,y\in V$ wiedergewonnen werden.
+\end{satz}
+
+\begin{proof}[Beweis]
+Die binomischen Formel
+\begin{align*}
+\|x+y\|_2^2
+&=
+\|x\|_2^2 + 2\langle x,y\rangle + \|y\|_2^2
+\intertext{kann nach $\langle x,y\rangle$ aufgelöst werden, was}
+\langle x,y\rangle &= \frac12 (
+\|x+y\|_2^2 - \|x\|_2^2 - \|y\|_2^2
+)
+\end{align*}
+ergibt.
+Damit ist die
+Polarformel~\eqref{buch:grundlagen:eqn:polarformel}
+bewiesen.
+\end{proof}
+
+\subsubsection{Komplexe Vektorräume und Sesquilinearformen}
+% XXX Sesquilinearform
+Eine Bilinearform auf einem komplexen Vektorraum führt nicht
+auf eine Grösse, die sich als Norm eignet.
+Selbst wenn $\langle x,x\rangle >0$ ist,
+\[
+\langle ix,iy\rangle = i^2 \langle x,y\rangle
+=
+-\langle x,y\rangle < 0.
+\]
+Dies kann verhindert werden, wenn verlangt wird, dass der Faktor
+$i$ im ersten Faktor der Bilinearform als $-i$ aus der Bilinearform
+herausgenommen werden muss.
+
+\begin{definition}
+Seien $U,V,W$ komplexe Vektorräume.
+Eine Abbildung $f\colon U\times V\to W$ heisst
+{\em sesquilinear}\footnote{Das lateinische Wort {\em sesqui} bedeutet
+eineinhalb, eine Sesquilinearform ist also eine Form, die in einem
+Faktor (dem zweiten) linear ist, und im anderen nur halb linear.}
+\index{sesquilinear}
+wenn gilt
+\begin{align*}
+f(\lambda x_1+\mu x_2,y) &= \overline{\lambda}f(x_1,y) + \overline{\mu}f(x_2,y)
+\\
+f(x,\lambda y_1+\mu y_2) &= \lambda f(x,y_1) + \mu f(x,y_2)
+\end{align*}
+\end{definition}
+
+Für die Norm $\|x\|_2^2=\langle x,x\rangle$ bedeutet dies jetzt
+\[
+\|\lambda x\|_2^2
+=
+\langle \lambda x,\lambda x\rangle
+=
+\overline{\lambda}\lambda \langle x,x\rangle
+=
+|\lambda|^2 \|x\|_2^2
+\qquad\Rightarrow\qquad
+\|\lambda x\|_2 = |\lambda|\, \|x\|_2.
+\]
+
+\subsection{Orthognormalbasis
+\label{buch:subsection:orthonormalbasis}}
+\index{orthonormierte Basis}%
+
+\subsubsection{Gram-Matrix}
+Sei $V$ ein Vektorraum mit einem Skalarprodukt und $\{b_1,\dots,b_n\}$ eine
+Basis von $V$.
+Wie kann man das Skalarprodukt aus den Koordinaten $\xi_i$ und $\eta_i$
+der Vektoren
+\[
+x = \sum_{i=1}^n \xi_i b_i,
+\quad\text{und}\quad
+y = \sum_{i=1}^n \eta_i b_i
+\]
+berechnen?
+Setzt man $x$ und $y$ in das Skalarprodukt ein, erhält man
+\begin{align*}
+\langle x,y\rangle
+&=
+\biggl\langle
+\sum_{i=1}^n \xi_i b_i,
+\sum_{j=1}^n \eta_j b_j
+\biggr\rangle
+=
+\sum_{i,j=1}^n \xi_i\eta_j \langle b_i,b_j\rangle.
+\end{align*}
+Die Komponente $g_{ij}=\langle b_i,b_j\rangle$ bilden die sogenannte
+Gram-Matrix $G$.
+Mit ihr kann das Skalarprodukt auch in Vektorform geschrieben werden
+als $\langle x,y\rangle = \xi^t G\eta$.
+
+\subsubsection{Orthonormalbasis}
+Eine Basis $\{a_1,\dots,a_n\}$ aus orthogonalen Einheitsvektoren,
+also mit
+$
+\langle a_i,a_j\rangle=\delta_{ij}
+$
+heisst {\em Orthonormalbasis}.
+In einer Orthonormalbasis ist die Bestimmung der Koordinaten eines
+beliebigen Vektors besonders einfach, ist nämlich
+\begin{equation}
+v=\sum_{i=1}^n \langle v,a_i\rangle a_i.
+\label{buch:grundlagen:eqn:koordinaten-in-orthonormalbasis}
+\end{equation}
+Die Gram-Matrix einer Orthonormalbasis ist die Einheitsmatrix.
+
+\subsubsection{Gram-Schmidt-Orthonormalisierung}
+Mit Hilfe des Gram-Schmidtschen Orthonormalisierungsprozesses kann aus
+einer beliebige Basis $\{a_1,a_2,\dots,a_n\}\subset V$ eines Vektorraums
+mit einem SKalarprodukt eine orthonormierte Basis
+$\{b_1,b_2,\dots,b_n\}$ gefunden werden derart, dass für alle $k$
+$\langle b_1,\dots,b_k\rangle = \langle a_1,\dots ,a_k\rangle$.
+\index{Gram-Schmidt-Orthonormalisierung}%
+Der Zusammenhang zwischen den Basisvektoren $b_i$ und $a_i$ ist
+gegeben durch
+\begin{align*}
+b_1&=\frac{a_1}{\|a_1\|_2}
+\\
+b_2&=\frac{a_2-b_1\langle b_1,a_2\rangle}{\|a_2-b_1\langle b_1,a_2\rangle\|_2}
+\\
+b_3&=\frac{a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle}{\|a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle\|_2}
+\\
+&\phantom{n}\vdots\\
+b_n
+&=
+\frac{
+a_n-b_1\langle b_1,a_n\rangle-b_2\langle b_2,a_n\rangle
+-\dots-b_{n-1}\langle b_{n-1},a_n\rangle
+}{
+\|
+a_n-b_1\langle b_1,a_n\rangle-b_2\langle b_2,a_n\rangle
+-\dots-b_{n-1}\langle b_{n-1},a_n\rangle
+\|_2
+}.
+\end{align*}
+Die Gram-Matrix der Matrix $\{b_1,\dots,b_n\}$ ist die Einheitsmatrix.
+
+\subsubsection{Orthogonalisierung}
+Der Normalisierungsschritt im Gram-Schmidt-Orthonormalisierungsprozess
+ist nur möglich, wenn Quadratwurzeln unbeschränkt gezogen werden können.
+Das ist in $\mathbb{R}$ möglich, nicht jedoch in $\mathbb{Q}$.
+Es ist aber mit einer kleinen Anpassung auch über $\mathbb{Q}$
+immer noch möglich, aus einer Basis $\{a_1,\dots,a_n\}$ eine orthogonale
+Basis zu konstruieren.
+Man verwendet dazu die Formeln
+\begin{align*}
+b_1&=a_1
+\\
+b_2&=a_2-b_1\langle b_1,a_2\rangle
+\\
+b_3&=a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle
+\\
+&\phantom{n}\vdots\\
+b_n
+&=
+a_n-b_1\langle b_1,a_n\rangle-b_2\langle b_2,a_n\rangle
+-\dots-b_{n-1}\langle b_{n-1},a_n\rangle.
+\end{align*}
+Die Basisvektoren $b_i$ sind orthogonal, aber $\|b_i\|_2$ kann auch
+von $1$ abweichen.
+Damit ist es zwar nicht mehr so einfach
+wie in \eqref{buch:grundlagen:eqn:koordinaten-in-orthonormalbasis},
+einen Vektor in der Basis zu zerlegen.
+Ein Vektor $v$ hat nämlich in der Basis $\{b_1,\dots,b_n\}$ die Zerlegung
+\begin{equation}
+v
+=
+\sum_{i=1}^n
+\frac{\langle b_i,v\rangle}{\|b_i\|_2^2} b_i,
+\label{buch:grundlagen:eqn:orthogonal-basiszerlegung}
+\end{equation}
+Die Koordinaten bezüglich dieser Basis sind also
+$\langle b_i,v\rangle/\|b_i\|_2^2$.
+
+Die Gram-Matrix einer Orthogonalen Basis ist immer noch diagonal,
+auf der Diagonalen stehen die Normen der Basisvektoren.
+Die Nenner in der Zerlegung
+\eqref{buch:grundlagen:eqn:orthogonal-basiszerlegung}
+sind die Einträge der inverse Matrix der Gram-Matrix.
+
+\subsubsection{Orthonormalbasen in komplexen Vektorräumen}
+Die Gram-Matrix einer Basis $\{b_1,\dots,b_n\}$ in einem komplexen
+Vektorraum hat die Eigenschaft
+\[
+g_{ij}
+=
+\langle b_i,b_j\rangle
+=
+\overline{\langle b_j,b_i\rangle},
+=
+\overline{g}_{ji}
+\quad 1\le i,j\le n.
+\]
+Sie ist nicht mehr symmetrisch, aber selbstadjungiert, gemäss
+der folgenden Definition.
+
+\begin{definition}
+\label{buch:grundlagen:definition:selstadjungiert}
+Sei $A$ eine komplexe Matrix mit Einträgen $a_{ij}$, dann ist
+$\overline{A}$ die Matrix mit komplex konjugierten Elementen
+$\overline{a}_{ij}$.
+Die {\em adjungierte} Matrix ist $A^*=\overline{A}^t$.
+Eine Matrix heisst selbstadjungiert, wenn $A^*=A$.
+\end{definition}
+
+\subsection{Symmetrische und selbstadjungierte Abbilungen
+\label{buch:subsection:symmetrisch-und-selbstadjungiert}}
+In Definition~\ref{buch:grundlagen:definition:selstadjungiert}
+wurde der Begriff der selbstadjungierten Matrix basierend
+eingeführt.
+Als Eigenschaft einer Matrix ist diese Definition notwendigerweise
+abhängig von der Wahl der Basis.
+Es ist nicht unbedingt klar, dass derart definierte Eigenschaften
+als von der Basis unabhängige Eigenschaften betrachtet werden können.
+Ziel dieses Abschnitts ist, Eigenschaften wie Symmetrie oder
+Selbstadjungiertheit auf basisunabhängige Eigenschaften von
+linearen Abbildungen in einem Vektorraum $V$ mit Skalarprodukt
+$\langle\;,\;\rangle$ zu verstehen.
+
+\subsubsection{Symmetrische Abbildungen}
+Sei $f\colon V\to V$ eine lineare Abbildung.
+In einer Basis $\{b_1,\dots,b_n\}\subset V$ wird $f$ durch eine
+Matrix $A$ beschrieben.
+Ist die Basis orthonormiert, dann kann man die Matrixelemente
+mit $a_{ij}=\langle b_i,Ab_j\rangle$ berechnen.
+Die Matrix ist symmetrisch, wenn
+\[
+\langle b_i,Ab_j\rangle
+=
+a_{ij}
+=
+a_{ji}
+=
+\langle b_j,Ab_i \rangle
+=
+\langle Ab_i,b_j \rangle
+\]
+ist.
+Daraus leitet sich jetzt die basisunabhängige Definition einer
+symmetrischen Abbildung ab.
+
+\begin{definition}
+Eine lineare Abbildung $f\colon V\to V$ heisst {\em symmetrisch}, wenn
+$\langle x,Ay\rangle=\langle Ax,y\rangle$ gilt für beliebige
+Vektoren $x,y\in V$.
+\end{definition}
+
+Für $V=\mathbb{R}^n$ und das Skalarprodukt $\langle x,y\rangle=x^ty$
+erfüllt eine symmetrische Abbildung mit der Matrix $A$ die Gleichung
+\[
+\left.
+\begin{aligned}
+\langle x,Ay\rangle
+&=
+x^tAy
+\\
+\langle Ax,y\rangle
+&=
+(Ax)^ty=x^tA^ty
+\end{aligned}
+\right\}
+\quad\Rightarrow\quad
+x^tA^ty = x^tAy\quad\forall x,y\in\mathbb{R}^n,
+\]
+was gleichbedeutend ist mit $A^t=A$.
+Der Begriff der symmetrischen Abbildung ist also eine natürliche
+Verallgemeinerung des Begriffs der symmetrischen Matrix.
+
+\subsubsection{Selbstadjungierte Abbildungen}
+In einem komplexen Vektorraum ist das Skalarprodukt nicht mehr bilinear
+und symmetrisch, sondern sesquilinear und konjugiert symmetrisch.
+
+\begin{definition}
+Eine lineare Abbildung $f\colon V\to V$ heisst {\em selbstadjungiert},
+wenn $\langle x,fy\rangle=\langle fx,y\rangle$ für alle $x,y\in\mathbb{C}$.
+\end{definition}
+
+Im komplexen Vektorraum $\mathbb{C}^n$ ist das Standardskalarprodukt
+definiert durch $\langle x,y\rangle = \overline{x}^ty$.
+
+\subsubsection{Die Adjungierte}
+Die Werte der Skalarprodukte $\langle x, y\rangle$ für alle $x\in V$
+legen den Vektor $y$ fest.
+Gäbe es nämlich einen zweiten Vektor $y'$ mit den gleichen Skalarprodukten,
+also $\langle x,y\rangle = \langle x,y'\rangle$ für alle $x\in V$,
+dann gilt wegen der Linearität $\langle x,y-y'\rangle=0$.
+Wählt man $x=y-y'$, dann folgt
+$0=\langle y-y',y-y'\rangle=\|y-y'\|_2$, also muss $y=y'$ sein.
+
+\begin{definition}
+Sei $f\colon V\to V$ eine lineare Abbildung.
+Die lineare Abbildung $f^*\colon V\to V$ definiert durch
+\[
+\langle f^*x,y\rangle = \langle x,fy\rangle,\qquad x,y\in V
+\]
+heisst die {\em Adjungierte} von $f$.
+\end{definition}
+
+Eine selbstadjungierte Abbildung ist also eine lineare Abbildung,
+die mit ihrer Adjungierte übereinstimmt, als $f^* = f$.
+In einer orthonormierten Basis $\{b_1,\dots,b_n\}$ hat die Abbildung
+$f$ die Matrixelemente $a_{ij}=\langle b_i,fb_j\rangle$.
+Die adjungierte Abbildung hat dann die Matrixelemente
+\[
+\langle b_i,f^*b_j \rangle
+=
+\overline{\langle f^*b_j,b_i\rangle}
+=
+\overline{\langle b_j,fb_i\rangle}
+=
+\overline{a_{ji}},
+\]
+was mit der Definition von $A^*$ übereinstimmt.
+
+\subsection{Orthogonale und unitäre Matrizen
+\label{buch:subsection:orthogonale-und-unitaere-matrizen}}
+Von besonderer geometrischer Bedeutung sind lineare Abbildung,
+die die Norm nicht verändern.
+Aus der Polarformel~\eqref{buch:grundlagen:eqn:polarformel}
+folgt dann, dass auch das Skalarprodukt erhalten ist, aus dem
+Winkel berechnet werden können.
+Abbildungen, die die Norm erhalten, sind daher auch winkeltreu.
+
+\begin{definition}
+Eine lineare Abbildung $f\colon V\to V$ in einem reellen
+Vektorraum mit heisst {\em orthogonal}, wenn
+$\langle fx,fy\rangle = \langle x,y\rangle$ für alle
+$x,y\in V$ gilt.
+\end{definition}
+
+Die adjungierte einer orthogonalen Abbildung erfüllt
+$\langle x,y\rangle = \langle fx,fy\rangle = \langle f^*f x, y\rangle$
+für alle $x,y\in V$, also muss $f^*f$ die identische Abbildung sein,
+deren Matrix die Einheitsmatrix ist.
+Die Matrix $O$ einer orthogonalen Abbildung erfüllt daher $O^tO=I$.
+
+Für einen komplexen Vektorraum erwarten wir grundsätzlich dasselbe.
+Lineare Abbildungen, die die Norm erhalten, erhalten das komplexe
+Skalarprodukt.
+Auch in diesem Fall ist $f^*f$ die identische Abbildung, die zugehörigen
+Matrixen $U$ erfüllen daher $U^*U=I$.
+
+\begin{definition}
+Eine lineare Abbildung $f\colon V\to V$ eines komplexen Vektorraumes
+$V$ mit Skalarprodukt heisst unitär,
+wenn $\langle x,y\rangle = \langle fx,fy\rangle$ für alle Vektoren $x,y\in V$.
+Eine Matrix heisst unitär, wenn $U^*U=I$.
+\end{definition}
+
+Die Matrix einer unitären Abbildung in einer orthonormierten Basis ist unitär.
+
+% XXX Skalarprodukt und Lineare Abbildungen
+% XXX Symmetrische Matrizen
+% XXX Selbstadjungierte Matrizen
+
+\subsection{Orthogonale Unterräume
+\label{buch:subsection:orthogonale-unterraeume}}
+% XXX Invariante Unterräume
+% XXX Kern und Bild orthogonaler Abbildungen
+
+\subsection{Andere Normen auf Vektorräumen
+\label{buch:subsection:andere-normen}}
+Das Skalarprodukt ist nicht die einzige Möglichkeit, eine Norm auf einem
+Vektorraum zu definieren.
+In diesem Abschnitt stellen wir einige weitere mögliche Normdefinitionen
+zusammen.
+
+\subsubsection{$l^1$-Norm}
+\begin{definition}
+Die $l^1$-Norm in $V=\mathbb{R}^n$ oder $V=\mathbb{C}^n$ ist definiert durch
+\[
+\| v\|_1
+=
+\sum_{i=1}^n |v_i|
+\]
+für $v\in V$.
+\end{definition}
+
+Auch die $l^1$-Norm erfüllt die Dreiecksungleichung
+\[
+\|x+y\|_1
+=
+\sum_{i=1}^n |x_i+y_i|
+\le
+\sum_{i=1} |x_i| + \sum_{i=1} |y_i|
+=
+\|x\|_1 + \|y\|_1.
+\]
+
+Die $l^1$-Norm kommt nicht von einem Skalarprodukt her.
+Wenn es ein Skalarprodukt gäbe, welches auf diese Norm führt, dann
+müsste
+\[
+\langle x,y\rangle
+=
+\frac12(\|x+y\|_1^2-\|x\|_1^2-\|y\|_1^2)
+\]
+sein.
+Für die beiden Standardbasisvektoren $x=e_1$ und $y=e_2$
+bedeutet dies
+\[
+\left .
+\begin{aligned}
+\|e_1\|_1 &= 2\\
+\|e_2\|_1 &= 2\\
+\|e_1\pm +e_2\|_1 &= 2\\
+\end{aligned}
+\right\}
+\quad\Rightarrow\quad
+\langle e_1,\pm e_2\rangle
+=
+\frac12( 2^2 - 1^2 - 1^2)
+=1
+\]
+Die Linearität des Skalarproduktes verlangt aber, dass
+$1=\langle e_1,-e_2\rangle = -\langle e_1,e_2\rangle = -1$,
+ein Widerspruch.
+
+\subsubsection{$l^\infty$-Norm}
+
+
+\begin{definition}
+Die $l^\infty$-Norm in $V=\mathbb{R}^n$ und $V=\mathbb{C}^n$ ist definiert
+\[
+\|v\|_\infty
+=
+\max_{i} |v_i|.
+\]
+Sie heisst auch die {\em Supremumnorm}.
+\index{Supremumnorm}%
+\end{definition}
+
+Auch diese Norm erfüllt die Dreiecksungleichung
+\[
+\|x+y\|_\infty
+=
+\max_i |x_i+y_i|
+\le
+\max_i (|x_i| + |y_i|)
+\le
+\max_i |x_i| + \max_i |y_i|
+=
+\|x\|_\infty + \|y\|_\infty.
+\]
+Auch diese Norm kann nicht von einem Skalarprodukt herkommen, ein
+Gegenbeispiel können wir wieder mit den ersten beiden Standardbasisvektoren
+konstruieren.
+Es ist
+\[
+\left.
+\begin{aligned}
+\|e_1\|_\infty &= 1\\
+\|e_2\|_\infty &= 1\\
+\|e_1\pm e_2\|_\infty &= 1
+\end{aligned}
+\right\}
+\qquad\Rightarrow\qquad
+\langle e_1,\pm e_2\rangle
+=
+\frac12(\|e_1\pm e_2\|_\infty^2 - \|e_1\|_\infty^2 - \|e_2\|_\infty^2)
+=
+\frac12(1-1-1) = -\frac12.
+\]
+Es folgt wieder
+\(
+-\frac12
+=
+\langle e_1,-e_2\rangle
+=
+-\langle e_1,e_2\rangle
+=
+\frac12,
+\)
+ein Widerspruch.
+
+\subsubsection{Operatornorm}
+Der Vektorraum der linearen Abbildungen $f\colon U\to V$ kann mit einer
+Norm ausgestattet werden, wenn $U$ und $V$ jeweils eine Norm haben.
+
+\begin{definition}
+Seien $U$ und $V$ Vektorräume über $\mathbb{R}$ oder $\mathbb{C}$ und
+$f\colon U\to V$ eine lineare Abbildung.
+Die {\em Operatorname} der linearen Abbildung ist
+\[
+\|f\|
+=
+\sup_{x\in U\wedge \|x\|\le 1} \|fx\|.
+\]
+\end{definition}
+
+Nach Definition gilt $\|fx\| \le \|f\|\cdot \|x\|$ für alle $x\in U$.
+Die in den Vektorräumen $U$ und $V$ verwendeten Normen haben einen
+grossen Einfluss auf die Operatornorm, wie die beiden folgenden
+Beispiele zeigen.
+
+\begin{beispiel}
+Sei $V$ ein komplexer Vektorraum mit einem Skalarprodukt und $y\in V$ ein
+Vektor.
+$y$ definiert die lineare Abbildung
+\[
+l_y
+\colon
+V\to \mathbb{C}: x\mapsto \langle y,x\rangle.
+\]
+Zur Berechnung der Operatorname von $l_y$
+\[
+|l_y(x)|^2
+=
+|\langle y,x\rangle|^2
+\le
+\|y\|_2^2\cdot \|x\|_2^2
+\]
+mit Gleichheit genau dann, wenn $x$ und $y$ linear abhängig sind.
+Dies bedeutet, dass
+$\|l_y\|=\|y\|$, die Operatorname von $l_y$ stimmt mit der Norm von $y$
+überein.
+\end{beispiel}
+
+\begin{beispiel}
+Sei $V=\mathbb{C}^n$.
+Dann definiert $y\in V$ eine Linearform
+\[
+l_y
+\colon
+V\to \mathbb C
+:
+x\mapsto y^tx.
+\]
+Wir suchen die Operatornorm von $l_y$, wenn $V$ mit der $l^1$-Norm
+ausgestattet wird.
+Sei $k$ der Index der betragsmässig grössten Komponente von $y_k$,
+also $\| y\|_\infty = |y_k|$.
+Dann gilt
+\[
+|l_y(x)|
+=
+\biggl|\sum_{i=1}^n y_ix_i\biggr|
+\le
+\sum_{i=1}^n |y_i|\cdot |x_i|
+\le
+|y_k| \sum_{i=1}^n |x_i|
+=
+\|y\|_\infty\cdot \|x\|_1.
+\]
+Gleichheit wird erreicht, wenn die Komponente $k$ die einzige
+von $0$ verschiedene Komponente des Vektors $x$ ist.
+Somit ist $\|l_y\| = \|y\|_\infty$.
+\end{beispiel}
+
+
+\subsubsection{Normen auf Funktionenräumen}
+Alle auf $\mathbb{R}^n$ und $\mathbb{C}^n$ definierten Normen lassen
+sich auf den Raum der stetigen Funktionen $[a,b]\to\mathbb{R}$ oder
+$[a,b]\to\mathbb{C}$ verallgemeinern.
+
+Die Supremumnorm auf dem Vektorraum der stetigen Funktionen ist
+\[
+\|f\|_\infty = \sup_{x\in[a,b]} |f(x)|
+\]
+für $f\in C([a,b],\mathbb{R})$ oder $f\in C([a,b],\mathbb{C})$.
+
+Für die anderen beiden Normen wird zusätzlich das bestimmte Integral
+von Funktionen auf $[a,b]$ benötigt.
+Die $L^2$-Norm wird erzeugt von dem Skalarprodukt
+\[
+\langle f,g\rangle
+=
+\frac{1}{b-a}
+\int_a^b \overline{f}(x)g(x)\,dx
+\qquad\Rightarrow\qquad
+\|f\|_2^2 = \frac{1}{b-a}\int_a^b |f(x)|^2\,dx.
+\]
+Die $L^2$-Norm ist dagegen
+\[
+\|f\|_1
+=
+\int_a^b |f(x)|\,dx.
+\]
+
diff --git a/buch/chapters/10-vektorenmatrizen/strukturen.tex b/buch/chapters/10-vektorenmatrizen/strukturen.tex
new file mode 100644
index 0000000..a2afa37
--- /dev/null
+++ b/buch/chapters/10-vektorenmatrizen/strukturen.tex
@@ -0,0 +1,38 @@
+%
+% strukturen.tex
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\section{Algebraische Strukturen
+\label{buch:section:algebraische-Strukturen}}
+\rhead{Algebraische Strukturen}
+\begin{figure}
+\centering
+\includegraphics[width=\textwidth]{chapters/10-vektorenmatrizen/images/strukturen.pdf}
+\caption{Übersicht über die verschiedenen algebraischen Strukturen, die
+in Abschnitt~\ref{buch:section:algebraische-Strukturen} zusammengestellt
+werden.
+\label{buch:vektorenmatrizen:fig:strukturen}}
+\end{figure}
+Im Laufe der Definition der Vektorräume $\Bbbk^n$ und der
+Operationen für die Matrizen in $M_{m\times n}(\Bbbk)$ haben
+wir eine ganze Reihe von algebraischen Strukturen kennengelernt.
+Nicht immer sind alle Operationen verfügbar, in einem Vektorraum
+gibt es normalerweise kein Produkt.
+Und bei der Konstruktion des Zahlensystems wurde gezeigt, dass
+additive oder multiplikative Inverse nicht selbstverständlich
+sind.
+Sinnvolle Mathematik lässt sich aber erst betreiben, wenn zusammen
+mit den vorhandenen Operationen auch einige Regeln erfüllt sind.
+Die schränkt die Menge der sinnvollen Gruppierungen von Eigenschaften
+ein.
+In diesem Abschnitten sollen diesen sinnvollen Gruppierungen von
+Eigenschaften Namen gegeben werden.
+
+
+\input{chapters/10-vektorenmatrizen/gruppen.tex}
+\input{chapters/10-vektorenmatrizen/ringe.tex}
+\input{chapters/10-vektorenmatrizen/algebren.tex}
+\input{chapters/10-vektorenmatrizen/koerper.tex}
+
+
diff --git a/buch/chapters/20-polynome/chapter.tex b/buch/chapters/20-polynome/chapter.tex
index b044bcd..c7fc9e9 100644
--- a/buch/chapters/20-polynome/chapter.tex
+++ b/buch/chapters/20-polynome/chapter.tex
@@ -15,7 +15,7 @@ p(X) = a_nX^n+a_{n-1}X^{n-1} + \cdots a_2X^2 + a_1X + a_0.
Ursprünglich stand das Symbol $X$ als Platzhalter für eine Zahl.
Die Polynomgleichung $Y=p(X)$ drückt dann einen Zusammenhang zwischen
den Grössen $X$ und $Y$ aus.
-Zum Beispiel drückt
+Zum Beispiel drückt
\begin{equation}
H = -\frac12gT^2 + v_0T +h_0 = p(T)
\label{buch:eqn:polynome:beispiel}
@@ -53,14 +53,14 @@ gelten.
In dieser algebraischen Sichtweise können je nach den gewählten algebraischen
Rechenregeln für $X$ interessante rechnerische Strukturen abgebildet werden.
\index{algebraische Sichtweise}%
-Ziel dieses Kapitels ist zu zeigen, wie man die Rechenregeln für $X$
+Ziel dieses Kapitels ist zu zeigen, wie man die Rechenregeln für $X$
mit Hilfe von Matrizen allgemein darstellen kann.
Diese Betrachtungsweise wird später in Anwendungen ermöglichen,
-handliche Realisierungen für das Rechnen mit Grössen zu finden,
+handliche Realisierungen für das Rechnen mit Grössen zu finden,
die polynomielle Gleichungen erfüllen.
Ebenso sollen in späteren Kapiteln die Regeln
\eqref{buch:eqn:polynome:basic}
-erweitert werden oder abgelöst werden um weitere Anwendungen zu erschliessen.
+erweitert oder abgelöst werden um weitere Anwendungen zu erschliessen.
Bei der Auswahl der zusätzlichen algebraischen Regeln muss man sehr
vorsichtig vorgehen.
@@ -71,7 +71,7 @@ Aber auch eine Regel wie $X^2 \ge 0$, die für alle reellen Zahlen gilt,
würde die Anwendungsmöglichkeiten zu stark einschränken.
Es gibt zwar keine reelle Zahl, die man in das Polynom $p(X)=X^2+1$
einsetzen könnte, so dass es den Wert $0$ annimmt.
-Man könnte $X$ aber als ein neues Objekt ausserhalb von $\mathbb{R}$
+Man könnte $X$ aber als ein neues Objekt ausserhalb von $\mathbb{R}$
betrachten, welches die Gleichung $X^2+1=0$ erfüllt.
In den komplexen Zahlen $\mathbb{C}$ gibt es mit der imaginären
Einheit $i\in\mathbb{C}$ tatsächlich ein Zahl mit der Eigenschaft
@@ -80,7 +80,8 @@ verletzt.
Für das Symbol $X$ sollen also die ``üblichen'' Rechenregeln gelten.
Dies ist natürlich nur sinnvoll, wenn man auch mit den Koeffizienten
-$a_0,\dots,a_n$ rechnen kann, sind müssen also Elemente einer
+$a_0,\dots,a_n$ rechnen kann.
+Sie müssen also Elemente einer
algebraischen Struktur sein, in der mindestens die Addition und die
Multiplikation definiert sind.
Die ganzen Zahlen $\mathbb{Z}$ kommen dafür in Frage, aber auch
diff --git a/buch/chapters/20-polynome/definitionen.tex b/buch/chapters/20-polynome/definitionen.tex
index 82356d7..135ebf6 100644
--- a/buch/chapters/20-polynome/definitionen.tex
+++ b/buch/chapters/20-polynome/definitionen.tex
@@ -6,7 +6,7 @@
\section{Definitionen
\label{buch:section:polynome:definitionen}}
\rhead{Definitionen}
-In diesem Abschnitt stellen wir einige grundlegende Definitionen für das
+In diesem Abschnitt stellen wir einige grundlegende Definitionen für das
Rechnen mit Polynomen zusammen.
%
@@ -26,7 +26,7 @@ unter einer ``Zahl'' vorstellen.
Wir bezeichnen die Menge, aus der die ``Zahlen'' kommen können mit $R$ und
nennen sie die Menge der Skalare.
\index{Skalar}%
-Wenn wir uns vorstellen, dass man die Elemente von $R$ an Stelle von $X$
+Wenn wir uns vorstellen, dass man die Elemente von $R$ an Stelle von $X$
in das Polynom einsetzen kann, dann muss es möglich sein, in $R$ zu
Multiplizieren und zu Addieren, und es müssen die üblichen Rechenregeln
der Algebra gelten, $R$ muss also ein Ring sein.
@@ -44,7 +44,7 @@ R[X]
p(X) = a_nX^n+a_{n-1}X^{n-1} + \dots a_1X+a_0\;|\; a_k\in R, n\in\mathbb{N}
\}
\]
-heisst die Menge der {\em Polynome} mit Koeffizienten in $R$
+heisst die Menge der {\em Polynome} mit Koeffizienten in $R$
oder
{\em Polynome über} $R$.
\index{Polynome über $R$}%
@@ -77,7 +77,7 @@ Ein Polynom heisst {\em normiert} oder auch {\em monisch}, wenn der
höchste Koeffizient oder auch {\em Leitkoeffizient} des Polynomus $1$ ist,
also $a_n=1$.
\index{Leitkoeffizient}%
-Wann man in $R$ durch $a_n$ dividieren kann, dann kann man aus dem Polynom
+Wenn man in $R$ durch $a_n$ dividieren kann, dann kann man aus dem Polynom
$p(X)=a_nX^n+\dots$ mit Leitkoeffizient $a_n$ das normierte Polynom
\[
\frac{1}{a_n}p(X) = \frac{1}{a_n}(a_nX^n + \dots + a_0)=
@@ -86,9 +86,8 @@ X^n + \frac{a_{n-1}}{a_n}X^{n-1} + \dots + \frac{a_0}{a_n}
machen.
Man sagt auch, das Polynom $p(X)$ wurde normiert.
-Die Beschreibung der Rechenoperationen wird etwas verkompliziert durch
-die Tatsache, zwei Polynome nicht gleich viele von $0$ verschiedene
-Koeffizienten haben müssen.
+Die Tatsache, dass zwei Polynome nicht gleich viele von $0$ verschiedene Koeffizienten haben müssen,
+verkompliziert die Beschreibung der Rechenoperationen ein wenig.
Wir werden daher im Folgenden oft für ein Polynom
\[
p(X)
@@ -118,7 +117,7 @@ definiert ist.
Die Menge $R[X]$ aller Polynome über $R$ wird zu einem Ring, wenn man die
Rechenoperationen Addition und Multiplikation so definiert, wie man das
in der Schule gelernt hat.
-Die Summe von zwei Polynomen
+Die Summe von zwei Polynomen
\begin{align*}
p(X) &= a_nX^n + a_{n-1}X^{n-1} + \dots + a_1X + a_0\\
q(X) &= b_mX^m + b_{m-1}X^{m-1} + \dots + b_1X + b_0
@@ -129,7 +128,7 @@ p(X)+q(X)
=
\sum_{k} (a_k+b_k)X^k,
\]
-wobei die Summe wieder so zu interpretieren ist, über alle Terme
+wobei die Summe wieder so zu interpretieren ist, über alle Terme
summiert wird, für die mindestens einer der Summanden von $0$
verschieden ist.
@@ -234,7 +233,7 @@ beweist \eqref{buch:eqn:polynome:gradprodukt}.
Es könnte aber passieren, dass $a_nb_m=0$ ist, d.~h.~es ist durchaus möglich,
dass der Grad kleiner ist.
Schliesslich kann der höchsten Koeffizient von $\lambda p(X)$ nicht grösser
-als der höchste Koeffizient von $p(X)$ sein, was
+als der höchste Koeffizient von $p(X)$ sein, was
\eqref{buch:eqn:polynome:gradskalar} beweist.
\end{proof}
@@ -253,7 +252,7 @@ a_nb_m = \begin{pmatrix}0&0\\0&0\end{pmatrix}.
\end{equation}
Diese unangehme Situation tritt immer ein, wenn es von Null verschiedene
Elemente gibt, deren Produkt $0$ ist.
-In Matrizenringen ist das der Normalfall, man kann diesen fall also nicht
+In Matrizenringen ist das der Normalfall, man kann diesen Fall also nicht
einfach ausschliessen.
In den Zahlenmengen wie $\mathbb{Z}$, $\mathbb{Q}$ und $\mathbb{R}$ passiert
das natürlich nie.
@@ -262,13 +261,13 @@ das natürlich nie.
Ein Ring $R$ heisst {\em nullteilerfrei}, wenn für zwei Elemente
$a,b\in R$ aus $ab=0$ immer geschlossen werden kann, dass
$a=0$ oder $b=0$.
-Ein von $0$ verschiedenes Element $a\in R$ heisst ein Nullteiler,
-wenn es eine $b\in R$ mit $b\ne 0$ gibt derart dass $b=0$.
+Ein von $0$ verschiedenes Element $a\in R$ heisst Nullteiler,
+wenn es eine $b\in R$ mit $b\ne 0$ gibt derart dass $ab=0$.
\index{Nullteiler}
\index{nullteilerfrei}
\end{definition}
-Die beiden Matrizen in
+Die beiden Matrizen in
\eqref{buch:eqn:definitionen:nullteilerbeispiel}
sind Nullteiler im Ring $M_2(\mathbb{Z})$ der $2\times 2$-Matrizen.
Der Matrizenring $M_2(\mathbb{Z})$ ist also nicht nullteilerfrei.
@@ -294,17 +293,17 @@ Dann gilt
\begin{proof}[Beweis]
Der Fall, dass der höchste Koeffizient verschwindet, weil $a_n$, $b_m$
-und $\lambda$ Nullteiler sind, kann unter den gegebenen Voraussetzungen
+oder $\lambda$ Nullteiler sind, kann unter den gegebenen Voraussetzungen
nicht eintreten, daher werden die in
Lemma~\ref{lemma:rechenregelnfuerpolynomgrad} gefunden Ungleichungen
-exakt für Produkte exakt.
+für Produkte exakt.
\end{proof}
Die Gleichung
\eqref{buch:eqn:polynome:gradskalarexakt}
kann im Fall $\lambda=0$ natürlich nicht gelten.
Betrachten wir $\lambda$ wieder als ein Polynom, dann folgt aus
-\eqref{buch:eqn:polynome:gradproduktexakt}, dass
+\eqref{buch:eqn:polynome:gradsummeexakt}, dass
\[
\begin{aligned}
\lambda&\ne 0 &&\Rightarrow& \deg (\lambda p) &= \deg\lambda + \deg p = 0+\deg p
@@ -312,13 +311,14 @@ Betrachten wir $\lambda$ wieder als ein Polynom, dann folgt aus
\lambda&=0 &&\Rightarrow& \deg (0 p) &= \deg 0 + \deg p = \deg 0
\end{aligned}
\]
-Diese Gleichung kann also nur aufrechterhalten werden, wenn $\deg 0$ eine
-Zahl ist mit der Eigenschaft, dass man immer noch $\deg 0$ bekommt,
-wenn man irgend eine Zahl $\deg p$ hinzuaddiert.
-So eine Zahl gibt es in den ganzen Zahlen nicht, wenn zu einer ganzen
-Zahl eine andere ganze Zahl hinzuaddiert, ändert sich fast immer etwas.
-Man muss daher $\deg 0 = -\infty$ setzen mit der Festlegung, dass
-$-\infty + n = -\infty$ gilt für beliebige ganze Zahlen $n$.
+Diese Gleichung kann also nur aufrechterhalten werden, wenn die ``Zahl'' $\deg 0$ die Eigenschaft besitzt, dass man immer noch $\deg 0$ bekommt,
+wenn man irgend eine Zahl $\deg p$ hinzuaddiert. Wenn also
+\[\deg 0 + \deg p = \deg 0 \qquad \forall \deg p \in \mathbb Z\]
+gilt.
+So eine Zahl gibt es in den ganzen Zahlen nicht.
+Wenn man zu einer ganzen Zahl eine andere ganze Zahl hinzuaddiert, ändert sich fast immer etwas.
+Man muss daher $\deg 0 = -\infty$ setzen und festlegen, dass
+$-\infty + n = -\infty$ für beliebige ganze Zahlen $n$ gilt.
\begin{definition}
\label{buch:def:definitionen:polynomfilterung}
@@ -338,18 +338,18 @@ R^{(-\infty)}[X] & \subset
& R^{(0)}[X] & \subset
& R^{(1)}[X] & \subset & \dots & \subset
& R^{(k)}[X] & \subset
- & R^{(k+1)}[x] & \subset & \dots & \subset
+ & R^{(k+1)}[X] & \subset & \dots & \subset
& R[X]\\[3pt]
\bigg\| &
&\bigg\| &
- &\bigg\| & & &
+ &\bigg\| & & &
&&
&& & &
&
\\[3pt]
\{0\} & \subset
& R & \subset
- & \{ax+b\;|a,b\in R\} & \subset & \dots &
+ & \{a_1X+a_0\;|a_k\in R\} & \subset & \dots &
\end{array}
\]
und ihre Vereinigung ist $R[X]$.
@@ -378,7 +378,199 @@ R^{(k+l)}[X].
%
\subsection{Teilbarkeit
\label{buch:subsection:polynome:teilbarkeit}}
-XXX TODO
+Im Ring der ganzen Zahlen sind nicht alle Divisionen ohne Rest
+ausführbar, so entsteht das Konzept der Teilbarkeit.
+Der Divisionsalgorithmus, den man in der Schule lernt, liefert
+zu beliebigen ganzen Zahlen $a,b\in\mathbb{Z}$ den Quotienten
+$q$ und den Rest $r$ derart, dass $a=qb+r$.
+Der Algorithmus basiert auf der Zehnersystemdarstellung
+\begin{align*}
+a &= a_n10^{n} + a_{n-1}10^{n-1} + \dots + a_110^{1} + a_0
+\\
+b &= b_m10^{n} + b_{m-1}10^{n-1} + \dots + b_110^{1} + b_0
+\end{align*}
+und ermittelt den Quotienten, indem er mit den einzelnen Stellen
+$a_k$ und $b_k$ arbeitet.
+Er ist also eigentlich ein Algorithmus für die Polynome
+\begin{align*}
+a &= a_nX^{n} + a_{n-1}X^{n-1} + \dots + a_1X^{1} + a_0
+\\
+b &= b_mX^{n} + b_{m-1}X^{n-1} + \dots + b_1X^{1} + b_0,
+\end{align*}
+mit dem einzigen Unterschied, dass statt $X$ mit der festen Zahl $X=10$
+gearbeitet wird.
+Der Teilungsalgorithmus für Polynome lässt sich aber leicht
+rekonstruieren.
+
+\subsubsection{Polynomdivision}
+Wir zeigen den Polynomdivisionsalgorithmus an einem konkreten Beispiel.
+Gesucht sind Quotient $q\in \mathbb{Z}[X]$ und Rest $r\in\mathbb{Z}[X]$
+der beiden Polynome
+\begin{equation}
+\begin{aligned}
+a(X) &= X^4 - X^3 -7X^2 + X + 6\\
+b(X) &= X^2+X+1,
+\end{aligned}
+\label{buch:polynome:eqn:divisionsaufgabe}
+\end{equation}
+für die also gilt $a=bq+r$.
+Die Division ergibt
+\[
+\arraycolsep=1.4pt
+\begin{array}{rcrcrcrcrcrcrcrcrcrcr}
+X^4&-& X^3&-&7X^2&+& X&+&6&:&X^2&+&X&+&1&=&X^2&-&2X&-&6=q\\
+\llap{$-($}X^4&+& X^3&+& X^2\rlap{$)$}& & & & & & & & & & & & & & & & \\ \cline{1-5}
+ &-&2X^3&-&8X^2&+& X& & & & & & & & & & & & & & \\
+ &\llap{$-($}-&2X^3&-&2X^2&-&2X\rlap{$)$}& & & & & & & & & & & & & & \\ \cline{2-7}
+ & & &-&6X^2&+&3X&+&6& & & & & & & & & & & & \\
+ & & &\llap{$-($}-&6X^2&-&6X&-&6\rlap{$)$}& & & & & & & & & & & & \\ \cline{4-9}
+ & & & & & &9X&+&12\rlap{$\mathstrut=r$}& & & & & & & & & & & & \\ \cline{7-9}
+\end{array}
+\]
+Durch nachrechnen kann man überprüfen, dass tatsächlich
+\begin{align*}
+bq
+&=
+X^4-X^3-7X^2-8X-6
+\\
+bq+r&=
+X^4-X^3-7X^2+X+6 = a
+\end{align*}
+gilt.
+
+Das Beispiel~\eqref{buch:polynome:eqn:divisionsaufgabe} war besonders
+einfach, weil der führende Koeffizient des Divisorpolynomes $1$ war.
+Für $b=2X^2+X+1$ funktioniert der Algorithmus dagegen nicht mehr.
+Jedes für $q$ in Frage kommende Polynom vom Grad $2$ muss von der
+Form $q=q_2X^2+q_1X+q_0$ sein.
+Multipliziert man mit $b$, erhält man $bq=2q_2X^4 + (2q_1+q_2)X^3+\dots$.
+Insbesondere ist es nicht möglich mit ganzzahligen Quotienten
+$q_k\in\mathbb{Z}$ auch nur der ersten Koeffizienten von $a$ zu
+erhalten.
+Dazu müsste nämlich $a_n = 1 = 2q_2$ oder $q_2 = \frac12\not\in\mathbb{Z}$
+sein.
+Der Divisionsalgorithmus funktioniert also nur dann, wenn die
+Division durch den führenden Koeffizienten des Divisorpolynomes $b$
+immer ausführbar ist.
+Im Beispiel~\eqref{buch:polynome:eqn:divisionsaufgabe} war das der
+Fall, weil der führende Koeffizient $1$ war.
+Für beliebige Polynome $b\in R[X]$ ist das aber nur der Fall,
+wenn die Koeffizienten in Tat und Wahrheit einem Körper entstammen.
+
+Im Folgenden betrachten wir daher nur noch Polynomringe mit Koeffizienten
+in einem Körper $\Bbbk$.
+In $\mathbb{Q}[X]$ ist die Division $a:b$ für die Polynome
+\begin{equation}
+\begin{aligned}
+a(X) &= X^4 - X^3 -7X^2 + X + 6\\
+b(X) &= X^2+X+1,
+\end{aligned}
+\label{buch:polynome:eqn:divisionsaufgabe}
+\end{equation}
+problemlos durchführbar:
+\[
+\arraycolsep=1.4pt
+\renewcommand{\arraystretch}{1.2}
+\begin{array}{rcrcrcrcrcrcrcrcrcrcr}
+X^4&-& X^3&-& 7X^2&+& X&+& 6&:&2X^2&+&X&+&1&=&\frac12X^2&-&\frac34X&-\frac{27}{8} = q\\
+\llap{$-($}X^4&+&\frac12X^3&+& \frac12X^2\rlap{$)$}& & & & & & & & & & & & & & & \\ \cline{1-5}
+ &-&\frac32X^3&-&\frac{15}2X^2&+& X& & & & & & & & & & & & & \\
+ &\llap{$-($}-&\frac32X^3&-&\frac{ 3}4X^2&-&\frac{ 3}4X\rlap{$)$}& & & & & & & & & & & & & \\\cline{2-7}
+ & & &-&\frac{27}4X^2&+&\frac{ 7}4X&+& 6& & & & & & & & & & & \\
+ & & &\llap{$-($}-&\frac{27}4X^2&-&\frac{27}8X&-&\frac{27}{8}\rlap{$)$}& & & & & & & & & & & \\\cline{4-9}
+ & & & & & &\frac{41}8X&+&\frac{75}{8}\rlap{$\mathstrut=r$}& & & & & & & & & & & \\
+\end{array}
+\]
+Der Algorithmus funktioniert selbstverständlich genauso in $\mathbb{R}[X]$
+oder $\mathbb{C}[X]$, und ebenso in den in
+Kapitel~\ref{buch:chapter:endliche-koerper} studierten endlichen Körpern.
+
+\subsubsection{Euklidische Ringe und Faktorzerlegung}
+Der Polynomring $\Bbbk[X]$ hat noch eine weitere Eigenschaft, die ihn
+von einem gewöhnlichen Ring unterschiedet.
+Der Polynomdivisionsalgorithmus findet zu zwei Polynomen $f,g\in\Bbbk[X]$
+den Quotienten $q\in\Bbbk[X]$ und den Rest $r\in\Bbbk[X]$ mit
+$f=qg+r$, wobei ausserdem $\deg r<\deg g$ ist.
+
+\begin{definition}
+Ein {\em euklidischer Ring} $R$ ist ein nullteilerfreier Ring mit einer
+Gradfunktion $\deg\colon R\setminus\{0\}\to\mathbb{N}$ mit folgenden
+Eigenschaften
+\begin{enumerate}
+\item Für $x,y\in R$ gilt $\deg(xy) \ge \deg(x)$.
+\item Für alle $x,y\in R$ gibt es $q,r\in R$ mit $x=qy+r$ mit
+$\deg(y)>\deg(x)$
+\label{buch:20-polynome:def:euklidischerring-2}
+\end{enumerate}
+Bedingung~\ref{buch:20-polynome:def:euklidischerring-2} ist die
+{\em Division mit Rest}.
+\index{Gradfunktion}%
+\index{Division mit Rest}%
+\index{euklidischer Ring}%
+\end{definition}
+
+Die ganzen Zahlen $\mathbb{Z}$ bilden einen euklidischen Ring mit der
+Gradfunktion $\deg(z)=|z|$ für $z\in \mathbb{Z}$.
+Aus dem Divisionsalgorithmus für ganze Zahlen leiten sich alle grundlegenden
+Eigenschaften über Teilbarkeit und Primzahlen ab.
+Eine Zahl $x$ ist teilbar durch $y$, wenn $x=qy$ mit $q\in \mathbb{Z}$,
+es gibt Zahlen $p\in\mathbb{Z}$, die keine Teiler haben und jede Zahl
+kann auf eindeutige Art und Weise in ein Produkt von Primfaktoren
+zerlegt werden.
+
+\subsubsection{Irreduzible Polynome}
+Das Konzept der Primzahl lässt sich wie folgt in den Polynomring übertragen.
+
+\begin{definition}
+Ein Polynom $f\in R[X]$ heisst irreduzibel, es keine Faktorisierung $f=gh$
+in Faktoren $g,h\in R[X]$ mit $\deg(g)>0$ und $\deg(h) >0$.
+\end{definition}
+
+\begin{beispiel}
+Polynome ersten Grades $aX+b$ sind immer irreduzibel, da sie bereits
+minimalen Grad haben.
+
+Sei jetzt $f=X^2+bX+c$ ein quadratisches Polynom in $\mathbb{Q}[X]$.
+Wenn es faktorisierbar sein soll, dann müssen die Faktoren Polynome
+ersten Grades sein, also $f=(X-x_1)(X-x_2)$ mit $x_i\in\mathbb{Q}$.
+Die Zahlen $x_i$ die einzigen möglichen Lösungen für $x_i$ können mit
+der Lösungsformel für die quadratische Gleichung
+\[
+x_i = -\frac{b}2\pm\sqrt{\frac{b^2}{4}-c}
+\]
+gefunden werden.
+Die Faktorisierung ist also genau dann möglich, wenn $b^2/4-c$ ein
+Quadrat in $\mathbb{Q}$.
+In $\mathbb{R}$ ist das Polynom faktorisierbar, wenn $b^2-4c\ge 0$ ist.
+In $\mathbb{C}$ gibt es keine Einschränkung, die Wurzel zu ziehen,
+in $\mathbb{C}$ gibt es also keine irreduziblen Polynome im Grad $2$.
+\end{beispiel}
+
+\subsubsection{Faktorisierung in einem Polynomring}
+Ein Polynomring ist ganz offensichtlich auch ein euklidischer Ring.
+Wir erwarten daher die entsprechenden Eigenschaften auch in einem
+Polynomring.
+Allerdings ist eine Faktorzerlegung nicht ganz eindeutig.
+Wenn das Polynom $f\in\mathbb{Z}[X]$ die Faktorisierung
+$f=g\cdot h$ mit $g,h\mathbb{Z}[X]$ hat, dann
+ist $rg\cdot r^{-1}h$ ebenfalls eine Faktorisierung für jedes $r =\pm1$.
+Dasselbe gilt in $\mathbb{Q}$ für jedes $r\in \mathbb{Q}^*$.
+Faktorisierung ist also nur eindeutig bis auf Elemente der
+Einheitengruppe des Koeffizientenringes.
+Diese Mehrdeutigkeit kann in den Polynomringen $\Bbbk[X]$
+überwunden werden, indem die Polynome normiert werden.
+
+\begin{satz}
+Ein normiertes Polynom $f\in \Bbbk[X]$ kann in
+normierte Faktoren $g_1,\dots,g_k\in\Bbbk[X]$ zerlegt werden, so dass
+$f=g_1\cdot\ldots\cdot g_k$, wobei die Faktoren irreduzibel sind.
+Zwei solche Faktorisierungen unterscheiden sich nur durch die Reihenfolge
+der Faktoren.
+Ein Polynom $f\in \Bbbk[X]$ kann in ein Produkt $a_n g_1\cdot\ldots\cdot g_k$
+zerlegt werden, wobei die normierten Faktoren $g_i$ bis auf die Reihenfolge
+eindeutig sind.
+\end{satz}
+
%
% Abschnitt über formale Potenzreihen
diff --git a/buch/chapters/20-polynome/vektoren.tex b/buch/chapters/20-polynome/vektoren.tex
index a797c09..408587d 100644
--- a/buch/chapters/20-polynome/vektoren.tex
+++ b/buch/chapters/20-polynome/vektoren.tex
@@ -35,17 +35,17 @@ Die Abbildung von Vektoren auf Polynome
\colon R^n \to R[X]
:
\begin{pmatrix}a_0\\\vdots\\a_n\end{pmatrix}
-\mapsto
+\mapsto
a_nX^n + a_{n-1}X^{n-1}+\dots+a_1X+a_0
\]
-erfüllt also
+erfüllt also
\[
\varphi( \lambda a) = \lambda \varphi(a)
\qquad\text{und}\qquad
\varphi(a+b) = \varphi(a) + \varphi(b)
\]
und ist damit eine lineare Abbildung.
-Umgekehrt kann man auch zu jedem Polynom $p(X)$ vom Grad $\le n$ einen
+Umgekehrt kann man auch zu jedem Polynom $p(X)$ vom Grad~$\le n$ einen
Vektor finden, der von $\varphi$ auf das Polynom $p(X)$ abgebildet wird.
Die Abbildung $\varphi$ ist also ein Isomorphismus
\[
@@ -108,7 +108,7 @@ b_0\\b_1\\\vdots\\b_m\\0\\\vdots
\end{pmatrix}
.
\]
-Die Moduln $R^{k}$ sind also alle ineinandergeschachtelt, können aber
+Die Moduln $R^{k}$ sind also alle ineinandergeschachtelt, können aber
alle auf konsistente Weise mit der Abbildung $\varphi$ in den Polynomring
$R[X]$ abgebildet werden.
\begin{center}
diff --git a/buch/chapters/30-endlichekoerper/Makefile.inc b/buch/chapters/30-endlichekoerper/Makefile.inc
index 1118fb0..4cd75b2 100644
--- a/buch/chapters/30-endlichekoerper/Makefile.inc
+++ b/buch/chapters/30-endlichekoerper/Makefile.inc
@@ -5,6 +5,12 @@
#
CHAPTERFILES = $(CHAPTERFILES) \
+ chapters/30-endlichekoerper/uebungsaufgaben/3001.tex \
+ chapters/30-endlichekoerper/uebungsaufgaben/3002.tex \
+ chapters/30-endlichekoerper/uebungsaufgaben/3003.tex \
+ chapters/30-endlichekoerper/uebungsaufgaben/3004.tex \
+ chapters/30-endlichekoerper/uebungsaufgaben/3005.tex \
+ chapters/30-endlichekoerper/euklid.tex \
chapters/30-endlichekoerper/galois.tex \
chapters/30-endlichekoerper/wurzeln.tex \
chapters/30-endlichekoerper/chapter.tex
diff --git a/buch/chapters/30-endlichekoerper/beispiele/inverse.m b/buch/chapters/30-endlichekoerper/beispiele/inverse.m
new file mode 100644
index 0000000..69c6429
--- /dev/null
+++ b/buch/chapters/30-endlichekoerper/beispiele/inverse.m
@@ -0,0 +1,15 @@
+#
+# inverse.m -- Inverse mod 2063 berechnen
+#
+# (c) Prof Dr Andreas Müller, Hochschule Rapperswil
+#
+function retval = Q(q)
+ retval = [ 0, 1; 1, -q ];
+end
+
+P = eye(2)
+P = Q(1) * P
+P = Q(48) * P
+P = Q(8) * P
+P = Q(2) * P
+P = Q(2) * P
diff --git a/buch/chapters/30-endlichekoerper/chapter.tex b/buch/chapters/30-endlichekoerper/chapter.tex
index 6dfbaef..1a0a323 100644
--- a/buch/chapters/30-endlichekoerper/chapter.tex
+++ b/buch/chapters/30-endlichekoerper/chapter.tex
@@ -20,6 +20,10 @@ die diese Eigenschaft nicht haben.
Nicht überraschend werden die ersten derartigen Körper, die wir
in Abschnitt~\ref{buch:section:galoiskoerper} konstruieren werden,
endlich viele Elemente haben.
+Als Hilfsmittel für die Definition der Division in diesem Körper wird
+als Vorbereitung in Abschnitt~\ref{buch:section:euklid} der
+euklidische Algorithmus vorgestellt, wobei auch eine besonders zum
+Thema dieses Buches passende Beschreibung in Matrixform angegeben wird.
Zu diesen sogenannten Galois-Körpern können wir dann weitere Elemente
hinzufügen, wie das in Abschnitt ~\ref{buch:section:wurzeln}
gezeigt wird.
@@ -27,8 +31,19 @@ Diese Technik, die auch für den Körper $\mathbb{Q}$ funktioniert, erlaubt
dafür zu sorgen, dass in einem Körper gewisse algebraische Gleichungen
lösbar werden.
-
+\input{chapters/30-endlichekoerper/euklid.tex}
\input{chapters/30-endlichekoerper/galois.tex}
\input{chapters/30-endlichekoerper/wurzeln.tex}
+\section*{Übungsaufgaben}
+\rhead{Übungsaufgaben}
+\aufgabetoplevel{chapters/30-endlichekoerper/uebungsaufgaben}
+\begin{uebungsaufgaben}
+\uebungsaufgabe{3004}
+\uebungsaufgabe{3003}
+\uebungsaufgabe{3002}
+\uebungsaufgabe{3001}
+\uebungsaufgabe{3005}
+\end{uebungsaufgaben}
+
diff --git a/buch/chapters/30-endlichekoerper/euklid.tex b/buch/chapters/30-endlichekoerper/euklid.tex
new file mode 100644
index 0000000..db326f8
--- /dev/null
+++ b/buch/chapters/30-endlichekoerper/euklid.tex
@@ -0,0 +1,617 @@
+%
+% euklid.tex
+%
+% (c) 2019 Prof Dr Andreas Müller, Hochschule Rapperswil
+%
+\section{Der euklidische Algorithmus
+\label{buch:section:euklid}}
+\rhead{Der euklidische Algorithmus}
+Der euklidische Algorithmus bestimmt zu zwei gegebenen ganzen
+Zahlen $a$ und $b$ den grössten gemeinsamen Teiler $g$.
+Zusätzlich findet er ganze Zahlen $s$ und $t$ derart, dass
+\[
+sa + tb = g.
+\]
+In diesem Abschnitt soll der Algorithmus zunächst für ganze Zahlen
+vorgestellt werden, bevor er auf Polynome verallgemeinert und dann
+in Matrixform niedergeschrieben wird.
+
+%
+% Der euklidische Algorithmus für ganze Zahlen
+%
+\subsection{Ganze Zahlen}
+Gegeben sind zwei ganze Zahlen $a$ und $b$ und wir dürfen annehmen,
+dass $a\ge b$.
+Gesucht ist der grösste gemeinsame Teiler $g$ von $a$ und $b$.
+Wir schreiben $g|a$ für ``$g$ ist Teiler von $a$'' oder ``$g$ teilt $a$'',
+gesucht ist also die grösste ganze Zahl $g$ derart, dass $g|a$ und $g|b$.
+
+Ist $b|a$, dann ist offenbar $b$ der grösste gemeinsame Teiler von $a$
+und $b$.
+Im Allgemeinen wird der grösste gemeinsame Teiler aber kleiner sein.
+Wir teilen daher $a$ durch $b$, was nur mit Rest möglich ist.
+Es gibt ganze Zahlen $q$, der Quotient, und $r$, der Rest, derart, dass
+\begin{equation}
+a = qb+ r
+\qquad \Rightarrow \qquad
+r = a - qb.
+\label{lifting:euklid:raqb}
+\end{equation}
+Nach Definition des Restes ist $r < b$.
+Da der grösste gemeinsame Teiler sowohl $a$ als auch $b$ teilt, muss er
+wegen~\eqref{lifting:euklid:raqb} auch $r$ teilen.
+Somit haben wir das Problem, den grössten gemeinsamen Teiler von $a$ und
+$b$ zu finden, auf das ``kleinere'' Problem zurückgeführt, den grössten
+gemeinsamen Teiler von $b$ und $r$ zu finden.
+
+Um den eben beschriebenen Schritt zu wiederholen, wählen wir die folgende
+Notation.
+Wir schreiben $a_0=a$ und $b_0=b$.
+Im ersten Schritt finden wird $q_0$ und $r_0$ derart,
+dass $a_0-q_0b_0 = r_0$.
+Dann setzen wir $a_1=b_0$ und $b_1=r_0$.
+Mit $a_1$ und $b_1$ wiederholen wir den Divisionsschritt, der einen
+neuen Quotienten $q_1$ und einen neuen Rest $r_1$ liefert mit $a_1-q_1b_1=r_1$.
+So entstehen vier Folgen von Zahlen $a_k$, $b_k$, $q_k$ und $r_k$ derart,
+dass in jedem Schritt gilt
+\begin{align*}
+a_k - q_kb_k &= r_k & g&|a_k & g&|b_k & a_k &= b_{k-1} & b_k = r_{k-1}
+\end{align*}
+Der Algorithmus bricht im Schritt $n$ ab, wenn $r_{n+1}=0$.
+Der letzte nicht verschwindende Rest $r_n$ muss daher der grösste gemeinsame
+Teiler sein: $g=r_n$.
+
+\begin{beispiel}
+\label{buch:endlichekoerper:beispiel1}
+Wir bestimmen den grössten gemeinsamen Teiler von $76415$ und $23205$
+mit Hilfe des eben beschriebenen Algorithmus.
+Wir schreiben die gefundenen Zahlen in eine Tabelle:
+\begin{center}
+\renewcommand{\arraystretch}{1.1}
+\begin{tabular}{|>{$}r<{$}|>{$}r<{$}|>{$}r<{$}|>{$}r<{$}|>{$}r<{$}|}
+\hline
+k& a_k& b_k& q_k& r_k\\
+\hline
+0&76415&23205& 3&6800\\
+1&23205& 6800& 3&2805\\
+2& 6800& 2805& 2&1190\\
+3& 2805& 1190& 2& 425\\
+4& 1190& 425& 2& 340\\
+5& 425& 340& 1& 85\\
+6& 340& 85& 4& 0\\
+\hline
+\end{tabular}
+\end{center}
+Der Algorithmus bricht also mit dem letzten Rest $r_n=85$ ab, dies
+ist der grösste gemeinsame Teiler.
+\end{beispiel}
+
+Die oben protokollierten Werte von $q_k$ werden für die Bestimmung
+des grössten gemeinsamen Teilers nicht benötigt.
+Wir können sie aber verwenden, um die Zahlen $s$ und $t$ zu bestimmen.
+
+\begin{beispiel}
+Wir drücken die Reste im obigen Beispiel durch die Zahlen $a_k$, $b_k$ und
+$q_k$ aus und setzen sie in den Ausdruck $g=a_5-q_5b_5$ ein, bis wir
+einen Ausdruck in $a_0$ und $b_0$ für $g$ finden:
+\begin{align*}
+r_5&=a_5-q_5 b_5=a_5-1\cdot b_5& g &= a_5 - 1 \cdot b_5 = b_4 - 1 \cdot r_4
+\\
+r_4&=a_4-q_4 b_4=a_4-2\cdot b_4& &= b_4 - (a_4 -2b_4)
+ = -a_4 +3b_4 = -b_3 + 3r_3
+\\
+r_3&=a_3-q_3 b_3=a_3-2\cdot b_3& &= -b_3 + 3(a_3-2b_3)
+ = 3a_3 - 7b_3 = 3b_2 -7r_2
+\\
+r_2&=a_2-q_2 b_2=a_2-2\cdot b_2& &= 3b_2 -7(a_2-2b_2)
+ = -7a_2 + 17b_2 = -7b_1 + 17r_1
+\\
+r_1&=a_1-q_1 b_1=a_1-3\cdot b_1& &= -7b_1 + 17(a_1-3b_1)
+ = 17a_1 - 58b_1 = 17 b_0 - 58 r_0
+\\
+r_0&=a_0-q_0 b_0=a_0-3\cdot b_0& &= 17b_0 - 58(a_0t-3b_0)
+ = -58a_0+191b_0
+\end{align*}
+Tatsächlich gilt
+\[
+-58\cdot 76415 + 191 \cdot 23205 = 85,
+\]
+die Zahlen $t=-58$ und $s=191$ sind also genau die eingangs versprochenen
+Faktoren.
+\end{beispiel}
+
+%
+% Matrixschreibeweise für den euklidischen Algorithmus
+%
+\subsection{Matrixschreibweise
+\label{buch:endlichekoerper:subsection:matrixschreibweise}}
+Die Durchführung des euklidischen Algorithmus lässt sich besonders elegant
+in Matrixschreibweise dokumentieren.
+In jedem Schritt arbeitet man mit zwei ganzen Zahlen $a_k$ und $b_k$, die wir
+als zweidimensionalen Spaltenvektor betrachten können.
+Der Algorithmus macht aus $a_k$ und $b_k$ die neuen Zahlen
+$a_{k+1} = b_k$ und $b_{k+1} = r_k = a_k - q_kb_k$, dies
+kann man als
+\[
+\begin{pmatrix} a_{k+1} \\ b_{k+1} \end{pmatrix}
+=
+\begin{pmatrix} b_k \\ r_k \end{pmatrix}
+=
+\begin{pmatrix} 0 & 1 \\ 1 & -q_k \end{pmatrix}
+\begin{pmatrix} a_{k} \\ b_{k} \end{pmatrix}
+\]
+schreiben.
+Der Algorithmus bricht ab, wenn die zweite Komponente des Vektors $=0$ ist,
+in der ersten steht dann der grösste gemeinsame Teiler.
+Hier ist die Durchführung des Algorithmus in Matrix-Schreibweise:
+\begin{align*}
+\begin{pmatrix} 23205 \\ 6800 \end{pmatrix}
+&=
+\begin{pmatrix} 0&1\\1&-3 \end{pmatrix}
+\begin{pmatrix} 76415 \\ 23205 \end{pmatrix}
+\\
+\begin{pmatrix} 6800 \\ 2805 \end{pmatrix}
+&=
+\begin{pmatrix} 0&1\\1&-3 \end{pmatrix}
+\begin{pmatrix} 23205 \\ 6800 \end{pmatrix}
+\\
+\begin{pmatrix} 2805 \\ 1190 \end{pmatrix}
+&=
+\begin{pmatrix} 0&1\\1&-2 \end{pmatrix}
+\begin{pmatrix} 6800 \\ 2805 \end{pmatrix}
+\\
+\begin{pmatrix} 1190 \\ 425 \end{pmatrix}
+&=
+\begin{pmatrix} 0&1\\1&-2 \end{pmatrix}
+\begin{pmatrix} 2805 \\ 1190 \end{pmatrix}
+\\
+\begin{pmatrix} 425 \\ 340 \end{pmatrix}
+&=
+\begin{pmatrix} 0&1\\1&-2 \end{pmatrix}
+\begin{pmatrix} 1190 \\ 425 \end{pmatrix}
+\\
+\begin{pmatrix} 340 \\ 85 \end{pmatrix}
+&=
+\begin{pmatrix} 0&1\\1&-1 \end{pmatrix}
+\begin{pmatrix} 425 \\ 340 \end{pmatrix}
+\\
+\begin{pmatrix} 85 \\ 0 \end{pmatrix}
+&=
+\begin{pmatrix} 0&1\\1&-4 \end{pmatrix}
+\begin{pmatrix} 340 \\ 85 \end{pmatrix}
+=
+\begin{pmatrix}g\\0\end{pmatrix}.
+\end{align*}
+
+\begin{definition}
+Wir kürzen
+\[
+Q(q_k) = \begin{pmatrix} 0 & 1 \\ 1 & -q_k \end{pmatrix}
+\]
+ab.
+\end{definition}
+
+Mit dieser Definition lässt sich der euklidische Algorithmus wie folgt
+beschreiben.
+
+\begin{algorithmus}[Euklid]
+\label{lifting:euklid}
+Der Algorithmus operiert auf zweidimensionalen Zustandsvektoren
+$x\in\mathbb Z^2$
+wie folgt:
+\begin{enumerate}
+\item Initialisiere den Zustandsvektor mit den ganzen Zahlen $a$ und $b$:
+$\displaystyle x = \begin{pmatrix}a\\b\end{pmatrix}$
+\item Bestimme den Quotienten $q$ als die grösste ganze Zahl,
+für die $qx_2\le x_1$ gilt.
+\item Berechne den neuen Zustandsvektor als $Q(q)x$.
+\item Wiederhole Schritte 2 und 3 bis die zweite Komponente des Zustandsvektors
+verschwindet.
+Die erste Komponente ist dann der gesuchte grösste gemeinsame Teiler.
+\end{enumerate}
+\end{algorithmus}
+
+Auch die Berechnung der Zahlen $s$ und $t$ lässt sich jetzt leichter verstehen.
+Nach Algorithmus~\ref{lifting:euklid} ist
+\[
+\begin{pmatrix} g \\ 0 \end{pmatrix}
+=
+Q(q_n)Q(q_{n-1})\cdots Q(q_0)
+\begin{pmatrix} a \\ b \end{pmatrix}.
+\]
+Schreiben wir $Q=Q(q_n)Q(q_{n-1})\cdots Q(q_0)$, dann enthält die Matrix
+$Q$ in der erste Zeile die ganzen Zahlen $s$ und $t$, mit denen sich der
+grösste gemeinsame Teiler aus $a$ und $b$ darstellen lässt:
+\[
+Q =
+\begin{pmatrix}
+s&t\\
+q_{21}&q_{22}
+\end{pmatrix}
+\qquad\Rightarrow\qquad
+\bigg\{
+\quad
+\begin{aligned}
+g&=sa+tb\\
+0&=q_{21}a+q_{22}b.
+\end{aligned}
+\]
+
+\begin{beispiel}
+Wir verifizieren die Behauptung durch Nachrechnen:
+\begin{align*}
+Q
+&=
+\begin{pmatrix} 0&1 \\ 1&-q_n\end{pmatrix}
+\begin{pmatrix} 0&1 \\ 1&-q_{n-1}\end{pmatrix}
+\cdots
+\begin{pmatrix} 0&1 \\ 1&-q_{0}\end{pmatrix}
+\\
+&=
+\underbrace{
+\begin{pmatrix} 0&1 \\ 1& -4 \end{pmatrix}
+\begin{pmatrix} 0&1 \\ 1& -1 \end{pmatrix}
+}_{}
+\underbrace{
+\begin{pmatrix} 0&1 \\ 1& -2 \end{pmatrix}
+\begin{pmatrix} 0&1 \\ 1& -2 \end{pmatrix}
+}_{}
+\underbrace{
+\begin{pmatrix} 0&1 \\ 1& -2 \end{pmatrix}
+\begin{pmatrix} 0&1 \\ 1& -3 \end{pmatrix}
+}_{}
+\begin{pmatrix} 0&1 \\ 1& -3 \end{pmatrix}
+\\
+&=
+\underbrace{
+\begin{pmatrix} 1 & -1 \\ -4 & 5 \end{pmatrix}
+\begin{pmatrix} 1 & -2 \\ -2 & 5 \end{pmatrix}
+}_{}
+\underbrace{
+\begin{pmatrix} 1 & -2 \\ -3 & 7 \end{pmatrix}
+\begin{pmatrix} 0 & 1 \\ 1 & -3 \end{pmatrix}
+}_{}
+\\ &=
+\begin{pmatrix} 3 & -7 \\ -14 & 33 \end{pmatrix}
+\begin{pmatrix} -3 & 10 \\ 7 & -23 \end{pmatrix}
+=
+\begin{pmatrix} -58 & 191 \\ 273 & -899 \end{pmatrix}.
+%(%i9) Q6 . Q5
+% [ 1 - 1 ]
+%(%o9) [ ]
+% [ - 4 5 ]
+%(%i10) Q4 . Q3
+% [ 1 - 2 ]
+%(%o10) [ ]
+% [ - 2 5 ]
+%(%i11) Q2 . Q1
+% [ 1 - 3 ]
+%(%o11) [ ]
+% [ - 2 7 ]
+%(%i12) Q6 . Q5 . Q4 . Q3
+% [ 3 - 7 ]
+%(%o12) [ ]
+% [ - 14 33 ]
+%(%i13) Q2 . Q1 . Q0
+% [ - 3 10 ]
+%(%o13) [ ]
+% [ 7 - 23 ]
+%(%i14) Q6 . Q5 . Q4 . Q3 . Q2 . Q1 . Q0
+% [ - 58 191 ]
+%(%o14) [ ]
+% [ 273 - 899 ]
+\end{align*}
+In der zweiten Zeile findet man Zahlen, die $a$ und $b$ zu 0 kombinieren:
+\[
+273 \cdot 76415 - 899 \cdot 23205 = 0,
+\]
+in der ersten stehen die Zahlen $s=-58$ und $t=191$ und tatsächlich
+ergibt
+\[
+ta+sb = -58\cdot 76415 + 191\cdot 23205 = 85 = g
+\]
+den grössten gemeinsamen Teiler von 76415 und 23205.
+\end{beispiel}
+
+Die Wirkung der Matrix
+\[
+Q(q) = \begin{pmatrix} 0 & 1 \\ 1 & -q \end{pmatrix}
+\]
+lässt sich mit genau einer Multiplikation und einer Addition
+berechnen.
+Dies ist die Art von Matrix, die wir für die Implementation der
+Wavelet-Transformation anstreben.
+
+%
+% Vereinfachte Durchführung des euklidischen Algorithmus
+%
+\subsection{Vereinfachte Durchführung
+\label{buch:endlichekoerper:subsection:matrixschreibweise}}
+Die Durchführung des euklidischen Algorithmus mit Hilfe der Matrizen
+$Q(q_k)$ ist etwas unhandlich.
+In diesem Abschnitt sollen die Matrizenprodukte daher in einer Form
+dargestellt werden, die leichter als Programm zu implementieren ist.
+
+In Abschnitt~\ref{buch:endlichekoerper:subsection:matrixschreibweise}
+wurde gezeigt, dass das Produkt der aus den Quotienten $q_k$ gebildeten
+Matrizen $Q(q_k)$ berechnet werden müssen.
+Dazu beachten wir zunächst, dass die Multiplikation mit der Matrix
+$Q(q_k)$ die zweite Zeile in die erste Zeile verschiebt:
+\[
+Q(q_k)
+\begin{pmatrix}
+u&v\\
+c&d\\
+\end{pmatrix}
+=
+\begin{pmatrix}0&1\\1&-q_k\end{pmatrix}
+\begin{pmatrix}
+u&v\\
+c&d
+\end{pmatrix}
+=
+\begin{pmatrix}
+c&d\\
+u-q_kc&v-q_kd
+\end{pmatrix}.
+\]
+Die Matrizen
+\[
+Q_k = Q(q_k)Q(q_{k-1})\dots Q(q_0)
+\]
+haben daher jeweils für aufeinanderfolgende Werte vo $k$ eine Zeile
+gemeinsam.
+Wir bezeichnen die Einträge der ersten Zeile der Matrix $Q_k$ mit
+$c_k$ und $d_k$.
+Es gilt dann
+\[
+Q_k
+=
+\begin{pmatrix}
+c_{k} &d_{k} \\
+c_{k+1}&d_{k+1}
+\end{pmatrix}
+=
+Q(q_k)
+\begin{pmatrix}
+c_{k-1}&d_{k-1}\\
+c_{k} &d_{k}
+\end{pmatrix}
+\]
+Daraus ergeben sich die Rekursionsformeln
+\begin{equation}
+\begin{aligned}
+c_{k+1}&=c_{k-1}-q_kc_k\\
+d_{k+1}&=d_{k-1}-q_kd_k.
+\end{aligned}
+\label{buch:endlichekoerper:eqn:cdrekursion}
+\end{equation}
+Die Auswertung des Matrizenproduktes von links nach rechts beginnt mit
+der Einheitsmatrix, es ist
+\[
+Q_0
+=
+Q(q_0) I
+=
+\begin{pmatrix}
+0&1\\
+1&-q_0
+\end{pmatrix}
+\begin{pmatrix}
+1&0\\0&1\end{pmatrix},
+\]
+woraus man ablesen kann, dass
+\begin{equation}
+Q_{-1}
+=
+\begin{pmatrix}
+c_{-1}&d_{-1}\\
+c_0&d_0
+\end{pmatrix}
+=
+\begin{pmatrix}
+1&0\\
+0&1
+\end{pmatrix}
+\label{buch:endlichekoerper:eqn:cdinitial}
+\end{equation}
+gesetzt werden muss.
+
+Mit diesen Notationen kann man den Algorithmus jetzt in der früher
+verwendeten Tabelle durchführen, die man um die zwei
+Spalten $c_k$ und $d_k$ hinzufügt und die Werte in dieser
+Spalte mit Hilfe der
+Rekursionsformeln~\eqref{buch:endlichekoerper:eqn:cdrekursion}
+aus den initialen Werten~\eqref{buch:endlichekoerper:eqn:cdinitial}
+berechnet.
+
+\begin{beispiel}
+Wir erweitern das Beispiel von Seite~\pageref{buch:endlichekoerper:beispiel1}
+zur Bestimmung des grössten gemeinsamen Teilers von $76415$ und $23205$
+zur Berechnung der Koeffizienten $c_k$ und $d_k$
+Wir schreiben die gefundenen Zahlen in eine Tabelle:
+\begin{center}
+\renewcommand{\arraystretch}{1.1}
+\begin{tabular}{|>{$}r<{$}|>{$}r<{$}|>{$}r<{$}|>{$}r<{$}|>{$}r<{$}|>{$}r<{$}>{$}r<{$}|}
+\hline
+k& a_k& b_k& q_k& r_k& c_k& d_k\\
+\hline
+ & & & & & 1& 0\\
+0& 76415& 23205& 3& 6800& 0& 1\\
+1& 23205& 6800& 3& 2805& 1& -3\\
+2& 6800& 2805& 2& 1190& -3& 10\\
+3& 2805& 1190& 2& 425& 7& -23\\
+4& 1190& 425& 2& 340& -17& 56\\
+5& 425& 340& 1& 85& 41& -135\\
+6& 340& 85& 4& 0& -58& 191\\
+7& 85& 0& & & 273& -899\\
+\hline
+\end{tabular}
+\end{center}
+Aus den letzten zwei Spalten der Tabelle kann man ablesen, dass
+\begin{align*}
+-58\cdot 76415 + 191\cdot 23205 &= 85\\
+273\cdot 76415 - 899\cdot 23205 &= 0,
+\end{align*}
+wie erwartet.
+Die gesuchten Zahlen $s$ und $t$ sind also $s=-58$ und $t=191$.
+\end{beispiel}
+
+Die Matrizen $Q_k$ kann man auch as der Tabelle ablesen, sie bestehen
+aus den vier Elementen in den Zeilen $k$ und $k+1$ in den
+Spalten $c_k$ und $d_k$.
+Auf jeder Zeile gilt $b_k = c_ka_0 + d_kb_0$, für $k>0$ ist dies
+$c_ka_0+d_kb_0=r_{k-1}$.
+
+Bis jetzt gingen wir immer davon aus, dass $a>b$ ist.
+Dies ist jedoch nicht nötig, wie die Durchführung des Algorithmus
+für das obige Beispiel mit vertauschten Werten von $a$ und $b$ zeigt.
+Wir bezeichnen die Elemente zur Unterscheidung von der ursprünglichen
+Durchführung mit einem Strich:
+\begin{center}
+\renewcommand{\arraystretch}{1.1}
+\begin{tabular}{|>{$}r<{$}|>{$}r<{$}|>{$}r<{$}|>{$}r<{$}|>{$}r<{$}|>{$}r<{$}>{$}r<{$}|}
+\hline
+k& a_k'& b_k'& q_k'& r_k'& c_k'& d_k'\\
+\hline
+ & & & & & 1& 0\\
+0& 23205& 76415& 0& 23205& 0& 1\\
+1& 76415& 23205& 3& 6800& 1& 0\\
+2& 23205& 6800& 3& 2805& -3& 1\\
+3& 6800& 2805& 2& 1190& 10& -3\\
+4& 2805& 1190& 2& 425& -23& 7\\
+5& 1190& 425& 2& 340& 56& -17\\
+6& 425& 340& 1& 85& -135& 41\\
+7& 340& 85& 4& 0& 191& -58\\
+8& 85& 0& & & -899& 273\\
+\hline
+\end{tabular}
+\end{center}
+Da für $a<b$ der erste Quotient $q_0'=0$ ist, werden die ersten neuen
+Elemente $c_1'=1=d_0$ und $d_1'=0=c_0$ sein.
+Die nachfolgenden Quotienten sind genau die gleichen, also $q_k = q_{k+1}'$
+und damit werden auch
+\[
+c_{k}=d_{k+1}' \qquad\text{und}\qquad d_{k} = c_{k+1}'
+\]
+sein.
+Man findet also die gleichen Einträge in einer Tabelle, die eine Zeile
+mehr hat und in der die letzten zwei Spalten gegenüber der ursprünglichen
+Tabelle vertauscht wurden.
+
+%
+% Der euklidische Algorithmus für Polynome
+%
+\subsection{Polynome}
+Der Ring $\mathbb{Q}[X]$ der Polynome in der Variablen $X$ mit rationalen
+Koeffizienten\footnote{Es kann auch ein beliebiger anderer Körper für
+die Koeffizienten verwendet werden.
+Es gelten sogar ähnlich interessante Gesetzmässigkeiten, wenn man für
+die Koeffizienten ganze Zahlen zulässt.
+Dann wird das Problem der Faktorisierung allerdings verkompliziert
+durch das Problem der Teilbarkeit der Koeffizienten.
+Dieses Problem entfällt, wenn man die Koeffizienten aus einem
+Bereich wählt, in dem Teilbarkeit kein Problem ist, also in einem Körper.}
+verhält
+sich bezüglich Teilbarkeit ganz genau gleich wie die ganzen Zahlen.
+Insbesondere ist der euklidische Algorithmus genauso wie die
+Matrixschreibweise auch für Polynome durchführbar.
+
+\begin{beispiel}
+Wir berechnen als Beispiel den grössten gemeinsamen Teiler
+der Polynome
+\[
+a = X^4 - 2X^3 -7 X^2 + 8X + 12,
+\qquad
+b = X^4 + X^3 -7X^2 -X + 6.
+\]
+Wir erstellen wieder die Tabelle der Reste
+\begin{center}
+\renewcommand{\arraystretch}{1.4}
+\begin{tabular}{|>{$}r<{$}|>{$}r<{$}|>{$}r<{$}|>{$}r<{$}|>{$}r<{$}|}
+\hline
+k& a_k& b_k& q_k& r_k\\
+\hline
+0& X^4 - 2X^3 -7 X^2 + 8X + 12& X^4 + X^3 -7X^2 -X + 6& 1&-3X^3+9X+6\\
+1&X^4+X^3-7X^2-X+6 &-3X^3+9X+6 &-\frac13X-\frac13&-4X^2+4X+8\\
+2&-3X^3+9X+6 &-4X^2+4X+8& \frac34 X + \frac34& 0\\
+\hline
+\end{tabular}
+\end{center}
+Daraus kann man ablesen, dass $-4x^2+4x+8$ grösster gemeinsamer Teiler ist.
+Normiert auf einen führenden Koeffizienten $1$ ist dies das Polynom
+$x^2-x+2=(x+2)(x-1)$.
+
+Wir berechnen auch noch die Polynome $s$ und $t$.
+Dazu müssen wir die Matrizen $Q(q_k)$ miteinander multiplizieren:
+\begin{align*}
+Q
+&=Q(q_2) Q(q_1) Q(q_0)
+\\
+&=
+\begin{pmatrix} 0 & 1 \\ 1 & -\frac34(X+1) \end{pmatrix}
+\begin{pmatrix} 0 & 1 \\ 1 & \frac13(X+1) \end{pmatrix}
+\begin{pmatrix} 0 & 1 \\ 1 & -1 \end{pmatrix}
+\\
+&=
+% [ x 1 2 x ]
+% [ - + - - - - ]
+% [ 3 3 3 3 ]
+%(%o22) [ ]
+% [ 2 2 ]
+% [ x x 3 x x 3 ]
+% [ (- --) - - + - -- - - - - ]
+% [ 4 2 4 4 4 2 ]
+\begin{pmatrix}
+\frac13(X+1)&-\frac13(X-2)\\
+-\frac14(X^2+2X-3)&\frac14(X^2-X-6)
+\end{pmatrix}.
+\end{align*}
+In der ersten Zeile finden wir die Polynome $t(X)$ und $s(X)$, mit denen
+\begin{align*}
+ta+sb
+&=
+\frac13(X+1)
+(X^4-2X^3-7X^2+8X+12)
+-\frac13(X-2)
+(X^4+X^3-7X^2-X+6)
+\\
+&=
+-4X^2+4X+8
+\end{align*}
+und dies ist tatsächlich der gefundene grösste gemeinsame Teiler.
+Die zweite Zeile von $Q$ gibt uns die Polynomfaktoren, mit denen
+$a$ und $b$ gleich werden:
+\begin{align*}
+q_{21}a+q_{22}b
+&=
+-\frac14(X^2+2X-3)
+(X^4-2X^3-7X^2+8X+12)
++\frac14(X^2-X-6)
+(X^4+X^3-7X^2-X+6)
+\\
+&=0.
+\qedhere
+\end{align*}
+Man kann natürlich den grössten gemeinsamen Teiler auch mit Hilfe einer
+Faktorisierung der Polynome $a$ und $b$ finden:
+\begin{align*}
+&\text{Faktorisierung von $a$:}&
+a &= (X-3) (X-2)\phantom{(X-1)}(X+1) (X+2) \phantom{(X+3)}\\
+&\text{Faktorisierung von $b$:}&
+b &=\phantom{(X-3)}(X-2) (X-1) (X+1)\phantom{(X+2)} (X+3) \\
+&\text{gemeinsame Faktoren:}&
+g &=\phantom{(X-3)}(X-2)\phantom{(X-1)}(X+1)\phantom{(X+2)}\phantom{(X+3)}
+ = X^2 -X + 2\\
+&&
+v=a/g&= (X-3)\phantom{(X-2)(X-1)(X+1)} (X+2) \phantom{(X+3)}
+ = X^2-X-6 \\
+&&
+u=b/g&=\phantom{(X-3)(X-2)} (X-1)\phantom{(X+1)(X+2)}(X+3)
+ = X^2+2X-3
+\end{align*}
+Aus den letzten zwei Zeilen folgt
+$ua-vb = ab/g - ab/g = 0$, wie erwartet.
+\end{beispiel}
+
+
diff --git a/buch/chapters/30-endlichekoerper/galois.tex b/buch/chapters/30-endlichekoerper/galois.tex
index 5afef53..fbacba6 100644
--- a/buch/chapters/30-endlichekoerper/galois.tex
+++ b/buch/chapters/30-endlichekoerper/galois.tex
@@ -3,8 +3,561 @@
%
% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil
%
+% !TeX spellcheck = de_CH
\section{Galois-Körper
\label{buch:section:galoiskoerper}}
\rhead{Galois-Körper}
+Ein Körper $\Bbbk$ enthält mindestens die Zahlen $0$ und $1$.
+Die Null ist nötig, damit $\Bbbk$ eine Gruppe bezüglich der
+Addition ist, die immer ein neutrales Element, geschrieben $0$
+enthält.
+Die Eins ist nötig, damit $\Bbbk^*=\Bbbk\setminus\{0\}$ eine
+Gruppe bezüglich der Multiplikation ist, die immer eine neutrales
+Element, geschrieben $1$ enthält.
+Durch wiederholte Addition entstehen auch die Zahlen $2=1+1$, $3=2+1$
+und so weiter.
+Es sieht also so aus, als ob ein Körper immer unendliche viele
+Elemente enthalten müsste.
+Wie können also endliche Körper entstehen?
+In diesem Abschnitt sollen die sogenannten Galois-Körper $\mathbb{F}_p$
+mit genau $p$ Elementen konstruiert werden, die es für jede Primzahl $p$ gibt.
+Sie sind die Basis für weitere endliche Körper, die eine beliebige
+Primzahlpotenz $p^n$ von Elementen haben und die die Basis wichtiger
+kryptographischer Algorithmen sind.
+%
+% Arithmetik module $o$
+%
+\subsection{Arithmetik modulo $p$
+\label{buch:subsection:arithmetik-modulo-p}}
+Damit aus den Zahlen $0, 1, 2, \dots$ ein endlicher Körper werden kann,
+muss die Folge sich wiederholen.
+Schreiben wir $a_0=0,a_1=1,\dots$ für die Folge, dann muss es also
+ein Folgenelement $a_k$ geben und ein $n$ derart, dass $a_{k+n}=a_{k}$.
+Dies bedeutet, dass $k+n = k$ sein muss.
+Subtrahiert man $k$ auf beiden Seiten, dann folgt, dass $n=0$ sein muss.
+Damit ein endlicher Körper entsteht, muss also die Menge
+\begin{align*}
+&\{0,1,2,\dots,n-1\}
+\intertext{eine Gruppe bezüglich der Addition sein, und}
+&\{1,2,\dots,n-1\}
+\end{align*}
+eine Gruppe bezüglich der Multiplikation.
+
+\subsubsection{Restklassenring}
+Wir definieren die Grundoperationen in einer Menge, die mit den
+Zahlen $\{0,1,2,\dots,n-1\}$ identifiziert werden kann.
+
+\begin{definition}
+Die Zahlen $a,b\in\mathbb{Z}$ heissen {\em kongruent modulo $n$},
+geschrieben
+\[
+a\equiv b\mod n,
+\]
+wenn $a-b$ durch $n$ teilbar ist, also $n|(a-b)$.
+\end{definition}
+
+Die Zahlen mit gleichem Rest sind Äquivalenzklassen der Kongruenz modulo $n$.
+Die Zahlen mit Rest $k$ modulo $n$ bilden die {\em Restklasse}
+\[
+\llbracket k\rrbracket=\{\dots,k-2n,k-n,k,k+n,k+2n,\dots\} \subset\mathbb{Z}.
+\]
+Sie bilden eine endliche Menge, die man mit den Resten $0,1,\dots,n-1$
+identifizieren kann.
+
+\begin{definition}
+Die Menge $\mathbb{Z}/n\mathbb{Z}$ besteht aus den Restklassen
+$\llbracket 0\rrbracket,\llbracket 1\rrbracket,\dots,\llbracket n-1\rrbracket$,
+die auch einfach $0,1,\dots,n-1$ geschrieben werden.
+\end{definition}
+
+Beim Rechnen mit Resten modulo $n$ können Vielfache von $n$ ignoriert werden.
+Zum Beispiel gilt
+\[
+\begin{aligned}
+48&\equiv -1\mod 7& 48&=-1&&\text{in $\mathbb{Z}/7\mathbb{Z}$}
+\\
+3\cdot 5=15&\equiv 1\mod 7 & 3\cdot 5&=1&&\text{in $\mathbb{Z}/7\mathbb{Z}$.}
+\end{aligned}
+\]
+Das Beispiel zeigt, dass man mindestens in $\mathbb{Z}/7\mathbb{Z}$ mit
+Resten ganz ähnlich rechnen kann wie in $\mathbb{Q}$.
+In $\mathbb{Z}/7\mathbb{Z}$ scheinen $3$ und $5$ multiplikative inverse
+zu sein.
+
+Tatsächlich kann man auf den Restklassen eine Ringstruktur definieren.
+Dazu muss man sicherstellen, dass die Auswahl eines Repräsentanten keinen
+Einfluss auf den Rest hat.
+Der Rest $a$ kann jede Zahl der Form $a+kn$ darstellen.
+Ebenso kann der Rest $b$ jede zahl der Form $b+ln$ darstellen.
+Deren Summe ist $a+b+(k+l)n\equiv a+b\mod n$.
+Der Repräsentant des Restes hat also keinen Einfluss auf die Summe.
+
+Ebenso ist das Produkt der beiden Repräsentaten
+$(a+kn)\cdot(b+ln) = ab + (al+bk)n + kln^2=ab + (al+bk+kln)n\equiv ab\mod n$
+für jede Wahl von $k$ und $l$.
+Auch die Multiplikation ist also unabhängig vom gewählten Repräsentanten.
+
+\begin{definition}
+Die Menge $\mathbb{Z}/n\mathbb{Z}$ ist ein Ring,
+heisst der {\em Restklassenring modulo $n$}.
+\end{definition}
+
+\subsubsection{Division in $\mathbb{Z}/n\mathbb{Z}$}
+Um einen endlichen Körper zu erhalten, muss die Menge
+\[
+\mathbb{Z}/n\mathbb{Z} \setminus \{\llbracket0\rrbracket\}
+=
+\{
+\llbracket 1\rrbracket,
+\llbracket 2\rrbracket,
+\dots
+\llbracket n-q\rrbracket
+\}
+\]
+eine Gruppe bezüglich der Multiplikation sein.
+Insbesondere darf kein Produkt $a\cdot b$ mit Faktoren in
+$\mathbb{Z}/n\mathbb{Z} \setminus \{\llbracket0\rrbracket\}$
+zu Null werden.
+Für $n=15$ funktioniert dies nicht, das Produkt $3\cdot 5\equiv 0\mod 15$.
+Man nennt von Null verschiedene Faktoren, deren Produkt Null ist, einen
+{\em Nullteiler}.
+Falls sich $n=p_1\cdot p_2$ in zwei Faktoren zerlegen lässt, dann sind
+$p_1$ und $p_2$ Nullteiler in $\mathbb{Z}/n\mathbb{Z}$.
+Ein Körper kann also nur entstehen, wenn $n$ eine Primzahl ist.
+
+\begin{definition}
+Ist $p$ eine Primzahl, dann heisst $\mathbb{F}_p=\mathbb{Z}/p\mathbb{Z}$
+der Galois-Körper der Ordnung $p$.
+\end{definition}
+
+Diese Definition ist nur gerechtfertigt, wenn $\mathbb{F}_p^*$ tatsächlich
+eine Gruppe ist, wenn also jede Zahl zwischen $1$ und $p-1$ ein Inverses
+bezüglich der Multiplikation hat.
+Zu einem Rest $a\in\mathbb{F}_p^*$ muss also ein Rest $b$ gefunden werden,
+so dass $ab\equiv 1\mod p$.
+Dies ist gleichbedeutend mit Zahlen $b$ und $n$ derart, dass
+\begin{equation}
+ab+np=1.
+\label{buch:endliche-koerper:teilerfremd}
+\end{equation}
+In~\eqref{buch:endliche-koerper:teilerfremd} sind $a$ und $p$ gegeben,
+gesucht sind $b$ und $n$.
+
+In Abschnitt~\ref{buch:section:euklid} wurde gezeigt, wie der euklidische
+Algorithmus eine Gleichung der Form~\eqref{buch:endliche-koerper:teilerfremd}
+lösen kann, wenn die beiden gegebenen Zahlen $a$ und $p$ teilerfremd sind.
+Dies ist aber dadurch garantiert, dass $p$ eine Primzahl ist und $1\le a <p$.
+Die multiplikative Inverse von $a$ in $\mathbb{F}_p^*$ kann also mit
+Hilfe des euklidischen Algorithmus effizient gefunden werden.
+
+\begin{beispiel}
+Die kleinste Primzahl grösser als $2021$ ist $p=2063$.
+Was ist die Inverse von $2021$ in $\mathbb{F}_{2063}$?
+
+Wir führen den euklidischen Algorithmus für das Paar $(2063,2021)$ durch
+und erhalten
+\begin{center}
+\begin{tabular}{|>{$}c<{$}|>{$}r<{$}|>{$}r<{$}|>{$}r<{$}|>{$}r<{$}|}
+\hline
+k& a_k& b_k& q_k& r_k\\
+\hline
+0& 2063& 2021& 1& 42\\
+1& 2021& 42& 48& 5\\
+2& 42& 5& 8& 2\\
+3& 5& 2& 2& 1\\
+4& 2& 1& 2& 0\\
+\hline
+\end{tabular}
+\end{center}
+Die gesuchten Faktoren $b$ und $n$ können aus dem Matrizenprodukt
+$Q(q_n)\dots Q(q_0)$ gefunden werden:
+\begin{align*}
+Q
+&=
+\begin{pmatrix} 0& 1\\ 1& -2 \end{pmatrix}
+\begin{pmatrix} 0& 1\\ 1& -2 \end{pmatrix}
+\begin{pmatrix} 0& 1\\ 1& -8 \end{pmatrix}
+\begin{pmatrix} 0& 1\\ 1& -48 \end{pmatrix}
+\begin{pmatrix} 0& 1\\ 1& -1 \end{pmatrix}
+\\
+&=
+\begin{pmatrix} 0& 1\\ 1& -2 \end{pmatrix}
+\begin{pmatrix} 0& 1\\ 1& -2 \end{pmatrix}
+\begin{pmatrix} 0& 1\\ 1& -8 \end{pmatrix}
+\begin{pmatrix} 1& -1\\ -48& 49\end{pmatrix}
+\\
+&=
+\begin{pmatrix} 0& 1\\ 1& -2 \end{pmatrix}
+\begin{pmatrix} 0& 1\\ 1& -2 \end{pmatrix}
+\begin{pmatrix} -48& 49\\ 385& -393 \end{pmatrix}
+\\
+&=
+\begin{pmatrix} 0& 1\\ 1& -2 \end{pmatrix}
+\begin{pmatrix} 385& -393\\ -818& 835 \end{pmatrix}
+\\
+&=
+\begin{pmatrix} -818& 835\\ 2021& -2063\end{pmatrix}
+\end{align*}
+Daraus können wir ablesen, dass
+\[
+-818\cdot 2021 +835 \cdot 2063=1.
+\]
+Der Rest $ -818\equiv 1245\mod 2063$ ist also die multiplikative
+Inverse von $2021$ in $\mathbb{F}_{2063}$.
+\end{beispiel}
+
+\subsubsection{Der kleine Satz von Fermat}
+In $\mathbb{Z}$ wachsen die Potenzen einer Zahl immer weiter an.
+In einem endlichen Körper kann dies nicht gelten, da nur endlich
+viele Werte zur Verfügung stehen.
+Tatsächlich müssen die Potenzen einer von $0$ verschiedenen Zahl
+$a\in\mathbb{F}_p^*$ alle in $\mathbb{F}_p^*$ liegen.
+Es gibt aber nur $p-1$ Zahlen in $\mathbb{F}_p^*$, spätestens
+die Potenz mit Exponent $p$ muss also mit einer früheren Potenz
+übereinstimmen.
+Der kleine Satz von Fermat sagt etwas genauer: die $p$-te Potenz
+von $a$ ist genau die Zahl $a$:
+
+\begin{satz}[Kleiner Satz von Fermat]
+\label{buch:endliche-koerper:satz:fermat}
+In $\mathbb{F}_p$ gilt $a^p=a$ für alle $a\in\mathbb{F}_p^*$.
+\end{satz}
+
+Wir beweisen diesen Satz in der folgenden, traditionelleren
+Formulierung.
+
+\begin{satz}
+Für jede ganze Zahl $a>0$ gilt $p|(a^p-a)$ genau dann, wenn
+$p$ eine Primzahl ist.
+\end{satz}
+
+\begin{proof}[Beweis]
+Wir müssen zeigen, dass $p$ ein Teiler ist von $a^p-a$.
+Das nachfolgende kombinatorische Argument wird zum Beispiel
+von Mathologor auf seinem Youtube-Kanal im Video
+\url{https://youtu.be/_9fbBSxhkuA} illustriert.
+
+Zum Beiweis interpretieren wir die vorkommenden Zahlen kombinatorisch.
+Die Zahl $a^p$ ist die Anzahl der verschiedenen Perlenketten der Länge
+$p$, die sich aus Glasperlen mit $a$ verschiedenen Farben herstellen
+lassen.
+Davon bestehen $a$ Perlenketten aus nur einer einzigen Farbe.
+Die Zahl $a^p-a$ ist also die Anzahl der Perlenketten der Länge $p$
+aus Glasperlen mit $a$ verschiedenen Farben, die mindestens zwei
+verschiedene Farben verwenden.
+
+Wir stellen jetzt die Frage nach der Anzahl der geschlossenen
+Perlenketten der Länge $p$ als Glasperlen in $a$ verschiedenen Farben.
+Aus jeder geschlossenen Perlenkette lassen sich $p$ Perlenketten machen,
+indem man sie an einer der $p$ Trennstellen zwischen Perlen aufteilt.
+
+Wir müssen uns noch überlegen, unter welchen Voraussetzungen
+alle diese möglichen Auftrennungen zu verschiedenen Perlenketten
+führen.
+Zwei Trennstellen, die $k$-Perlen auseinander liegen, führen nur dann
+zur gleichen Perlenkette, wenn die geschlossenen Ketten durch Drehung
+um $k$ Perlen ineinander übergehen.
+Dies bedeutet aber auch, dass sich das Farbmuster alle $k$-Perlen
+wiederholen muss.
+Folglich ist $k$ ein Teiler von $p$.
+$p$ verschiedene Perlenketten entstehen also immer genau dann, wenn $p$
+eine Primzahl ist.
+
+Wir schliessen daraus, dass $a^p-a$ durch $p$ teilbar ist, genau dann,
+wenn $p$ eine Primzahl ist.
+\end{proof}
+
+Der kleine Satz von Fermat kann auch dazu verwendet werden, Potenzen
+in $\mathbb{F}_p$ zu vereinfachen, wie das folgende Beispiel\footnote{%
+Das Beispiel stammt aus dem Video~\url{https://youtu.be/_9fbBSxhkuA},
+welches Mathologer zu Halloween 2018 veröffentlich hat}
+zeigt.
+
+\begin{beispiel}
+Man berechnet in $\mathbb{F}_{13}$ die Potenz $11^{666}$.
+Nach dem kleinen Satz von Fermat ist $11^{13} = 11$ oder $11^{12}=1$,
+man kann also den Exponenten modulo $12$ reduzieren.
+Weil $666=55\cdot 12 + 6$ erhält man $11^{666}= 11^6$.
+Da die Potenzen von $11$ etwas mühsam zu berechnen sind,
+kann man sie wegen $11=-2$ in $\mathbb{F}_{13}$ auch als Potenzen
+von $-2$ bekommen.
+Aber $(-2)^6 = 64 = -1 \in\mathbb{F}_{13}$.
+\end{beispiel}
+
+In der Form $a^{p-1}=1$ in $\mathbb{F}_p$ liefert der kleine Satz
+von Fermat die Inverse von $a$ als $a^{p-2}$.
+Dies bedeutet zum Beispiel, dass in $\mathbb{F}_3$ jede von $0$
+verschiedene Zahl zu sich selbst invers ist: $1\cdot 1=1$ und $2\cdot 2=1$.
+Diese Art, die Inverse zu bestimmen, ist allerdings nicht effizienter
+als der euklidische Algorithmus, aber sie ist manchmal für
+theoretische Überlegungen nützlich.
+
+\subsubsection{Der Satz von Wilson}
+Der Satz von Wilson ermöglicht, die multiplikative Inverse auf eine
+andere Art zu berechnen.
+Sie ist zwar nicht unbedingt einfacher, aber manchmal nützlich für
+theoretische Überlegungen.
+
+\begin{satz}[Wilson]
+Die ganze Zahl $p\ge 2$ ist genau dann eine Primzahl, wenn
+$(p-1)!\equiv -1\mod p$.
+\end{satz}
+
+\begin{proof}[Beweis]
+Wenn $p$ keine Primzahl ist, dann lässt sich $p$ in Faktoren
+$p=n_1\cdot n_2=p$ zerlegen.
+Beide Faktoren kommen in der Liste $1,2,\dots,p-1$ vor.
+Insbesondere haben $p=n_1n_2$ und $(p-1)!$ mindestens einen
+der Faktoren $n_1$ oder $n_2$ gemeinsam, wir können annehmen,
+dass $n_1$ dieser Faktor ist.
+Es folgt, dass der grösste gemeinsame Teiler von $p$ und $(p-1)!$
+grösser als $n_1$ ist, auch $(p-1)!$ ein Vielfaches von $n_1$ in
+$\mathbb{F}_p$.
+Insbesondere kann $(p-1)!$ nicht $-1\in\mathbb{F}_p$ sein.
+
+Ist andererseits $p$ eine Primzahl, dann sind die Zahlen $1, 2,\dots,p-1$
+alle invertierbar in $\mathbb{F}_p$.
+Die Zahlen $1$ und $-1\equiv p-1\mod p$ sind zu sich selbst invers,
+da $1\cdot 1=1$ und $(-1)\cdot(-1)=1$.
+Wenn eine Zahl $a$ zu sich selbst invers ist in $\mathbb{F}_p$,
+dann ist $a^2-1=0$ in $\mathbb{F}_p$.
+Daher ist auch $(a+1)(a-1)=0$, in $\mathbb{F}_p$ muss daher einer
+der Faktoren $0$ sein, also $a=-1$ oder $a=1$ in $\mathbb{F}_p$.
+
+Zu jeder Zahl $a\in\{2,\dots,p-2\}$ liegt die Inverse $a^{-1}$
+ebenfalls in diesen Bereich und ist verschieden von $a$: $a^{-1}\ne a$.
+Das Produkt der Zahlen
+$2\cdot 3 \cdot\ldots\cdot (p-2)$ besteht also aus zueinander inversen
+Paaren.
+Es folgt
+\[
+2\cdot 3 \cdot\ldots\cdot (p-2) = 1.
+\]
+Multipliziert man dies mit $p-1=-1\in\mathbb{F}_p$, folgt
+die Behauptung des Satzes.
+\end{proof}
+
+Mit dem Satz von Wilson kann man die Inverse einer beliebigen Zahl
+$a\in\mathbb{F}_p$ finden.
+Dazu verwendet man, dass $a$ einer der Faktoren in $(p-1)!$ ist.
+Lässt man diesen Faktor weg, erhält man eine Zahl
+\[
+b = 1\cdot 2 \cdot \ldots\cdot \hat{a}\cdot\ldots\cdot (p-1),
+\]
+wobei der Hut bedeutet, dass der Faktor $a$ weggelassen werden soll.
+Nach dem Satz von Wilson ist $ab=-1$ in $\mathbb{F}_p$, also ist
+$-b$ die multiplikative Inverse von $a$.
+
+\begin{beispiel}
+Die Inverse von $2\in\mathbb{F}_7$ ist
+\begin{align*}
+a^{-1}
+&=
+-\underbrace{1\cdot 3\cdot 4}_{}\cdot \underbrace{5\cdot 6}_{}
+\\
+&=
+-5\cdot 2
+=
+-3
+=4
+\end{align*}
+Tatsächlich ist $2\cdot 4=8\equiv 1\mod 7$.
+\end{beispiel}
+
+%
+% Charakteristik
+%
+\subsection{Charakteristik
+\label{buch:subsection:charakteristik}}
+In diesem Abschnitt zeigen wir, dass jeder Körper $\Bbbk$ eine Erweiterung
+entweder von $\mathbb{Q}$ oder eines endlichen Körpers $\mathbb{F}_p$ ist.
+
+\subsubsection{Primkörper}
+Sei $\Bbbk$ ein Körper.
+Er enthält mindestens die Zahlen $0$ und $1$ und alle Vielfachen davon.
+Wenn alle Vielfachen in $\Bbbk$ von $0$ verschieden sind, dann
+bilden Sie ein Bild der ganzen Zahlen $\mathbb{Z}\subset\Bbbk$.
+Damit müssen dann aber auch alle Brüche in $\Bbbk$ enhalten sein,
+es folgt also, dass $\mathbb{Q}\subset\Bbbk$ sein muss.
+
+Wenn andererseits eines der Vielfachen von $1$ in $\Bbbk$
+verschwindet, dann wissen wir aus
+Abschnitt~\ref{buch:subsection:arithmetik-modulo-p}, dass
+der Körper $\mathbb{F}_p$ in $\Bbbk$ enthalten sein muss.
+Dies ist der kleinste Teilkörper, der in $\Bbbk$ enthalten ist.
+
+\begin{definition}
+Der kleinste Teilkörper eines Körpers $\Bbbk$ heisst der
+{\em Primkörper} von $\Bbbk$.
+\end{definition}
+
+Der Primkörper erlaubt jetzt, die Charakteristik eines Körpers $\Bbbk$
+zu definieren.
+
+\begin{definition}
+Die Charakteristik eines Körpers $\Bbbk$ ist $p$, wenn der Primkörper
+$\mathbb{F}_p$ ist.
+Falls der Primkörper $\mathbb{Q}$ ist, ist die Charakteristik $0$.
+\end{definition}
+
+Die Charakteristik hat wichtige Auswirkungen darauf, wie in einem Körper
+gerechnet wird.
+Endliche Körper enthalten immer einen Körper von Primzahl-Ordnung und
+haben damit immer Primcharakteristik.
+Ein Körper mit Charakteristik $0$ enthält immer unendliche viele
+Elemente.
+
+\subsubsection{Teilbarkeit von Binomialkoeffizienten}
+\begin{figure}
+\centering
+\includegraphics{chapters/30-endlichekoerper/images/binomial2.pdf}
+\caption{Binomialkoeffizienten module $2$ im Pascal-Dreieck.
+Auf den rot hinterlegten Zeilen, die zu Exponenten der Form $2^k$ gehören,
+sind alle Koeffizienten ausser dem ersten und letzten durch $2$ teilbar.
+\label{buch:endliche-koerper:fig:binomial2}}
+\end{figure}
+\bgroup
+\input{chapters/30-endlichekoerper/images/farben.tex}
+\begin{figure}
+\centering
+\includegraphics{chapters/30-endlichekoerper/images/binomial5.pdf}
+\caption{Binomialkoeffizienten module $5$ im Pascal-Dreieck.
+Die von $0$ verschiedenen Reste werden durch Farben dargestellt:
+$1=\text{schwarz}$,
+$2=\text{\color{farbe2}rot}$,
+$3=\text{\color{farbe3}grün}$,
+$4=\text{\color{farbe4}blau}$.
+Auf den gelb hinterlegten Zeilen, die zu Exponenten der Form $5^k$ gehören,
+sind alle Koeffizienten ausser dem ersten und letzten durch $5$ teilbar.
+\label{buch:endliche-koerper:fig:binomial5}}
+\end{figure}
+\egroup
+Die Abbildung~\ref{buch:endliche-koerper:fig:binomial2} zeigt den
+Rest bei Teilung durch $2$ der Binomialkoeffizienten.
+Man kann daraus ablesen, dass $\binom{n}{m}\equiv 0\mod 2$ für $n=2^k$
+und $0<m<n$.
+Abbildung~\ref{buch:endliche-koerper:fig:binomial5} zeigt das Pascal-Dreieck
+auch noch für $p=5$.
+Hier ist auch schön die Selbstähnlichkeit des Pascal-Dreiecks erkennbar.
+Ersetzt man die ``5er-Dreiecke'' durch ein volles Dreieck mit der Farbe
+des kleinen Dreiecks an seiner Spitze, entsteht wieder das ursprüngliche
+Pascal-Dreieck.
+Dabei gehen die Zeilen aus lauter Nullen ausser an den Enden ineinander über.
+
+\begin{satz}
+\label{buch:endliche-koerper:satz:binom}
+Sei $p$ eine Primzahl, dann ist
+\[
+\binom{p}{m} \equiv 0\mod p
+\]
+für $0<m<n$.
+\end{satz}
+
+\begin{proof}[Beweis]
+Für den Binomialkoeffizienten gilt
+\[
+\binom{p}{m}
+=
+\frac{p\cdot (p-1)\cdot(p-2)\cdot\ldots\cdot (p-m+1)}{1\cdot 2\cdot 3\cdot\ldots\cdot m}.
+\]
+Für $m<p$ kann keiner der Faktoren im Nenner $p$ sein, der Faktor $p$
+im Zähler kann also nicht weggekürzt werden, so dass der Binomialkoeffizient
+durch $p$ teilbar sein muss.
+\end{proof}
+
+\begin{satz}
+\label{buch:endliche-koerper:satz:binomk}
+Sei $p$ eine Primzahl, dann ist
+\begin{equation}
+\binom{p^k}{m} \equiv 0\mod p
+\label{buch:endliche-koerper:eqn:a+b^p^k}
+\end{equation}
+für $0<m<p^k$
+\end{satz}
+
+\begin{proof}[Beweis]
+Wir wissen aus Satz \ref{buch:endliche-koerper:satz:binom}, dass
+\begin{equation}
+(a+b)^p = a^p+b^p.
+\label{buch:endliche-koerper:eqn:a+b^p}
+\end{equation}
+Wir müssen zeigen, dass $(a+b)^{p^k}=a^{p^k}+b^{p^k}$ gilt.
+Wir verwenden vollständige Induktion,
+\eqref{buch:endliche-koerper:eqn:a+b^p} ist die Induktionsverankerung.
+Wir nehmen jetzt im Sinne der Induktionsannahme an, dass
+\eqref{buch:endliche-koerper:eqn:a+b^p^k} für ein bestimmtes $k$ gilt.
+Dann ist
+\[
+(a+b)^{p^{k+1}}
+=
+(a+b)^{p^k\cdot p}
+=
+\bigl((a+b)^{p^k}\bigr)^p
+=
+(a^{p^k}+b^{p^k})^p
+=
+a^{p^k\cdot p}+b^{p^k\cdot p}
+=
+a^{p^{k+1}}
++
+b^{p^{k+1}},
+\]
+also die Behauptung für $k+1$.
+Damit ist
+\eqref{buch:endliche-koerper:eqn:a+b^p^k} für alle $k$ bewiesen.
+\end{proof}
+
+Die Aussage von Satz~\ref{buch:endliche-koerper:satz:binomk} kann man
+auch im Körper $\mathbb{F}_p$ formulieren:
+
+\begin{satz}
+\label{buch:endliche-koerper:satz:binomFp}
+In $\mathbb{F}_p$ gilt
+\[
+\binom{p^k}{m}=0
+\]
+für beliebige $k>0$ und $0<m<p^k$.
+\end{satz}
+
+\subsubsection{Frobenius-Automorphismus}
+Die Abbildung $x\mapsto x^n$ ist weit davon entfernt, sich mit den
+algebraischen Strukturen zu vertragen.
+Zum Beispiel kann man nicht erwarten, dass $(a+b)^n = a^n + b^n$,
+denn nach der binomischen Formel
+\begin{equation}
+(a+b)^n
+=
+\sum_{k=0}^n \binom{n}{k} a^k b^{n-k}
+=
+a^n + \binom{n}{1}a^{n-1}b + \dots + \binom{n}{n-1}ab^{n-1} + b^n
+\label{buch:endliche-koerper:fig:binomischeformel}
+\end{equation}
+gibt es zwischen den Termen an den Enden des Ausdrucks noch viele
+Zwischenterme, die normalerweise nicht verschwinden.
+
+Ganz anders sieht die Situation aus, wenn $n=p$ ist.
+Nach Satz~\ref{buch:endliche-koerper:satz:binomFp} verschwinden die
+Binomialkoeffizienten der Zwischenterme der Summe
+\eqref{buch:endliche-koerper:fig:binomischeformel}
+als Elemente von $\mathbb{F}_p$.
+Daher gilt
+
+\begin{satz}[Frobenius-Automorphismus]
+In einem Körper $\Bbbk$ der Charakteristik $p$ ist die Abbildung
+$x\mapsto x^p$ ist ein Automorphismus, der den Primkörper
+$\mathbb{F}_p\subset\Bbbk$ fest lässt.
+\end{satz}
+
+\begin{proof}[Beweis]
+Wir müssen uns nur noch davon überzeugen, dass $\mathbb{F}_p\subset\Bbbk$
+fest bleibt.
+Nach dem kleine Satz von Fermat~\ref{buch:endliche-koerper:satz:fermat}
+ist $a^p=a$ für alle $a\in\mathbb{F}_p$, der Frobenius-Automorphismus
+lässt also alle Elemente von $\mathbb{F}_p$ fest.
+\end{proof}
+
+\begin{definition}
+Der Automorphismus $x\mapsto x^p$ heisst {\em Frobenius-Automorphismus}.
+\end{definition}
diff --git a/buch/chapters/30-endlichekoerper/images/Makefile b/buch/chapters/30-endlichekoerper/images/Makefile
new file mode 100644
index 0000000..c49fe56
--- /dev/null
+++ b/buch/chapters/30-endlichekoerper/images/Makefile
@@ -0,0 +1,12 @@
+#
+# Makefile
+#
+# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+#
+all: binomial2.pdf binomial5.pdf
+
+binomial2.pdf: binomial2.tex
+ pdflatex binomial2.tex
+
+binomial5.pdf: binomial5.tex farben.tex
+ pdflatex binomial5.tex
diff --git a/buch/chapters/30-endlichekoerper/images/binomial2.pdf b/buch/chapters/30-endlichekoerper/images/binomial2.pdf
new file mode 100644
index 0000000..92be742
--- /dev/null
+++ b/buch/chapters/30-endlichekoerper/images/binomial2.pdf
Binary files differ
diff --git a/buch/chapters/30-endlichekoerper/images/binomial2.tex b/buch/chapters/30-endlichekoerper/images/binomial2.tex
new file mode 100644
index 0000000..77ccb57
--- /dev/null
+++ b/buch/chapters/30-endlichekoerper/images/binomial2.tex
@@ -0,0 +1,306 @@
+%
+% binomial2.tex -- Parität der Binomialkoeffizienten
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\def\s{0.37}
+\pgfmathparse{\s*sqrt(3)/2}
+\xdef\ys{\pgfmathresult}
+\pgfmathparse{\s/2}
+\xdef\xs{\pgfmathresult}
+
+%
+% #1 = n
+% #2 = k
+%
+\def\dreieck#1#2{
+ \fill[color=black] ({\xs*(-#1+2*#2)},{-\ys*#1})
+ -- ({\xs*(-#1+2*#2-1)},{-\ys*(#1+1)})
+ -- ({\xs*(-#1+2*#2+1)},{-\ys*(#1+1)}) -- cycle;
+}
+\def\zeile#1{
+ \fill[color=red!40]
+ ({\xs*(-#1)},{-\ys*#1})
+ -- ({\xs*(-#1-1)},{-\ys*(#1+1)})
+ -- ({\xs*(#1+1)},{-\ys*(#1+1)})
+ -- ({\xs*(#1)},{-\ys*#1}) -- cycle;
+}
+
+\zeile{2}
+\zeile{4}
+\zeile{8}
+\zeile{16}
+\zeile{32}
+
+\dreieck{0}{0}
+
+\dreieck{1}{0}
+\dreieck{1}{1}
+
+\dreieck{2}{0}
+\dreieck{2}{2}
+
+\dreieck{3}{0}
+\dreieck{3}{1}
+\dreieck{3}{2}
+\dreieck{3}{3}
+
+\dreieck{4}{0}
+\dreieck{4}{4}
+
+\dreieck{5}{0}
+\dreieck{5}{1}
+\dreieck{5}{4}
+\dreieck{5}{5}
+
+\dreieck{6}{0}
+\dreieck{6}{2}
+\dreieck{6}{4}
+\dreieck{6}{6}
+
+\dreieck{7}{0}
+\dreieck{7}{1}
+\dreieck{7}{2}
+\dreieck{7}{3}
+\dreieck{7}{4}
+\dreieck{7}{5}
+\dreieck{7}{6}
+\dreieck{7}{7}
+
+\dreieck{8}{0}
+\dreieck{8}{8}
+
+\dreieck{9}{0}
+\dreieck{9}{1}
+\dreieck{9}{8}
+\dreieck{9}{9}
+
+\dreieck{10}{0}
+\dreieck{10}{2}
+\dreieck{10}{8}
+\dreieck{10}{10}
+
+\dreieck{11}{0}
+\dreieck{11}{1}
+\dreieck{11}{2}
+\dreieck{11}{3}
+\dreieck{11}{8}
+\dreieck{11}{9}
+\dreieck{11}{10}
+\dreieck{11}{11}
+
+\dreieck{12}{0}
+\dreieck{12}{4}
+\dreieck{12}{8}
+\dreieck{12}{12}
+
+\dreieck{13}{0}
+\dreieck{13}{1}
+\dreieck{13}{4}
+\dreieck{13}{5}
+\dreieck{13}{8}
+\dreieck{13}{9}
+\dreieck{13}{12}
+\dreieck{13}{13}
+
+\dreieck{14}{0}
+\dreieck{14}{2}
+\dreieck{14}{4}
+\dreieck{14}{6}
+\dreieck{14}{8}
+\dreieck{14}{10}
+\dreieck{14}{12}
+\dreieck{14}{14}
+
+\dreieck{15}{0}
+\dreieck{15}{1}
+\dreieck{15}{2}
+\dreieck{15}{3}
+\dreieck{15}{4}
+\dreieck{15}{5}
+\dreieck{15}{6}
+\dreieck{15}{7}
+\dreieck{15}{8}
+\dreieck{15}{9}
+\dreieck{15}{10}
+\dreieck{15}{11}
+\dreieck{15}{12}
+\dreieck{15}{13}
+\dreieck{15}{14}
+\dreieck{15}{15}
+
+\dreieck{16}{0}
+\dreieck{16}{16}
+
+\dreieck{17}{0}
+\dreieck{17}{1}
+\dreieck{17}{16}
+\dreieck{17}{17}
+
+\dreieck{18}{0}
+\dreieck{18}{2}
+\dreieck{18}{16}
+\dreieck{18}{18}
+
+\dreieck{19}{0}
+\dreieck{19}{1}
+\dreieck{19}{2}
+\dreieck{19}{3}
+\dreieck{19}{16}
+\dreieck{19}{17}
+\dreieck{19}{18}
+\dreieck{19}{19}
+
+\dreieck{20}{0}
+\dreieck{20}{4}
+\dreieck{20}{16}
+\dreieck{20}{20}
+
+\dreieck{21}{0}
+\dreieck{21}{1}
+\dreieck{21}{4}
+\dreieck{21}{5}
+\dreieck{21}{16}
+\dreieck{21}{17}
+\dreieck{21}{20}
+\dreieck{21}{21}
+
+\dreieck{22}{0}
+\dreieck{22}{2}
+\dreieck{22}{4}
+\dreieck{22}{6}
+\dreieck{22}{16}
+\dreieck{22}{18}
+\dreieck{22}{20}
+\dreieck{22}{22}
+
+\dreieck{23}{0}
+\dreieck{23}{1}
+\dreieck{23}{2}
+\dreieck{23}{3}
+\dreieck{23}{4}
+\dreieck{23}{5}
+\dreieck{23}{6}
+\dreieck{23}{7}
+\dreieck{23}{16}
+\dreieck{23}{17}
+\dreieck{23}{18}
+\dreieck{23}{19}
+\dreieck{23}{20}
+\dreieck{23}{21}
+\dreieck{23}{22}
+\dreieck{23}{23}
+
+\dreieck{24}{0}
+\dreieck{24}{8}
+\dreieck{24}{16}
+\dreieck{24}{24}
+
+\dreieck{25}{0}
+\dreieck{25}{1}
+\dreieck{25}{8}
+\dreieck{25}{9}
+\dreieck{25}{16}
+\dreieck{25}{17}
+\dreieck{25}{24}
+\dreieck{25}{25}
+
+\dreieck{26}{0}
+\dreieck{26}{2}
+\dreieck{26}{8}
+\dreieck{26}{10}
+\dreieck{26}{16}
+\dreieck{26}{18}
+\dreieck{26}{24}
+\dreieck{26}{26}
+
+\dreieck{27}{0}
+\dreieck{27}{1}
+\dreieck{27}{2}
+\dreieck{27}{3}
+\dreieck{27}{8}
+\dreieck{27}{9}
+\dreieck{27}{10}
+\dreieck{27}{11}
+\dreieck{27}{16}
+\dreieck{27}{17}
+\dreieck{27}{18}
+\dreieck{27}{19}
+\dreieck{27}{24}
+\dreieck{27}{25}
+\dreieck{27}{26}
+\dreieck{27}{27}
+
+\dreieck{28}{0}
+\dreieck{28}{4}
+\dreieck{28}{8}
+\dreieck{28}{12}
+\dreieck{28}{16}
+\dreieck{28}{20}
+\dreieck{28}{24}
+\dreieck{28}{28}
+
+\dreieck{29}{0}
+\dreieck{29}{1}
+\dreieck{29}{4}
+\dreieck{29}{5}
+\dreieck{29}{8}
+\dreieck{29}{9}
+\dreieck{29}{12}
+\dreieck{29}{13}
+\dreieck{29}{16}
+\dreieck{29}{17}
+\dreieck{29}{20}
+\dreieck{29}{21}
+\dreieck{29}{24}
+\dreieck{29}{25}
+\dreieck{29}{28}
+\dreieck{29}{29}
+
+\foreach \k in {0,2,...,30}{
+ \dreieck{30}{\k}
+}
+
+\foreach \k in {0,...,31}{
+ \dreieck{31}{\k}
+}
+
+\dreieck{32}{0}
+\dreieck{32}{32}
+
+\def\etikett#1#2#3{
+ \node at ({\xs*(-#1+2*#2)},{-\ys*(#1+0.5)}) {$#3$};
+}
+
+\etikett{0}{-2}{n=0}
+\etikett{2}{-2}{n=2}
+\etikett{4}{-2}{n=4}
+\etikett{8}{-2}{n=8}
+\etikett{16}{-2}{n=16}
+\etikett{32}{-2}{n=32}
+
+\def\exponent#1#2#3{
+ \node at ({\xs*(-#1+2*#2)},{-\ys*(#1+0.5)}) [rotate=60] {$#3$};
+}
+
+\exponent{-2}{0}{k=0}
+\exponent{0}{2}{k=2}
+\exponent{2}{4}{k=4}
+\exponent{6}{8}{k=8}
+\exponent{14}{16}{k=16}
+\exponent{30}{32}{k=32}
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/30-endlichekoerper/images/binomial5.pdf b/buch/chapters/30-endlichekoerper/images/binomial5.pdf
new file mode 100644
index 0000000..1b2a813
--- /dev/null
+++ b/buch/chapters/30-endlichekoerper/images/binomial5.pdf
Binary files differ
diff --git a/buch/chapters/30-endlichekoerper/images/binomial5.tex b/buch/chapters/30-endlichekoerper/images/binomial5.tex
new file mode 100644
index 0000000..750b7e0
--- /dev/null
+++ b/buch/chapters/30-endlichekoerper/images/binomial5.tex
@@ -0,0 +1,379 @@
+%
+% binomial2.tex -- Parität der Binomialkoeffizienten
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\definecolor{farbe0}{rgb}{1,1,1}
+\input{farben.tex}
+
+\def\s{0.37}
+\pgfmathparse{\s*sqrt(3)/2}
+\xdef\ys{\pgfmathresult}
+\pgfmathparse{\s/2}
+\xdef\xs{\pgfmathresult}
+
+%
+% #1 = n
+% #2 = k
+%
+\def\dreieck#1#2#3{
+ \fill[color=farbe#3] ({\xs*(-#1+2*#2)},{-\ys*#1})
+ -- ({\xs*(-#1+2*#2-1)},{-\ys*(#1+1)})
+ -- ({\xs*(-#1+2*#2+1)},{-\ys*(#1+1)}) -- cycle;
+ \node[color=white] at ( ({\xs*(-#1+2*#2)},{-\ys*(#1+0.5)-0.03}) {$\scriptstyle #3$};
+}
+
+\definecolor{gelb}{rgb}{1,0.8,0.2}
+\def\zeile#1{
+ \fill[color=gelb]
+ ({\xs*(-#1)},{-\ys*#1})
+ -- ({\xs*(-#1-1)},{-\ys*(#1+1)})
+ -- ({\xs*(#1+1)},{-\ys*(#1+1)})
+ -- ({\xs*(#1)},{-\ys*#1}) -- cycle;
+}
+
+\zeile{5}
+\zeile{25}
+
+\dreieck{0}{0}{1}
+
+\dreieck{1}{0}{1}
+\dreieck{1}{1}{1}
+
+\dreieck{2}{0}{1}
+\dreieck{2}{1}{2}
+\dreieck{2}{2}{1}
+
+\dreieck{3}{0}{1}
+\dreieck{3}{1}{3}
+\dreieck{3}{2}{3}
+\dreieck{3}{3}{1}
+
+\dreieck{4}{0}{1}
+\dreieck{4}{1}{4}
+\dreieck{4}{2}{1}
+\dreieck{4}{3}{4}
+\dreieck{4}{4}{1}
+
+\dreieck{5}{0}{1}
+\dreieck{5}{5}{1}
+
+\dreieck{6}{0}{1}
+\dreieck{6}{1}{1}
+\dreieck{6}{5}{1}
+\dreieck{6}{6}{1}
+
+\dreieck{7}{0}{1}
+\dreieck{7}{1}{2}
+\dreieck{7}{2}{1}
+\dreieck{7}{5}{1}
+\dreieck{7}{6}{2}
+\dreieck{7}{7}{1}
+
+\dreieck{8}{0}{1}
+\dreieck{8}{1}{3}
+\dreieck{8}{2}{3}
+\dreieck{8}{3}{1}
+\dreieck{8}{5}{1}
+\dreieck{8}{6}{3}
+\dreieck{8}{7}{3}
+\dreieck{8}{8}{1}
+
+\dreieck{9}{0}{1}
+\dreieck{9}{1}{4}
+\dreieck{9}{2}{1}
+\dreieck{9}{3}{4}
+\dreieck{9}{4}{1}
+\dreieck{9}{5}{1}
+\dreieck{9}{6}{4}
+\dreieck{9}{7}{1}
+\dreieck{9}{8}{4}
+\dreieck{9}{9}{1}
+
+\dreieck{10}{0}{1}
+\dreieck{10}{5}{2}
+\dreieck{10}{10}{1}
+
+\dreieck{11}{0}{1}
+\dreieck{11}{1}{1}
+\dreieck{11}{5}{2}
+\dreieck{11}{6}{2}
+\dreieck{11}{10}{1}
+\dreieck{11}{11}{1}
+
+\dreieck{12}{0}{1}
+\dreieck{12}{1}{2}
+\dreieck{12}{2}{1}
+\dreieck{12}{5}{2}
+\dreieck{12}{6}{4}
+\dreieck{12}{7}{2}
+\dreieck{12}{10}{1}
+\dreieck{12}{11}{2}
+\dreieck{12}{12}{1}
+
+\dreieck{13}{0}{1}
+\dreieck{13}{1}{3}
+\dreieck{13}{2}{3}
+\dreieck{13}{3}{1}
+\dreieck{13}{5}{2}
+\dreieck{13}{6}{1}
+\dreieck{13}{7}{1}
+\dreieck{13}{8}{2}
+\dreieck{13}{10}{1}
+\dreieck{13}{11}{3}
+\dreieck{13}{12}{3}
+\dreieck{13}{13}{1}
+
+\dreieck{14}{0}{1}
+\dreieck{14}{1}{4}
+\dreieck{14}{2}{1}
+\dreieck{14}{3}{4}
+\dreieck{14}{4}{1}
+\dreieck{14}{5}{2}
+\dreieck{14}{6}{3}
+\dreieck{14}{7}{2}
+\dreieck{14}{8}{3}
+\dreieck{14}{9}{2}
+\dreieck{14}{10}{1}
+\dreieck{14}{11}{4}
+\dreieck{14}{12}{1}
+\dreieck{14}{13}{4}
+\dreieck{14}{14}{1}
+
+\dreieck{15}{0}{1}
+\dreieck{15}{5}{3}
+\dreieck{15}{10}{3}
+\dreieck{15}{15}{1}
+
+\dreieck{16}{0}{1}
+\dreieck{16}{1}{1}
+\dreieck{16}{5}{3}
+\dreieck{16}{6}{3}
+\dreieck{16}{10}{3}
+\dreieck{16}{11}{3}
+\dreieck{16}{15}{1}
+\dreieck{16}{16}{3}
+
+\dreieck{17}{0}{1}
+\dreieck{17}{1}{2}
+\dreieck{17}{2}{1}
+\dreieck{17}{5}{3}
+\dreieck{17}{6}{1}
+\dreieck{17}{7}{3}
+\dreieck{17}{10}{3}
+\dreieck{17}{11}{1}
+\dreieck{17}{12}{3}
+\dreieck{17}{15}{1}
+\dreieck{17}{16}{2}
+\dreieck{17}{17}{1}
+
+\dreieck{18}{0}{1}
+\dreieck{18}{1}{3}
+\dreieck{18}{2}{3}
+\dreieck{18}{3}{1}
+\dreieck{18}{5}{3}
+\dreieck{18}{6}{4}
+\dreieck{18}{7}{4}
+\dreieck{18}{8}{3}
+\dreieck{18}{10}{3}
+\dreieck{18}{11}{4}
+\dreieck{18}{12}{4}
+\dreieck{18}{13}{3}
+\dreieck{18}{15}{1}
+\dreieck{18}{16}{3}
+\dreieck{18}{17}{3}
+\dreieck{18}{18}{1}
+
+\dreieck{19}{0}{1}
+\dreieck{19}{1}{4}
+\dreieck{19}{2}{1}
+\dreieck{19}{3}{4}
+\dreieck{19}{4}{1}
+\dreieck{19}{5}{3}
+\dreieck{19}{6}{2}
+\dreieck{19}{7}{3}
+\dreieck{19}{8}{2}
+\dreieck{19}{9}{3}
+\dreieck{19}{10}{3}
+\dreieck{19}{11}{2}
+\dreieck{19}{12}{3}
+\dreieck{19}{13}{2}
+\dreieck{19}{14}{3}
+\dreieck{19}{15}{1}
+\dreieck{19}{16}{4}
+\dreieck{19}{17}{1}
+\dreieck{19}{18}{4}
+\dreieck{19}{19}{1}
+
+\dreieck{20}{0}{1}
+\dreieck{20}{5}{4}
+\dreieck{20}{10}{1}
+\dreieck{20}{15}{4}
+\dreieck{20}{20}{1}
+
+\dreieck{21}{0}{1}
+\dreieck{21}{1}{1}
+\dreieck{21}{5}{4}
+\dreieck{21}{6}{4}
+\dreieck{21}{10}{1}
+\dreieck{21}{11}{1}
+\dreieck{21}{15}{4}
+\dreieck{21}{16}{4}
+\dreieck{21}{20}{1}
+\dreieck{21}{21}{1}
+
+\dreieck{22}{0}{1}
+\dreieck{22}{1}{2}
+\dreieck{22}{2}{1}
+\dreieck{22}{5}{4}
+\dreieck{22}{6}{3}
+\dreieck{22}{7}{4}
+\dreieck{22}{10}{1}
+\dreieck{22}{11}{2}
+\dreieck{22}{12}{1}
+\dreieck{22}{15}{4}
+\dreieck{22}{16}{3}
+\dreieck{22}{17}{4}
+\dreieck{22}{20}{1}
+\dreieck{22}{21}{2}
+\dreieck{22}{22}{1}
+
+\dreieck{23}{0}{1}
+\dreieck{23}{1}{3}
+\dreieck{23}{2}{3}
+\dreieck{23}{3}{1}
+\dreieck{23}{5}{4}
+\dreieck{23}{6}{2}
+\dreieck{23}{7}{2}
+\dreieck{23}{8}{4}
+\dreieck{23}{10}{1}
+\dreieck{23}{11}{3}
+\dreieck{23}{12}{3}
+\dreieck{23}{13}{1}
+\dreieck{23}{15}{4}
+\dreieck{23}{16}{2}
+\dreieck{23}{17}{2}
+\dreieck{23}{18}{4}
+\dreieck{23}{20}{1}
+\dreieck{23}{21}{3}
+\dreieck{23}{22}{3}
+\dreieck{23}{23}{1}
+
+\dreieck{24}{0}{1}
+\dreieck{24}{1}{4}
+\dreieck{24}{2}{1}
+\dreieck{24}{3}{4}
+\dreieck{24}{4}{1}
+\dreieck{24}{5}{4}
+\dreieck{24}{6}{1}
+\dreieck{24}{7}{4}
+\dreieck{24}{8}{1}
+\dreieck{24}{9}{4}
+\dreieck{24}{10}{1}
+\dreieck{24}{11}{4}
+\dreieck{24}{12}{1}
+\dreieck{24}{13}{4}
+\dreieck{24}{14}{1}
+\dreieck{24}{15}{4}
+\dreieck{24}{16}{1}
+\dreieck{24}{17}{4}
+\dreieck{24}{18}{1}
+\dreieck{24}{19}{4}
+\dreieck{24}{20}{1}
+\dreieck{24}{21}{4}
+\dreieck{24}{22}{1}
+\dreieck{24}{23}{4}
+\dreieck{24}{24}{1}
+
+\dreieck{25}{0}{1}
+\dreieck{25}{25}{1}
+
+\dreieck{26}{0}{1}
+\dreieck{26}{1}{1}
+\dreieck{26}{25}{1}
+\dreieck{26}{26}{1}
+
+\dreieck{27}{0}{1}
+\dreieck{27}{1}{2}
+\dreieck{27}{2}{1}
+\dreieck{27}{25}{1}
+\dreieck{27}{26}{2}
+\dreieck{27}{27}{1}
+
+\dreieck{28}{0}{1}
+\dreieck{28}{1}{3}
+\dreieck{28}{2}{3}
+\dreieck{28}{3}{1}
+\dreieck{28}{25}{1}
+\dreieck{28}{26}{3}
+\dreieck{28}{27}{3}
+\dreieck{28}{28}{1}
+
+\dreieck{29}{0}{1}
+\dreieck{29}{1}{4}
+\dreieck{29}{2}{1}
+\dreieck{29}{3}{4}
+\dreieck{29}{4}{1}
+\dreieck{29}{25}{1}
+\dreieck{29}{26}{4}
+\dreieck{29}{27}{1}
+\dreieck{29}{28}{4}
+\dreieck{29}{29}{1}
+
+\dreieck{30}{0}{1}
+\dreieck{30}{5}{1}
+\dreieck{30}{25}{1}
+\dreieck{30}{30}{1}
+
+\dreieck{31}{0}{1}
+\dreieck{31}{1}{1}
+\dreieck{31}{5}{1}
+\dreieck{31}{6}{1}
+\dreieck{31}{25}{1}
+\dreieck{31}{26}{1}
+\dreieck{31}{30}{1}
+\dreieck{31}{31}{1}
+
+\dreieck{32}{0}{1}
+\dreieck{32}{1}{2}
+\dreieck{32}{2}{1}
+\dreieck{32}{5}{1}
+\dreieck{32}{6}{2}
+\dreieck{32}{7}{1}
+\dreieck{32}{25}{1}
+\dreieck{32}{26}{2}
+\dreieck{32}{27}{1}
+\dreieck{32}{30}{1}
+\dreieck{32}{31}{2}
+\dreieck{32}{32}{1}
+
+\def\etikett#1#2#3{
+ \node at ({\xs*(-#1+2*#2)},{-\ys*(#1+0.5)}) {$#3$};
+}
+
+\etikett{0}{-2}{n=0}
+\etikett{5}{-2}{n=5}
+\etikett{25}{-2}{n=25}
+
+\def\exponent#1#2#3{
+ \node at ({\xs*(-#1+2*#2)},{-\ys*(#1+0.5)}) [rotate=60] {$#3$};
+}
+
+\exponent{-2}{0}{k=0}
+\exponent{3}{5}{k=5}
+\exponent{23}{25}{k=25}
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/30-endlichekoerper/images/farben.tex b/buch/chapters/30-endlichekoerper/images/farben.tex
new file mode 100644
index 0000000..553bb91
--- /dev/null
+++ b/buch/chapters/30-endlichekoerper/images/farben.tex
@@ -0,0 +1,4 @@
+\definecolor{farbe1}{rgb}{0,0,0}
+\definecolor{farbe2}{rgb}{1,0,0}
+\definecolor{farbe3}{rgb}{0,0.6,0}
+\definecolor{farbe4}{rgb}{0,0,1}
diff --git a/buch/chapters/30-endlichekoerper/rechnungen/euinv.maxima b/buch/chapters/30-endlichekoerper/rechnungen/euinv.maxima
new file mode 100644
index 0000000..ce5b7f2
--- /dev/null
+++ b/buch/chapters/30-endlichekoerper/rechnungen/euinv.maxima
@@ -0,0 +1,31 @@
+m: X^3 +2*X^2 + 2*X + 3;
+f: 2*X^2 + 2*X + 1;
+
+q0: 4*X+4;
+r0: 4*X+6;
+expand(q0*f+r0);
+
+q1: 4*X+5;
+r1: 6;
+expand(q1*r0+r1);
+
+q2: 3*X+1;
+r2: 0;
+expand(q2*r1+r2);
+
+Q0: matrix([ 0, 1 ], [ 1, (7*X+7)-q0 ]);
+Q1: matrix([ 0, 1 ], [ 1, (7*X+7)-q1 ]);
+Q2: matrix([ 0, 1 ], [ 1, (7*X+7)-q2 ]);
+
+Q: expand(Q1 . Q0);
+s: Q[1,1];
+t: Q[1,2];
+expand(s*m+t*f);
+
+Q: expand(Q2 . Q);
+
+s: Q[1,1];
+t: Q[1,2];
+
+expand(s*m+t*f);
+
diff --git a/buch/chapters/30-endlichekoerper/rechnungen/invbeispiel.maxima b/buch/chapters/30-endlichekoerper/rechnungen/invbeispiel.maxima
new file mode 100644
index 0000000..f227f3a
--- /dev/null
+++ b/buch/chapters/30-endlichekoerper/rechnungen/invbeispiel.maxima
@@ -0,0 +1,81 @@
+/*
+ * invbeispiel.maxima
+ *
+ * (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+ */
+
+m: X^3 + 2*X^2 + 2*X + 3;
+
+modulus:7;
+factor(m);
+modulus:false;
+
+M: matrix(
+ [ 0, 0, -3 ],
+ [ 1, 0, -2 ],
+ [ 0, 1, -2 ]
+);
+M: mod(M, 7);
+M0: identfor(M);
+M1: M;
+M2: M.M1;
+
+a0: 1;
+a1: 2;
+a2: 2;
+
+a: a0 + a1*X + a2*X^2;
+
+A: a0*M0 + a1*M1 + a2*M2;
+A: mod(A, 7);
+
+T: matrix(
+ [ A[1,1], A[1,2], A[1,3], 1, 0, 0 ],
+ [ A[2,1], A[2,2], A[2,3], 0, 1, 0 ],
+ [ A[3,1], A[3,2], A[3,3], 0, 0, 1 ]
+);
+
+t: inv_mod(T[1,1], 7);
+T[1]: mod(t * T[1], 7);
+T[2]: mod(T[2] - T[2,1]*T[1], 7);
+T[3]: mod(T[3] - T[3,1]*T[1], 7);
+T;
+
+t: inv_mod(T[2,2], 7);
+T[2]: mod(t * T[2], 7);
+T[3]: mod(T[3] - T[3,2] * T[2], 7);
+T;
+
+t: inv_mod(T[3,3], 7);
+T[3]: mod(t * T[3], 7);
+T;
+
+T[2]: mod(T[2] - T[2,3] * T[3], 7);
+T[1]: mod(T[1] - T[1,3] * T[3], 7);
+T;
+
+T[1]: mod(T[1] - T[1,2] * T[2], 7);
+T;
+
+C: matrix(
+ [ T[1,4], T[1,5], T[1,6] ],
+ [ T[2,4], T[2,5], T[2,6] ],
+ [ T[3,4], T[3,5], T[3,6] ]
+);
+
+mod(A.C, 7);
+
+b0: C[1,1];
+b1: C[2,1];
+b2: C[3,1];
+
+Cc: mod(b0*M0 + b1*M1 + b2*M2, 7);
+C - Cc;
+
+b: b0 + b1*X + b2*X^2;
+p: expand(a*b);
+
+pp: 3*X^4 + X^3 + 3*X^2 + 6*X;
+
+divide(pp, m, X);
+
diff --git a/buch/chapters/30-endlichekoerper/rechnungen/inverse.maxima b/buch/chapters/30-endlichekoerper/rechnungen/inverse.maxima
new file mode 100644
index 0000000..5f3682f
--- /dev/null
+++ b/buch/chapters/30-endlichekoerper/rechnungen/inverse.maxima
@@ -0,0 +1,35 @@
+/*
+ * inverse.maxima
+ *
+ * (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+ */
+n: 5;
+m: X^5 + 15*X^3 - 30*X^2 + 45;
+
+M: matrix(
+ [ 0, 0, 0, 0, -45 ],
+ [ 1, 0, 0, 0, 0 ],
+ [ 0, 1, 0, 0, 30 ],
+ [ 0, 0, 1, 0, -15 ],
+ [ 0, 0, 0, 1, 0 ]
+);
+M2: M.M;
+M3: M.M2;
+M4: M.M3;
+
+y: a0 + a1*X + a2*X^2 + a3*X^3 + a4*X^4;
+Y: a0*identfor(M) + a1*M + a2*M2 + a3*M3 + a4*M4;
+
+B: invert(Y);
+
+b0: B[1,1];
+b1: B[2,1];
+b2: B[3,1];
+b3: B[4,1];
+b4: B[5,1];
+
+Z: b0*identfor(M) + b1*M + b2*M2 + b3*M3 + b4*M4;
+z: b0 + b1*X + b2*X^2 + b3*X^3 + b4*X^4;
+
+w: expand(y*z);
+remainder(w, m, X);
diff --git a/buch/chapters/30-endlichekoerper/rechnungen/multiplikation.maxima b/buch/chapters/30-endlichekoerper/rechnungen/multiplikation.maxima
new file mode 100644
index 0000000..e09f848
--- /dev/null
+++ b/buch/chapters/30-endlichekoerper/rechnungen/multiplikation.maxima
@@ -0,0 +1,38 @@
+/*
+ * multiplikation.maxima
+ *
+ * (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+ */
+
+Malpha: matrix(
+[ 0, 0, 0, 0, 0, 0, -m0 ],
+[ 1, 0, 0, 0, 0, 0, -m1 ],
+[ 0, 1, 0, 0, 0, 0, -m2 ],
+[ 0, 0, 1, 0, 0, 0, -m3 ],
+[ 0, 0, 0, 1, 0, 0, -m4 ],
+[ 0, 0, 0, 0, 1, 0, -m5 ],
+[ 0, 0, 0, 0, 0, 1, -m6 ]
+);
+
+Malpha2: expand(Malpha . Malpha);
+Malpha3: expand(Malpha . Malpha2);
+Malpha4: expand(Malpha . Malpha3);
+Malpha5: expand(Malpha . Malpha4);
+Malpha6: expand(Malpha . Malpha5);
+Malpha7: expand(Malpha . Malpha6);
+Malpha8: expand(Malpha . Malpha7);
+
+p: m0 * identfor(Malpha)
++ m1 * Malpha
++ m2 * Malpha2
++ m3 * Malpha3
++ m4 * Malpha4
++ m5 * Malpha5
++ m6 * Malpha6
++ Malpha7;
+expand(p);
+
+
+m(X) := m0 + m1*X + m2*X^2 + m3*X^3 + m4*X^4 + m5*X^5 + m6*X^6 + X^7;
+
+invert(Malpha);
diff --git a/buch/chapters/30-endlichekoerper/uebungsaufgaben/3001.tex b/buch/chapters/30-endlichekoerper/uebungsaufgaben/3001.tex
new file mode 100644
index 0000000..4f4d56d
--- /dev/null
+++ b/buch/chapters/30-endlichekoerper/uebungsaufgaben/3001.tex
@@ -0,0 +1,102 @@
+Im Rahmen der Aufgabe, die Zehntausenderstelle der Zahl $5^{5^{5^{5^5}}}$
+zu berechnen muss Michael Penn im Video
+\url{https://youtu.be/Xg24FinMiws} bei 12:52 zwei Zahlen $x$ und $y$ finden,
+so dass,
+\[
+5^5x
++
+2^5y
+=
+1
+\]
+ist.
+Verwenden Sie die Matrixform des euklidischen Algorithmus.
+
+\begin{loesung}
+Zunächst berechnen wir die beiden Potenzen
+\[
+5^5 = 3125
+\qquad\text{und}\qquad
+2^5 = 32.
+\]
+Damit können wir jetzt den Algorithmus durchführen.
+Die Quotienten und Reste sind
+\begin{align*}
+a_0&=q_0\cdot b_0 + r_0&
+3125 &= 97 \cdot 32 + 21& q_0&=97 & r_0&= 21\\
+a_1&=q_1\cdot b_1 + r_1&
+32 &= 1\cdot 21 + 10 & q_1&= 1 & r_1&= 11\\
+a_2&=q_2\cdot b_2 + r_2&
+21 &= 1\cdot 11 + 10 & q_2&= 1 & r_2&= 10\\
+a_3&=q_3\cdot b_3 + r_3&
+11 &= 1\cdot 10 + 1 & q_3&= 1 & r_3&= 1\\
+a_4&=q_4\cdot b_4 + r_4&
+10 &= 10\cdot 1 + 0 & q_4&=10 & r_4&= 0
+\end{align*}
+Daraus kann man jetzt auch die Matrizen $Q(q_k)$ bestimmen und
+ausmultiplizieren:
+\begin{align*}
+Q
+&=
+\begin{pmatrix}
+0&1\\1&-10
+\end{pmatrix}
+\underbrace{
+\begin{pmatrix}
+0&1\\1&-1
+\end{pmatrix}
+\begin{pmatrix}
+0&1\\1&-1
+\end{pmatrix}
+}_{}
+\underbrace{
+\begin{pmatrix}
+0&1\\1&-1
+\end{pmatrix}
+\begin{pmatrix}
+0&1\\1&-97
+\end{pmatrix}
+}_{}
+\\
+&=
+\begin{pmatrix}
+0&1\\1&-10
+\end{pmatrix}
+\underbrace{
+\begin{pmatrix}
+0&-1\\-1&2
+\end{pmatrix}
+\begin{pmatrix}
+1&-97\\-1&98
+\end{pmatrix}
+}_{}
+\\
+&=
+\underbrace{
+\begin{pmatrix}
+0&1\\1&-10
+\end{pmatrix}
+\begin{pmatrix}
+2&-195\\-3&293
+\end{pmatrix}
+}_{}
+\\
+&=
+\begin{pmatrix}
+-3&293\\32&-3125
+\end{pmatrix}.
+\end{align*}
+Daras kann man jetzt ablesen, dass
+\[
+-3\cdot 3125
++
+293\cdot 32
+=
+-9375
++
+9376
+=
+1.
+\]
+Die gesuchten Zahlen sind also $x=-3$ und $y=293$.
+\end{loesung}
diff --git a/buch/chapters/30-endlichekoerper/uebungsaufgaben/3002.tex b/buch/chapters/30-endlichekoerper/uebungsaufgaben/3002.tex
new file mode 100644
index 0000000..63200a7
--- /dev/null
+++ b/buch/chapters/30-endlichekoerper/uebungsaufgaben/3002.tex
@@ -0,0 +1,9 @@
+Berechnen Sie $666^{666}$ in $\mathbb{F}_{13}$.
+
+\begin{loesung}
+Zunächst ist die Basis der Potenz $666=3$ in $\mathbb{F}_{13}$, es
+muss also nur $3^{666}$ berechnet werden.
+Nach dem kleinen Satz von Fermat ist $3^{12}=1$ in $\mathbb{F}_{13}$.
+Wegen $666 = 12\cdot 50+6$ folgt
+$ 3^{666} = 3^6=729=1$ in $\mathbb{F}_{13}$.
+\end{loesung}
diff --git a/buch/chapters/30-endlichekoerper/uebungsaufgaben/3003.tex b/buch/chapters/30-endlichekoerper/uebungsaufgaben/3003.tex
new file mode 100644
index 0000000..8a83256
--- /dev/null
+++ b/buch/chapters/30-endlichekoerper/uebungsaufgaben/3003.tex
@@ -0,0 +1,72 @@
+Die Zahl $p=47$ ist eine Primzahl, der Ring
+$\mathbb{Z}/p\mathbb{Z}=\mathbb{F}_{47}$ ist daher ein Körper.
+Jeder von Null verschiedene Rest $b\in\mathbb{F}_p^*$ hat daher eine
+multiplikative Inverse.
+Berechnen Sie die multiplikative Inverse von $b=11\in\mathbb{F}_{47}$.
+
+\begin{loesung}
+Der euklidische Algorithmus muss auf die Zahlen $p=47$ und $b=11$ angewendet
+werden, es ergeben sich die Quotienten und Reste der folgenden Tabelle:
+\begin{center}
+\begin{tabular}{|>{$}c<{$}|>{$}r<{$}>{$}r<{$}|>{$}r<{$}>{$}r<{$}|}
+\hline
+k&a_k&b_k&q_k&r_k\\
+\hline
+0& 47& 11& 4& 3\\
+1& 11& 3& 3& 2\\
+2& 3& 2& 1& 1\\
+3& 2& 1& 2& 0\\
+\hline
+\end{tabular}
+\end{center}
+Wie erwartet ist der grösste gemeinsame Teiler
+$\operatorname{ggT}(47,11)=r_2=1$.
+Um die Zahlen $s,t$ zu finden, für die $sp+tb=1$ gilt, können wir die
+Matrixform verwenden, wir berechnen dazu
+\begin{align*}
+Q
+=
+Q(2)Q(1)Q(3)Q(4)
+&=
+\begin{pmatrix} 0&1\\1&-2 \end{pmatrix}
+\begin{pmatrix} 0&1\\1&-1 \end{pmatrix}
+\begin{pmatrix} 0&1\\1&-3 \end{pmatrix}
+\begin{pmatrix} 0&1\\1&-4 \end{pmatrix}
+\\
+&=
+\begin{pmatrix} 0&1\\1&-2 \end{pmatrix}
+\begin{pmatrix} 0&1\\1&-1 \end{pmatrix}
+\begin{pmatrix} 1&-4\\-3&13\end{pmatrix}
+\\
+&=
+\begin{pmatrix} 0&1\\1&-2 \end{pmatrix}
+\begin{pmatrix} -3&13\\4&-17 \end{pmatrix}
+\\
+&=
+\begin{pmatrix} 4&-17\\ -11&47 \end{pmatrix}.
+\end{align*}
+Daraus kann man ablesen, dass $s=4$ und $t=-17$, tatsächlich ist
+$4\cdot 47-47\cdot 11=188-187=1$.
+Wir schliessen daraus, dass $-17=30\in\mathbb{F}_{47}$ die multiplikative
+Inverse von $b=11$ ist.
+Die Rechnung $11\cdot 30 = 330 = 7\cdot 47 + 1$ zeigt, dass dies
+der Fall ist.
+
+Alternativ zur Matrixdarstellung kann man die Koeffizienten $s$ und $t$
+auch mit Hilfe der erweiterten Tabelle finden:
+\begin{center}
+\begin{tabular}{|>{$}c<{$}|>{$}r<{$}>{$}r<{$}|>{$}r<{$}>{$}r<{$}|>{$}r<{$}>{$}r<{$}|}
+\hline
+k&a_k&b_k&q_k&r_k&c_k&d_k\\
+\hline
+ & & & & & 1& 0\\
+0& 47& 11& 4& 3& 0& 1\\
+1& 11& 3& 3& 2& 1& -4\\
+2& 3& 2& 1& 1& -3& 13\\
+3& 2& 1& 2& 0& {\color{red}4}&{\color{red}-17}\\
+4& 1& 0& & &-11& 47\\
+\hline
+\end{tabular}
+\end{center}
+Die gesuchten Zahlen $s$ und $t$ sind rot hervorgehoben.
+\end{loesung}
diff --git a/buch/chapters/30-endlichekoerper/uebungsaufgaben/3004.tex b/buch/chapters/30-endlichekoerper/uebungsaufgaben/3004.tex
new file mode 100644
index 0000000..046ac94
--- /dev/null
+++ b/buch/chapters/30-endlichekoerper/uebungsaufgaben/3004.tex
@@ -0,0 +1,234 @@
+Der Körper $\mathbb{F}_2$ ist besonders einfach, da er nur zwei Elemente
+$0$ und $1$ enthält.
+\begin{teilaufgaben}
+\item
+Bestimmen Sie die Additions- und Multiplikationstabelle für $\mathbb{F}_2$.
+\item
+Lösen Sie das lineare Gleichungssystem
+\[
+\begin{linsys}{4}
+x_1&+& x_2& & & & &=& 0\\
+ & & x_2&+&x_3&+&x_4&=& 1\\
+x_1&+& x_2&+&x_3&+&x_4&=& 1\\
+ & & x_2&+&x_3& & &=& 0\\
+\end{linsys}
+\]
+über dem Körper $\mathbb{F}_2$ mit dem Gauss-Algorithmus.
+\item Bestimmen Sie die Inverse $A^{-1}\in \operatorname{GL}_2(\mathbb{F}_2)$
+der Koeffizientenmatrix $A$ des Gleichungssystems.
+\item Kontrollieren Sie das Resultat durch Ausmultiplizieren des Produktes
+$AA^{-1}$.
+\end{teilaufgaben}
+
+\begin{loesung}
+\begin{teilaufgaben}
+\item
+Die Additions- und Multiplikationstabellen sind
+\begin{center}
+\begin{tikzpicture}[>=latex,thick]
+\def\ds{0.5}
+\def\punkt#1#2{({(#1)*\ds},{(-#2)*\ds})}
+\def\tabelle{
+ \foreach \x in {-0.5,0.5,2.5}{
+ \draw \punkt{\x}{-0.5} -- \punkt{\x}{2.5};
+ }
+ \foreach \y in {-0.5,0.5,2.5}{
+ \draw \punkt{-0.5}{\y} -- \punkt{2.5}{\y};
+ }
+ \node at \punkt{1}{0} {$0$};
+ \node at \punkt{2}{0} {$1$};
+ \node at \punkt{0}{1} {$0$};
+ \node at \punkt{0}{2} {$0$};
+}
+\begin{scope}[xshift=-2cm]
+ \tabelle
+ \node at (0,0) {$+$};
+ \node at \punkt{1}{1} {$0$};
+ \node at \punkt{2}{1} {$1$};
+ \node at \punkt{1}{2} {$1$};
+ \node at \punkt{2}{2} {$0$};
+\end{scope}
+\begin{scope}[xshift=2cm]
+ \tabelle
+ \node at (0,0) {$\cdot$};
+ \node at \punkt{1}{1} {$0$};
+ \node at \punkt{2}{1} {$0$};
+ \node at \punkt{1}{2} {$0$};
+ \node at \punkt{2}{2} {$1$};
+\end{scope}
+\end{tikzpicture}
+\end{center}
+Betrachtet als Bitoperationen entspricht die Addition dem XOR, die
+Multiplikation dem AND.
+\item
+Die Gauss-Tableaux sind
+\begin{align*}
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|}
+\hline
+ 1 & 1 & 0 & 0 & 1\\
+ 0 & 1 & 1 & 1 & 0\\
+ 1 & 1 & 1 & 1 & 0\\
+ 0 & 1 & 1 & 0 & 1\\
+\hline
+\end{tabular}
+&\to
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|}
+\hline
+ 1 & 1 & 0 & 0 & 1\\
+ 0 & 1 & 1 & 1 & 0\\
+ 0 & 0 & 1 & 1 & 1\\
+ 0 & 1 & 1 & 0 & 1\\
+\hline
+\end{tabular}
+%\\
+%&
+\to
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|}
+\hline
+ 1 & 1 & 0 & 0 & 1\\
+ 0 & 1 & 1 & 1 & 0\\
+ 0 & 0 & 1 & 1 & 1\\
+ 0 & 0 & 0 & 1 & 1\\
+\hline
+\end{tabular}
+\\
+\to
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|}
+\hline
+ 1 & 1 & 0 & 0 & 1\\
+ 0 & 1 & 1 & 0 & 1\\
+ 0 & 0 & 1 & 0 & 0\\
+ 0 & 0 & 0 & 1 & 1\\
+\hline
+\end{tabular}
+%\\
+&
+\to
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|}
+\hline
+ 1 & 1 & 0 & 0 & 1\\
+ 0 & 1 & 0 & 0 & 1\\
+ 0 & 0 & 1 & 0 & 0\\
+ 0 & 0 & 0 & 1 & 1\\
+\hline
+\end{tabular}
+%\\
+%&
+\to
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|}
+\hline
+ 1 & 0 & 0 & 0 & 0\\
+ 0 & 1 & 0 & 0 & 1\\
+ 0 & 0 & 1 & 0 & 0\\
+ 0 & 0 & 0 & 1 & 1\\
+\hline
+\end{tabular}
+\end{align*}
+In der ersten Zeile stehen die Schritt der Vorwärtsreduktion, in der
+zweiten die Schritte des Rückwärtseinsetzens.
+Als Lösung liest man ab
+\[
+x=\begin{pmatrix}0\\1\\0\\1 \end{pmatrix},
+\]
+die Korrektheit kann man leicht durch Einsetzen überprüfen.
+\item
+Wir wenden erneut den Gauss-Algorithmus an:
+\begin{align*}
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+ 1 & 1 & 0 & 0 & 1 & 0 & 0 & 0 \\
+ 0 & 1 & 1 & 1 & 0 & 1 & 0 & 0 \\
+ 1 & 1 & 1 & 1 & 0 & 0 & 1 & 0 \\
+ 0 & 1 & 1 & 0 & 0 & 0 & 0 & 1 \\
+\hline
+\end{tabular}
+&\to
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+ 1 & 1 & 0 & 0 & 1 & 0 & 0 & 0 \\
+ 0 & 1 & 1 & 1 & 0 & 1 & 0 & 0 \\
+ 0 & 0 & 1 & 1 & 1 & 0 & 1 & 0 \\
+ 0 & 1 & 1 & 0 & 0 & 0 & 0 & 1 \\
+\hline
+\end{tabular}
+\\
+&\to
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+ 1 & 1 & 0 & 0 & 1 & 0 & 0 & 0 \\
+ 0 & 1 & 1 & 1 & 0 & 1 & 0 & 0 \\
+ 0 & 0 & 1 & 1 & 1 & 0 & 1 & 0 \\
+ 0 & 0 & 0 & 1 & 0 & 1 & 0 & 1 \\
+\hline
+\end{tabular}
+\\
+&\to
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+ 1 & 1 & 0 & 0 & 1 & 0 & 0 & 0 \\
+ 0 & 1 & 1 & 0 & 0 & 0 & 0 & 1 \\
+ 0 & 0 & 1 & 0 & 1 & 1 & 1 & 1 \\
+ 0 & 0 & 0 & 1 & 0 & 1 & 0 & 1 \\
+\hline
+\end{tabular}
+\\
+&\to
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+ 1 & 1 & 0 & 0 & 1 & 0 & 0 & 0 \\
+ 0 & 1 & 0 & 0 & 1 & 1 & 1 & 0 \\
+ 0 & 0 & 1 & 0 & 1 & 1 & 1 & 1 \\
+ 0 & 0 & 0 & 1 & 0 & 1 & 0 & 1 \\
+\hline
+\end{tabular}
+\\
+&\to
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+ 1 & 0 & 0 & 0 & 0 & 1 & 1 & 0 \\
+ 0 & 1 & 0 & 0 & 1 & 1 & 1 & 0 \\
+ 0 & 0 & 1 & 0 & 1 & 1 & 1 & 1 \\
+ 0 & 0 & 0 & 1 & 0 & 1 & 0 & 1 \\
+\hline
+\end{tabular}
+\end{align*}
+Daraus liest man die Inverse $A^{-1}$ der Koeffizientenmatrix $A$ ab als
+\[
+A^{-1}
+=
+\begin{pmatrix}
+ 0 & 1 & 1 & 0 \\
+ 1 & 1 & 1 & 0 \\
+ 1 & 1 & 1 & 1 \\
+ 0 & 1 & 0 & 1
+\end{pmatrix}
+\]
+\item Wir prüfen das Resultat durch Ausmultiplizieren:
+\[
+AA^{-1}
+=
+\begin{pmatrix}
+ 1 & 1 & 0 & 0 \\
+ 0 & 1 & 1 & 1 \\
+ 1 & 1 & 1 & 1 \\
+ 0 & 1 & 1 & 0
+\end{pmatrix}
+\begin{pmatrix}
+ 0 & 1 & 1 & 0 \\
+ 1 & 1 & 1 & 0 \\
+ 1 & 1 & 1 & 1 \\
+ 0 & 1 & 0 & 1
+\end{pmatrix}
+=
+\begin{pmatrix}
+ 1 & 0 & 0 & 0 \\
+ 0 & 1 & 0 & 0 \\
+ 0 & 0 & 1 & 0 \\
+ 0 & 0 & 0 & 1
+\end{pmatrix}
+\]
+Dabei kann man verwenden, dass der Eintrag in Zeile $i$ und Spalte $k$ des
+Produktes die Anzahl der Positionen ist, wo in der Zeile $i$ von $A$
+und in der Spalte $j$ von $A^{-1}$ eine $1$ steht.
+\end{teilaufgaben}
+\end{loesung}
diff --git a/buch/chapters/30-endlichekoerper/uebungsaufgaben/3004/matrix.m b/buch/chapters/30-endlichekoerper/uebungsaufgaben/3004/matrix.m
new file mode 100644
index 0000000..42e9d9f
--- /dev/null
+++ b/buch/chapters/30-endlichekoerper/uebungsaufgaben/3004/matrix.m
@@ -0,0 +1,22 @@
+#
+# matrix.m
+#
+# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+#
+
+n = 4
+N = 20;
+p = 2;
+
+d = 0;
+while d == 0
+ A = round(N * rand(n,n));
+ B = mod(A, p);
+ d = det(B);
+ d = mod(d, p);
+ d = d * B(1,1);
+end
+A
+det(A)
+B
+det(B)
diff --git a/buch/chapters/30-endlichekoerper/uebungsaufgaben/3005.tex b/buch/chapters/30-endlichekoerper/uebungsaufgaben/3005.tex
new file mode 100644
index 0000000..28f4d2c
--- /dev/null
+++ b/buch/chapters/30-endlichekoerper/uebungsaufgaben/3005.tex
@@ -0,0 +1,205 @@
+Das Polynom $m(X)=X^2+X+1$ ist als Polynom in $\mathbb{F}_3[X]$ irreduzibel.
+Dies bedeutet, dass der Ring der Polynome $\mathbb{F}_3[X] / (m(X))$
+ein Körper ist, man bezeichnet ihn auch mit $\mathbb{F}_3(\alpha)$,
+wobei man sich $\alpha$ als eine Nullstelle von $m(X)$
+oder als die Matrix
+\[
+\alpha = \begin{pmatrix} 0&2\\1&2\end{pmatrix}
+\]
+vorstellen kann.
+\begin{teilaufgaben}
+\item
+Stellen Sie die Additions- und Multiplikationstabellen für das Rechnen
+in $\mathbb{F}_3$ auf.
+\item
+Berechnen Sie $\alpha^{-1}$ in $\mathbb{F}_3(\alpha)$ aus der
+Bedingung $m(\alpha)=0$.
+\item
+Verwenden Sie den euklidischen Algorithmus, um $(1+\alpha)^{-1}$
+in $\mathbb{F}_3(\alpha)$ zu bestimmen.
+\item
+Berechnen Sie $\alpha^3$.
+\end{teilaufgaben}
+
+\begin{loesung}
+\begin{teilaufgaben}
+\item
+Die Additions- und Multiplikationstabelle von $\mathbb{F}_3$ ist
+\begin{center}
+\begin{tikzpicture}[>=latex,thick]
+\def\ds{0.5}
+\def\punkt#1#2{({(#1)*\ds},{-(#2)*\ds})}
+\def\tabelle{
+\foreach \x in {-0.5,0.5,3.5}{
+ \draw \punkt{\x}{-0.5} -- \punkt{\x}{3.5};
+ \draw \punkt{-0.5}{\x} -- \punkt{3.5}{\x};
+}
+\node at \punkt{0}{1} {$0$};
+\node at \punkt{0}{2} {$1$};
+\node at \punkt{0}{3} {$2$};
+\node at \punkt{1}{0} {$0$};
+\node at \punkt{2}{0} {$1$};
+\node at \punkt{3}{0} {$2$};
+}
+\begin{scope}[xshift=-2cm]
+\tabelle
+\node at \punkt{0}{0} {$+$};
+\node at \punkt{1}{1} {$0$};
+\node at \punkt{1}{2} {$1$};
+\node at \punkt{1}{3} {$2$};
+\node at \punkt{2}{1} {$1$};
+\node at \punkt{2}{2} {$2$};
+\node at \punkt{2}{3} {$0$};
+\node at \punkt{3}{1} {$2$};
+\node at \punkt{3}{2} {$0$};
+\node at \punkt{3}{3} {$1$};
+\end{scope}
+\begin{scope}[xshift=2cm]
+\tabelle
+\node at \punkt{0}{0} {$\cdot$};
+\node at \punkt{1}{1} {$0$};
+\node at \punkt{1}{2} {$0$};
+\node at \punkt{1}{3} {$0$};
+\node at \punkt{2}{1} {$0$};
+\node at \punkt{2}{2} {$1$};
+\node at \punkt{2}{3} {$2$};
+\node at \punkt{3}{1} {$0$};
+\node at \punkt{3}{2} {$2$};
+\node at \punkt{3}{3} {$1$};
+\end{scope}
+\end{tikzpicture}
+\end{center}
+\item
+Wegen $m(\alpha)=\alpha^2+\alpha+1=0$ folgt $\alpha+1+\alpha^{-1}=0$
+oder $\alpha^{-1} = -\alpha - 1 = 2+2\alpha$.
+Als Matrix kann man
+\[
+\alpha^{-1}
+=
+2\alpha + 2
+=
+\begin{pmatrix}
+0&4\\
+2&4
+\end{pmatrix}
++
+\begin{pmatrix}
+2&0\\0&2
+\end{pmatrix}
+=
+\begin{pmatrix}
+2&4\\2&2
+\end{pmatrix}
+\equiv
+\begin{pmatrix}2&1\\2&0\end{pmatrix}
+\mod 3
+\]
+schreiben und durch Nachrechnen verifizieren dass, tatsächlich gilt
+\[
+\alpha\alpha^{-1}
+=
+\begin{pmatrix}
+0&2\\
+1&2
+\end{pmatrix}
+\begin{pmatrix}
+2&1\\
+2&0
+\end{pmatrix}
+=
+\begin{pmatrix}
+4&0\\
+6&1
+\end{pmatrix}
+\equiv
+\begin{pmatrix}
+1&0\\
+0&1
+\end{pmatrix}
+\mod 3.
+\]
+\item
+Für den euklidischen Algorithmus müssen wir wiederholt eine Polynomdivision
+in $\mathbb{F}_3[X]$ durchführen.
+Im ersten Schritt ist es
+\[
+\arraycolsep=1.4pt
+\begin{array}{rcrcrcrcrcr}
+ \llap{$($}X^2&+&X&+&1\rlap{$)$}&\;:&(X&+&1)&=&X = q_1\\
+\llap{$-($}X^2&+&X\rlap{$)$}& & & & & & & & \\ \cline{1-3}
+ & &0&+&1 &\rlap{$\mathstrut = r_1$}\phantom{)}& & & & & \\
+\end{array}
+\]
+Die nächste Division ist $(X+1) : 1$, die als Quotient $q_2=X+1$ und den
+Rest $r_2=0$ hat.
+Mit der Matrixform des euklidischen Algorithmus kann man jetzt auch die
+Koeffizienten $s$ und $t$ bestimmen, die beide Polynome in $\mathbb{F}_3[X]$
+sind:
+\begin{align*}
+Q
+&=
+Q(q_2)
+Q(q_1)
+=
+\begin{pmatrix}
+0&1\\1&-q_2
+\end{pmatrix}
+\begin{pmatrix}
+0&1\\1&-q_1
+\end{pmatrix}
+=
+\begin{pmatrix}
+0&1\\1&2X+2
+\end{pmatrix}
+\begin{pmatrix}
+0&1\\{\color{red}1}&{\color{red}2X}
+\end{pmatrix}
+=
+\begin{pmatrix}
+{\color{red}1}&{\color{red}2X}\\
+2X&X^2+X+1
+\end{pmatrix}.
+\end{align*}
+Die gesuchten Polynome sind $s=1$ und $t=2X$ und man kann nachrechnen,
+dass
+\begin{align*}
+s\cdot m(X) + t\cdot (X+1)
+&=
+X^2+X+1 + 2X\cdot (X+1)
+=
+X^2+X+1 + 2X^2 + 2X
+\\
+&= 3X^2+3X+1\equiv 1 \mod 3.
+\end{align*}
+Natürlich kann man $s$ und $t$ auch mit der erweiterten Tabelle
+finden:
+\begin{center}
+\begin{tabular}{|>{$}c<{$}|>{$}c<{$}>{$}c<{$}|>{$}c<{$}|>{$}c<{$}|>{$}c<{$}>{$}c<{$}|}
+\hline
+k& a_k&b_k& q_k&r_k& c_k& d_k\\
+\hline
+ & & & & & 1& 0\\
+0&X^2+X+1&X+1& X & 1& 0& 1\\
+1& X+1& 1& X+1& 0&{\color{red} 1}&{\color{red} 2X}\\
+2& 1& 0& & 0&2X+2& 2X^2+2X\\
+\hline
+\end{tabular}
+\end{center}
+In allen Fällen ist also $(1+X)^{-1} = 2X$.
+\item
+Wegen $m(\alpha)=0$ ist $\alpha^2=-\alpha-1=2\alpha+2$ und damit
+\begin{align*}
+\alpha^3
+&=
+\alpha\cdot \alpha^2 = \alpha (2\alpha +2) =
+2\alpha^2 + 2\alpha
+=
+2(\underbrace{\alpha^2 + \alpha + 1}_{\displaystyle=0} + 2)
+=
+2\cdot 2
+=
+1.
+\qedhere
+\end{align*}
+\end{teilaufgaben}
+\end{loesung}
diff --git a/buch/chapters/30-endlichekoerper/wurzeln.tex b/buch/chapters/30-endlichekoerper/wurzeln.tex
index 9ad0800..02429dc 100644
--- a/buch/chapters/30-endlichekoerper/wurzeln.tex
+++ b/buch/chapters/30-endlichekoerper/wurzeln.tex
@@ -3,7 +3,901 @@
%
% (c) 2021 Prof Dr Andreas Müller, Hochschule Rapperswil
%
+% !TeX spellcheck = de_CH
\section{Wurzeln
\label{buch:section:wurzeln}}
\rhead{Wurzeln}
+Im Körper $\mathbb{Q}$ kann man zum Beispiel die Wurzel aus $2$ nicht
+ziehen.
+Das Problem haben wir in Abschnitt~\ref{buch:section:reelle-zahlen}
+dadurch gelöst, dass wir $\mathbb{Q}$ zu den reellen Zahlen $\mathbb{R}$
+erweitert haben.
+Es ist aber auch möglich, nur die Zahl $\sqrt{2}$ hinzuzufügen,
+so entsteht der Körper $\mathbb{Q}(\sqrt{2})$.
+Das Problem dabei ist, was denn eigentlich $\sqrt{2}$ überhaupt ist.
+Solange man die reellen Zahlen nicht hat, hat man auch $\sqrt{2}$ nicht.
+Das Problem wird akut bei den endlichen Körpern wie zum Beispiel
+$\mathbb{F}_3$,
+da man diese nicht in $\mathbb{R}$ einbetten kann, also keine
+bekannte Menge von Zahlen existiert, in der wir die Wurzel $\sqrt{2}$
+finden könnte.
+
+Im Altertum fiel dieses Problem zunächst den Pythagoreern auf.
+Wenn $\sqrt{2}$ kein Bruch ist, was ist es dann?
+Im 15.~Jahrhundert stellte sich dieses Problem bei den Versuchen, die
+kubische Gleichung allgemein zu lösen, erneut.
+Hier war es die Wurzel $\sqrt{-1}$, die den reellen Zahlen hinzuzufügen
+war.
+In $\mathbb{R}$ hat $\sqrt{-1}$ sicher keinen Platz, also wo existert
+es denn überhaupt?
+Auch der von Descartes eingeführte, eher unglückliche Begriff
+``imaginäre Zahl'' illustriert dieses Dilemma.
+
+Inzwischen hat man sich daran gewöhnt, dass man einfach ein neues Symbol
+wählt, die algebraischen Regeln postuliert, nach denen damit zu rechnen
+ist, und dann hofft oder besser beweist, dass keine Widersprüche auftreten.
+Auf diese Weise kann man einem Körper $\Bbbk$ eine beliebige
+Nullstelle $\alpha$ eines Polynoms $f\in\Bbbk[X]$ mit Koeffizienten
+in $\Bbbk$ hinzufügen und so den Körper $\Bbbk(\alpha)$ konstruieren.
+Trotzdem bleibt die Frage offen: was {\em ist} denn eigentlich $\alpha$?
+
+In diesem Abschnitt werden Wurzeln wie folgt konstruiert.
+Zunächst wird in Abschnitt~\ref{buch:subsection:koerpererweiterungen}
+gezeigt, dass man immer eine Matrix $M_\alpha$ finden kann, welche
+genau die algebraischen Eigenschaften einer Nullstelle $\alpha$ eines
+Polynoms hat.
+Die Frage ``Was ist $\alpha$?'' erhält also die Antwort ``Eine Matrix''.
+Mit diesem Bild lassen sich alle Körperoperationen realisieren, die
+Inverse kann zum Beispiel als die inverse Matrix mit dem
+Gauss-Algorithmus berechnet werden.
+In einem zweiten Schritt zeigen wir dann, dass man die Rechnung noch
+etwas vereinfachen kann, wenn man in Polynomringen arbeitet.
+Schliesslich zeigen wir dann im
+Abschnitt~\ref{buch:subsection:zerfaellungskoerper}, wie man
+den Prozess iterieren kann und so für beliebige Polynome immer einen
+Körper finden kann, der alle Nullstellen enthält.
+Wir beginnen in Abschnitt~\ref{buch:subsection:irreduziblepolynome}
+damit, die Polynome, die für die Konstruktion in Frage kommen, etwas
+genauer zu charakterisieren.
+
+\subsection{Irreduzible Polynome
+\label{buch:subsection:irreduziblepolynome}}
+Die Zahlen, die man dem Körper hinzufügen möchte, müssen Nullstellen
+eines Polynoms sein.
+Wir gehen daher davon aus, dass $f\in \Bbbk[X]$ ein Polynom mit
+Koeffizienten in $\Bbbk$ ist, dessen Nullstelle $\alpha$ hinzugefügt
+werden sollen.
+Das Ziel ist natürlich, dass diese Erweiterung vollständig beschrieben
+werden kann durch das Polynom, ganz ohne Bezug zum Beispiel auf einen
+numerischen Wert der Nullstelle, der ohnehin nur in $\mathbb{C}$ sinnvoll
+wäre.
+
+Nehmen wir jetzt an, dass sich das Polynom $f$ faktorisieren lässt.
+Dann gibt es Polynome $g,h\in\Bbbk[X]$ derart, dass $f=g\cdot h$.
+Die Polynome $g$ und $h$ haben geringeren Grad als $f$.
+Setzt man die Nullstelle $\alpha$ ein, erhält man
+$0=f(\alpha)=g(\alpha)h(\alpha)$, daher muss einer der Faktoren
+verschwinden, also $g(\alpha)=0$ oder $h(\alpha)=0$.
+Ohne Beschränkung der Allgemeinheit kann angenommen werden, dass
+$g(\alpha)=0$.
+Die Operation des Hinzufügens der Nullstelle $\alpha$ von $f$
+muss also genauso gut mit $g$ ausgeführt werden können.
+Indem wir diese Überlegung auf $g$ anwenden können wir schliessen,
+dass es ein Polynom $m\in\Bbbk[X]$ kleinstmöglichen Grades geben muss,
+welches $\alpha$ als Nullstelle hat.
+Zusätzlich kann verlangt werden, dass das Polynom normiert ist.
+
+\begin{definition}
+Ein Polynom $f\in \Bbbk[X]$ heisst {\em irreduzibel}, wenn es sich nicht
+in zwei Faktoren $g,h\in \Bbbk[X]$ mit $f=gh$ zerlegen lässt.
+\index{irreduzibles Polynom}%
+\end{definition}
+
+Für die Konstruktion des Körpers $\Bbbk(\alpha)$ muss daher ein irreduzibles
+Polynom verwendet werden.
+
+\begin{beispiel}
+Das Polynom $f(X)=X^2-2$ ist in $\mathbb{Q}[X]$, es hat die beiden
+Nullstellen $\sqrt{2}$ und $-\sqrt{2}$.
+Beide Nullstellen haben die exakt gleichen algebraischen Eigenschaften,
+sie sind mit algebraischen Mitteln nicht zu unterscheiden.
+Nur die Vergleichsrelation ermöglicht, die negative Wurzel von der
+positiven zu unterscheiden.
+Das Polynom kann in $\mathbb{Q}$ nicht faktorisiert werden, denn die
+einzig denkbare Faktorisierung ist $(X-\sqrt{2})(X+\sqrt{2})$, die
+Faktoren sind aber keine Polynome in $\mathbb{Q}[X]$.
+Also ist $f(X) = X^2 - 2$ ein irreduzibles Polynom über $\mathbb Q$.
+
+Man kann das Polynom aber auch als Polynom in $\mathbb{F}_{23}[X]$
+betrachten.
+Im Körper $\mathbb{F}_{23}$ kann man durch probieren zwei Nullstellen
+finden:
+\begin{align*}
+5^2 &= 25\equiv 2\mod 23
+\\
+\text{und}\quad
+18^2 &=324 \equiv 2 \mod 23.
+\end{align*}
+Und tatsächlich ist in $\mathbb{F}_{23}[X]$
+\[
+(X-5)(X-18) = X^2 -23X+90
+\equiv
+X^2 -2 \mod 23,
+\]
+über $\mathbb{F}_{23}$ ist das Polynom $X^2-2$ also reduzibel.
+\end{beispiel}
+
+\begin{beispiel}
+Die Zahl
+\[
+\alpha = \frac{1+i\sqrt{3}}2
+\]
+ist eine Nullstelle des Polynoms $f(X)=X^3-1\in\mathbb{Z}[X]$.
+$\alpha$ enthält aber nur Quadratwurzeln, man würde also eigentlich
+erwarten, dass $\alpha$ Nullstelle eines quadratischen Polynoms ist.
+Tatsächlich ist $f(X)$ nicht irreduzibel, es ist nämlich
+\[
+X^3-1 = (X-1)(X^2+X+1).
+\]
+Da $\alpha$ nicht Nullstelle des ersten Faktors ist, muss es Nullstelle
+des Polynoms $m(X)=X^2+X+1$ sein.
+Der zweite Faktor ist irreduzibel.
+
+Das Polynom $m(X)$ kann man aber auch als Polynom in $\mathbb{F}_7$
+ansehen.
+Dann kann man aber zwei Nullstellen finden,
+\[
+\begin{aligned}
+X&=2&&\Rightarrow& 2^2+2+1=4+2+1&\equiv 0\mod 7
+\\
+X&=4&&\Rightarrow& 4^2+4+1=16+4+1=21&\equiv 0\mod 7.
+\end{aligned}
+\]
+Dies führt auf die Faktorisierung
+\[
+(X-2)(X-4)
+\equiv
+(X+5)(X+3)
+=
+X^2+8X+15
+\equiv
+X^2+X+1\mod 7.
+\]
+Das Polynom $X^2+X+1$ ist daher über $\mathbb{F}_7$ reduzibel und
+das Polynom $X^3-1\in\mathbb{F}_7$ zerfällt daher in Linearfaktoren
+$X^3-1=(X+6)(X+3)(X+5)$.
+\end{beispiel}
+
+
+\subsection{Körpererweiterungen
+\label{buch:subsection:koerpererweiterungen}}
+Nach den Vorbereitungen von
+Abschnitt~\ref{buch:subsection:irreduziblepolynome}
+können wir jetzt definieren, wie die Körpererweiterung
+konstruiert werden soll.
+
+\subsubsection{Erweiterung mit einem irreduziblen Polynom}
+Sei $m\in\Bbbk[X]$ ein irreduzibles Polynome über $\Bbbk$ mit dem Grad
+$\deg m=n$,
+wir dürfen es als normiert annehmen und schreiben es in der Form
+\[
+m(X)
+=
+m_0+m_1X+m_2X^2 + \dots m_{n-1}X^{n-1}+X^n.
+\]
+Wir möchten den Körper $\Bbbk$ um eine Nullstelle $\alpha$ von $m$
+erweitern.
+Da es in $\Bbbk$ keine Nullstelle von $m$ gibt, konstruieren wir
+$\Bbbk(\alpha)$ auf abstrakte Weise, ganz so wie das mit der imaginären
+Einheit $i$ gemacht wurde.
+Die Zahl $\alpha$ ist damit einfach ein neues Symbol, mit dem man
+wie in der Algebra üblich rechnen kann.
+Die einzige zusätzliche Eigenschaft, die von $\alpha$ verlangt wird,
+ist dass $m(\alpha)=0$.
+Unter diesen Bedingungen können beliebige Ausdrücke der Form
+\begin{equation}
+a_0 + a_1\alpha + a_2\alpha^2 + \dots a_k\alpha^k
+\label{buch:endlichekoerper:eqn:ausdruecke}
+\end{equation}
+gebildet werden.
+Aus der Bedingung $m(\alpha)=0$ folgt aber, dass
+\begin{equation}
+\alpha^n = -m_{n-1}\alpha^{n-1} -\dots - m_2\alpha^2 - m_1\alpha - m_0.
+\label{buch:endlichekoerper:eqn:reduktion}
+\end{equation}
+Alle Potenzen mit Exponenten $\ge n$ in
+\eqref{buch:endlichekoerper:eqn:ausdruecke}
+können daher durch die rechte Seite von
+\eqref{buch:endlichekoerper:eqn:reduktion}
+ersetzt werden.
+Als Menge ist daher
+\[
+\Bbbk(\alpha)
+=
+\{
+a_0+a_1\alpha+a_2\alpha^2+\dots+a_{n-1}\alpha^{n-1}\;|\; a_i\in\Bbbk\}
+\]
+ausreichend.
+Die Addition von solchen Ausdrücken und die Multiplikation mit Skalaren
+aus $\Bbbk$ machen $\Bbbk(\alpha)\cong \Bbbk^n$ zu einem Vektorraum,
+die Operationen können auf den Koeffizienten komponentenweise ausgeführt
+werden.
+
+\subsubsection{Matrixrealisierung der Multiplikation mit $\alpha$}
+Die schwierige Operation ist die Multiplikation mit $\alpha$.
+Dazu stellen wir zusammen, wie die Multiplikation mit $\alpha$ auf den
+Basisvektoren von $\Bbbk(\alpha)$ wirkt:
+\[
+\alpha\colon
+\Bbbk^n\to\Bbbk^n
+:
+\left\{
+\begin{aligned}
+ 1 &\mapsto \alpha \\
+\alpha &\mapsto \alpha^2 \\
+\alpha^2&\mapsto \alpha^3 \\
+ &\phantom{m}\vdots\\
+\alpha^{n-2}&\mapsto \alpha^{n-1}\\
+\alpha^{n-1}&\mapsto \alpha^n = -m_0-m_1\alpha-m_2\alpha^2-\dots-m_{n-1}\alpha^{n-1}
+\end{aligned}
+\right.
+\]
+Diese lineare Abbildung hat die Matrix
+\[
+M_{\alpha}
+=
+\begin{pmatrix}
+0 & & & & &-m_0 \\
+1 & 0 & & & &-m_1 \\
+ & 1 & 0 & & &-m_2 \\
+ & & 1 &\ddots& &\vdots \\
+ & & &\ddots& 0 &-m_{n-2}\\
+ & & & & 1 &-m_{n-1}
+\end{pmatrix}.
+\]
+%TODO: Was ist hier die Aussage?
+Aufgrund der Konstruktion die Lineare Abbildung $m(M_\alpha)$,
+die man erhält, wenn
+man die Matrix $M_\alpha$ in das Polynom $m$ einsetzt, jeden Vektor
+in $\Bbbk(\alpha)$ zu Null machen.
+Als Matrix muss daher $m(M_\alpha)=0$ sein.
+Dies kann man auch mit einem Computeralgebra-System nachprüfen.
+
+\begin{beispiel}
+In einem früheren Beispiel haben wir gesehen, dass
+$\alpha=\frac12(-1+\sqrt{3})$
+eine Nullstelle des irreduziblen Polynomes $m(X)=X^2+X+1$ ist.
+Die zugehörige Matrix $M_\alpha$ ist
+\[
+M_{\alpha}
+=
+\begin{pmatrix}
+0&-1\\
+1&-1
+\end{pmatrix}
+\qquad\Rightarrow\qquad
+M_{\alpha}^2
+=
+\begin{pmatrix}
+-1& 1\\
+-1& 0
+\end{pmatrix},\quad
+M_{\alpha}^3
+=
+\begin{pmatrix}
+ 1& 0\\
+ 0& 1
+\end{pmatrix}.
+\]
+Wir können auch verifizieren, dass
+\[
+m(M_\alpha)
+=
+M_\alpha^2+M_\alpha+I
+=
+\begin{pmatrix}
+-1& 1\\
+-1& 0
+\end{pmatrix}
++
+\begin{pmatrix}
+0&-1\\
+1&-1
+\end{pmatrix}
++
+\begin{pmatrix}
+1&0\\
+0&1
+\end{pmatrix}
+=
+\begin{pmatrix}
+0&0\\
+0&0
+\end{pmatrix}.
+\]
+Die Matrix ist also eine mögliche Realisierung für das ``mysteriöse''
+Element $\alpha$.
+Es hat alle algebraischen Eigenschaften von $\alpha$.
+\end{beispiel}
+
+Die Menge $\Bbbk(\alpha)$ kann durch die Abbildung $\alpha\mapsto M_\alpha$
+mit der Menge aller Matrizen
+\[
+\Bbbk(M_\alpha)
+=
+\left\{
+\left.
+a_0I+a_1M_\alpha+a_2M_\alpha^2+\dots+a_{n-1}M_\alpha^{n-1}\;\right|\; a_i\in\Bbbk
+\right\}
+\]
+in eine Eins-zu-eins-Beziehung gebracht werden.
+Diese Abbildung ist ein Algebrahomomorphismus.
+Die Menge $\Bbbk(M_\alpha)$ ist also das Bild des
+Körpers $\Bbbk(\alpha)$ in der Matrizenalgebra $M_n(\Bbbk)$.
+
+\subsubsection{Inverse}
+Im Moment wissen wir noch nicht, wie wir $\alpha^{-1}$ berechnen sollten.
+Wir können aber auch die Matrizendarstellung verwenden.
+Für Matrizen wissen wir selbstverständlich, wie Matrizen invertiert
+werden können.
+Tatsächlich kann man die Matrix $M_\alpha$ direkt invertieren:
+\[
+M_\alpha^{-1}
+=
+\frac{1}{m_0}
+\begin{pmatrix}
+ -m_1 &m_0& & & & \\
+ -m_2 & 0 &m_0& & & \\
+ -m_3 & & 0 & m_0& & \\
+ \vdots & & &\ddots&\ddots& \\
+-m_{n-1}& 0 & 0 & & 0 &m_0\\
+ -1 & 0 & 0 & & 0 & 0
+\end{pmatrix},
+\]
+wie man durch Ausmultiplizieren überprüfen kann:
+\[
+\frac{1}{m_0}
+\begin{pmatrix}
+ -m_1 &m_0& & & & \\
+ -m_2 & 0 &m_0& & & \\
+ -m_3 & & 0 & m_0& & \\
+ \vdots & & &\ddots&\ddots& \\
+-m_{n-1}& 0 & 0 & & 0 &m_0\\
+ -1 & 0 & 0 & & 0 & 0
+\end{pmatrix}
+\begin{pmatrix}
+ 0 & & & & &-m_0 \\
+ 1 & 0 & & & &-m_1 \\
+ & 1 & 0 & & &-m_2 \\
+ & & 1 &\ddots& &\vdots \\
+ & & &\ddots& 0 &-m_{n-2}\\
+ & & & & 1 &-m_{n-1}
+\end{pmatrix}
+=
+\begin{pmatrix}
+1&0&0&\dots&0&0\\
+0&1&0&\dots&0&0\\
+0&0&1&\dots&0&0\\
+\vdots&\vdots&\vdots&\ddots&\vdots\\
+0&0&0&\dots&1&0\\
+0&0&0&\dots&0&1
+\end{pmatrix}
+\]
+Die Invertierung in $\Bbbk(M_\alpha)$ ist damit zwar geklärt, aber
+es wäre viel einfacher, wenn man die Inverse auch in $\Bbbk(\alpha)$
+bestimmen könnte.
+
+Die Potenzen von $M_\alpha^k$ haben in der ersten Spalte genau in
+Zeile $k+1$ eine $1$, alle anderen Einträge in der ersten Spalte
+sind $0$.
+Die erste Spalte eines Elementes
+$a(\alpha)=a_0+a_1\alpha+a_2\alpha^2 +a_{n-1}\alpha^{n-1}$
+besteht daher genau aus den Elementen $a_i$.
+Die Inverse des Elements $a$ kann daher wie folgt gefunden werden.
+Zunächst wird die Matrix $a(M_\alpha)$ gebildet und invertiert.
+Wir schreiben $B=a(M_\alpha)^{-1}$.
+Aus den Einträgen der ersten Spalte kann man jetzt die Koeffizienten
+\[
+b_0=(B)_{11},
+b_1=(B)_{21},
+b_2=(B)_{31},\dots,
+b_{n-1}=(B)_{n,1}
+\]
+ablesen und daraus das Element
+\[
+b(\alpha) = b_0+b_1\alpha+b_2\alpha^2 + \dots + b_{n-1}\alpha^{n-1}
+\]
+bilden.
+Da $b(M_\alpha)=B$ die inverse Matrix von $a(M_\alpha)$ ist, muss $b(\alpha)$
+das Inverse von $a(\alpha)$ sein.
+
+\begin{beispiel}
+Wir betrachten das Polynom
+\[
+m(X) = X^3 + 2X^2 + 2X + 3 \in \mathbb{F}_{7}[X],
+\]
+es ist irreduzibel.
+Sei $\alpha$ eine Nullstelle von $m$, wir suchen das inverse Element zu
+\[
+a(\alpha)=1+2\alpha+2\alpha^2\in\mathbb{F}_{7}(\alpha).
+\]
+Die Matrix $a(M_\alpha)$ bekommt die Form
+\[
+A=\begin{pmatrix}
+ 1& 1& 6\\
+ 2& 4& 5\\
+ 2& 5& 1
+\end{pmatrix}.
+\]
+Die Inverse kann man bestimmen, indem man den
+Gauss-Algorithmus in $\mathbb{F}_{7}$ durchführt.
+Die Arithmetik in $\mathbb{F}_{7}$ ist etwas ungewohnt, insbesondere
+die Pivot-Division ist etwas mühsam, daher sind in
+Abbildung~\ref{buch:endlichekoerper:fig:additionmultiplikation}
+die Additions- und Multiplikationstabellen zusammengestellt.
+\begin{figure}
+\begin{center}
+\begin{tabular}{|>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
++&0&1&2&3&4&5&6\\
+\hline
+0&0&1&2&3&4&5&6\\
+1&1&2&3&4&5&6&0\\
+2&2&3&4&5&6&0&1\\
+3&3&4&5&6&0&1&2\\
+4&4&5&6&0&1&2&3\\
+5&5&6&0&1&2&3&4\\
+6&6&0&1&2&3&4&5\\
+\hline
+\end{tabular}
+\qquad
+\begin{tabular}{|>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+\cdot
+ &0&1&2&3&4&5&6\\
+\hline
+0&0&0&0&0&0&0&0\\
+1&0&1&2&3&4&5&6\\
+2&0&2&4&6&1&3&5\\
+3&0&3&6&2&5&1&4\\
+4&0&4&1&5&2&6&3\\
+5&0&5&3&1&6&4&2\\
+6&0&6&5&4&3&2&1\\
+\hline
+\end{tabular}
+\end{center}
+\caption{Additions- und Multiplikationstabelle für das Rechnen im
+Galois-Körper $\mathbb{F}_7$.
+Die multiplikative Inverse eines Elements in $a\in\mathbb{F}_7^*$
+findet man, indem man in der Multiplikationstabelle in der Zeile
+$a$ die Spalte mit der $1$ sucht, diese Spalte ist mit der multiplikativen
+Inversen von $a$ angeschrieben.
+\label{buch:endlichekoerper:fig:additionmultiplikation}}
+\end{figure}
+Mit dieser Rechenhilfe kann jetzt der Gaussalgorithmus leicht durchgeführt
+werden:
+\begin{align*}
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+ 1& 1& 6& 1& 0& 0\\
+ 2& 4& 5& 0& 1& 0\\
+ 2& 5& 1& 0& 0& 1\\
+\hline
+\end{tabular}
+&\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+ 1& 1& 6& 1& 0& 0\\
+ 0& 2& 0& 5& 1& 0\\
+ 0& 3& 3& 5& 0& 1\\
+\hline
+\end{tabular}
+\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+ 1& 1& 6& 1& 0& 0\\
+ 0& 1& 0& 6& 4& 0\\
+ 0& 0& 3& 1& 2& 1\\
+\hline
+\end{tabular}
+\\
+&\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+ 1& 1& 6& 1& 0& 0\\
+ 0& 1& 0& 6& 4& 0\\
+ 0& 0& 1& 5& 3& 5\\
+\hline
+\end{tabular}
+\\
+&\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+ 1& 1& 0& 6& 3& 5\\
+ 0& 1& 0& 6& 4& 0\\
+ 0& 0& 1& 5& 3& 5\\
+\hline
+\end{tabular}
+\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+ 1& 0& 0& 0& 6& 5\\
+ 0& 1& 0& 6& 4& 0\\
+ 0& 0& 1& 5& 3& 5\\
+\hline
+\end{tabular}
+\end{align*}
+Für die Durchführung braucht man die Inversen in $\mathbb{F}_7$
+der Pivot-Elemente, sie sind $2^{-1}=4$ und $3^{-1}=5$.
+Im rechten Teil des Tableau steht jetzt die inverse Matrix
+\[
+A^{-1}
+=
+B=\begin{pmatrix}
+ 0& 6& 5\\
+ 6& 4& 0\\
+ 5& 3& 5
+\end{pmatrix}.
+\]
+Daraus können wir jetzt das inverse Element
+\[
+b(\alpha) = 6\alpha+5\alpha^2
+\]
+ablesen.
+Das Produkt $b(X)\cdot a(X)$ ist
+\begin{align*}
+(1+2X+2X^2)(6X+5X^2)
+&=
+10X^4 + 22X^3 + 17X^2 + 6X
+\\
+&=
+3X^4+X^3+3X^2+6X
+\intertext{
+Diese Polynom muss jetzt mit dem Minimalpolynom $m(X)$ reduziert
+werden, wir subtrahieren dazu $3Xm(X)$ und erhalten}
+&=
+-5X^3-3X^2-3X
+\\
+&=
+2X^3+4X^2+4X
+\intertext{Die vollständige Reduktion wird erreicht, indem wir nochmals
+$2m(X)$ subtrahieren:}
+&=
+-6 \equiv 1\mod 7,
+\end{align*}
+das Element $b(\alpha)=6\alpha+5\alpha^2$ ist also das Inverse Element von
+$a(\alpha)=1+2\alpha+2\alpha^2$ in $\mathbb{F}_7(\alpha)$.
+\label{buch:endlichekoerper:beispiel:inversemitmatrix}
+\end{beispiel}
+
+Die Matrixrealisation von $\Bbbk(\alpha)$ führt also auf eine effiziente
+Berechnungsmöglichkeit für das Inverse eines Elements von $\Bbbk(\alpha)$.
+
+\subsubsection{Algebraische Konstruktion}
+Die Matrixdarstellung von $\alpha$ ermöglicht eine rein algebraische
+und für die Rechnung besser geeignete Konstruktion.
+Für jedes Polynom $f\in\Bbbk[X]$ ist $f(M_\alpha)\in M_n(\Bbbk)$.
+Dies definiert einen Homomorphismus
+\[
+\varphi\colon \Bbbk[X] \to M_n(\Bbbk) : f \mapsto f(M_\alpha).
+\]
+Wir haben früher schon gesehen, dass das Bild dieses Homomorphismus
+genau die Menge $\Bbbk(M_\alpha)$ ist.
+Allerdings ist $\varphi$ nicht injektiv, das Polynom $m$ wird zum
+Beispiel auf $\varphi(m) = m(M_\alpha) = 0$ abgebildet.
+
+Der Kern von $\varphi$ besteht aus allen Polynomen $p\in\Bbbk[X]$,
+für die $p(M_\alpha)=0$ gilt.
+Da aber alle Matrizen $E,M_\alpha,\dots,M_\alpha^{n-1}$ linear
+unabhängig sind, muss ein solches Polynom den gleichen Grad haben
+we $m$, und damit ein Vielfaches von $m$ sein.
+Der Kern besteht daher genau aus den Vielfachen von $m(X)$,
+$\ker\varphi = m(X)\Bbbk[X]$.
+
+Es ist nicht a priori klar, dass der Quotient $R/I$ für ein
+Ideal $I\subset R$ ein Körper ist.
+Hier spielt es eine Rolle, dass das von $m$ erzeugte Ideal
+maximal ist im folgenden Sinne.
+
+\begin{definition}
+Ein Ideal $I\subset R$ heisst {\em maximal}, wenn für jedes andere Ideal
+$J$ mit $I\subset J\subset R$ entweder $I=J$ oder $J=R$ gilt.
+\end{definition}
+
+\begin{beispiel}
+Die Ideale $p\mathbb{Z}\subset \mathbb{Z}$ sind maximal genau dann, wenn
+$p$ eine Primzahl ist.
+
+TODO: XXX Begründung
+\end{beispiel}
+
+\begin{satz}
+Der Ring $R/I$ ist genau dann ein Körper, wenn $I$ ein maximales Ideal ist.
+\end{satz}
+
+\begin{proof}[Beweis]
+\end{proof}
+
+Ein irreduzibles Polynom $m\in\Bbbk[X]$ erzeugt ein maximales Ideal,
+somit ist $\Bbbk[X]/m\Bbbk[X]\cong \Bbbk(M_\alpha) \cong \Bbbk(\alpha)$.
+
+\subsubsection{Reduktion modulo $m$}
+Die algebraische Konstruktion hat gezeigt, dass die arithmetischen
+Operationen im Körper $\Bbbk(\alpha)$ genau die Operationen
+in $\Bbbk[X]/m\Bbbk[X]$ sind.
+Eine Zahl in $\Bbbk(\alpha)$ wird also durch ein Polynom vom
+$n-1$ dargestellt.
+Addieren und Subtrahieren erfolgen Koeffizientenweise in $\Bbbk$.
+Bei der Multiplikation entsteht möglicherwise ein Polynom grösseren
+Grades, mit dem Polynomdivisionsalgorithmus kann der Rest bei Division
+durch $m$ ermittelt werden.
+
+\begin{beispiel}
+Das Polyonom $f=X^5+X^4+X^3+X^2+X^1+1\in\mathbb{F}_7[X]$ soll modulo
+$m(X)=X^3+2X^2+2X^2+3$ reduziert werden.
+Wir führen die Polynomdivision in $\mathbb{F}_7[X]$ durch, die
+Multiplikationstabelle von $\mathbb{F}_7$ in
+Abbildung~\ref{buch:endlichekoerper:fig:additionmultiplikation}
+ist dabei wieder hilfreich.
+\[
+\arraycolsep=1.4pt
+\begin{array}{rcrcrcrcrcrcrcrcrcrcrcrcr}
+X^5&+& X^4&+& X^3&+& X^2&+& X&+&1&:&X^3&+&2X^2&+&2X&+&3&=&X^2&+&6X&+&1\rlap{$\mathstrut=q$}\\
+\llap{$-($}X^5&+&2X^4&+&2X^3&+&3X^2\rlap{$)$}& & & & & & & & & & & & & & & & & & \\
+\cline{1-7}
+ & &6X^4&+&6X^3&+&5X^2&+& X& & & & & & & & & & & & & & & & \\
+ & &\llap{$-($}6X^4&+&5X^3&+&5X^2&+&4X\rlap{$)$}& & & & & & & & & & & & & & & & \\
+\cline{3-9}
+ & & & & X^3& & &+&4X&+&1& & & & & & & & & & & & & & \\
+ & & & &\llap{$-($}X^3&+&2X^2&+&2X&+&3\rlap{$)$}& & & & & & & & & & & & & & \\
+\cline{5-11}
+ & & & & & &5X^2&+&2X&+&5\rlap{$\mathstrut=r$}& & & & & & & & & & & & & & \\
+\end{array}
+\]
+Die Kontrolle
+\[
+\arraycolsep=1.4pt
+\begin{array}{rcrcrcrcrcrcr}
+\llap{$($}X^2&+& 6X&+& 1\rlap{$)$}&\cdot&\llap{$($} X^3&+&2X^2&+&2X&+&3\rlap{$)$}\\
+\cline{1-13}
+ & & & & & & X^3&+&2X^2&+&2X&+&3\\
+ & & & &6X^4& + &5X^3&+&5X^2&+&4X& & \\
+ & & X^5&+&2X^4& + &2X^3&+&3X^2& & & & \\
+\cline{3-13}
+ & & X^5&+& X^4& + & X^3&+&3X^2&+&6X&+&3\rlap{$\phantom{)}=q\cdot m$}\\
+ & & & & & & & &\llap{$+($}5X^2&+&2X&+&5\rlap{$)=r$}\\
+\cline{3-13}
+ & & X^5&+& X^4& + & X^3&+& X^2&+& X&+&1\\
+\cline{3-13}
+\end{array}
+\]
+zeigt $f=qm+r$ und damit die Korrektheit der Rechnung.
+\end{beispiel}
+
+Die Identität $m(\alpha)=0$ kann aber auch wie folgt interpretiert werden.
+Sei der Grad von $f$ mindestens so gross wie der von $m$, also
+$l=\deg f\ge \deg m=n$.
+Indem man mit $\alpha^{l-n}$ multipliziert, erhält man die Relation
+\[
+\alpha^l + m_{n-1}\alpha^{l-1} + m_{n-2}\alpha^{l-2}+\dots +a_1\alpha^{l-n+1} + a_0\alpha^{l-n} = 0.
+\]
+
+Ist $f_l$ der führende Koeffizient des Polynoms $f$, dann ist
+$f-f_0mX^{n-l}$ ein Polynom vom Grad $l-1$, welches modulo $m$
+mit $f$ übereinstimmt.
+Indem man dies wiederholt, kann man also die Reduktion finden, ohne
+den Polynomdivisionsalgorithmus durchzuführen.
+Man erhält auf diese Weise zwar den Quotienten $q$ nicht, aber den
+Rest $r$ kann man trotzdem bekommen.
+
+\begin{beispiel}
+Wir wenden den eben beschriebenen Algorithmus wieder auf das
+Polynom $f=X^5+X^4+X^3+X^2+X+1$ an und erhalten:
+\[
+\arraycolsep=1.4pt
+\begin{array}{rcrcrcrcrcr}
+X^5&+& X^4&+& X^3&+& X^2&+& X&+&1\\
+\llap{$-($}X^5&+&2X^4&+&2X^3&+&3X^2\rlap{$\mathstrut =X^2m)$}& & & & \\
+\cline{1-11}
+ & &6X^4&+&6X^3&+&5X^2&+& X&+&1\\
+ & &\llap{$-($}6X^4&+&5X^3&+&5X^2&+&4X\rlap{$\mathstrut =6Xm)$}& & \\
+\cline{3-11}
+ & & & & X^3& & &+&4X&+&1\\
+ & & & & \llap{$-($}X^3&+&2X^2&+&2X&+&3\rlap{$\mathstrut =m)$}\\
+\cline{5-11}
+ & & & & & &5X^2&+&2X&+&5\rlap{$\mathstrut =r$}\\
+\end{array}
+\]
+Dies ist derselbe Rest wie wir mit dem Divisionsalgorithmus
+gefunden haben.
+\end{beispiel}
+
+Diese Form des Reduktionsalgorithmus ist besonders leicht durchzuführen
+in einem Körper $\mathbb{F}_2$, da dort die Addition und die Subtraktion
+der Koeffizienten übereinstimmen.
+Die Multiplikation mit $X$ ist nichts anders als ein Shift der
+Koeffizienten.
+
+\subsubsection{Multiplikative Inverse}
+Die schwierigste Operation in $\Bbbk(\alpha)$ ist die Division.
+Wie bei der Berechnung der Inversion in einem Galois-Körper $\mathbb{F}_p$
+kann dafür der euklidische Algorithmus verwendet werden.
+Sei also $f\in\Bbbk[X]$ ein Polynom vom Grad $\deg f <\deg m$, es soll
+das multiplikative Inverse gefunden werden.
+Da $m$ ein irreduzibles Polynom ist, müssen $f$ und $m$ teilerfremd sein.
+Der euklidische Algorithmus liefert zwei Polynome $s,t\in\Bbbk[X]$ derart,
+dass
+\[
+sf+tm=1.
+\]
+Reduzieren wir modulo $m$, wird daraus $af=1$ in $\Bbbk[X]/m\Bbbk[X]$.
+Das Polynom $a$, reduziert module $m$, ist also die multiplikative
+Inverse von $f$.
+
+Bei der praktischen Durchführung des euklidischen Algorithmus ist der
+letzte Rest $r_{n-1}$ oft nicht $1$ sondern ein anderes Element von
+$\mathbb{F}_p^*$.
+Die Linearkombination von $f$ und $m$ mit den berechneten Faktoren
+$s$ und $t$ ist daher auch nicht $1$, sondern
+\[
+sf+tm=r_{n-1}.
+\]
+Da aber alle Elemente in $\mathbb{F}_p^*$ invertierbar sind, kann man
+durch $r_{n-1}$ dividieren, was
+\[
+r_{n-1}^{-1}sf+r_{n-1}^{-1}tm=1
+\]
+ergibt.
+Also ist $r_{n-1}^{-1}s$ die gesuchte Inverse in $\mathbb{F}_p(\alpha)$,
+dies passiert auch im folgenden Beispiel.
+
+\begin{beispiel}
+Auf
+Seite~\pageref{buch:endlichekoerper:beispiel:inversemitmatrix}
+haben wir die multiplikative Inverse von
+$f=2X^2+2X+1\in\mathbb{F}_7[X]/m\mathbb{F}_7[X]$
+mit $m = X^3 + 2X^2 + 2X + 3$
+mit Hilfe von Matrizen berechnet, hier soll sie jetzt nochmals
+mit dem euklidischen Algorithmus berechnet werden.
+
+Zunächst müssen wir den euklidischen Algorithmus für die beiden Polynome
+$f$ und $m$ durchführen.
+Der Quotient $m:f$ ist:
+\[
+\arraycolsep=1.4pt
+\begin{array}{rcrcrcrcrcrcrcrcr}
+ X^3&+&2X^2&+&2X&+&3&:&2X^2&+&2X&+&1&=&4X&+&4\rlap{$\mathstrut=q_0$}\\
+\llap{$-($}X^3&+& X^2&+&4X\rlap{$)$}& & & & & & & & & & & & \\ \cline{1-5}
+ & & X^2&+&5X&+&3& & & & & & & & & & \\
+ &&\llap{$-(\phantom{2}$}X^2&+& X&+&4\rlap{$)$}& & & & & & & & & & \\ \cline{3-7}
+ & & & &4X&+&6\rlap{$\mathstrut=r_0$}& & & & & & & & & &
+\end{array}
+\]
+Jetzt muss der Quotient $f:r_0$ berechnet werden:
+\[
+\arraycolsep=1.4pt
+\begin{array}{rcrcrcrcrcrcrcrcr}
+ 2X^2&+&2X&+&1&:&4X&+&6&=&4X&+&5\rlap{$\mathstrut=q_1$}\\
+\llap{$-($}2X^2&+&3X\rlap{$)$}& & & & & & & & \\ \cline{1-3}
+ & &6X&+&1& & & & & & \\
+ & &\llap{$-($}6X&+&2\rlap{$)$}& & & & & & \\ \cline{3-5}
+ & & & &6\rlap{$\mathstrut=r_1$}& & & & & & & &
+\end{array}
+\]
+Da der Rest $r_1\in\mathbb{F}_7^*$ liegt, gibt die nächste Division
+natürlich den Rest $0$ und der letzte nicht verschwindende Rest ist
+$r_{1}=6$:
+\[
+\arraycolsep=1.4pt
+\begin{array}{rcrcrcrcr}
+4X&+&6&:&6&=&3X&+&1\rlap{$\mathstrut=q_2$} \\
+\llap{$-($}4X\rlap{$)$}& & & & & & & & \\ \cline{1-1}
+ 0&+&6& & & & & & \\
+ & &\llap{$-($}6\rlap{$)$}& & & & & &\\ \cline{3-3}
+ & &0\rlap{$\mathstrut=r_2$}& & & & & &
+\end{array}
+\]
+Damit ist der euklidische Algorithmus abgeschlossen.
+
+Durch Ausmultiplizieren der Matrizen $Q(-q_i)$ können wir jetzt auch die
+Faktoren $s$ und $t$ finden.
+\begin{align*}
+Q=\begin{pmatrix}
+s&t\\
+*&*
+\end{pmatrix}
+&= Q(q_2)Q(q_1)Q(q_0)
+=
+\begin{pmatrix}0&1\\1&-q_2\end{pmatrix}
+\begin{pmatrix}0&1\\1&-q_1\end{pmatrix}
+\begin{pmatrix}0&1\\1&-q_0\end{pmatrix}
+\\
+&=
+\begin{pmatrix}
+0&1\\
+1&4X+6
+\end{pmatrix}
+\begin{pmatrix}
+0&1\\
+1&3X+2
+\end{pmatrix}
+\begin{pmatrix}
+0&1\\
+1&3X+3
+\end{pmatrix}
+\\
+&=
+\begin{pmatrix}
+0&1\\
+1&4X+6
+\end{pmatrix}
+\begin{pmatrix}
+ 1&3X+3\\
+3X+2&2X^2 + X
+\end{pmatrix}
+\\
+&=
+\begin{pmatrix}
+3X+2 &2X^2+X\\
+1+(4X+6)(3X+2) &3X+3 + (4X+6)(2X^2+X)
+\end{pmatrix}
+\\
+&=
+\begin{pmatrix}
+ 3X+2 & 2X^2 +X\\
+5X^2+5X+6 & X^3+2X^2+2X+6
+\end{pmatrix}
+\end{align*}
+Daraus liest man
+\[
+s
+=
+2X^2+X
+\qquad\text{und}\qquad
+t
+=
+3X+2
+\]
+ab.
+Wir überprüfen, ob die Koeffizienten der ersten Zeile tatsächlich $m$ und $f$
+zu $r_1=6$ kombinieren.
+Es ist
+\begin{align*}
+(3X+2)\cdot m + (2X^2+X)\cdot f
+&=
+(3X+2)
+(X^3+3X^2+X+2)
++
+(2X^2+X)
+(2X^2+2X+1)
+=
+6=r_1
+\end{align*}
+Die multiplikative Inverse ist daher
+$
+r_1^{-1}(2X^2 + X)
+=
+6^{-1}
+(2X^2 + X)
+=
+6
+(2X^2 + X)
+=
+5X^2+6X$,
+was mit dem Beispiel von
+Seite~\pageref{buch:endlichekoerper:beispiel:inversemitmatrix}
+übereinstimmt.
+\end{beispiel}
+
+Besonders einfach ist die Rechung für $\Bbbk=\mathbb{F}_2$.
+Dieser Spezialfall ist für die praktische Anwendung in der Kryptographie
+von besonderer Bedeutung, daher wird er im
+In Kapitel~\ref{buch:chapter:kryptographie} genauer untersucht.
+
+\subsection{Zerfällungskörper
+\label{buch:subsection:zerfaellungskoerper}}
+XXX TODO
+
+
+
diff --git a/buch/chapters/40-eigenwerte/Makefile.inc b/buch/chapters/40-eigenwerte/Makefile.inc
index 64531c5..b15f476 100644
--- a/buch/chapters/40-eigenwerte/Makefile.inc
+++ b/buch/chapters/40-eigenwerte/Makefile.inc
@@ -6,6 +6,10 @@
CHAPTERFILES = $(CHAPTERFILES) \
chapters/40-eigenwerte/numerisch.tex \
+ chapters/40-eigenwerte/normalformen.tex \
+ chapters/40-eigenwerte/grundlagen.tex \
chapters/40-eigenwerte/spektralradius.tex \
chapters/40-eigenwerte/spektraltheorie.tex \
+ chapters/40-eigenwerte/uebungsaufgaben/4001.tex \
+ chapters/40-eigenwerte/uebungsaufgaben/4002.tex \
chapters/40-eigenwerte/chapter.tex
diff --git a/buch/chapters/40-eigenwerte/beispiele/Makefile b/buch/chapters/40-eigenwerte/beispiele/Makefile
new file mode 100644
index 0000000..543ef65
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/beispiele/Makefile
@@ -0,0 +1,8 @@
+#
+# Makefile -- Berechnungen für Beispiel durchführen
+#
+# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+#
+all:
+ octave i.m
+
diff --git a/buch/chapters/40-eigenwerte/beispiele/i.m b/buch/chapters/40-eigenwerte/beispiele/i.m
new file mode 100644
index 0000000..353e3a2
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/beispiele/i.m
@@ -0,0 +1,65 @@
+#
+# i.m -- invariante
+#
+# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+#
+
+A0 = [
+ 2, 1, 0, 0;
+ 0, 2, 1, 0;
+ 0, 0, 2, 0;
+ 0, 0, 0, 3
+];
+
+# find a 3x3 matrix in SL(3,Z)
+
+function retval = zufallswert()
+ x = round(rand() * 10) - 2;
+ if (x >= 0)
+ x = x + 1;
+ endif
+ retval = x;
+end
+
+function retval = zufallsmatrix(n)
+ retval = zeros(n, n);
+ for i = (1:n)
+ for j = (1:n)
+ retval(i,j) = zufallswert();
+ end
+ end
+end
+
+function retval = regulaer(n)
+ d = 0;
+ do
+ retval = zufallsmatrix(2);
+ d = det(retval);
+ until (d == 1);
+end
+
+function retval = eingebettet(n,k)
+ retval = eye(n);
+ retval(k:k+1,k:k+1) = regulaer(2);
+end
+
+format long
+
+B = eye(4);
+B = B * eingebettet(4,3)
+B = B * eingebettet(4,1)
+B = B * inverse(eingebettet(4,2))
+#B = B * eingebettet(4,2)
+
+B
+inverse(B)
+
+A = round(B * A0 * inverse(B))
+
+D = A - 2 * eye(4)
+rank(D)
+
+E = round(D*D*D*D)
+rank(E')
+
+rref(E)
diff --git a/buch/chapters/40-eigenwerte/beispiele/jp.maxima b/buch/chapters/40-eigenwerte/beispiele/jp.maxima
new file mode 100644
index 0000000..a80a0a2
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/beispiele/jp.maxima
@@ -0,0 +1,19 @@
+/*
+ * jp.maxima -- potenzen von Jordan-Blöcken
+ *
+ * (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+ */
+
+A: matrix(
+[lambda, 1, 0, 0, 0, 0 ],
+[ 0,lambda, 1, 0, 0, 0 ],
+[ 0, 0,lambda, 1, 0, 0 ],
+[ 0, 0, 0,lambda, 1, 0 ],
+[ 0, 0, 0, 0,lambda, 1 ],
+[ 0, 0, 0, 0, 0,lambda ]
+);
+B: A.A;
+B: B.A;
+B: B.A;
+B: B.A;
+B: B.A;
diff --git a/buch/chapters/40-eigenwerte/beispiele/n.m b/buch/chapters/40-eigenwerte/beispiele/n.m
new file mode 100644
index 0000000..af0219b
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/beispiele/n.m
@@ -0,0 +1,55 @@
+#
+# n.m -- Polynome mit dem gleichen Wert von p(A)
+#
+# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+#
+
+A0 = [
+ 2, 1, 0;
+ 0, 2, 0;
+ 0, 0, 3
+];
+
+# find a 3x3 matrix in SL(3,Z)
+
+function retval = zufallswert()
+ x = round(rand() * 10) - 2;
+ if (x >= 0)
+ x = x + 1;
+ endif
+ retval = x;
+end
+
+function retval = zufallsmatrix(n)
+ retval = zeros(n, n);
+ for i = (1:n)
+ for j = (1:n)
+ retval(i,j) = zufallswert();
+ end
+ end
+end
+
+function retval = regulaer(n)
+ d = 0;
+ do
+ retval = zufallsmatrix(2);
+ d = det(retval);
+ until (d == 1);
+end
+
+function retval = eingebettet(n,k)
+ retval = eye(n);
+ retval(k:k+1,k:k+1) = regulaer(2);
+end
+
+format long
+
+B = eye(3);
+B = B * eingebettet(3,2)
+B = B * eingebettet(3,1)
+
+B
+inverse(B)
+
+A = round(B * A0 * inverse(B))
+
diff --git a/buch/chapters/40-eigenwerte/beispiele/n.maxima b/buch/chapters/40-eigenwerte/beispiele/n.maxima
new file mode 100644
index 0000000..9ed83b6
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/beispiele/n.maxima
@@ -0,0 +1,20 @@
+/*
+ * n.maxima
+ *
+ * (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+ */
+A: matrix(
+ [ 1, 9, -4 ],
+ [ -1, 3, 0 ],
+ [ -2, 0, 3 ]
+);
+
+p: expand(charpoly(A,x));
+factor(p);
+
+A.A;
+A.A.A;
+
+A.A - 5*A;
+
+A.A.A -7*A.A +16 *A;
diff --git a/buch/chapters/40-eigenwerte/chapter.tex b/buch/chapters/40-eigenwerte/chapter.tex
index 95665f7..e769b38 100644
--- a/buch/chapters/40-eigenwerte/chapter.tex
+++ b/buch/chapters/40-eigenwerte/chapter.tex
@@ -1,5 +1,5 @@
%
-% chapter.tex -- Kapitel über eigenwerte und eigenvektoren
+% chapter.tex -- Kapitel über Eigenwerte und Eigenvektoren
%
% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
%
@@ -7,9 +7,42 @@
\label{buch:chapter:eigenwerte-und-eigenvektoren}}
\lhead{Eigenwerte und Eigenvektoren}
\rhead{}
+Die algebraischen Eigenschaften einer Matrix $A$ sind eng mit der
+Frage nach linearen Beziehungen unter den Potenzen von $A^k$ verbunden.
+Im Allgemeinen ist die Berechnung dieser Potenzen eher unübersichtlich,
+es sei denn, die Matrix hat eine spezielle Form.
+Die Potenzen einer Diagonalmatrix erhält man, indem man die Diagonalelemente
+potenziert.
+Auch für Dreiecksmatrizen ist mindestens die Berechnung der Diagonalelemente
+von $A^k$ einfach.
+Die Theorie der Eigenwerte und Eigenvektoren ermöglicht, Matrizen in
+eine solche besonders einfache Form zu bringen.
+In Abschnitt~\ref{buch:section:grundlagen} werden die grundlegenden
+Definitionen der Eigenwerttheorie in Erinnerung gerufen.
+Damit kann dann in Abschnitt~\ref{buch:section:normalformen}
+gezeigt werden, wie Matrizen in besonders einfache Form gebracht
+werden können.
+Die Eigenwerte bestimmen auch die Eigenschaften von numerischen
+Algorithmen, wie in den Abschnitten~\ref{buch:section:spektralradius}
+und \ref{buch:section:numerisch} dargestellt wird.
+Für viele Funktionen kann man auch den Wert $f(A)$ berechnen, unter
+geeigneten Voraussetzungen an den Spektralradius.
+Dies wird in Abschnitt~\ref{buch:section:spektraltheorie} beschrieben.
-\input{chapters/40-eigenwerte/numerisch.tex}
+
+\input{chapters/40-eigenwerte/grundlagen.tex}
+\input{chapters/40-eigenwerte/normalformen.tex}
\input{chapters/40-eigenwerte/spektralradius.tex}
+\input{chapters/40-eigenwerte/numerisch.tex}
\input{chapters/40-eigenwerte/spektraltheorie.tex}
+\section*{Übungsaufgaben}
+\rhead{Übungsaufgaben}
+\aufgabetoplevel{chapters/40-eigenwerte/uebungsaufgaben}
+\begin{uebungsaufgaben}
+\uebungsaufgabe{4001}
+\uebungsaufgabe{4002}
+\uebungsaufgabe{4003}
+\end{uebungsaufgaben}
+
diff --git a/buch/chapters/40-eigenwerte/grundlagen.tex b/buch/chapters/40-eigenwerte/grundlagen.tex
new file mode 100644
index 0000000..d984452
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/grundlagen.tex
@@ -0,0 +1,1002 @@
+%
+% grundlagen.tex -- Grundlagen
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\section{Grundlagen
+\label{buch:section:grundlagen}}
+\rhead{Grundlagen}
+Die Potenzen $A^k$ sind besonders einfach zu berechnen, wenn die Matrix
+Diagonalform hat, wenn also $A=\operatorname{diag}(\lambda_1,\dots,\lambda_n)$
+ist.
+In diesem Fall ist $Ae_k=\lambda_k e_k$ für jeden Standardbasisvektor $e_k$.
+Statt sich auf Diagonalmatrizen zu beschränken könnten man also auch
+Vektoren $v$ suchen, für die gilt $Av=\lambda v$, die also von $A$ nur
+gestreckt werden.
+Gelingt es, eine Basis aus solchen sogenanten {\em Eigenvektoren} zu finden,
+dann kann man die Matrix $A$ durch Basiswechsel in diese Form bringen.
+
+%
+% Kern und Bild von Matrixpotenzen
+%
+\subsection{Kern und Bild von Matrixpotenzen
+\label{buch:subsection:kern-und-bild}}
+In diesem Abschnitt ist $A\in M_n(\Bbbk)$, $A$ beschreibt eine lineare
+Abbildung $f\colon\Bbbk^n\to \Bbbk^n$.
+In diesem Abschnitt sollen Kern und Bild der Potenzen $A^k$ untersucht
+werden.
+\begin{definition}
+Wir bezeichnen Kern und Bild der iterierten Abbildung $A^k$ mit
+\[
+\mathcal{K}^k(A)
+=
+\ker A^k
+\qquad\text{und}\qquad
+\mathcal{J}^k(A)
+=
+\operatorname{im} A^k.
+\]
+\end{definition}
+
+Durch Iteration wird das Bild immer kleiner.
+Wegen
+\[
+\mathcal{J}^k (A)
+=
+\operatorname{im} A^k
+=
+\operatorname{im} A^{k-1} A
+=
+\{ A^{k-1} Av\;|\; v \in \Bbbk^n\}
+\subset
+\{ A^{k-1} v\;|\; v \in \Bbbk^n\}
+=
+\mathcal{J}^{k-1}(A)
+\]
+folgt
+\begin{equation}
+\Bbbk^n
+=
+\operatorname{im}E
+=
+\operatorname{im}A^0
+=
+\mathcal{J}^0(A)
+\supset
+\mathcal{J}^1(A)
+=
+\operatorname{im}A
+\supset
+\mathcal{J}^2(A)
+\supset\dots\supset
+\mathcal{J}^k(A)
+\supset
+\mathcal{J}^{k+1}(A)
+\supset \dots \supset
+\{0\}.
+\label{buch:eigenwerte:eqn:Jkchain}
+\end{equation}
+Für die Kerne gilt etwas Ähnliches.
+Ein Vektor $x\in \mathcal{K}^k(A)$ erfüllt $A^kx=0$.
+Dann erfüllt er aber erst recht auch
+\[
+A^{k+1}x=A\underbrace{A^kx}_{\displaystyle=0}=0,
+\]
+also ist $x\in\mathcal{K}^k(A)$.
+Es folgt
+\begin{equation}
+\{0\}
+=
+\mathcal{K}^0(A) = \ker A^0 = \ker E
+\subset
+\mathcal{K}^1(A) = \ker A
+\subset
+\dots
+\subset
+\mathcal{K}^k(A)
+\subset
+\mathcal{K}^{k+1}(A)
+\subset
+\dots
+\subset
+\Bbbk^n.
+\label{buch:eigenwerte:eqn:Kkchain}
+\end{equation}
+Neben diesen offensichtlichen Resultaten kann man aber noch mehr
+sagen.
+Es ist klar, dass in beiden Ketten
+\label{buch:eigenwerte:eqn:Jkchain}
+und
+\label{buch:eigenwerte:eqn:Kkchain}
+nur in höchstens $n$ Schritten eine wirkliche Änderung stattfinden
+kann.
+Man kann aber sogar genau sagen, wo Änderungen stattfinden:
+
+\begin{satz}
+\label{buch:eigenwerte:satz:ketten}
+Ist $A\in M_n(\Bbbk)$ eine $n\times n$-Matrix, dann gibt es eine Zahl $k$
+so, dass
+\[
+\begin{array}{rcccccccccccl}
+0=\mathcal{K}^0(A)
+&\subsetneq& \mathcal{K}^1(A) &\subsetneq& \mathcal{K}^2(A)
+&\subsetneq&\dots&\subsetneq&
+\mathcal{K}^k(A) &=& \mathcal{K}^{k+1}(A) &=& \dots
+\\
+\Bbbk^n= \mathcal{J}^0(A)
+&\supsetneq& \mathcal{J}^1(A) &\supsetneq& \mathcal{J}^2(A)
+&\supsetneq&\dots&\supsetneq&
+\mathcal{J}^k(A) &=& \mathcal{J}^{k+1}(A) &=& \dots
+\end{array}
+\]
+ist.
+\end{satz}
+
+\begin{proof}[Beweis]
+Es sind zwei Aussagen zu beweisen.
+Erstens müssen wir zeigen, dass die Dimension von $\mathcal{K}^i(A)$
+nicht mehr grösser werden kann, wenn sie zweimal hintereinander gleich war.
+Nehmen wir daher an, dass $\mathcal{K}^i(A) = \mathcal{K}^{i+1}(A)$.
+Wir müssen $\mathcal{K}^{i+2}(A)$ bestimmen.
+$\mathcal{K}^{i+2}(A)$ besteht aus allen Vektoren $x\in\Bbbk^n$ derart,
+dass $Ax\in \mathcal{K}^{i+1}(A)=\mathcal{K}^i(A)$ ist.
+Daraus ergibt sich, dass $AA^ix=0$, also ist $x\in\mathcal{K}^{i+1}(A)$.
+Wir erhalten also
+$\mathcal{K}^{i+2}(A)\subset\mathcal{K}^{i+1}\subset\mathcal{K}^{i+2}(A)$,
+dies ist nur möglich, wenn beide gleich sind.
+
+Analog kann man für die Bilder vorgehen.
+Wir nehmen an, dass $\mathcal{J}^i(A) = \mathcal{J}^{i+1}(A)$ und
+bestimmten $\mathcal{J}^{i+2}(A)$.
+$\mathcal{J}^{i+2}(A)$ besteht aus all jenen Vektoren, die als
+$Ax$ mit $x\in\mathcal{J}^{i+1}(A)=\mathcal{J}^i(A)$ erhalten
+werden können.
+Es gibt also insbesondere ein $y\in\Bbbk^i$ mit $x=A^iy$.
+Dann ist $Ax=A^{i+1}y\in\mathcal{J}^{i+1}(A)$.
+Insbesondere besteht $\mathcal{J}^{i+2}(A)$ genau aus den Vektoren
+von $\mathcal{J}^{i+1}(A)$.
+
+Zweitens müssen wir zeigen, dass die beiden Ketten bei der gleichen
+Potenz von $A$ konstant werden.
+Dies folgt jedoch daraus, dass $\dim\mathcal{J}^i(A) = \operatorname{Rang} A^i
+= n - \dim\ker A^i = n -\dim\mathcal{K}^i(A)$.
+Der Raum $\mathcal{J}^k(A)$ hört also beim gleichen $i$ auf, kleiner
+zu werden, bei dem auch $\mathcal{K}^i(A)$ aufhört, grösser zu werden.
+\end{proof}
+
+\begin{satz}
+Die Zahl $k$ in Satz~\ref{buch:eigenwerte:satz:ketten}
+ist nicht grösser als $n$, also
+\[
+\mathcal{K}^n(A) = \mathcal{K}^l(A)
+\qquad\text{und}\qquad
+\mathcal{J}^n(A) = \mathcal{J}^l(A)
+\]
+für $l\ge n$.
+\end{satz}
+
+\begin{proof}[Beweis]
+Nach Satz~\ref{buch:eigenwerte:satz:ketten} muss die
+Dimension von $\mathcal{K}^i(A)$ in jedem Schritt um mindestens
+$1$ zunehmen, das ist nur möglich, bis zur Dimension $n$.
+Somit können sich $\mathcal{K}^i(A)$ und $\mathcal{J}^i(A)$ für $i>n$
+nicht mehr ändern.
+\end{proof}
+
+\begin{definition}
+\label{buch:eigenwerte:def:KundJ}
+Die gemäss Satz~\ref{buch:eigenwerte:satz:ketten} identischen Unterräume
+$\mathcal{K}^i(A)$ für $i\ge k$ und die identischen Unterräume
+$\mathcal{J}^i(A)$ für $i\ge k$ werden mit
+\[
+\begin{aligned}
+\mathcal{K} &= \mathcal{K}^i(A)&&\forall i\ge k \qquad\text{und}
+\\
+\mathcal{J} &= \mathcal{J}^i(A)&&\forall i\ge k
+\end{aligned}
+\]
+bezeichnet.
+\end{definition}
+
+%
+% Inveriante Unterräume
+%
+\subsection{Invariante Unterräume
+\label{buch:subsection:invariante-unterraeume}}
+Kern und Bild sind der erste Schritt zu einem besseren Verständnis
+einer linearen Abbildung oder ihrer Matrix.
+Invariante Räume dienen dazu, eine lineare Abbildung in einfachere
+Abbildungen zwischen ``kleineren'' Räumen zu zerlegen, wo sie leichter
+analysiert werden können.
+
+\begin{definition}
+Sei $f\colon V\to V$ eine lineare Abbildung eines Vektorraums in sich
+selbst.
+Ein Unterraum $U\subset V$ heisst {\em invarianter Unterraum},
+wenn
+\[
+f(U) = \{ f(x)\;|\; x\in U\} \subset U
+\]
+gilt.
+\end{definition}
+
+Der Kern $\ker A$ einer linearen Abbildung ist trivialerweise ein
+invarianter Unterraum, da alle Vektoren in $\ker A$ auf $0\in\ker A$
+abgebildet werden.
+Ebenso ist natürlich $\operatorname{im}A$ ein invarianter Unterraum,
+denn jeder Vektor wird in $\operatorname{im}A$ abgebildet, insbesondere
+auch jeder Vektor in $\operatorname{im}A$.
+
+\begin{satz}
+\label{buch:eigenwerte:satz:KJinvariant}
+Sei $f\colon V\to V$ eine lineare Abbildung mit Matrix $A$.
+Jeder der Unterräume $\mathcal{J}^i(A)$ und $\mathcal{K}^i(A)$
+ist ein invarianter Unterraum.
+\end{satz}
+
+\begin{proof}[Beweis]
+Sei $x\in\mathcal{K}^i(A)$, es gilt also $A^ix=0$.
+Wir müssen überprüfen, dass $Ax\in\mathcal{K}^i(A)$.
+Wir berechnen daher $A^i\cdot Ax=A^{i+1}x=A\cdot A^ix = A\cdot 0=0$,
+was zeigt, dass $Ax\in\mathcal{K}^i(A)$.
+
+Sei jetzt $x\in\mathcal{J}^i(A)$, es gibt also ein $y\in V$ derart, dass
+$A^iy=x$.
+Wir müssen überprüfen, dass $Ax\in\mathcal{J}^i(A)$.
+Dazu berechnen wir $Ax=AA^iy=A^iAy\in\mathcal{J}^i(A)$, $Ax$ ist also das
+Bild von $Ay$ unter $A^i$.
+\end{proof}
+
+\begin{korollar}
+Die Unterräume $\mathcal{K}(A)\subset V$ und $\mathcal{J}(A)\subset V$
+sind invariante Unterräume.
+\end{korollar}
+
+Die beiden Unterräume $\mathcal{K}(A)$ und $\mathcal{J}(A)$ sind besonders
+interessant, da wir aus der Einschränkung der Abbildung $f$ auf diese
+Unterräume mehr über $f$ lernen können.
+
+\begin{satz}
+\label{buch:eigenwerte:satz:fJinj}
+Die Einschränkung von $f$ auf $\mathcal{J}(A)$ ist injektiv.
+\end{satz}
+
+\begin{proof}[Beweis]
+Die Einschränkung von $f$ auf $\mathcal{J}^k(A)$ ist
+$\mathcal{J}^k(A) \to \mathcal{J}^{k+1}(A)$, nach Definition von
+$\mathcal{J}^{k+1}(A)$ ist diese Abbildung surjektiv.
+Da aber $\mathcal{J}^k(A)=\mathcal{J}^{k+1}(A)$ ist, ist
+$f\colon \mathcal{J}^k(A)\to\mathcal{J}^k(A)$ surjektiv,
+also ist $f$ auf $\mathcal{J}^k(A)$ auch injektiv.
+\end{proof}
+
+Die beiden Unterräume $\mathcal{J}(A)$ und $\mathcal{K}(A)$
+sind Bild und Kern der iterierten Abbildung mit Matrix $A^k$.
+Das bedeutet, dass $\dim\mathcal{J}(A)+\mathcal{K}(A)=n$.
+Da $\mathcal{K}(A)=\ker A^k$ und andererseits $A$ injektiv ist auf
+$\mathcal{J}(A)$, muss $\mathcal{J}(A)\cap\mathcal{K}(A)=0$.
+Es folgt, dass $V=\mathcal{J}(A) + \mathcal{K}(A)$.
+
+In $\mathcal{K}(A)$ und $\mathcal{J}(A)$ kann man unabhängig voneinander
+jeweils eine Basis wählen.
+Die Basen von $\mathcal{K}(A)$ und $\mathcal{J}(A)$ zusammen ergeben
+eine Basis von $V$.
+Die Matrix $A'$ in dieser Basis wird die Blockform
+\[
+A'
+=
+\left(
+\begin{array}{ccc|ccc}
+&&&&&\\
+&A_{\mathcal{K}'}&&&&\\
+&&&&&\\
+\hline
+&&&&&\\
+&&&&A_{\mathcal{J}'}&\\
+&&&&&\\
+\end{array}
+\right)
+\]
+haben, wobei die Matrix $A_\mathcal{J}'$ invertierbar ist.
+Die Zerlegung in invariante Unterräume ergibt also eine natürlich
+Aufteilung der Matrix $A$ in kleiner Matrizen mit zum Teil bekannten
+Eigenschaften.
+
+%
+% Spezialfall, nilpotente Matrizen
+%
+\subsection{Nilpotente Matrizen
+\label{buch:subsection:nilpotente-matrizen}}
+Die Zerlegung von $V$ in die beiden invarianten Unterräume $\mathcal{J}(A)$
+und $\mathcal{K}(A)$ reduziert die lineare Abbildung auf zwei Abbildungen
+mit speziellen Eigenschaften.
+Es wurde bereits in Satz~\label{buch:eigenwerte:satz:fJinj} gezeigt,
+dass die Einschränkung auf $\mathcal{J}(A)$ injektiv ist.
+Die Einschränkung auf $\mathcal{K}(A)$ bildet nach Definition alle
+Vektoren nach $k$-facher Iteration auf $0$ ab, $A^k\mathcal{K}(A)=0$.
+Solche Abbildungen haben eine speziellen Namen.
+
+\begin{definition}
+\label{buch:eigenwerte:def:nilpotent}
+Eine Matrix $A$ heisst nilpotent, wenn es eine Zahl $k$ gibt, so dass
+$A^k=0$.
+\end{definition}
+
+\begin{beispiel}
+Obere (oder untere) Dreiecksmatrizen mit Nullen auf der Diagonalen
+sind nilpotent.
+Wir rechnen dies wie folgt nach.
+Die Matrix $A$ mit Einträgen $a_{ij}$
+\[
+A=\begin{pmatrix}
+ 0 &a_{12}&a_{13}&\dots &a_{1,n-1}&a_{1n} \\
+ 0 & 0 &a_{23}&\dots &a_{1,n-1}&a_{2n} \\
+ 0 & 0 & 0 &\dots &a_{1,n-1}&a_{3n} \\
+\vdots&\vdots&\vdots&\ddots&\vdots &\vdots \\
+ 0 & 0 & 0 &\dots & 0 &a_{n-1,n}\\
+ 0 & 0 & 0 &\dots & 0 & 0
+\end{pmatrix}
+\]
+erfüllt $a_{ij}=0$ für $i\ge j$.
+Wir zeigen jetzt, dass sich bei der Multiplikation die nicht
+verschwinden Elemente bei der Multiplikation noch rechts oben
+verschieben.
+Dazu multiplizieren wir zwei Matrizen $B$ und $C$ mit
+$b_{ij}=0$ für $i+k>j$ und $c_{ij}=0$ für $i+l>j$.
+In der folgenden graphischen Darstellung der Matrizen sind die
+Bereiche, wo die Matrixelemente verschwinden, weiss.
+\begin{center}
+\includegraphics{chapters/40-eigenwerte/images/nilpotent.pdf}
+\end{center}
+Bei der Berechnung des Elementes $d_{ij}$ wird die Zeile $i$ von $B$
+mit der Spalte $j$ von $C$ multipliziert.
+Die blau eingefärbten Elemente in dieser Zeile und Spalte sind $0$.
+Aus der Darstellung ist abzulesen, dass das Produkt verschwindet,
+die roten, von $0$ verschiedenen Elemente von den blauen Elementen
+annihiliert werden.
+Dies passiert immer, wenn $i+k>j-l$ ist, oder $i+(k+l)> j$.
+
+Wir wenden diese Beobachtung jetzt auf die Potenzen $A^s$ an.
+Für die Matrixelemente von $A^s$ schreiben wir $a^s_{ij}$.
+Wir behaupten, dass die Matrixelemente $A^s$ die Bedingung
+$a_{ij}^s=0$ für $i+s>j$ erfüllen.
+Dies ist für $s=1$ nach Voraussetzung richtig, dies ist die
+Induktionsvoraussetzung.
+Nehmen wir jetzt an, dass $a_{ij}^s=0$ für $i+s>j$, dann folgt
+aus obiger Rechnung, dass $a_{ij}^{s+1}=0$ für $i+s+1>j$, so
+dass die Bedingung auch für $A^s$ gilt (Induktionsschritt).
+Mit vollständiger Induktion folgt, dass $a_{ij}^s=0$ für $i+s>j$.
+Insbesondere ist $A^n=0$, die Matrix $A$ ist nilpotent.
+\end{beispiel}
+
+Man kann die Konstruktion der Unterräume $\mathcal{K}^i(A)$ weiter
+dazu verwenden, eine Basis zu finden, in der eine nilpotente Matrix
+eine besonders einfach Form erhält.
+
+\begin{satz}
+\label{buch:eigenwerte:satz:nnilpotent}
+Sei $A$ eine nilpotente $n\times n$-Matrix mit der Eigenschaft, dass
+$A^{n-1}\ne 0$.
+Dann gibt es eine Basis so, dass $A$ die Form
+\begin{equation}
+A'
+=
+\begin{pmatrix}
+0&1& & & & \\
+ &0&1& & & \\
+ & &0& & & \\
+ & & &\ddots&1& \\
+ & & & &0&1\\
+ & & & & &0\\
+\end{pmatrix}
+\label{buch:eigenwerte:eqn:nnilpotent}
+\end{equation}
+bekommt.
+\end{satz}
+
+\begin{proof}[Beweis]
+Da $A^{n-1}\ne 0$ ist, gibt es einen Vektor $b_n$ derart, dass $A^{n-1}b_n\ne0$.
+Wir konstruieren die Vektoren
+\[
+b_n,\;
+b_{n-1}=Ab_n,\;
+b_{n-2}=Ab_{n-1},\;
+\dots,\;
+b_2=Ab_3,\;
+b_1=Ab_2.
+\]
+Aus der Konstruktion folgt $b_1=A^{n-1}b_n\ne 0$, aber $Ab_1=A^nb_n=0$.
+Aus der Konstruktion der iterierten Kerne $\mathcal{K}^i(A)$ folgt jetzt,
+dass die Vektoren $b_1,\dots,b_n$ eine Basis bilden.
+In dieser Basis hat die Matrix die Form~\ref{buch:eigenwerte:eqn:nnilpotent}.
+\end{proof}
+
+\begin{definition}
+Wir bezeichnen mit $N_n$ eine Matrix der Form
+\eqref{buch:eigenwerte:eqn:nnilpotent}.
+\end{definition}
+
+Mit etwas mehr Sorgfalt kann man auch die Bedingung, dass $A^{n-1}\ne 0$
+sein muss, im Satz~\ref{buch:eigenwerte:satz:nnilpotent} loswerden.
+
+\begin{satz}
+\label{buch:eigenwerte:satz:allgnilpotent}
+Sei $A$ ein nilpotente Matrix, dann gibt es eine Basis, in der die Matrix
+aus lauter Nullen besteht ausser in den Einträgen unmittelbar oberhalb der
+Hauptdiagonalen, wo die Einträge $0$ oder $1$ sind.
+Insbesondere zerfällt eine solche Matrix in Blöcke der Form $N_{k_i}$,
+$i=1,\dots,l$,
+wobei $k_1+\dots+k_l=n$ sein muss:
+\begin{equation}
+\def\temp#1{\multicolumn{1}{|c}{\raisebox{0pt}[17pt][12pt]{\phantom{x}$#1\mathstrut$}\phantom{x}}}
+A'
+=\left(
+\begin{array}{cccc}
+\cline{1-1}
+\temp{N_{k_1}} &\multicolumn{1}{|c}{}& & \\
+\cline{1-2}
+ &\temp{N_{k_2}}&\multicolumn{1}{|c}{}& \\
+\cline{2-3}
+ & &\temp{\ddots}&\multicolumn{1}{|c}{}\\
+\cline{3-4}
+ & & &\multicolumn{1}{|c|}{\raisebox{0pt}[17pt][12pt]{\phantom{x}$N_{k_l}$}\phantom{x}}\\
+\cline{4-4}
+\end{array}
+\right)
+\label{buch:eigenwerte:eqn:allgnilpotent}
+\end{equation}
+\end{satz}
+
+Die Einschränkung von $f$ auf den invarianten Unterraum $\mathcal{K}(A)$
+ist nilpotent.
+Die Zerlegung $V=\mathcal{J}(A)\oplus \mathcal{K}(A)$ führt also zu einer
+Zerlegung der Abbildung $f$ in eine invertierbare Abbildung
+$\mathcal{J}(A)\to\mathcal{J}(A)$ und eine
+nilpotente Abbildung $\mathcal{K}(A)\to\mathcal{K}(A)$.
+Nach Satz~\ref{buch:eigenwerte:satz:allgnilpotent} kann man in
+$\mathcal{K}(A)$ eine Basis so wählen, dass die Matrix die Blockform
+\eqref{buch:eigenwerte:eqn:allgnilpotent} erhält.
+
+%
+% Begriff des Eigenwertes und Eigenvektors
+%
+\subsection{Eigenwerte und Eigenvektoren
+\label{buch:subsection:eigenwerte-und-eigenvektoren}}
+In diesem Abschnitt betrachten wir Vektorräume $V=\Bbbk^n$ über einem
+beliebigen Körper $\Bbbk$ und quadratische Matrizen
+$A\in M_n(\Bbbk)$.
+In den meisten Anwendungen wird $\Bbbk=\mathbb{R}$ sein.
+Da aber in $\mathbb{R}$ nicht alle algebraischen Gleichungen lösbar sind,
+ist es manchmal notwendig, den Vektorraum zu erweitern um zum Beispiel
+Eigenschaften der Matrix $A$ abzuleiten.
+
+\begin{definition}
+Ein Vektor $v\in V$ heisst {\em Eigenvektor} von $A$ zum Eigenwert
+$\lambda\in\Bbbk$, wenn $v\ne 0$ und $Av=\lambda v$ gilt.
+\end{definition}
+
+Die Bedingung $v\ne 0$ dient dazu, pathologische Situationen auszuschliessen.
+Für den Nullvektor gilt $A0=\lambda 0$ für jeden beliebigen Wert von
+$\lambda\in\Bbbk$.
+Würde man $v=0$ zulassen, wäre jede Zahl in $\Bbbk$ ein Eigenwert,
+ein Eigenwert von $A$ wäre nichts besonderes.
+Ausserdem wäre $0$ ein Eigenvektor zu jedem beliebigen Eigenwert.
+
+Eigenvektoren sind nicht eindeutig bestimmt, jedes von $0$ verschiedene
+Vielfache von $v$ ist ebenfalls ein Eigenvektor.
+Zu einem Eigenwert kann man also einen Eigenvektor jeweils mit
+geeigneten Eigenschaften finden, zum Beispiel kann man für $\Bbbk = \mathbb{R}$
+Eigenvektoren auf Länge $1$ normieren.
+Im Folgenden werden wir oft die abkürzend linear unabhängige Eigenvektoren
+einfach als ``verschiedene'' Eigenvektoren bezeichnen.
+
+Wenn $v$ ein Eigenvektor von $A$ zum Eigenwert $\lambda$ ist, dann kann
+man ihn mit zusätzlichen Vektoren $v_2,\dots,v_n$ zu einer Basis
+$\mathcal{B}=\{v,v_2,\dots,v_n\}$
+von $V$ ergänzen.
+Die Vektoren $v_k$ mit $k=2,\dots,n$ werden von $A$ natürlich auch
+in den Vektorraum $V$ abgebildet, können also als Linearkombinationen
+\[
+Av = a_{1k}v + a_{2k}v_2 + a_{3k}v_3 + \dots a_{nk}v_n
+\]
+dargestellt werden.
+In der Basis $\mathcal{B}$ bekommt die Matrix $A$ daher die Form
+\[
+A'
+=
+\begin{pmatrix}
+\lambda&a_{12}&a_{13}&\dots &a_{1n}\\
+ 0 &a_{22}&a_{23}&\dots &a_{2n}\\
+ 0 &a_{32}&a_{33}&\dots &a_{3n}\\
+\vdots &\vdots&\vdots&\ddots&\vdots\\
+ 0 &a_{n2}&a_{n3}&\dots &a_{nn}
+\end{pmatrix}.
+\]
+Bereits ein einzelner Eigenwert und ein zugehöriger Eigenvektor
+ermöglichen uns also, die Matrix in eine etwas einfachere Form
+zu bringen.
+
+\begin{definition}
+Für $\lambda\in\Bbbk$ heisst
+\[
+E_\lambda
+=
+\{ v\;|\; Av=\lambda v\}
+\]
+der {\em Eigenraum} zum Eigenwert $\lambda$.
+\index{Eigenraum}%
+\end{definition}
+
+Der Eigenraum $E_\lambda$ ist ein Unterraum von $V$, denn wenn
+$u,v\in E_\lambda$, dann ist
+\[
+A(su+tv)
+=
+sAu+tAv
+=
+s\lambda u + t\lambda v
+=
+\lambda(su+tv),
+\]
+also ist auch $su+tv\in E_\lambda$.
+Der Fall $E_\lambda = \{0\}=0$ bedeutet natürlich, dass $\lambda$ gar kein
+Eigenwert ist.
+
+\begin{satz}
+Wenn $\dim E_\lambda=n$, dann ist $A=\lambda E$.
+\end{satz}
+
+\begin{proof}[Beweis]
+Da $V$ ein $n$-dimensionaler Vektoraum ist, ist $E_\lambda=V$.
+Jeder Vektor $v\in V$ erfüllt also die Bedingung $Av=\lambda v$,
+oder $A=\lambda E$.
+\end{proof}
+
+Wenn man die Eigenräume von $A$ kennt, dann kann man auch die Eigenräume
+von $A+\mu E$ berechnen.
+Ein Vektor $v\in E_\lambda$ erfüllt
+\[
+Av=\lambda v
+\qquad\Rightarrow\qquad
+(A+\mu)v = \lambda v + \mu v
+=
+(\lambda+\mu)v,
+\]
+somit ist $v$ ein Eigenvektor von $A+\mu E$ zum Eigenwert $\lambda+\mu$.
+Insbesondere können wir statt die Eigenvektoren von $A$ zum Eigenwert $\lambda$
+zu studieren, auch die Eigenvektoren zum Eigenwert $0$ von $A-\lambda E$
+untersuchen.
+
+%
+% Invariante Räume
+%
+\subsection{Verallgemeinerte Eigenräume
+\label{buch:subsection:verallgemeinerte-eigenraeume}}
+Wenn $\lambda$ ein Eigenwert der Matrix $A$ ist, dann ist
+ist $A-\lambda E$ injektiv und $\ker(A-\lambda E)\ne 0$.
+Man kann daher die invarianten Unterräume $\mathcal{K}(A-\lambda E)$
+und $\mathcal{J}(A-\lambda E)$.
+
+\begin{beispiel}
+Wir untersuchen die Matrix
+\[
+A
+=
+\begin{pmatrix}
+1&1&-1&0\\
+0&3&-1&1\\
+0&2& 0&1\\
+0&0& 0&2
+\end{pmatrix}
+\]
+Man kann zeigen, dass $\lambda=1$ ein Eigenwert ist.
+Wir suchen die Zerlegung des Vektorraums $\mathbb{R}^4$ in invariante
+Unterräume $\mathcal{K}(A-E)$ und $\mathcal{J}(A-E)$.
+Die Matrix $B=A-E$ ist
+\[
+B
+=
+\begin{pmatrix}
+0&1&-1&0\\
+0&2&-1&1\\
+0&2&-1&1\\
+0&0& 0&2
+\end{pmatrix}
+\]
+und wir berechnen davon die Potenz
+\[
+D=B^4=(A-E)^4
+=
+\begin{pmatrix}
+0&0& 0&0\\
+0&2&-1&4\\
+0&2&-1&4\\
+0&0& 0&1
+\end{pmatrix}.
+\]
+Daraus kann man ablesen, dass das Bild $\operatorname{im}D$
+von $D$ die Basis
+\[
+b_1
+=
+\begin{pmatrix}
+0\\0\\0\\1
+\end{pmatrix}
+, \qquad
+b_2
+=
+\begin{pmatrix}
+0\\1\\1\\0
+\end{pmatrix}
+\]
+hat.
+Für den Kern von $D$ können wir zum Beispiel die Basisvektoren
+\[
+b_3
+=
+\begin{pmatrix}
+0\\1\\2\\0
+\end{pmatrix}
+,\qquad
+b_4
+=
+\begin{pmatrix}
+1\\0\\0\\0
+\end{pmatrix}
+\]
+verwenden.
+
+Als erstes überprüfen wir, ob diese Basisvektoren tatsächlich invariante
+Unterräume sind.
+Für $\mathcal{J}(A-E) = \langle b_1,b_2\rangle$
+berechnen wir
+\begin{align*}
+(A-E)b_1
+&=
+\begin{pmatrix} 0\\4\\4\\1 \end{pmatrix}
+=
+4b_2+b_1,
+\\
+(A-E)b_2
+&=
+\begin{pmatrix} 0\\1\\1\\0 \end{pmatrix}
+=
+b_2.
+\end{align*}
+Dies beweist, dass $\mathcal{J}(A-E)$ invariant ist.
+In dieser Basis hat die von $A-E$ beschriebene lineare Abbildung
+auf $\mathcal{J}(A-E)$ die Matrix
+\[
+A_{\mathcal{J}(A-E)}
+=
+\begin{pmatrix}
+1&4\\
+0&1
+\end{pmatrix}.
+\]
+
+Für den Kern $\mathcal{K}(A-E)$ findet man analog
+\[
+\left.
+\begin{aligned}
+Ab_3
+&=
+-b_4
+\\
+Ab_4
+&=0
+\end{aligned}
+\quad\right\}
+\qquad\Rightarrow\qquad
+A_{\mathcal{K}(A-E)}
+=
+\begin{pmatrix}
+0&-1\\
+0& 0
+\end{pmatrix}.
+\]
+In der Basis $\mathcal{B}=\{b_1,b_2,b_3,b_4\}$ hat $A$ die Matrix
+in Blockform
+\[
+A'
+=
+\left(
+\begin{array}{cc|cr}
+2&4& & \\
+0&2& & \\
+\hline
+ & &1&-1\\
+ & &0& 1
+\end{array}\right),
+\]
+die Blöcke gehören zu den invarianten Unterräumen $\mathcal{K}(A-E)$
+und $\mathcal{K}(A-E)$.
+Die aus $A-E$ gewonnen invarianten Unterräume sind offenbar auch invariante
+Unterräume für $A$.
+\end{beispiel}
+
+\begin{definition}
+Ist $A$ eine Matrix mit Eigenwert $\lambda$, dann heisst der invariante
+Unterraum
+\[
+\mathcal{E}_{\lambda}(A)
+=
+\mathcal{K}(A-\lambda E)
+\]
+der verallgemeinerte Eigenraum von $A$.
+\end{definition}
+
+Es ist klar, dass
+$E_\lambda(A)=\ker (A-\lambda E)\subset\mathcal{E}_{\lambda}(A)$.
+
+\subsection{Zerlegung in invariante Unterräume
+\label{buch:subsection:zerlegung-in-invariante-unterraeume}}
+Wenn $\lambda$ kein Eigenwert von $A$ ist, dann ist $A-\lambda E$
+injektiv und damit $\ker(A-\lambda E)=0$.
+Es folgt, dass $\mathcal{K}^i(A-\lambda E)=0$ und daher auch
+$\mathcal{J}^i(A-\lambda E)=V$.
+Die Zerlegung in invariante Unterräume $\mathcal{J}(A-\lambda E)$ und
+$\mathcal{K}(A-\lambda E)$ liefert in diesem Falle also nichts Neues.
+
+Für einen Eigenwert $\lambda_1$ von $A$ dagegen, erhalten wir die Zerlegung
+\[
+V
+=
+\mathcal{E}_{\lambda_1}(A)
+\oplus
+\underbrace{\mathcal{J}(A-\lambda_1 E)}_{\displaystyle =V_2},
+\]
+wobei $\mathcal{E}_{\lambda_1}(A)\ne 0$ ist.
+Die Matrix $A-\lambda_1 E$ ist eingeschränkt auf $\mathcal{E}_{\lambda_1}(A)$
+nilpotent.
+Die Zerlegung in invariante Unterräume ist zwar mit Hilfe von $A-\lambda_1E$
+gewonnen worden, ist aber natürlich auch eine Zerlegung in invariante
+Unterräume für $A$.
+Wir können daher das Problem auf $V_2$ einschränken und nach einem weiteren
+Eigenwert $\lambda_2$ von $A$ in $V_2$ suchen, was wieder eine Zerlegung
+in invariante Unterräume liefert.
+Indem wir so weiterarbeiten, bis wir den ganzen Raum ausgeschöpft haben,
+können wir eine Zerlegung des ganzen Raumes $V$ finden, so dass $A$ auf
+jedem einzelnen Summanden eine sehr einfach Form hat:
+
+\begin{satz}
+\label{buch:eigenwerte:satz:zerlegung-in-eigenraeume}
+Sei $V$ ein $\Bbbk$-Vektorraum und $f$ eine lineare Abbildung mit Matrix
+$A$ derart, dass alle Eigenwerte $\lambda_1,\dots,\lambda_l$ von $A$
+in $\Bbbk$ sind.
+Dann gibt es eine Zerlegung von $V$ in verallgemeinerte Eigenräume
+\[
+V
+=
+\mathcal{E}_{\lambda_1}(A)
+\oplus
+\mathcal{E}_{\lambda_2}(A)
+\oplus
+\dots
+\oplus
+\mathcal{E}_{\lambda_l}(A).
+\]
+Die Einschränkung von $A-\lambda_{i}E$ auf den Eigenraum
+$\mathcal{E}_{\lambda_i}(A)$ ist nilpotent.
+\end{satz}
+
+\subsection{Das charakteristische Polynom
+\label{buch:subsection:das-charakteristische-polynom}}
+Ein Eigenvektor von $A$ erfüllt $Av=\lambda v$ oder gleichbedeutend
+$(A-\lambda E)v=0$, er ist also eine nichttriviale Lösung des homogenen
+Gleichungssystems mit Koeffizientenmatrix $A-\lambda E$.
+Ein Eigenwert ist also ein Skalar derart, dass $A-\lambda E$
+singulär ist.
+Ob eine Matrix singulär ist, kann mit der Determinante festgestellt
+werden.
+Die Eigenwerte einer Matrix $A$ sind daher die Nullstellen
+von $\det(A-\lambda E)$.
+
+\begin{definition}
+Das {\em charakteristische Polynom}
+\[
+\chi_A(x)
+=
+\det (A-x E)
+=
+\left|
+\begin{matrix}
+a_{11}-x & a_{12} & \dots & a_{1n} \\
+a_{21} & a_{22}-x & \dots & a_{2n} \\
+\vdots &\vdots &\ddots & \vdots \\
+a_{n1} & a_{n2} &\dots & a_{nn}-x
+\end{matrix}
+\right|.
+\]
+der Matrix $A$ ist ein Polynom vom Grad $n$ mit Koeffizienten in $\Bbbk$.
+\end{definition}
+
+Findet man eine Nullstelle $\lambda\in\Bbbk$ von $\chi_A(x)$,
+dann ist die Matrix $A-\lambda E\in M_n(\Bbbk)$ und mit dem Gauss-Algorithmus
+kann man auch mindestens einen Vektor $v\in \Bbbk^n$ finden,
+der $Av=\lambda v$ erfüllt.
+Eine Matrix der Form wie in Satz~\ref{buch:eigenwerte:satz:jordanblock}
+hat
+\[
+\chi_A(x)
+=
+\left|
+\begin{matrix}
+\lambda-x & 1 & & & & \\
+ & \lambda-x & 1 & & & \\
+ & & \lambda-x & & & \\
+ & & &\ddots& & \\
+ & & & &\lambda-x& 1 \\
+ & & & & &\lambda-x
+\end{matrix}
+\right|
+=
+(\lambda-x)^n
+=
+(-1)^n (x-\lambda)^n
+\]
+als charakteristisches Polynom, welches $\lambda$ als einzige
+Nullstelle hat.
+Der Eigenraum der Matrix ist aber nur eindimensional, man kann also
+im Allgemeinen für jede Nullstelle des charakteristischen Polynoms
+nicht mehr als einen Eigenvektor (d.~h.~einen eindimensionalen Eigenraum)
+erwarten.
+
+Wenn das charakteristische Polynom von $A$ keine Nullstellen in $\Bbbk$ hat,
+dann kann es auch keine Eigenvektoren in $\Bbbk^n$ geben.
+Gäbe es nämlich einen solchen Vektor, dann müsste eine der Komponenten
+des Vektors von $0$ verschieden sein, wir nehmen an, dass es die Komponente
+in Zeile $k$ ist.
+Die Komponente $v_k$ kann man auf zwei Arten berechnen, einmal als
+die $k$-Komponenten von $Av$ und einmal als $k$-Komponente von $\lambda v$:
+\[
+a_{k1}v_1+\dots+a_{kn}v_n = \lambda v_k.
+\]
+Da $v_k\ne 0$ kann man nach $\lambda$ auflösen und erhält
+\[
+\lambda = \frac{a_{k1}v_1+\dots + a_{kn}v_n}{v_k}.
+\]
+Alle Terme auf der rechten Seite sind in $\Bbbk$ und werden nur mit
+Körperoperationen in $\Bbbk$ verknüpft, also muss auch $\lambda\in\Bbbk$
+sein, im Widerspruch zur Annahme.
+
+Durch Hinzufügen von geeigneten Elementen können wir immer zu einem
+Körper $\Bbbk'$ übergehen, in dem das charakteristische Polynom
+in Linearfaktoren zerfällt.
+In diesem Körper kann man jetzt das homogene lineare Gleichungssystem
+mit Koeffizientenmatrix $A-\lambda E$ lösen und damit mindestens
+einen Eigenvektor $v$ für jeden Eigenwert finden.
+Die Komponenten von $v$ liegen in $\Bbbk'$, und mindestens eine davon kann
+nicht in $\Bbbk$ liegen.
+Das bedeutet aber nicht, dass man diese Vektoren nicht für theoretische
+Überlegungen über von $\Bbbk'$ unabhängige Eigenschaften der Matrix $A$ machen.
+Das folgende Beispiel soll diese Idee illustrieren.
+
+\begin{beispiel}
+Wir arbeiten in diesem Beispiel über dem Körper $\Bbbk=\mathbb{Q}$.
+Die Matrix
+\[
+A=\begin{pmatrix}
+-4&7\\
+-2&4
+\end{pmatrix}
+\in
+M_2(\mathbb{Q})
+\]
+hat das charakteristische Polynom
+\[
+\chi_A(x)
+=
+\left|
+\begin{matrix}
+-4-x&7\\-2&4-x
+\end{matrix}
+\right|
+=
+(-4-x)(4-x)-7\cdot(-2)
+=
+-16+x^2+14
+=
+x^2-2.
+\]
+Die Nullstellen sind $\pm\sqrt{2}$ und damit nicht in $\mathbb{Q}$.
+Wir gehen daher über zum Körper $\mathbb{Q}(\!\sqrt{2})$, in dem
+sich zwei Nullstellen $\lambda=\pm\sqrt{2}$ finden lassen.
+Zu jedem Eigenwert lässt sich auch ein Eigenvektor
+$v_{\pm\sqrt{2}}\in \mathbb{Q}(\!\sqrt{2})^2$, und unter Verwendung dieser
+Basis bekommt die Matrix $A'=TAT^{-1}$ Diagonalform.
+Die Transformationsmatrix $T$ enthält Matrixelemente aus
+$\mathbb{Q}(\!\sqrt{2})$, die nicht in $\mathbb{Q}$ liegen.
+Die Matrix $A$ lässt sich also über dem Körper $\mathbb{Q}(\!\sqrt{2})$
+diagonalisieren, nicht aber über dem Körper $\mathbb{Q}$.
+
+Da $A'$ Diagonalform hat mit $\pm\sqrt{2}$ auf der Diagonalen, folgt
+$A^{\prime 2} = 2E$, die Matrix $A'$ erfüllt also die Gleichung
+\begin{equation}
+A^{\prime 2}-E= \chi_{A}(A) = 0.
+\label{buch:grundlagen:eqn:cayley-hamilton-beispiel}
+\end{equation}
+Dies is ein Spezialfall des Satzes von Cayley-Hamilton~\ref{XXX}
+welcher besagt, dass jede Matrix $A$ eine Nullstelle ihres
+charakteristischen Polynoms ist: $\chi_A(A)=0$.
+Die Gleichung~\ref{buch:grundlagen:eqn:cayley-hamilton-beispiel}
+wurde zwar in $\mathbb{Q}(\!\sqrt{2})$ hergeleitet, aber in ihr kommen
+keine Koeffizienten aus $\mathbb{Q}(\!\sqrt{2})$ vor, die man nicht auch
+in $\mathbb{Q}$ berechnen könnte.
+Sie gilt daher ganz allgemein.
+\end{beispiel}
+
+\begin{beispiel}
+Die Matrix
+\[
+A=\begin{pmatrix}
+32&-41\\
+24&-32
+\end{pmatrix}
+\in
+M_2(\mathbb{R})
+\]
+über dem Körper $\Bbbk = \mathbb{R}$
+hat das charakteristische Polynom
+\[
+\det(A-xE)
+=
+\left|
+\begin{matrix}
+32-x&-41 \\
+25 &-32-x
+\end{matrix}
+\right|
+=
+(32-x)(-32-x)-25\cdot(-41)
+=
+x^2-32^2 + 1025
+=
+x^2+1.
+\]
+Die charakteristische Gleichung $\chi_A(x)=0$ hat in $\mathbb{R}$
+keine Lösungen, daher gehen wir zum Körper $\Bbbk'=\mathbb{C}$ über,
+in dem dank dem Fundamentalsatz der Algebra alle Nullstellen zu finden
+sind, sie sind $\pm i$.
+In $\mathbb C$ lassen sich dann auch Eigenvektoren finden, man muss dazu die
+folgenden linearen Gleichungssyteme lösen:
+\begin{align*}
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}|}
+32-i&-41\\
+25 &-32-i
+\end{tabular}
+&
+\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}|}
+1 & t\\
+0 & 0
+\end{tabular}
+&
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}|}
+32+i&-41\\
+25 &-32+i
+\end{tabular}
+&
+\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}|}
+1 & \overline{t}\\
+0 & 0
+\end{tabular},
+\intertext{wobei wir $t=-41/(32-i) =-41(32+i)/1025= -1.28 -0.04i = (64-1)/50$
+abgekürzt haben.
+Die zugehörigen Eigenvektoren sind}
+v_i&=\begin{pmatrix}t\\i\end{pmatrix}
+&
+v_{-i}&=\begin{pmatrix}\overline{t}\\i\end{pmatrix}
+\end{align*}
+Mit den Vektoren $v_i$ und $v_{-i}$ als Basis kann die Matrix $A$ als
+komplexe Matrix, also mit komplexem $T$ in die komplexe Diagonalmatrix
+$A'=\operatorname{diag}(i,-i)$ transformiert werden.
+Wieder kann man sofort ablesen, dass $A^{\prime2}+E=0$, und wieder kann
+man schliessen, dass für die relle Matrix $A$ ebenfalls $\chi_A(A)=0$
+gelten muss.
+\end{beispiel}
+
+
+
+
diff --git a/buch/chapters/40-eigenwerte/images/Makefile b/buch/chapters/40-eigenwerte/images/Makefile
new file mode 100644
index 0000000..db00dac
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/Makefile
@@ -0,0 +1,16 @@
+#
+# Makefile
+#
+# (c) 2020 Prof Dr Andreas Müller, Hochschule Rappersil
+#
+all: sp.pdf nilpotent.pdf
+
+sp.pdf: sp.tex sppaths.tex
+ pdflatex sp.tex
+
+sppaths.tex: spbeispiel.m
+ octave spbeispiel.m
+
+nilpotent.pdf: nilpotent.tex
+ pdflatex nilpotent.tex
+
diff --git a/buch/chapters/40-eigenwerte/images/nilpotent.pdf b/buch/chapters/40-eigenwerte/images/nilpotent.pdf
new file mode 100644
index 0000000..2106697
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/nilpotent.pdf
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/images/nilpotent.tex b/buch/chapters/40-eigenwerte/images/nilpotent.tex
new file mode 100644
index 0000000..1e6cd79
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/nilpotent.tex
@@ -0,0 +1,76 @@
+%
+% nilpotent.tex -- Produkt nilpotenter Matrizen
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\usepackage[many]{tcolorbox}
+
+\begin{document}
+\def\skala{1}
+
+\newtcbox{\myboxA}{blank,boxsep=0mm,
+clip upper,minipage,
+width=31.0mm,height=17.0mm,nobeforeafter,
+borderline={0.0pt}{0.0pt}{white},
+}
+
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\def\cx{1.8}
+\def\cy{1.2}
+
+\draw[line width=0.3pt] (-3,2.5) -- (6,2.5);
+
+\begin{scope}[xshift=-4cm]
+\node at (1.5,1.53) {$\left(\myboxA{}\right)$};
+\fill[color=red!30] (0.5,3) -- (3,0.5) -- (3,3) -- cycle;
+\draw (0,0) rectangle (3,3);
+\draw (0,3) -- (3,0);
+\node at ({\cx+0.5*0.5},{\cy+0.5*0.5}) [rotate=-45] {$k$};
+\draw[color=blue,line width=1.4pt] (0,2.5) -- (1.0,2.5);
+\draw[color=red,line width=1.4pt] (1.0,2.5) -- (3,2.5);
+\node at (1,1) {$B$};
+\node at (-0.3,2.5) [left] {$i$};
+\node at (1,2.5) [above right] {$i+k$};
+\end{scope}
+
+\node at (-0.5,1.5) {$\mathstrut\cdot\mathstrut$};
+
+\begin{scope}
+\node at (1.5,1.53) {$\left(\myboxA{}\right)$};
+\fill[color=red!30] (1.0,3) -- (3,1.0) -- (3,3) -- cycle;
+\draw (0,0) rectangle (3,3);
+\draw (0,3) -- (3,0);
+\node at ({\cx+1.0*0.5},{\cy+1.0*0.5}) [rotate=-45] {$l$};
+\draw[color=red,line width=1.4pt] (2,3)--(2,2);
+\draw[color=blue,line width=1.4pt] (2,2)--(2,0);
+\node at (1,1) {$C$};
+\node at (2,3) [above] {$j$};
+\node at (2,2) [above right] {$j-l$};
+\end{scope}
+
+\node at (3.5,1.5) {$\mathstrut=\mathstrut$};
+
+\begin{scope}[xshift=4cm]
+\node at (1.5,1.53) {$\left(\myboxA{}\right)$};
+\fill[color=red!30] (1.5,3) -- (3,1.5) -- (3,3) -- cycle;
+\draw (0,0) rectangle (3,3);
+\draw (0,3) -- (3,0);
+\node at ({\cx+1.5*0.5},{\cy+1.5*0.5}) [rotate=-45] {$k+l$};
+\fill[color=red!50!blue] (2,2.5) circle[radius=0.1];
+\draw[line width=0.3pt] (2,3) -- (2,2.5);
+\node at (2,3) [above] {$j$};
+\node at (1,1) {$D$};
+\end{scope}
+
+\end{tikzpicture}
+
+\end{document}
+
diff --git a/buch/chapters/40-eigenwerte/images/sp.pdf b/buch/chapters/40-eigenwerte/images/sp.pdf
new file mode 100644
index 0000000..d4de984
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/sp.pdf
Binary files differ
diff --git a/buch/chapters/40-eigenwerte/images/sp.tex b/buch/chapters/40-eigenwerte/images/sp.tex
new file mode 100644
index 0000000..db70889
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/sp.tex
@@ -0,0 +1,62 @@
+%
+% sp.tex -- template for standalon tikz images
+%
+% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{2.33}
+\input{sppaths.tex}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\xdef\sx{1}
+\xdef\sy{1}
+
+% add image content here
+\begin{scope}
+\begin{scope}
+\clip (0,0) rectangle (3,2.1);
+\richardson
+\end{scope}
+\draw[->] (-0.1,0) -- (3.15,0) coordinate[label={$\tau$}];
+\draw[->] (0,-0.1) -- (0,2.3) coordinate[label={right:$\varrho(\frac1\tau A-E)$}];
+\draw (1,{-0.1/\skala}) -- (1,{0.1/\skala});
+\draw (2,{-0.1/\skala}) -- (2,{0.1/\skala});
+\draw (3,{-0.1/\skala}) -- (3,{0.1/\skala});
+\node at (1,{-0.1/\skala}) [below] {1};
+\node at (2,{-0.1/\skala}) [below] {2};
+\node at (3,{-0.1/\skala}) [below] {3};
+\draw ({-0.1/\skala},1) -- ({0.1/\skala},1);
+\draw ({-0.1/\skala},2) -- ({0.1/\skala},2);
+\node at ({-0.1/\skala},1) [left] {1};
+\node at ({-0.1/\skala},2) [left] {2};
+\end{scope}
+
+\xdef\sy{1}
+
+\begin{scope}[xshift=3.5cm]
+\begin{scope}
+\clip (0,0) rectangle (2,2);
+\sor
+\end{scope}
+\draw[->] (-0.1,0) -- (2.15,0) coordinate[label={$\omega$}];
+\draw[->] (0,-0.1) -- (0,2.3) coordinate[label={right:$\varrho(B_\omega^{-1}C_\omega)$}];
+\draw (1,{-0.1/\skala}) -- (1,{0.1/\skala});
+\draw (2,{-0.1/\skala}) -- (2,{0.1/\skala});
+\node at (1,{-0.1/\skala}) [below] {1};
+\node at (2,{-0.1/\skala}) [below] {2};
+\draw ({-0.1/\skala},1) -- ({0.1/\skala},1);
+\draw ({-0.1/\skala},2) -- ({0.1/\skala},2);
+\node at ({-0.1/\skala},1) [left] {1};
+\node at ({-0.1/\skala},2) [left] {2};
+\end{scope}
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/40-eigenwerte/images/spbeispiel.m b/buch/chapters/40-eigenwerte/images/spbeispiel.m
new file mode 100644
index 0000000..81160b9
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/images/spbeispiel.m
@@ -0,0 +1,51 @@
+#
+# spbeispiel.m
+#
+# (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil
+#
+N = 30
+R = 0.05 * rand(N,N);
+R = R + R';
+A = eye(N) + R;
+L = tril(A,-1)
+U = tril(A',-1)'
+D = diag(diag(A))
+
+A
+
+function r = spektralradius(A)
+ r = max(abs(eig(A)));
+end
+
+gaussseidel = spektralradius(inverse(L+D)*U)
+jacobi = spektralradius(inverse(D)*(L+U))
+richardson = spektralradius(A - eye(N))
+
+fd = fopen("sppaths.tex", "w");
+
+fprintf(fd, "\\def\\richardson{\n")
+tau = 0.1;
+r = spektralradius((1/tau) * A - eye(N))
+fprintf(fd, "\\draw[line width=1.4pt,color=red] ({\\sx*0.1},{\\sy*%.5f})", r);
+for tau = (11:300) / 100
+ r = spektralradius((1/tau) * A - eye(N));
+ fprintf(fd, "\n--({\\sx*%.5f},{\\sy*%.5f})", tau, r);
+end
+fprintf(fd, "\n;}\n");
+
+fprintf(fd, "\\def\\sor{\n");
+omega = 1/100
+B = (1/omega) * D + L;
+C = (1-1/omega) * D + U;
+r = spektralradius(inverse(B) * C)
+fprintf(fd, "\\draw[line width=1.4pt,color=red] ({\\sx*%.3f},{\\sy*%.3f})", omega, r);
+for omega = (2:200) / 100
+ B = (1/omega) * D + L;
+ C = (1-1/omega) * D + U;
+ r = spektralradius(inverse(B) * C);
+ fprintf(fd, "\n--({\\sx*%.5f},{\\sy*%.5f})", omega, r);
+end
+fprintf(fd, ";\n}\n");
+
+fclose(fd);
+
diff --git a/buch/chapters/40-eigenwerte/normalformen.tex b/buch/chapters/40-eigenwerte/normalformen.tex
new file mode 100644
index 0000000..c21c403
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/normalformen.tex
@@ -0,0 +1,338 @@
+%
+% normalformen.tex -- Normalformen einer Matrix
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\section{Normalformen
+\label{buch:section:normalformen}}
+\rhead{Normalformen}
+In den Beispielen im vorangegangenen wurde wiederholt der Trick
+verwendet, den Koeffizientenkörper so zu erweitern, dass das
+charakteristische Polynom in Linearfaktoren zerfällt und
+für jeden Eigenwert Eigenvektoren gefunden werden können.
+Diese Idee ermöglicht, eine Matrix in einer geeigneten Körpererweiterung
+in eine besonders einfache Form zu bringen, das Problem dort zu lösen.
+Anschliessend kann man sich darum kümmern in welchem Mass die gewonnenen
+Resultate wieder in den ursprünglichen Körper transportiert werden können.
+
+\subsection{Diagonalform}
+Sei $A$ eine beliebige Matrix mit Koeffizienten in $\Bbbk$ und sei $\Bbbk'$
+eine Körpererweiterung von $\Bbbk$ derart, dass das charakteristische
+Polynom in Linearfaktoren
+\[
+\chi_A(x)
+=
+(x-\lambda_1)^{k_1}\cdot (x-\lambda_2)^{k_2}\cdot\dots\cdot (x-\lambda_m)^{k_m}
+\]
+mit Vielfachheiten $k_1$ bis $k_m$ zerfällt, $\lambda_i\in\Bbbk'$.
+Zu jedem Eigenwert $\lambda_i$ gibt es sicher einen Eigenvektor, wir
+wollen aber in diesem Abschnitt zusätzlich annehmen, dass es eine Basis
+aus Eigenvektoren gibt.
+In dieser Basis bekommt die Matrix Diagonalform, wobei auf der
+Diagonalen nur Eigenwerte vorkommen können.
+Man kann die Vektoren so anordnen, dass die Diagonalmatrix in Blöcke
+der Form $\lambda_iE$ zerfällt
+\[
+\def\temp#1{\multicolumn{1}{|c}{\raisebox{0pt}[12pt][7pt]{\phantom{x}$#1$}\phantom{x}}}
+A'
+=\left(
+\begin{array}{cccc}
+\cline{1-1}
+\temp{\lambda_1E} &\multicolumn{1}{|c}{}& & \\
+\cline{1-2}
+ &\temp{\lambda_2E}&\multicolumn{1}{|c}{}& \\
+\cline{2-3}
+ & &\temp{\ddots}&\multicolumn{1}{|c}{}\\
+\cline{3-4}
+ & & &\multicolumn{1}{|c|}{\raisebox{0pt}[12pt][7pt]{\phantom{x}$\lambda_mE$}\phantom{x}}\\
+\cline{4-4}
+\end{array}
+\right)
+\]
+Über die Grösse eines solchen $\lambda_iE$-Blockes können wir zum jetzigen
+Zeitpunkt noch keine Aussagen machen.
+
+Die Matrizen $A-\lambda_kE$ enthalten jeweils einen Block aus lauter
+Nullen.
+Das Produkt all dieser Matrizen ist daher
+\[
+(A-\lambda_1E)
+(A-\lambda_2E)
+\cdots
+(A-\lambda_mE)
+=
+0.
+\]
+Über dem Körper $\Bbbk'$ gibt es also das Polynom
+$m(x)=(x-\lambda_1)(x-\lambda_2)\cdots(x-\lambda_m)$ mit der Eigenschaft
+$m(A)=0$.
+Dies ist auch das Polynom von kleinstmöglichem Grad, denn für jeden
+Eigenwert muss ein entsprechender Linearfaktor in so einem Polynom vorkommen.
+Das Polynom $m(x)$ ist daher das Minimalpolynom der Matrix $A$.
+Da jeder Faktor in $m(x)$ auch ein Faktor von $\chi_A(x)$ ist,
+folgt wieder $\chi_A(A)=0$.
+Ausserdem ist über dem Körper $\Bbbk'$ das Polynom $m(x)$ ein Teiler
+des charakteristischen Polynoms $\chi_A(x)$.
+
+\subsection{Jordan-Normalform
+\label{buch:subsection:jordan-normalform}}
+Die Eigenwerte einer Matrix $A$ können als Nullstellen des
+charakteristischen Polynoms gefunden werden.
+Da der Körper $\Bbbk$ nicht unbedingt algebraische abgeschlossen ist,
+zerfällt das charakteristische Polynom nicht unbedingt in Linearfaktoren,
+die Nullstellen sind nicht unbedingt in $\Bbbk$.
+Wir können aber immer zu einem grösseren Körper $\Bbbk'$ übergehen,
+in dem das charakteristische Polynom in Linearfaktoren zerfällt.
+Wir nehmen im Folgenden an, dass
+\[
+\chi_A(x)
+=
+(x-\lambda_1)^{k_1}
+\cdot
+(x-\lambda_2)^{k_2}
+\cdot
+\dots
+\cdot
+(x-\lambda_l)^{k_l}
+\]
+ist mit $\lambda_i\in\Bbbk'$.
+
+Nach Satz~\ref{buch:eigenwerte:satz:zerlegung-in-eigenraeume} liefern
+die verallgemeinerten Eigenräume $V_i=\mathcal{E}_{\lambda_i}(A)$ eine
+Zerlegung von $V$ in invariante Eigenräume
+\[
+V=V_1\oplus V_2\oplus \dots\oplus V_l,
+\]
+derart, dass $A-\lambda_iE$ auf $V_i$ nilpotent ist.
+Wählt man in jedem der Unterräume $V_i$ eine Basis, dann zerfällt die
+Matrix $A$ in Blockmatrizen
+\begin{equation}
+\def\temp#1{\multicolumn{1}{|c}{\raisebox{0pt}[17pt][12pt]{\phantom{x}$#1\mathstrut$}\phantom{x}}}
+A'
+=\left(
+\begin{array}{cccc}
+\cline{1-1}
+\temp{A_{1}} &\multicolumn{1}{|c}{}& & \\
+\cline{1-2}
+ &\temp{A_{2}}&\multicolumn{1}{|c}{}& \\
+\cline{2-3}
+ & &\temp{\ddots}&\multicolumn{1}{|c}{}\\
+\cline{3-4}
+ & & &\multicolumn{1}{|c|}{\raisebox{0pt}[17pt][12pt]{\phantom{x}$A_{l}$}\phantom{x}}\\
+\cline{4-4}
+\end{array}
+\right)
+\label{buch:eigenwerte:eqn:allgnilpotent}
+\end{equation}
+wobei, $A_i$ Matrizen mit dem einzigen Eigenwert $\lambda_i$ sind.
+
+Nach Satz~\ref{buch:eigenwerte:satz:allgnilpotent}
+kann man in den Unterräume die Basis zusätzlich so wählen, dass
+die entstehenden Blöcke $A_i-\lambda_i E$ spezielle nilpotente Matrizen
+aus lauter Null sind, die höchstens unmittelbar über der Diagonalen
+Einträge $1$ haben kann.
+Dies bedeutet, dass sich immer eine Basis so wählen lässt, dass die
+Matrix $A_i$ zerfällt in sogenannte Jordan-Blöcke.
+
+\begin{definition}
+Ein $m$-dimensionaler {\em Jordan-Block} ist eine $m\times m$-Matrix
+\index{Jordan-Block}%
+der Form
+\[
+J_m(\lambda)
+=
+\begin{pmatrix}
+\lambda & 1 & & & & \\
+ & \lambda & 1 & & & \\
+ & & \lambda & & & \\
+ & & & \ddots & & \\
+ & & & & \lambda & 1 \\
+ & & & & & \lambda
+\end{pmatrix}.
+\]
+Eine {\em Jordan-Matrix} ist eine Blockmatrix Matrix
+\[
+J
+=
+\def\temp#1{\multicolumn{1}{|c}{\raisebox{0pt}[17pt][12pt]{\phantom{x}$#1\mathstrut$}\phantom{x}}}
+\left(
+\begin{array}{cccc}
+\cline{1-1}
+\temp{J_{m_1}(\lambda)} &\multicolumn{1}{|c}{}& & \\
+\cline{1-2}
+ &\temp{J_{m_2}(\lambda)}&\multicolumn{1}{|c}{}& \\
+\cline{2-3}
+ & &\temp{\ddots}&\multicolumn{1}{|c}{}\\
+\cline{3-4}
+ & & &\multicolumn{1}{|c|}{\raisebox{0pt}[17pt][12pt]{\phantom{x}$J_{m_p}(\lambda)$}\phantom{x}}\\
+\cline{4-4}
+\end{array}
+\right)
+\]
+mit $m_1+m_2+\dots+m_p=m$.
+\index{Jordan-Matrix}%
+\end{definition}
+
+Da Jordan-Blöcke obere Dreiecksmatrizen sind, ist
+das charakteristische Polynom eines Jordan-Blocks oder einer Jordan-Matrix
+besonders einfach zu berechnen.
+Es gilt
+\[
+\chi_{J_m(\lambda)}(x)
+=
+\det (J_m(\lambda) - xE)
+=
+(\lambda-x)^m
+\]
+für einen Jordan-Block $J_m(\lambda)$.
+Für eine $m\times m$-Jordan-Matrix $J$ mit Blöcken $J_{m_1}(\lambda)$
+bis $J_{m_p}(\lambda)$ ist
+\[
+\chi_{J(\lambda)}(x)
+=
+\chi_{J_{m_1}(\lambda)}(x)
+\chi_{J_{m_2}(\lambda)}(x)
+\cdot
+\dots
+\cdot
+\chi_{J_{m_p}(\lambda)}(x)
+=
+(\lambda-x)^{m_1}
+(\lambda-x)^{m_2}
+\cdot\dots\cdot
+(\lambda-x)^{m_p}
+=
+(\lambda-x)^m.
+\]
+
+\begin{satz}
+\label{buch:eigenwerte:satz:jordannormalform}
+Über einem Körper $\Bbbk'\supset\Bbbk$, über dem das charakteristische
+Polynom $\chi_A(x)$ in Linearfaktoren zerfällt, lässt sich immer
+eine Basis finden derart, dass die Matrix $A$ zu einer Blockmatrix wird,
+die aus lauter Jordan-Matrizen besteht.
+Die Dimension der Jordan-Matrix zum Eigenwert $\lambda_i$ ist die
+Vielfachheit des Eigenwerts im charakteristischen Polynom.
+\end{satz}
+
+\begin{proof}[Beweis]
+Es ist nur noch die Aussage über die Dimension der Jordan-Blöcke zu
+beweisen.
+Die Jordan-Matrizen zum Eigenwert $\lambda_i$ werden mit $J_i$
+bezeichnet und sollen $m_i\times m_i$-Matrizen sein.
+Das charakteristische Polynom jedes Jordan-Blocks ist dann
+$\chi_{J_i}(x)=(\lambda_i-x)^{m_i}$.
+Das charakteristische Polynom der Blockmatrix mit diesen Jordan-Matrizen
+als Blöcken ist das Produkt
+\[
+\chi_A(x)
+=
+(\lambda_1-x)^{m_1}
+(\lambda_2-x)^{m_2}
+\cdots
+(\lambda_p-x)^{m_p}
+\]
+mit $m_1+m_2+\dots+m_p$.
+Die Blockgrösse $m_i$ ist also auch die Vielfachheit von $\lambda_i$ im
+charakteristischen Polynom $\chi_A(x)$.
+\end{proof}
+
+
+
+\begin{satz}[Cayley-Hamilton]
+Ist $A$ eine $n\times n$-Matrix über dem Körper $\Bbbk$, dann gilt
+$\chi_A(A)=0$.
+\end{satz}
+
+\begin{proof}[Beweis]
+Zunächst gehen wir über zu einem Körper $\Bbbk'\supset\Bbbk$, indem
+das charakteristische Polynom $\chi_A(x)$ in Linearfaktoren
+$\chi_A(x)
+=
+(\lambda_1-x)^{m_1}
+(\lambda_2-x)^{m_2}
+\dots
+(\lambda_p-x)^{m_p}$
+zerfällt.
+Im Vektorraum $\Bbbk'$ kann man eine Basis finden, in der die Matrix
+$A$ in Jordan-Matrizen $J_1,\dots,J_p$ zerfällt, wobei $J_i$ eine
+$m_i\times m_i$-Matrix ist.
+Für den Block mit der Nummer $i$ erhalten wir
+$(J_i - \lambda_i E)^{m_i} = 0$.
+Setzt man also den Block $J_i$ in das charakteristische Polynom
+$\chi_A(x)$ ein, erhält man
+\[
+\chi_A(J_i)
+=
+(\lambda_1E - J_1)^{m_1}
+\cdot
+\ldots
+\cdot
+\underbrace{
+(\lambda_iE - J_i)^{m_i}
+}_{\displaystyle=0}
+\cdot
+\ldots
+\cdot
+(\lambda_iE - J_p)^{m_p}
+=
+0.
+\]
+Jeder einzelne Block $J_i$ wird also zu $0$, wenn man ihn in das
+charakteristische Polynome $\chi_A(x)$ einsetzt.
+Folglich gilt auch $\chi_A(A)=0$.
+
+Die Rechnung hat zwar im Körper $\Bbbk'$ stattgefunden, aber die Berechnung
+$\chi_A(A)$ kann in $\Bbbk$ ausgeführt werden, also ist $\chi_A(A)=0$.
+\end{proof}
+
+Aus dem Beweis kann man auch noch eine strengere Bedingung ableiten.
+Auf jedem verallgemeinerten Eigenraum $\mathcal{E}_{\lambda_i}(A)$
+ist $A_i-\lambda_i$ nilpotent, es gibt also einen minimalen Exponenten
+$q_i$ derart, dass $(A_i-\lambda_iE)^{q_i}=0$ ist.
+Wählt man eine Basis in jedem verallgemeinerten Eigenraum derart,
+dass $A_i$ eine Jordan-Matrix ist, kann man wieder zeigen, dass
+für das Polynom
+\[
+m_A(x)
+=
+(x-\lambda_1x)^{q_1}
+(x-\lambda_2x)^{q_2}
+\cdot
+\ldots
+\cdot
+(x-\lambda_px)^{q_p}
+\]
+gilt $m_A(A)=0$.
+$m_A(x)$ ist das {\em Minimalpolynom} der Matrix $A$.
+\index{Minimalpolynom einer Matrix}%
+
+\begin{satz}[Minimalpolynom]
+Über dem Körper $\Bbbk'\subset\Bbbk$, über dem das charakteristische
+Polynom $\chi_A(x)$ in Linearfaktoren zerfällt, ist das Minimalpolynom
+von $A$ das Polynom
+\[
+m(x)
+=
+(x-\lambda_1)^{q_1}
+(x-\lambda_2)^{q_2}
+\cdots
+\ldots
+\cdots
+(x-\lambda_p)^{q_p}
+\]
+wobei $q_i$ der kleinste Index ist, für den die $q_i$-te Potenz
+derEinschränkung von $A-\lambda_i E$ auf den verallgemeinerten Eigenraum
+$\mathcal{E}_{\lambda_i}(A)$ verschwindet.
+Es ist das Polynom geringsten Grades über $\Bbbk'$, welches $m(A)=0$ erfüllt.
+\end{satz}
+
+
+\subsection{Reelle Normalform
+\label{buch:subsection:reelle-normalform}}
+
+\subsection{Obere Hessenberg-Form
+\label{buch:subsection:obere-hessenberg-form}}
+
+
+
diff --git a/buch/chapters/40-eigenwerte/spektralradius.tex b/buch/chapters/40-eigenwerte/spektralradius.tex
index 67147f2..bdc725f 100644
--- a/buch/chapters/40-eigenwerte/spektralradius.tex
+++ b/buch/chapters/40-eigenwerte/spektralradius.tex
@@ -3,9 +3,802 @@
%
% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswi
%
-\section{Spektralradius
-\label{buch:section:spektralradius}}
-% Satz von Gelfand
-% Konvergenz von Matrixreihen
-% Konditionszahl
+\section{Funktionen einer Matrix
+\label{buch:section:funktionen-einer-matrix}}
+\rhead{Funktionen einer Matrix}
+Eine zentrale Motivation in der Entwicklung der Eigenwerttheorie
+war das Bestreben, Potenzen $A^k$ auch für grosse $k$ effizient
+zu berechnen.
+Mit der Jordan-Normalform ist dies auch gelungen, wenigstens über
+einem Körper, in dem das charakteristische Polynom in Linearfaktoren
+zerfällt.
+Die Berechnung von Potenzen war aber nur der erste Schritt, das Ziel
+in diesem Abschnitt ist, $f(A)$ für eine genügend grosse Klasse von
+Funktionen $f$ berechnen zu können.
+
+%
+% Polynom-Funktionen von Matrizen
+%
+\subsection{Polynom-Funktionen
+\label{buch:subsection:polynom-funktionen}}
+In diesem Abschnitt ist $B\in M_n(\Bbbk)$ und $\Bbbk'\supset\Bbbk$ ein
+Körper, über dem das charakteristische Polynome $\chi_A(x)$ in
+Linearfaktoren
+\[
+\chi_A(x)
+=
+(\lambda_1-x)^{m_1}(\lambda_2-x)^{m_2}\cdot\ldots\cdot(\lambda_p-x)^{m_p}
+\]
+zerfällt.
+
+Für jedes beliebige Polynome $p(X)\in\Bbbk[X]$ der Form
+\[
+p(X) = a_nX^n + a_{n-1}X^{n-1} + \dots a_1x + a_0
+\]
+kann man auch
+\[
+p(A) = a_nA^n + a_{n-1}A^{n-1} + \dots a_1A + a_0E
+\]
+berechnen.
+In der Jordan-Normalform können die Potenzen $A^k$ leicht zusammengstellt
+werden, sobald man die Potenzen von Jordan-Blöcken berechnet hat.
+
+\begin{satz}
+Die $k$-te Potenz von $J_n(\lambda)$ ist die Matrix mit
+\begin{equation}
+J_n(\lambda)^k
+=
+\begin{pmatrix}
+\lambda^k
+ & \binom{k}{1}\lambda^{k-1}
+ & \binom{k}{2} \lambda^{k-2}
+ & \binom{k}{3} \lambda^{k-3}
+ & \dots
+ &\binom{k}{n-1}\lambda^{k-n+1}
+\\
+0
+ & \lambda^k
+ & \binom{k}{1}\lambda^{k-1}
+ & \binom{k}{2} \lambda^{k-2}
+ & \dots
+ &\binom{k}{n-2}\lambda^{k-n+2}
+\\
+0
+ & 0
+ & \lambda^k
+ & \binom{k}{1}\lambda^{k-1}
+ & \dots
+ &\binom{k}{n-3}\lambda^{k-n+3}
+\\
+\vdots &\vdots &\vdots &\vdots &\ddots & \vdots
+\\
+0 & 0 & 0 & 0 & \dots & \lambda^k
+\end{pmatrix}
+\label{buch:eigenwerte:eqn:Jnkpotenz}
+\end{equation}
+mit den Matrixelementen
+\[
+(J_n(\lambda)^k)_{ij}
+=
+\binom{k}{j-i}\lambda^{k-j+i}.
+\]
+Die Binomialkoeffizienten verschwinden für $j<i$ und $j>i+k$.
+\end{satz}
+
+\begin{proof}[Beweis]
+Die Herkunft der Binomialkoeffizienten wird klar, wenn man
+\[
+J_n(\lambda) = \lambda E + N_n
+\]
+schreibt, wobei $N_n$ die Matrix \eqref{buch:eigenwerte:eqn:nnilpotent} ist.
+Die Potenzen von $N_n$ haben die Matrix-Elemente
+\[
+(N_n^k)_{ij}
+=
+\delta_{i,j-k}
+=
+\begin{cases}
+1&\qquad j-i=k\\
+0&\qquad\text{sonst,}
+\end{cases}
+\]
+sie haben also Einsen genau dort, wo in der
+\label{buch:eigenwerte:eqn:Jnkpotenz} die Potenz $\lambda^{k}$ steht.
+Die $kt$-te Potenz von $J_n(\lambda)$ kann dann mit dem binomischen
+Satz berechnet werden:
+\[
+J_n(\lambda)^k
+=
+\sum_{l=0}^k \binom{k}{l}\lambda^l N_n^{k-l},
+\]
+dies ist genau die Form \eqref{buch:eigenwerte:eqn:Jnkpotenz}.
+\end{proof}
+
+Wir haben bereits gesehen, dass $\chi_A(A)=0$, ersetzt man also das
+Polynom $p(X)$ durch $p(X)+\chi_A(X)$, dann ändert sich am Wert
+\[
+(p+\chi_A)(A)
+=
+p(A) + \chi_A(A)
+=
+p(A)
+\]
+nichts.
+Man kann also nicht erwarten, dass verschiedene Polynome
+$p(X)$ zu verschiedenen Matrizen $p(A)$ führen.
+Doch welche Unterschiede zwischen Polynomen wirken sich genau aus?
+
+\begin{satz}
+Für zwei Polynome $p(X)$ und $q(X)$ ist genau dann $p(A)=q(A)$, wenn
+das Minimalpolynom von $A$ die Differenz $p-q$ teilt.
+\end{satz}
+
+\begin{proof}[Beweis]
+Wenn $p(A)=q(A)$, dann ist $h(X)=p(X)-q(X)$ ein Polynom mit $h(A)=0$,
+daher muss $h(X)$ vom Minimalpolynom geteilt werden.
+Ist andererseits $p(X)-q(X)=m(X)t(X)$, dann ist
+$p(A)-q(A)=m(A)t(A)=0\cdot t(A) = 0$, also $p(A)=q(A)$.
+\end{proof}
+
+Über einem Körper $\Bbbk'\supset\Bbbk$, über dem das charakteristische
+Polynom in Linearfaktoren zerfällt, kann man das Minimalpolynom aus
+der Jordanschen Normalform ableiten.
+Es ist
+\[
+m(X)
+=
+(\lambda_1-X)^{q_1}
+(\lambda_2-X)^{q_2}
+\cdot\ldots
+\cdot
+(\lambda_p-X)^{q_p},
+\]
+wobei $q_i$ die Dimension des grössten Jordan-Blocks ist, der in der
+Jordan-Normalform vorkommt.
+Zwei Polynome $p_1(X)$ und $p_2(X)$ haben genau dann den gleichen Wert,
+wenn die Differenz $p_1(X)-p_2(X)$ genau die Nullstellen
+$\lambda_1,\dots,\lambda_p$ mit Vielfachheiten $q_1,\dots,q_p$ hat.
+
+\begin{beispiel}
+Wir betrachten die Matrix
+\[
+A
+=
+\begin{pmatrix}
+ 1& 9& -4\\
+ -1& 3& 0\\
+ -2& 0& 3
+\end{pmatrix}
+\]
+mit dem charakteristischen Polynom
+\[
+\chi_A(x)
+=
+-x^3+7x^2-16 x+12
+=
+-(x-3)(x-2)^2.
+\]
+Daraus kann man bereits ablesen, dass das Minimalpolynom $m(X)$ von $A$
+entweder $(X-2)(X-3)$ oder $(X-2)^2(X-3)$ ist.
+Es genügt also nachzuprüfen, ob $p(A)=0$ für das Polynom
+$p(X)=(X-2)(X-3) = X^2-5X+6$ ist.
+Tatsächlich sind die Potenzen von $A$:
+\[
+A^2=
+\begin{pmatrix}
+ 0& 36& -16 \\
+ -4& 0& 4 \\
+ -8& -18& 17
+\end{pmatrix}
+,\qquad
+A^3=
+\begin{pmatrix}
+ -4& 108& -48\\
+-12& -36& 28\\
+-24&-126& 83
+\end{pmatrix}
+\]
+und daraus kann man jetzt $P(A)$ berechnen:
+\begin{equation}
+p(A)
+=
+\begin{pmatrix}
+ 0& 36& -16 \\
+ -4& 0& 4 \\
+ -8& -18& 17
+\end{pmatrix}
+-5
+\begin{pmatrix}
+ 1& 9& -4\\
+ -1& 3& 0\\
+ -2& 0& 3
+\end{pmatrix}
++
+6
+\begin{pmatrix}
+1&0&0\\
+0&1&0\\
+0&0&1
+\end{pmatrix}
+=
+\begin{pmatrix}
+ 1& -9& 4\\
+ 1& -9& 4\\
+ 2&-18& 8
+\end{pmatrix}
+=
+\begin{pmatrix}1\\1\\2\end{pmatrix}
+\begin{pmatrix}1&-9&4\end{pmatrix}
+\label{buch:eigenwerte:eqn:nichtminimalpolynom}
+\end{equation}
+Also ist tatsächlich $(X-2)^2(X-3)$ das Minimalpolynom.
+
+Das Quadrat des Polynoms $p(X)$ ist $p(X)^2 = (X-2)^2(X-3)^2$, es hat
+das Minimalpolynom als Teiler, also muss $p(A)^2=0$ sein.
+Die Gleichung \eqref{buch:eigenwerte:eqn:nichtminimalpolynom} ermöglicht,
+das Quaddrat $p(A)^2$ leichter zu berechnen:
+\[
+p(A)^2
+=
+\begin{pmatrix}1\\1\\2\end{pmatrix}
+\underbrace{
+\begin{pmatrix}1&-9&4\end{pmatrix}
+\begin{pmatrix}1\\1\\2\end{pmatrix}
+}_{\displaystyle = 0}
+\begin{pmatrix}1&-9&4\end{pmatrix}
+=
+0
+,
+\]
+wie zu erwarten war.
+
+Wenn sich zwei Polynome nur um das charakteristische Polynom unterscheiden,
+dann haben sie den gleichen Wert auf $A$.
+Das Polynom $p_1(X)=X^3$ unterschiedet sich vom Polynom $p_2(X)=7X^2-16X+12$
+um das charakteristische Polynom, welches wir bereits als das Minimalpolynom
+von $A$ erkannt haben.
+Die dritte Potenz $A^3$ von $A$ muss sich daher auch mit $p_2(X)$ berechnen
+lassen:
+\[
+7
+\begin{pmatrix}
+ 0& 36& -16 \\
+ -4& 0& 4 \\
+ -8& -18& 17
+\end{pmatrix}
+-16
+\begin{pmatrix}
+ 1& 9& -4\\
+ -1& 3& 0\\
+ -2& 0& 3
+\end{pmatrix}
++12
+\begin{pmatrix}
+1&0&0\\
+0&1&0\\
+0&0&1
+\end{pmatrix}
+=
+\begin{pmatrix}
+ -4& 108& -48\\
+-12& -36& 28\\
+-24&-126& 83
+\end{pmatrix}
+=
+A^3.
+\qedhere
+\]
+\end{beispiel}
+
+\begin{satz}
+Wenn $A$ diagonalisierbar ist über einem geeignet erweiterten Körper $\Bbbk'$,
+dann haben zwei Polynome $p(X)$ und $q(X)$ in $\Bbbk[X]$ genau dann
+den gleichen Wert auf $A$, also $p(A)=q(A)$, wenn $p(\lambda) = q(\lambda)$
+für alle Eigenwerte $\lambda$ von $A$.
+\end{satz}
+
+Über dem Körper der komplexen Zahlen ist die Bedingung, dass die Differenz
+$d(X)=p_1(X)-p_2(X)$ vom Minimalpolynom geteilt werden muss, gleichbedeutend
+damit, dass $p_1(X)$ und $p_2(X)$ den gleichen Wert und gleiche Ableitungen
+bis zur Ordnung $q_i-1$ haben in allen Eigenwerten $\lambda_i$, wobei
+$q_i$ der Exponent von $\lambda_i-X$ im Minimalpolynom von $A$ ist.
+
+Das Beispiel illustriert auch noch ein weiteres wichtiges Prinzip.
+Schreiben wir das Minimalpolynom von $A$ in der Form
+\[
+m(X)
+=
+X^k + a_{k-1}X^{k-1} + \dots + a_1X + a_0,
+\]
+dann kann man wegen $m(A)=0$ die Potenzen $A^i$ mit $i\ge k$ mit der
+Rekursionsformel
+\[
+A^i
+=
+A^{i-k}A^k
+=
+A^{i-k}(-a_{k-1}A^{k-1}+ \dots + a_1 A + a_0E)
+\]
+in einer Linearkombination kleinerer Potenzen reduzieren.
+Jedes Polynom vom Grad $\ge k$ kann also reduizert werden in
+ein Polynom vom Grad $<k$ mit dem gleichen Wert auf $A$.
+
+\begin{satz}
+\label{buch:eigenwerte:satz:reduktion}
+Sei $A$ eine Matrix über $\Bbbk$ mit Minimalpolynom $m(X)$.
+Zu jedem $p(X)\in\Bbbk[X]$ gibt es ein Polynom $q(X)\in\Bbbk[X]$
+vom Grad $\deg q<\deg m$ mit $p(A)=q(A)$.
+\end{satz}
+
+%
+% Approximationen für Funktionswerte f(A)
+%
+\subsection{Approximation von $f(A)$
+\label{buch:subsection:approximation}}
+Die Quadratwurzelfunktion $x\mapsto\sqrt{x}$ lässt sich nicht durch ein
+Polynom darstellen, es gibt also keine direkte Möglichkeit, $\sqrt{A}$
+für eine beliebige Matrix zu definieren.
+Wir können versuchen, die Funktion durch ein Polynom zu approximieren.
+Damit dies geht, müssen wir folgende zwei Fragen klären:
+\begin{enumerate}
+\item
+Wie misst man, ob ein Polynom eine Funktion gut approximiert?
+\item
+Was bedeutet es genau, dass zwei Matrizen ``nahe beeinander'' sind?
+\item
+In welchem Sinne müssen Polynome ``nahe'' beeinander sein, damit
+auch die Werte auf $A$ nahe beeinander sind.
+\end{enumerate}
+
+Wir wissen bereits, dass nur die Werte und gewisse Ableitungen des
+Polynoms $p(X)$ in den Eigenwerten einen Einfluss auf $p(A)$ haben.
+Es genügt also, Approximationspolynome zu verwenden, welche in der Nähe
+der Eigenwerte ``gut genug'' approximieren.
+Solche Polynome gibt es dank dem Satz von Stone-Weierstrass immer:
+
+\begin{satz}[Stone-Weierstrass]
+Ist $I\subset\mathbb{R}$ kompakt, dann lässt sich jede stetige Funktion
+durch eine Folge $p_n(x)$ beliebig genau approximieren.
+\end{satz}
+
+Wir haben schon gezeigt, dass es dabei auf die höheren Potenzen gar nicht
+ankommt, nach Satz~\ref{buch:eigenwerte:satz:reduktion} kann man ein
+approximierendes Polynom immer durch ein Polynom von kleinerem Grad
+als das Minimalpolynom ersetzen.
+
+\begin{definition}
+\index{Norm}%
+Die {\em Norm} einer Matrix $M$ ist
+\[
+\|M\|
+=
+\max\{|Mx|\,|\, x\in\mathbb R^n\wedge |x|=1\}.
+\]
+Für einen Vektor $x\in\mathbb R^n$ gilt $|Mx| \le \|M\|\cdot |x|$.
+\end{definition}
+
+\begin{beispiel}
+Die Matrix
+\[
+M=\begin{pmatrix}
+0&2\\
+\frac13&0
+\end{pmatrix}
+\]
+hat Norm
+\[
+\|M\|
+=
+\max_{|x|=1} |Mx|
+=
+\max_{t\in\mathbb R} \sqrt{2^2\cos^2 t +\frac1{3^2}\sin^2t} = 2.
+\]
+Da aber
+\[
+M^2 = \begin{pmatrix}
+\frac{2}{3}&0\\
+0&\frac{2}{3}
+\end{pmatrix}
+\qquad\Rightarrow\qquad \|M^2\|=\frac23
+\]
+ist, wird eine Iteration mit Ableitungsmatrix $M$ trotzdem
+konvergieren, weil der Fehler nach jedem zweiten Schritt um den
+Faktor $\frac23$ kleiner geworden ist.
+\end{beispiel}
+
+\begin{beispiel}
+Wir berechnen die Norm eines Jordan-Blocks.
+
+\end{beispiel}
+
+%
+% Potenzreihen für Funktionen $f(z)$
+%
+\subsection{Potenzreihen
+\label{buch:subsection:potenzreihen}}
+
+
+
+Dies führt uns auf die Grösse
+\begin{equation}
+\pi(M)
+=
+\limsup_{n\to\infty} \|M^n\|^\frac1n.
+\label{buch:eqn:gelfand-grenzwert}
+\end{equation}
+Ist $\pi(M) > 1$, dann gibt es Anfangsvektoren $v$ für die Iteration,
+für die $M^kv$ über alle Grenzen wächst.
+Ist $\pi(M) < 1$, dann wird jeder Anfangsvektor $v$ zu einer Iterationsfolge
+$M^kv$ führen, die gegen $0$ konvergiert.
+Die Kennzahl $\pi(M)$ erlaubt also zu entscheiden, ob ein
+Iterationsverfahren konvergent ist.
+\index{Konvergenzbedingung}%
+
+Die Berechnung von $\pi(M)$ als Grenzwert ist sehr unhandlich.
+Viel einfacher ist der Begriff des Spektralradius.
+\index{Spektralradius}%
+
+\begin{definition}
+\label{buch:definition:spektralradius}
+Der {\em Spektralradius} der Matrix $M$ ist der Betrag des betragsgrössten
+Eigenwertes.
+\end{definition}
+
+%
+% Gelfand-Radius und Eigenwerte
+%
+\subsection{Gelfand-Radius und Eigenwerte
+\label{buch:subsection:spektralradius}}
+In Abschnitt~\ref{buch:subsection:konvergenzbedingung}
+ist der Gelfand-Radius mit Hilfe eines Grenzwertes definiert worden.
+\index{Gelfand-Radius}%
+Nur dieser Grenzwert ist in der Lage, über die Konvergenz eines
+Iterationsverfahrens Auskunft zu geben.
+Der Grenzwert ist aber sehr mühsam zu berechnen.
+\index{Grenzwert}%
+Es wurde angedeutet, dass der Gelfand-Radius mit dem Spektralradius
+übereinstimmt, dem Betrag des betragsgrössten Eigenwertes.
+Dies hat uns ein vergleichsweise einfach auszuwertendes Konvergenzkriterium
+geliefert.
+\index{Konvergenzkriterium}%
+In diesem Abschnitt soll diese Identität zunächst an Spezialfällen
+und später ganz allgemein gezeigt werden.
+
+\subsubsection{Spezialfall: Diagonalisierbare Matrizen}
+Ist eine Matrix $A$ diagonalisierbar, dann kann Sie durch eine Wahl
+einer geeigneten Basis in Diagonalform
+\index{diagonalisierbar}%
+\index{Diagonalform}%
+\[
+A'
+=
+\begin{pmatrix}
+\lambda_1& 0&\dots &0\\
+0 &\lambda_2&\dots &0\\
+\vdots & &\ddots&\vdots\\
+0 & 0&\dots &\lambda_n
+\end{pmatrix}
+\]
+gebracht werden, wobei die Eigenwerte $\lambda_i$ möglicherweise auch
+komplex sein können.
+\index{komplex}%
+Die Bezeichnungen sollen so gewählt sein, dass $\lambda_1$ der
+betragsgrösste Eigenwert ist, dass also
+\[
+|\lambda_1| \ge |\lambda_2| \ge \dots \ge |\lambda_n|.
+\]
+Wir nehmen für die folgende, einführende Diskussion ausserdem an, dass
+sogar $|\lambda_1|>|\lambda_2|$ gilt.
+
+Unter den genannten Voraussetzungen kann man jetzt den Gelfand-Radius
+von $A$ berechnen.
+Dazu muss man $|A^nv|$ für einen beliebigen Vektor $v$ und für
+beliebiges $n$ berechnen.
+Der Vektor $v$ lässt sich in der Eigenbasis von $A$ zerlegen, also
+als Summe
+\index{Eigenbasis}%
+\[
+v = v_1+v_2+\dots+v_n
+\]
+schreiben, wobei $v_i$ Eigenvektoren zum Eigenwert $\lambda_i$ sind oder
+Nullvektoren.
+Die Anwendung von $A^k$ ergibt dann
+\[
+A^k v
+=
+A^k v_1 + A^k v_2 + \dots + A^k v_n
+=
+\lambda_1^k v_1 + \lambda_2^k v_2 + \dots + \lambda_n^k v_n.
+\]
+Für den Grenzwert braucht man die Norm von $A^kv$, also
+\begin{align}
+|A^kv|
+&= |\lambda_1^k v_1 + \lambda_2^k v_2 + \dots + \lambda_3 v_3|
+\notag
+\\
+\Rightarrow\qquad
+\frac{|A^kv|}{\lambda_1^k}
+&=
+\biggl|
+v_1 +
+\biggl(\frac{\lambda_2}{\lambda_1}\biggr)^k v_2
++
+\dots
++
+\biggl(\frac{\lambda_n}{\lambda_1}\biggr)^k v_n
+\biggr|.
+\label{buch:spektralradius:eqn:eigenwerte}
+\end{align}
+Da alle Quotienten $|\lambda_i/\lambda_1|<1$ sind für $i\ge 2$,
+konvergieren alle Terme auf der rechten Seite von
+\eqref{buch:spektralradius:eqn:eigenwerte}
+ausser dem ersten gegen $0$.
+Folglich ist
+\[
+\lim_{k\to\infty} \frac{|A^kv|}{|\lambda_1|^k}
+=
+|v_1|
+\qquad\Rightarrow\qquad
+\lim_{k\to\infty} \frac{|A^kv|^\frac1k}{|\lambda_1|}
+=
+\lim_{k\to\infty}|v_1|^{\frac1k}
+=
+1.
+\]
+Dies gilt für alle Vektoren $v$, für die $v_1\ne 0$ ist.
+Der maximale Wert dafür wird erreicht, wenn man für
+$v$ einen Eigenvektor der Länge $1$ zum Eigenwert $\lambda_1$ einsetzt,
+dann ist $v=v_1$.
+Es folgt dann
+\[
+\pi(A)
+=
+\lim_{k\to\infty} \| A^k\|^\frac1k
+=
+\lim_{k\to\infty} |A^kv|^\frac1k
+=
+|\lambda_1|
+=
+\varrho(A).
+\]
+Damit ist gezeigt, dass im Spezialfall einer diagonalisierbaren Matrix der
+Gelfand-Radius tatsächlich der Betrag des betragsgrössten Eigenwertes ist.
+\index{Gelfand-Radius}%
+
+\subsubsection{Blockmatrizen}
+Wir betrachten jetzt eine $(n+m)\times(n+m)$-Blockmatrix der Form
+\begin{equation}
+A = \begin{pmatrix} B & 0 \\ 0 & C\end{pmatrix}
+\label{buch:spektralradius:eqn:blockmatrix}
+\end{equation}
+mit einer $n\times n$-Matrix $B$ und einer $m\times m$-Matrix $C$.
+Ihre Potenzen haben ebenfalls Blockform:
+\[
+A^k = \begin{pmatrix} B^k & 0 \\ 0 & C^k\end{pmatrix}.
+\]
+Ein Vektor $v$ kann in die zwei Summanden $v_1$ bestehen aus den
+ersten $n$ Komponenten und $v_2$ bestehen aus den letzten $m$
+Komponenten zerlegen.
+Dann ist
+\[
+A^kv = B^kv_1 + C^kv_2.
+\qquad\Rightarrow\qquad
+|A^kv|
+\le
+|B^kv_1| + |C^kv_2|
+\le
+\pi(B)^k |v_1| + \pi(C)^k |v_2|.
+\]
+Insbesondere haben wir das folgende Lemma gezeigt:
+
+\begin{lemma}
+\label{buch:spektralradius:lemma:diagonalbloecke}
+Eine diagonale Blockmatrix $A$ \eqref{buch:spektralradius:eqn:blockmatrix}
+Blöcken $B$ und $C$ hat Gelfand-Radius
+\[
+\pi(A) = \max ( \pi(B), \pi(C) )
+\]
+\end{lemma}
+
+Selbstverständlich lässt sich das Lemma auf Blockmatrizen mit beliebig
+vielen diagonalen Blöcken verallgemeinern.
+\index{Blockmatrix}%
+
+Für Diagonalmatrizen der genannten Art sind aber auch die
+Eigenwerte leicht zu bestimmen.
+\index{Diagonalmatrix}%
+Hat $B$ die Eigenwerte $\lambda_i^{(B)}$ mit $1\le i\le n$ und $C$ die
+Eigenwerte $\lambda_j^{(C)}$ mit $1\le j\le m$, dann ist das charakteristische
+Polynom der Blockmatrix $A$ natürlich
+\index{charakteristisches Polynom}%
+\index{Polynom!charakteristisch}%
+\[
+\chi_A(\lambda) = \chi_B(\lambda)\chi_C(\lambda),
+\]
+woraus folgt, dass die Eigenwerte von $A$ die Vereinigung der Eigenwerte
+von $B$ und $C$ sind.
+Daher gilt auch für die Spektralradius die Formel
+\[
+\varrho(A) = \max(\varrho(B) , \varrho(C)).
+\]
+
+\subsubsection{Jordan-Blöcke}
+\index{Jordan-Block}%
+Nicht jede Matrix ist diagonalisierbar, die bekanntesten Beispiele sind
+die Matrizen
+\begin{equation}
+J_n(\lambda)
+=
+\begin{pmatrix}
+\lambda & 1& & & & \\
+ &\lambda& 1& & & \\[-5pt]
+ & &\lambda&\ddots & & \\[-5pt]
+ & & &\ddots & 1& \\
+ & & & &\lambda& 1\\
+ & & & & &\lambda
+\end{pmatrix},
+\label{buch:spektralradius:eqn:jordan}
+\end{equation}
+wobei $\lambda\in\mathbb C$ eine beliebige komplexe Zahl ist.
+Wir nennen diese Matrizen {\em Jordan-Matrizen}.
+Es ist klar, dass $J_n(\lambda)$ nur den $n$-fachen Eigenwert
+$\lambda$ hat und dass der erste Standardbasisvektor ein
+Eigenvektor zu diesem Eigenwert ist.
+
+In der linearen Algebra lernt man, dass jede Matrix durch Wahl
+\index{lineare!Algebra}%
+einer geeigneten Basis als Blockmatrix der Form
+\[
+A
+=
+\begin{pmatrix}
+J_{n_1}(\lambda_1) & 0 & \dots & 0 \\
+ 0 & J_{n_2}(\lambda_2) & \dots & 0 \\[-4pt]
+\vdots &\vdots &\ddots &\vdots \\
+ 0 & 0 & \dots &J_{n_l}(\lambda_l)
+\end{pmatrix}
+\]
+geschrieben werden kann\footnote{Sofern die Matrix komplexe Eigenwerte
+hat muss man auch komplexe Basisvektoren zulassen.}.
+Die früheren Beobachtungen über den Spektralradius und den
+Gelfand-Radius von Blockmatrizen zeigen uns daher, dass
+nur gezeigt werden muss, dass nur die Gleichheit des Gelfand-Radius
+und des Spektral-Radius von Jordan-Blöcken gezeigt werden muss.
+
+\subsubsection{Iterationsfolgen}
+\begin{satz}
+\label{buch:spektralradius:satz:grenzwert}
+Sei $A$ eine $n\times n$-Matrix mit Spektralradius $\varrho(A)$.
+Dann ist $\varrho(A)<1$ genau dann, wenn
+\[
+\lim_{k\to\infty} A^k = 0.
+\]
+Ist andererseits $\varrho(A) > 1$, dann ist
+\[
+\lim_{k\to\infty} \|A^k\|=\infty.
+\]
+\end{satz}
+
+\begin{proof}[Beweis]
+Wie bereits angedeutet reicht es, diese Aussagen für einen einzelnen
+Jordan-Block mit Eigenwert $\lambda$ zu beweisen.
+Die $k$-te Potenz von $J_n(\lambda)$ ist
+\[
+J_n(\lambda)^k
+=
+\renewcommand\arraystretch{1.35}
+\begin{pmatrix}
+\lambda^k & \binom{k}{1} \lambda^{k-1} & \binom{k}{2}\lambda^{k-2}&\dots&
+\binom{k}{n-1}\lambda^{k-n+1}\\
+ 0 &\lambda^k & \binom{k}{1} \lambda^{k-1} & \dots &\binom{k}{n-2}\lambda^{k-n+2}\\
+ 0 & 0 & \lambda^k & \dots &\binom{k}{n-k+3}\lambda^{k-n+3}\\
+\vdots & \vdots & &\ddots & \vdots\\
+ 0 & 0 & 0 &\dots &\lambda^k
+\end{pmatrix}.
+\]
+Falls $|\lambda| < 1$ ist, gehen alle Potenzen von $\lambda$ exponentiell
+schnell gegen $0$, während die Binomialkoeffizienten nur polynomiell
+schnell anwachsen.
+\index{Binomialkoeffizient}%
+In diesem Fall folgt also $J_n(\lambda)\to 0$.
+
+Falls $|\lambda| >1$ divergieren bereits die Elemente auf der Diagonalen,
+also ist $\|J_n(\lambda)^k\|\to\infty$ mit welcher Norm auch immer man
+man die Matrix misst.
+\end{proof}
+
+Aus dem Beweis kann man noch mehr ablesen.
+Für $\varrho(A)< 1$ ist die Norm $ \|A^k\| \le M \varrho(A)^k$ für eine
+geeignete Konstante $M$,
+für $\varrho(A) > 1$ gibt es eine Konstante $m$ mit
+$\|A^k\| \ge m\varrho(A)^k$.
+
+\subsubsection{Der Satz von Gelfand}
+Der Satz von Gelfand ergibt sich jetzt als direkte Folge aus dem
+Satz~\ref{buch:spektralradius:satz:grenzwert}.
+
+\begin{satz}[Gelfand]
+\index{Satz von Gelfand}%
+\index{Gelfand!Satz von}%
+\label{buch:satz:gelfand}
+Für jede komplexe $n\times n$-Matrix $A$ gilt
+\[
+\pi(A)
+=
+\lim_{k\to\infty}\|A^k\|^\frac1k
+=
+\varrho(A).
+\]
+\end{satz}
+
+\begin{proof}[Beweis]
+Der Satz~\ref{buch:spektralradius:satz:grenzwert} zeigt, dass der
+Spektralradius ein scharfes Kriterium dafür ist, ob $\|A^k\|$
+gegen 0 oder $\infty$ konvergiert.
+Andererseits ändert ein Faktor $t$ in der Matrix $A$ den Spektralradius
+ebenfalls um den gleichen Faktor, also $\varrho(tA)=t\varrho(A)$.
+Natürlich gilt auch
+\[
+\pi(tA)
+=
+\lim_{k\to\infty} \|t^kA^k\|^\frac1k
+=
+\lim_{k\to\infty} t\|A^k\|^\frac1k
+=
+t\lim_{k\to\infty} \|A^k\|^\frac1k
+=
+t\pi(A).
+\]
+
+Wir betrachten jetzt die Matrix
+\[
+A(\varepsilon) = \frac{A}{\varrho(A) + \varepsilon}.
+\]
+Der Spektralradius von $A(\varepsilon)$ ist
+\[
+\varrho(A(\varepsilon)) = \frac{\varrho(A)}{\varrho(A)+\varepsilon},
+\]
+er ist also $>1$ für negatives $\varepsilon$ und $<1$ für positives
+$\varepsilon$.
+Aus dem Satz~\ref{buch:spektralradius:satz:grenzwert} liest man daher ab,
+dass $\|A(\varepsilon)^k\|$ genau dann gegen $0$ konvergiert, wenn
+$\varepsilon > 0$ ist und divergiert genau dann, wenn $\varepsilon< 0$ ist.
+
+Aus der Bemerkung nach dem Beweis von
+Satz~\ref{buch:spektralradius:satz:grenzwert} schliesst man daher, dass
+es im Fall $\varepsilon > 0$ eine Konstante $M$ gibt mit
+\begin{align*}
+\|A(\varepsilon) ^k\|\le M\varrho(A(\varepsilon))^k
+\quad&\Rightarrow\quad
+\|A(\varepsilon) ^k\|^\frac1k\le M^\frac1k\varrho(A(\varepsilon))
+\\
+&\Rightarrow\quad
+\pi(A) \le \varrho(A(\varepsilon))
+\underbrace{\lim_{k\to\infty} M^\frac1k}_{\displaystyle=1}
+=
+\varrho(A(\varepsilon))
+=
+\varrho(A)+\varepsilon.
+\end{align*}
+Dies gilt für beliebige $\varepsilon >0$, es folgt daher
+$\pi(A) \le \varrho(A)$.
+
+Andererseits gibt es für $\varepsilon <0$ eine Konstante $m$ mit
+\begin{align*}
+\|A(\varepsilon) ^k\|\ge m\varrho(A(\varepsilon))^k
+\quad&\Rightarrow\quad
+\|A(\varepsilon) ^k\|^\frac1k\ge m^\frac1k\varrho(A(\varepsilon))
+\\
+&\Rightarrow\quad
+\pi(A) \ge \varrho(A(\varepsilon))
+\underbrace{\lim_{k\to\infty} m^\frac1k}_{\displaystyle=1}
+=
+\varrho(A(\varepsilon))
+=
+\varrho(A)+\varepsilon.
+\end{align*}
+Dies gilt für beliebige $\varepsilon> 0$, es folgt daher
+$\pi(A) \ge \varrho(A)$.
+Zusammen mit $\pi(A) \le \varrho(A)$ folgt $\pi(A)=\varrho(A)$.
+\end{proof}
diff --git a/buch/chapters/40-eigenwerte/uebungsaufgaben/4001.tex b/buch/chapters/40-eigenwerte/uebungsaufgaben/4001.tex
new file mode 100644
index 0000000..2fab61a
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/uebungsaufgaben/4001.tex
@@ -0,0 +1,76 @@
+Verwenden Sie die Matrixdarstellung komplexer Zahlen, um $i^i$ zu
+berechnen.
+
+\begin{hinweis}
+Verwenden Sie die eulersche Formel um $\log J$ zu bestimmen.
+\end{hinweis}
+
+\begin{loesung}
+Wir berechnen $J^J$ mit Hilfe des Logarithmus als
+$J^J = \exp(J\log J)$.
+Zunächst erinnern wir an die Eulersche Formel
+\[
+\exp tJ
+=
+\sum_{k=0}^\infty \frac{t^k J^k}{k!}
+=
+\sum_{i=0}^\infty \frac{t^{2i}(-1)^i}{(2i)!}\cdot E
++
+\sum_{i=0}^\infty \frac{t^{2i+1}(-1)^i}{(2i+1)!}\cdot J
+=
+\cos t\cdot E
++
+\sin t\cdot J.
+\]
+Daraus liest man ab, dass
+\[
+\log \begin{pmatrix}
+\cos t&-\sin t\\
+\sin t& \cos t
+\end{pmatrix}
+=
+tJ
+\]
+gilt.
+Für die Matrix $J$ heisst das
+\begin{equation}
+J = \begin{pmatrix}
+0&-1\\1&0
+\end{pmatrix}
+=
+\begin{pmatrix}
+\cos\frac{\pi}2&-\sin\frac{\pi}2\\
+\sin\frac{\pi}2& \cos\frac{\pi}2
+\end{pmatrix}
+\qquad\Rightarrow\qquad
+\log J = \frac{\pi}2 J.
+\label{4001:logvalue}
+\end{equation}
+Als nächstes müssen wir $J\log J$ berechnen.
+Aus \eqref{4001:logvalue} folgt
+\[
+J\log J = J\cdot \frac{\pi}2J = - \frac{\pi}2 \cdot E.
+\]
+Darauf ist die Exponentialreihe auszuwerten, also
+\[
+J^J
+=
+\exp (J\log J)
+=
+\exp(-\frac{\pi}2 E)
+=
+\exp
+\begin{pmatrix}
+-\frac{\pi}2&0\\
+0&-\frac{\pi}2
+\end{pmatrix}
+=
+\begin{pmatrix}
+e^{-\frac{\pi}2}&0\\
+0&e^{-\frac{\pi}2}
+\end{pmatrix}
+=
+e^{-\frac{\pi}2} E.
+\]
+Als komplexe Zahlen ausgedrückt folgt also $i^i = e^{-\frac{\pi}2}$.
+\end{loesung}
diff --git a/buch/chapters/40-eigenwerte/uebungsaufgaben/4002.tex b/buch/chapters/40-eigenwerte/uebungsaufgaben/4002.tex
new file mode 100644
index 0000000..6c0223e
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/uebungsaufgaben/4002.tex
@@ -0,0 +1,23 @@
+Seien $z$ und $w$ komplexe Zahlen derart, dass $z=e^w$, d.~h.~$w$ ist
+ein Wert des Logarithmus von $z$.
+Zeigen Sie, dass die Zahlen $w+2\pi ik$ für $k\in\mathbb Z$ ebenfalls
+Logarithmen von $z$ sind.
+Dies zeigt, dass eine komlexe Zahl unendlich viele verschiedene
+Logarithmen haben kann, die Logarithmusfunktion ist im Komplexen
+nicht eindeutig.
+
+\begin{loesung}
+Aus der Eulerschen Formel folgt
+\begin{align*}
+e^{w+2\pi ik}
+&=
+e^w\cdot e^{2\pi ik}
+=
+e^w (\underbrace{\cos 2\pi k}_{\displaystyle=1} + i \underbrace{\sin 2\pi k}_{\displaystyle = 0})
+=
+e^w
+=
+z.
+\qedhere
+\end{align*}
+\end{loesung}
diff --git a/buch/chapters/40-eigenwerte/uebungsaufgaben/4003.m b/buch/chapters/40-eigenwerte/uebungsaufgaben/4003.m
new file mode 100644
index 0000000..e6e94db
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/uebungsaufgaben/4003.m
@@ -0,0 +1,66 @@
+#
+# 4003.m
+#
+# (c) 2020 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+#
+
+A = [
+ -13, 5, -29, 29;
+ -27, 11, -51, 51;
+ -3, 1, -2, 5;
+ -6, 2, -10, 13
+];
+
+eig(A)
+
+
+lambda = 2
+B = A - lambda*eye(4)
+rref(B)
+
+D = B*B*B*B
+
+lambda = 3
+B = A - lambda*eye(4)
+rref(B)
+
+D = B*B*B*B
+
+b1 = [0;0;1;1]
+b2 = [1;0;0;0]
+b3 = [0;1;0;0]
+b4 = [0;0;1;2]
+
+T = zeros(4,4);
+T(:,1) = b1;
+T(:,2) = b2;
+T(:,3) = b3;
+T(:,4) = b4;
+
+AA = inverse(T)*A*T
+
+A1 = AA(2:4,2:4)
+B1 = A1 - 2*eye(3)
+B1 * B1
+B1 * B1 * B1
+
+c30 = [ 0; 1; 3; 1 ]
+
+c3 = T*c30
+
+lambda=2
+B=A-lambda*eye(4)
+c2=B*c3
+c1=B*c2
+
+T = zeros(4,4);
+T(:,1) = [0;0;1;1]
+T(:,2) = c1;
+T(:,3) = c2;
+T(:,4) = c3
+det(T)
+inverse(T)
+det(T)*inverse(T)
+
+inverse(T)*A*T
+
diff --git a/buch/chapters/40-eigenwerte/uebungsaufgaben/4003.maxima b/buch/chapters/40-eigenwerte/uebungsaufgaben/4003.maxima
new file mode 100644
index 0000000..bbbc045
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/uebungsaufgaben/4003.maxima
@@ -0,0 +1,16 @@
+/*
+ * 4003.maxima - algebraische Lösung von Aufgabe 4003
+ *
+ * (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+ */
+
+A: matrix(
+ [ -13, 5, -29, 29 ],
+ [ -27, 11, -51, 51 ],
+ [ -3, 1, -2, 5 ],
+ [ -6, 2, -10, 13 ]);
+
+p: expand(charpoly(A,x));
+tex(p);
+factor(p);
+
diff --git a/buch/chapters/40-eigenwerte/uebungsaufgaben/4003.tex b/buch/chapters/40-eigenwerte/uebungsaufgaben/4003.tex
new file mode 100644
index 0000000..3cd9959
--- /dev/null
+++ b/buch/chapters/40-eigenwerte/uebungsaufgaben/4003.tex
@@ -0,0 +1,241 @@
+Finden Sie eine Basis von $\mathbb{Q}^4$ derart, dass die Matrix $A$
+\[
+A
+=
+\begin{pmatrix}
+-13& 5& -29& 29\\
+-27& 11& -51& 51\\
+ -3& 1& -2& 5\\
+ -6& 2& -10& 13
+\end{pmatrix}
+\]
+Jordansche Normalform hat.
+
+\begin{loesung}
+Zunächst muss man die Eigenwerte finden.
+Dazu kann man das charakteristische Polynom berechnen, man findet nach
+einiger Rechnung oder mit Hilfe einer Software für symbolische Rechnung:
+\[
+\chi_A(\lambda)
+=
+x^4-9x^3+30x^2-44x+24
+=
+(x-3)^3(x-2),
+\]
+Eigenwerte sind also $\lambda=3$ und $\lambda=2$.
+
+Der Eigenwert $\lambda=2$ ist ein einfacher Eigenwert, der zugehörige
+Eigenraum ist daher eindimensional.
+Ein Eigenvektor kann mit Hilfe des linearen Gleichungssystems
+\begin{align*}
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+-13-\lambda& 5 &-29 &29 \\
+-27 &11-\lambda&-51 &51 \\
+ -3 & 1 & -2-\lambda& 5 \\
+ -6 & 2 &-10 &13-\lambda\\
+\hline
+\end{tabular}
+&\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+ -16& 5& -29& 29\\
+ -27& 8& -51& 51\\
+ -3& 1& -5& 5\\
+ -6& 2& -10& 10\\
+\hline
+\end{tabular}
+\to
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+1&0&0& 0\\
+0&1&0& 0\\
+0&0&1&-1\\
+0&0&0& 0\\
+\hline
+\end{tabular}
+\end{align*}
+gefunden werden.
+Daraus liest man den Eigenvektor
+\[
+b_1
+=
+\begin{pmatrix} 0\\0\\1\\1\end{pmatrix},
+\qquad
+Ab_1 =
+\begin{pmatrix}
+-13& 5& -29& 29\\
+-27& 11& -51& 51\\
+ -3& 1& -2& 5\\
+ -6& 2& -10& 13
+\end{pmatrix}
+\begin{pmatrix} 0\\0\\1\\1\end{pmatrix}
+=
+\begin{pmatrix}
+0\\0\\3\\3
+\end{pmatrix}
+=
+3b_1
+\]
+ab.
+Diesen Vektor können wir auch finden, indem wir $\mathcal{J}(A-eE)$
+bestimmen.
+Die vierte Potenz von $A-2E$ ist
+\begin{equation}
+(A-2E)^4
+=
+\begin{pmatrix}
+ 0& 0& 0& 0\\
+ 0& 0& 0& 0\\
+ 0& 0& 2& -1\\
+ 0& 0& 2& -1
+\end{pmatrix},
+\label{4003:potenz}
+\end{equation}
+der zugehörige Bildraum ist wieder aufgespannt von $b_1$.
+
+Aus \eqref{4003:potenz} kann man aber auch eine Basis
+\[
+b_2
+=
+\begin{pmatrix}1\\0\\0\\0\end{pmatrix}
+,\qquad
+b_3
+=
+\begin{pmatrix}0\\1\\0\\0\end{pmatrix}
+,\qquad
+b_4
+=
+\begin{pmatrix}0\\0\\1\\2\end{pmatrix}
+\]
+für den Kern $\mathcal{K}(A-2E)$ ablesen.
+Da $\lambda=2$ der einzige andere Eigenwert ist, muss $\mathcal{K}(A-2E)
+= \mathcal{J}(A-3E)$ sein.
+Dies lässt sich überprüfen, indem wir die vierte Potenz von $A-2E$
+berechnen, sie ist
+\[
+(A-2E)^4
+=
+\begin{pmatrix}
+ 79& -26& 152& -152\\
+ 162& -53& 312& -312\\
+ 12& -4& 23& -23\\
+ 24& -8& 46& -46\\
+\end{pmatrix}.
+\]
+Die Spaltenvektoren lassen sich alle durch die Vektoren $b_2$, $b_3$
+und $b_4$ ausdrücken, also ist $\mathcal{J}(A-2E)=\langle b_2,b_3,b_4\rangle$.
+
+Indem die Vektoren $b_i$ als Spalten in eine Matrix $T$ schreibt, kann man
+jetzt berechnen, wie die Matrix der linearen Abbildung in dieser neuen
+Basis aussieht, es ist
+\[
+A'=T^{-1}AT
+\left(
+\begin{array}{r|rrr}
+ 3& 0& 0& 0\\
+\hline
+ 0& -13& 5& 29\\
+ 0& -27& 11& 51\\
+ 0& -3& 1& 8
+\end{array}
+\right),
+\]
+wir haben also tatsächlich die versprochene Blockstruktur.
+
+Der $3\times 3$-Block
+\[
+A_1
+=
+\begin{pmatrix}
+ -13& 5& 29\\
+ -27& 11& 51\\
+ -3& 1& 8
+\end{pmatrix}
+\]
+in der rechten unteren Ecke hat den dreifachen Eigenwert $2$,
+und die Potenzen von $A_1-2E$ sind
+\[
+A_1-2E
+\begin{pmatrix}
+ -15 & 5& 29\\
+ -27 & 9& 51\\
+ -3 & 1& 6
+\end{pmatrix}
+,\qquad
+(A_1-2E)^2
+=
+\begin{pmatrix}
+ 3 & -1 & -6\\
+ 9 & -3 &-18\\
+ 0 & 0 & 0\\
+\end{pmatrix}
+,\qquad
+(A_1-2E)^3=0.
+\]
+Für die Jordan-Normalform brauchen wir einen von $0$ verschiedenen
+Vektor im Kern von $(A_1-2E)^2$, zum Beispiel den Vektor mit den
+Komponenten $1,3,1$.
+Man beachte aber, dass diese Komponenten jetzt in der neuen Basis
+$b_2,\dots,b_4$ zu verstehen sind, d.~h.~der Vektor, den wir suchen, ist
+\[
+c_3
+=
+b_1+ 3b_2+b_3
+=
+\begin{pmatrix}1\\3\\1\\2\end{pmatrix}.
+\]
+Jetzt berechnen wir die Bilder von $c_3$ unter $A-2E$:
+\[
+c_2
+=
+\begin{pmatrix}
+29\\51Ò\\6\\12
+\end{pmatrix}
+,\qquad
+c_1
+=
+\begin{pmatrix}
+-6\\-18\\0\\0
+\end{pmatrix}.
+\]
+Die Basis $b_1,c_1,c_2,c_3$ ist also eine Basis, in der die Matrix $A$
+Jordansche Normalform annimmt.
+
+Die Umrechnung der Matrix $A$ in die Basis $\{b_1,c_1,c_2,c_3\}$ kann
+mit der Matrix
+\[
+T_1
+=
+\begin{pmatrix}
+ 0& -6& 29& 1\\
+ 0& -18& 51& 3\\
+ 1& 0& 6& 1\\
+ 1& 0& 12& 2\\
+\end{pmatrix},
+\qquad
+T_1^{-1}
+=
+\frac{1}{216}
+\begin{pmatrix}
+ 0& 0& 432& -216\\
+ 33& -23& -36& 36\\
+ 18& -6& 0& 0\\
+ -108& 36& -216& 216
+\end{pmatrix}
+\]
+erfolgen und ergibt die Jordansche Normalform
+\[
+A'
+=
+\begin{pmatrix}
+3&0&0&0\\
+0&2&1&0\\
+0&0&2&1\\
+0&0&0&2
+\end{pmatrix}
+\]
+wie erwartet.
+\end{loesung}
+
+
diff --git a/buch/chapters/50-permutationen/beispiele/perm.m b/buch/chapters/50-permutationen/beispiele/perm.m
new file mode 100644
index 0000000..2e837ef
--- /dev/null
+++ b/buch/chapters/50-permutationen/beispiele/perm.m
@@ -0,0 +1,44 @@
+#
+# perm.m -- find a random permutation
+#
+# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+#
+N = 8
+M = N+1
+
+function retval = permutation(n)
+ p = (1:n);
+ for i = (1:(n-1))
+ j = i + 1 + floor(rand() * (n-i));
+ s = p(i);
+ p(i) = p(j);
+ p(j) = s;
+ endfor
+ retval = p;
+end
+
+function retval = compose(p,q)
+ n = size(p)(1,2);
+ retval = zeros(1,n);
+ for i = (1:n)
+ retval(i) = q(p(i));
+ end
+end
+
+sigma = permutation(N)
+sigma = compose(sigma, permutation(N))
+sigma = compose(sigma, permutation(N))
+sigma = compose(sigma, permutation(N))
+sigma = compose(sigma, permutation(N))
+sigma = compose(sigma, permutation(N))
+sigma = compose(sigma, permutation(N))
+
+s = zeros(M,N);
+s(1,:) = sigma;
+for i = (2:M)
+ s(i,:) = compose(s(i-1,:), sigma);
+end
+
+s
+
+compose(sigma, permutation(N))
diff --git a/buch/chapters/50-permutationen/chapter.tex b/buch/chapters/50-permutationen/chapter.tex
index c9514b8..cf3f2ab 100644
--- a/buch/chapters/50-permutationen/chapter.tex
+++ b/buch/chapters/50-permutationen/chapter.tex
@@ -7,9 +7,25 @@
\label{buch:chapter:permutationen}}
\lhead{Permutationen}
\rhead{}
+Die Berechnung der Determinante einer Matrix macht ausgedehnten
+Gebrauch von der Tatsache, dass die Vertauschung von zwei Zeilen
+oder Spalten das Vorzeichen des Wertes der Determinanten dreht.
+In diesem Kapitel sollen die Permutationen der Zeilen abstrakt
+untersucht werden.
+Wir erhalten so eine abstrakte Permutationsgruppe.
+Ihre Elemente lassen sich auch durch spezielle Matrizen beschreiben,
+eine Darstellung dieser Gruppe, die auch unmittelbar zu einer
+Formel für die Determinante einer Matrix führt.
\input{chapters/50-permutationen/endlich.tex}
\input{chapters/50-permutationen/transpositionen.tex}
\input{chapters/50-permutationen/matrizen.tex}
\input{chapters/50-permutationen/determinante.tex}
+\section*{Übungsaufgaben}
+\rhead{Übungsaufgaben}
+\aufgabetoplevel{chapters/50-permutationen/uebungsaufgaben}
+\begin{uebungsaufgaben}
+\uebungsaufgabe{5001}
+\end{uebungsaufgaben}
+
diff --git a/buch/chapters/50-permutationen/endlich.tex b/buch/chapters/50-permutationen/endlich.tex
index 71cc991..700c0f2 100644
--- a/buch/chapters/50-permutationen/endlich.tex
+++ b/buch/chapters/50-permutationen/endlich.tex
@@ -6,3 +6,192 @@
\section{Permutationen einer endlichen Menge
\label{buch:section:permutationen-einer-endlichen-menge}}
\rhead{Permutationen}
+Eine endliche Anzahl $n$ von Objekten können auf $n!$ Arten angeordnet
+werden.
+Als Objektmenge nehmen wir $[n] = \{ 1,\dots,n\}$.
+Die Operation, die die Objekte in eine bestimmte Reihenfolge bringt,
+ist eine Abbildung $\sigma\colon[n]\to[n]$.
+Eine Permutation ist eine umkehrbare Abbildung $[n]\to[n]$.
+Die Menge $S_n$ aller umkehrbaren Abbildungen $[n]\to[n]$
+mit der Verknüpfung von Abbildungen als Operation heisst die
+die {\em symmetrische Gruppe}.
+Die identische Abbildung $\sigma(x)=x$ ist das {\em neutrale
+Element} der Gruppe $S_n$ und wir auch mit $e$ bezeichnet.
+
+\subsection{Permutationen als $2\times n$-Matrizen}
+Eine Permutation kann als $2\times n$-Matrix geschrieben werden:
+\begin{center}
+\includegraphics{chapters/50-permutationen/images/permutation.pdf}
+\end{center}
+Das neutrale Element hat die Matrix
+\[
+e = \begin{pmatrix}
+1&2&3&4&5&6\\
+1&2&3&4&5&6
+\end{pmatrix}
+\]
+aus zwei identischen Zeilen.
+
+Die Verknüpfung zweier solcher Permutationen kann leicht graphisch
+dargestellt werden: dazu werden die beiden Permutationen
+untereinander geschrieben und Spalten der zweiten Permutation
+in der Reihen folge der Zahlen in der zweiten Zeile der ersten
+Permutation angeordnet.
+Die zusammengesetzte Permutation kann dann in der zweiten Zeile
+der zweiten Permutation abgelesen werden:
+\begin{center}
+\includegraphics{chapters/50-permutationen/images/komposition.pdf}
+\end{center}
+Die Inverse einer Permutation kann erhalten werden, indem die beiden
+Zeilen vertauscht werden und dann die Spalten wieder so angeordnet werden,
+dass die Zahlen in der ersten Zeile ansteigend sind:
+\[
+\sigma = \begin{pmatrix}
+1&2&3&4&5&6\\
+2&1&3&5&6&4
+\end{pmatrix}
+\qquad\Rightarrow\qquad
+\sigma^{-1}
+=
+\begin{pmatrix}
+2&1&3&5&6&4\\
+1&2&3&4&5&6
+\end{pmatrix}
+=
+\begin{pmatrix}
+1&2&3&4&5&6\\
+2&1&3&6&4&5
+\end{pmatrix}.
+\]
+
+\subsection{Zyklenzerlegung
+\label{buch:subsection:zyklenzerlegung}}
+Eine Permutation $\sigma\in S_n$ kann auch mit sogenanten Zyklenzerlegung
+analysiert werden.
+Zum Beispiel:
+\begin{center}
+\includegraphics{chapters/50-permutationen/images/zyklenzerlegung.pdf}
+\end{center}
+
+\begin{definition}
+Ein Zyklus $Z$ ist eine unter $\sigma$ invariante Teilmenge von $[n]$
+minimaler Grösse.
+Die Zyklenzerlegung ist eine Zerlegung von $[n]$ in Zyklen
+\[
+[n]
+=
+\cup_{i=1}^k Z_i,
+\]
+wobei jede Menge $Z_i$ ein Zyklus ist.
+\end{definition}
+
+Der folgende Algorithmus findet die Zyklenzerlegung einer Permutation.
+
+\begin{satz}
+Sei $\sigma\in S_n$ eine Permutation. Der folgende Algorithmus findet
+die Zyklenzerlegung von $\sigma$:
+\begin{enumerate}
+\item
+$i=1$
+\item
+Wähle das erste noch nicht verwendete Element
+\[
+s_i=\min\biggl( [n] \setminus \bigcup_{j< i} Z_j\biggr)
+\]
+\item
+Bestimme alle Elemente, die aus $s_i$ durch Anwendung von $\sigma$
+entstehen:
+\[
+Z_i
+=
+\{ s_i, \sigma(s_i), \sigma(\sigma(s_i)), \dots \}
+=
+\{\sigma^k(s_i)\;|\; k\ge 0\}.
+\]
+\item
+Falls $\bigcup_{j\le i} Z_j\ne [n]$, erhöhe $i$ um $1$ und fahre
+weiter bei 2.
+\end{enumerate}
+\end{satz}
+
+Mit Hilfe der Zyklenzerlegung von $\sigma$ lassen sich auch
+gewisse Eigenschaften von $\sigma$ ableiten.
+Sei also $[n] = Z_1\cup\dots\cup Z_k$ die Zyklenzerlegung.
+Für jedes Element $x\in S_i$ gilt $\sigma^{|S_i|}(x) = x$.
+Die kleinste Zahl $m$, für die $\sigma^m=e$ ist, das kleinste
+gemeinsame Vielfache der Zyklenlängen:
+\[
+m = \operatorname{kgV} (|Z_1|,|Z_2|,\dots,|Z_k|).
+\]
+
+\subsection{Konjugierte Elemente in $S_n$}
+Zwei Elemente $g_1,g_2\in G$ einer Gruppe heissen konjugiert, wenn
+es ein Element $c\in G$ gibt derart, dass $cg_1c^{-1}=g_2$.
+Bei Matrizen hat dies bedeutet, dass die beiden Matrizen durch
+Basiswechsel auseinander hervorgehen.
+Dasselbe lässt sich auch im Kontext der symmetrischen Gruppe sagen.
+
+Seien $\sigma_1$ und $\sigma_2$ zwei konjugierte Permutationen in $S_n$.
+Es gibt also eine Permutation $\gamma\in S_n$ derart, dass
+$\sigma_1=\gamma\sigma_2\gamma^{-1}$ oder $\gamma^{-1}\sigma_1\gamma=\sigma_2$.
+Dann gilt auch für die Potenzen
+\begin{equation}
+\sigma_1^k = \gamma\sigma_2^k\gamma^{-1}.
+\label{buch:permutationen:eqn:konjpot}
+\end{equation}
+Ist $Z_i$ ein Zyklus von $\sigma_2$ und $x\in Z_i$, dann ist
+$Z_i = \{ x,\sigma_2(x),\sigma_2^2(x),\dots\}$.
+Die Menge $\gamma(Z_i)$ besteht dann aus dem Elementen
+$\gamma(Z_i)=\{\gamma(x),\gamma(\sigma_2(x)),\gamma(\sigma_2^2(x)),\dots\}$.
+Aus der Formel~\eqref{buch:permutationen:eqn:konjpot} folgt
+$\sigma_1^k\gamma = \gamma\sigma_2^k$, also
+\[
+\gamma(Z_i)
+=
+\{\gamma(x),\sigma_1(\gamma(x)),\sigma_1^2(\gamma(x)),\dots\},
+\]
+Also ist $\gamma(Z_i)$ ein Zyklus von $\sigma_1$.
+Die Permutation $\gamma$ bildet also Zyklen von $\sigma_2$ auf Zyklen
+von $\sigma_1$ ab.
+Es folgt daher der folgende Satz:
+
+\begin{satz}
+Sind $\sigma_1,\sigma_2\in S_n$ konjugiert $\sigma_1=\gamma\sigma_2\gamma^{-1}$
+mit dem $\gamma\in S_n$.
+Wenn $Z_1,\dots,Z_k$ die Zyklen von $\sigma_2$ sind, dann sind
+$\gamma(Z_1),\dots,\gamma(Z_k)$ die Zyklen von $\sigma_1$.
+\end{satz}
+
+Die Zyklenzerlegung kann mit der Jordan-Normalform \ref{XXX}
+einer Matrix verglichen werden.
+Durch einen Basiswechsel, welcher durch eine ``Konjugation''
+von Matrizen ausgedrückt wir, kann die Matrix in eine besonders
+übersichtliche Form gebracht werden.
+Wenn $\sigma$ die Zyklenzerlegung $Z_1,\dots,Z_k$ mit Zyklenlängen
+$l_i=|Z_i|$, dann kann man die Menge $[n]$ wie folgt in Teilmengen
+\begin{align*}
+X_1 &= \{1,\dots, l_1\},
+\\
+X_2 &= \{l_1+1,\dots,l_1+l_2\},
+\\
+X_i &= \{l_1+\dots+l_{i-1}+1,\dots, l_1+\dots+l_i\}
+\\
+X_k &= \{l_1+\dots+l_{k-1}+1,\dots n\}
+\end{align*}
+zerlegen.
+Sei $\sigma_2$ die Permutation, die in jeder der Mengen $X_i$ durch
+zyklische Vertauschung der Elemente wirkt.
+Indem man die Elemente von $Z_i$ in der Reihenfolge, in der sie durch
+$\sigma_1$ erreicht werden, auf die Elemente $X_i$ abbildet, findet
+man eine Permutation, die Zyklen von $\sigma_1$ in Zyklen von $\sigma_2$
+überführt.
+
+\begin{satz}
+Wenn zwei Elemente $\sigma_1,\sigma_2\in S_n$ Zyklenzerlegungen mit den
+gleichen Zyklenlängen haben, dann sind sie konjugiert.
+\end{satz}
+
+Ein Element $\sigma\in S_n$ ist also bis auf eine Permutation
+vollständig durch die Länge der Zyklen von $\sigma$ charakterisiert.
+
+
diff --git a/buch/chapters/50-permutationen/images/Makefile b/buch/chapters/50-permutationen/images/Makefile
new file mode 100644
index 0000000..c2e0e9f
--- /dev/null
+++ b/buch/chapters/50-permutationen/images/Makefile
@@ -0,0 +1,20 @@
+#
+# Makefile -- Bilder
+#
+# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+#
+all: transpositionen.pdf zyklenzerlegung.pdf permutation.pdf \
+ komposition.pdf
+
+permutation.pdf: permutation.tex
+ pdflatex permutation.tex
+
+komposition.pdf: komposition.tex
+ pdflatex komposition.tex
+
+transpositionen.pdf: transpositionen.tex
+ pdflatex transpositionen.tex
+
+zyklenzerlegung.pdf: zyklenzerlegung.tex
+ pdflatex zyklenzerlegung.tex
+
diff --git a/buch/chapters/50-permutationen/images/komposition.pdf b/buch/chapters/50-permutationen/images/komposition.pdf
new file mode 100644
index 0000000..9e532bf
--- /dev/null
+++ b/buch/chapters/50-permutationen/images/komposition.pdf
Binary files differ
diff --git a/buch/chapters/50-permutationen/images/komposition.tex b/buch/chapters/50-permutationen/images/komposition.tex
new file mode 100644
index 0000000..ef3ec65
--- /dev/null
+++ b/buch/chapters/50-permutationen/images/komposition.tex
@@ -0,0 +1,55 @@
+%
+% komposition.tex -- Komposition zweier Permutationen
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\begin{scope}[xshift=-4.5cm]
+\node at (0,0) {$\displaystyle
+\sigma_1=\begin{pmatrix}
+1&2&3&4&5&6\\
+2&1&3&5&6&4
+\end{pmatrix}$};
+\node at (0,-1) {$\displaystyle
+\sigma_2=\begin{pmatrix}
+1&2&3&4&5&6\\
+3&4&5&6&1&2
+\end{pmatrix}
+$};
+\end{scope}
+\begin{scope}
+\node at (0,0) {$\displaystyle
+\begin{pmatrix}
+1&2&3&4&5&6\\
+2&1&3&5&6&4
+\end{pmatrix}$};
+\node at (0,-1) {$\displaystyle
+\begin{pmatrix}
+2&1&3&5&6&4\\
+4&3&5&1&2&6
+\end{pmatrix}
+$};
+
+\end{scope}
+\begin{scope}[xshift=4.5cm]
+\node at (0,-0.5) {$\displaystyle
+\sigma_2\sigma_1=\begin{pmatrix}
+1&2&3&4&5&6\\
+4&3&5&1&2&6
+\end{pmatrix}
+$};
+\end{scope}
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/50-permutationen/images/permutation.pdf b/buch/chapters/50-permutationen/images/permutation.pdf
new file mode 100644
index 0000000..cdfa186
--- /dev/null
+++ b/buch/chapters/50-permutationen/images/permutation.pdf
Binary files differ
diff --git a/buch/chapters/50-permutationen/images/permutation.tex b/buch/chapters/50-permutationen/images/permutation.tex
new file mode 100644
index 0000000..ee58d4a
--- /dev/null
+++ b/buch/chapters/50-permutationen/images/permutation.tex
@@ -0,0 +1,43 @@
+%
+% permutation.tex -- Definition einer Permutation
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\def\sx{0.8}
+\def\sy{1}
+\begin{scope}[xshift=-3cm]
+\foreach \x in {1,...,6}{
+ \node at ({(\x-1)*\sx},\sy) [above] {$\tiny\x$};
+ \fill ({(\x-1)*\sx},\sy) circle[radius=0.05];
+ \fill ({(\x-1)*\sx},0) circle[radius=0.05];
+}
+\draw[->] (0,\sy) to[out=-70,in=110] (\sx,0);
+\draw[<-] (0,0) to[out=70,in=-110] (\sx,\sy);
+\draw[->] ({2*\sx},\sy) -- ({2*\sx},0);
+\draw[->] ({3*\sx},\sy) to[out=-70,in=110] ({4*\sx},0);
+\draw[->] ({4*\sx},\sy) to[out=-70,in=110] ({5*\sx},0);
+\draw[->] ({5*\sx},\sy) to[out=-110,in=70] ({3*\sx},0);
+\end{scope}
+\node at (2.4,{\sy/2}) {$\mathstrut=\mathstrut$};
+\node at (5,{\sy/2}) {$\displaystyle
+\renewcommand{\arraystretch}{1.4}
+\begin{pmatrix}
+1&2&3&4&5&6\\
+2&1&3&5&6&4
+\end{pmatrix}
+$};
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/50-permutationen/images/transpositionen.pdf b/buch/chapters/50-permutationen/images/transpositionen.pdf
new file mode 100644
index 0000000..ad2ea7c
--- /dev/null
+++ b/buch/chapters/50-permutationen/images/transpositionen.pdf
Binary files differ
diff --git a/buch/chapters/50-permutationen/images/transpositionen.tex b/buch/chapters/50-permutationen/images/transpositionen.tex
new file mode 100644
index 0000000..0670a2c
--- /dev/null
+++ b/buch/chapters/50-permutationen/images/transpositionen.tex
@@ -0,0 +1,103 @@
+%
+% transpositionen.tex -- Darstellung eines Zyklus aus Transpositionen
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1}
+
+\def\kreuz#1#2#3{
+ \draw[->] ({(#1)-1},#2) to[out=-90,in=90] ({#1},{#2-1});
+ \draw[->] ({#1},#2) to[out=-90,in=90] ({#1-1},{#2-1});
+ \node at ({(#1)-0.5+0.2},{#2-0.5}) [right] {$#3$};
+}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+\foreach \x in {1,2,3,6,7,8,9}{
+ \fill ({\x-1},0) circle[radius=0.05];
+}
+\foreach \x in {1,2,3}{
+ \node at ({\x-1},0) [above] {$\tiny \x$};
+}
+\node at (8,0) [above] {$\tiny k$};
+\node at (7,0) [above] {$\tiny k-1$};
+\node at (6,0) [above] {$\tiny k-2$};
+\node at (5,0) [above] {$\tiny k-3$};
+\foreach \x in {1,2,3,4,7,8,9}{
+ \fill ({\x-1},-8) circle[radius=0.05];
+}
+\foreach \x in {1,2,3,4}{
+ \node at ({\x-1},-8) [below] {$\tiny \x$};
+}
+\node at (6,-8) [below] {$k-2$};
+\node at (7,-8) [below] {$k-1$};
+\node at (8,-8) [below] {$k$};
+
+\foreach \x in {3,3.2,...,5}{
+ \fill (\x,{-8+\x}) circle[radius=0.02];
+ \fill ({\x+0.5},-8) circle[radius=0.02];
+ \fill ({\x-0.5},0) circle[radius=0.02];
+}
+
+\kreuz{8}{0}{\tau_{k-1,k}}
+\kreuz{7}{-1}{\tau_{k-2,k-1}}
+\kreuz{6}{-2}{\tau_{k-3,k-2}}
+%\kreuz{5}{-3}{\tau_{56}}
+%\kreuz{4}{-4}{\tau_{45}}
+\kreuz{3}{-5}{\tau_{34}}
+\kreuz{2}{-6}{\tau_{23}}
+\kreuz{1}{-7}{\tau_{12}}
+
+\draw[->,color=gray] (0,0) -- (0,-7);
+\draw[->,color=gray] (1,0) -- (1,-6);
+\draw[->,color=gray] (2,0) -- (2,-5);
+%\draw[->,color=gray] (3,0) -- (3,-4);
+%\draw[->,color=gray] (4,0) -- (4,-3);
+\draw[->,color=gray] (5,0) -- (5,-2);
+\draw[->,color=gray] (6,0) -- (6,-1);
+
+\draw[->,color=gray] (8,-1) -- (8,-8);
+\draw[->,color=gray] (7,-2) -- (7,-8);
+\draw[->,color=gray] (6,-3) -- (6,-8);
+%\draw[->,color=gray] (5,-4) -- (5,-8);
+%\draw[->,color=gray] (4,-5) -- (4,-8);
+\draw[->,color=gray] (3,-6) -- (3,-8);
+\draw[->,color=gray] (2,-7) -- (2,-8);
+
+\fill (6,-1) circle[radius=0.05];
+\fill (7,-1) circle[radius=0.05];
+\fill (8,-1) circle[radius=0.05];
+
+\fill (5,-2) circle[radius=0.05];
+\fill (6,-2) circle[radius=0.05];
+\fill (7,-2) circle[radius=0.05];
+
+%\fill (4,-3) circle[radius=0.05];
+\fill (5,-3) circle[radius=0.05];
+\fill (6,-3) circle[radius=0.05];
+
+%\fill (3,-4) circle[radius=0.05];
+%\fill (4,-4) circle[radius=0.05];
+%\fill (5,-4) circle[radius=0.05];
+
+\fill (2,-5) circle[radius=0.05];
+\fill (3,-5) circle[radius=0.05];
+%\fill (4,-5) circle[radius=0.05];
+
+\fill (1,-6) circle[radius=0.05];
+\fill (2,-6) circle[radius=0.05];
+\fill (3,-6) circle[radius=0.05];
+
+\fill (0,-7) circle[radius=0.05];
+\fill (1,-7) circle[radius=0.05];
+\fill (2,-7) circle[radius=0.05];
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/50-permutationen/images/zyklenzerlegung.pdf b/buch/chapters/50-permutationen/images/zyklenzerlegung.pdf
new file mode 100644
index 0000000..72d9353
--- /dev/null
+++ b/buch/chapters/50-permutationen/images/zyklenzerlegung.pdf
Binary files differ
diff --git a/buch/chapters/50-permutationen/images/zyklenzerlegung.tex b/buch/chapters/50-permutationen/images/zyklenzerlegung.tex
new file mode 100644
index 0000000..c197579
--- /dev/null
+++ b/buch/chapters/50-permutationen/images/zyklenzerlegung.tex
@@ -0,0 +1,60 @@
+%
+% zyklenzerlegung.tex -- Zerlegung einer Permutation in Zyklen
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\definecolor{darkgreen}{rgb}{0,0.6,0}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\begin{scope}[xshift=-3cm]
+\node at (0,0) {$\displaystyle
+\sigma=\begin{pmatrix}
+{\color{red}1}&{\color{red}2}&{\color{darkgreen}3}&{\color{blue}4}&{\color{blue}5}&{\color{blue}6}\\
+{\color{red}2}&{\color{red}1}&{\color{darkgreen}3}&{\color{blue}5}&{\color{blue}6}&{\color{blue}4}
+\end{pmatrix}$};
+\end{scope}
+\node at (0,0) {$\mathstrut=\mathstrut$};
+\begin{scope}[xshift=1.5cm]
+\coordinate (A) at (0,0.5);
+\coordinate (B) at (0,-0.5);
+\draw[->,color=red] (A) to[out=-20,in=20] (0,-0.5);
+\draw[->,color=red] (B) to[out=160,in=-160] (0,0.5);
+\node at (A) [above] {$\tiny 1$};
+\node at (B) [below] {$\tiny 2$};
+\fill (A) circle[radius=0.05];
+\fill (B) circle[radius=0.05];
+
+\coordinate (C) at (1.5,0.25);
+\node at (C) [above] {$\tiny 3$};
+\draw[->,color=darkgreen] ({1.5+0.01},0.25) to[out=-10,in=-170] ({1.5-0.01},0.25);
+\draw[color=darkgreen] (1.5,{0.25-0.3}) circle[radius=0.3];
+\fill (C) circle[radius=0.05];
+
+\def\r{0.5}
+\coordinate (D) at ({3.5+\r*cos(90)},{0+\r*sin(90)});
+\coordinate (E) at ({3.5+\r*cos(210)},{0+\r*sin(210)});
+\coordinate (F) at ({3.5+\r*cos(330)},{0+\r*sin(330)});
+\node at (D) [above] {$\tiny 4$};
+\node at (E) [below left] {$\tiny 5$};
+\node at (F) [below right] {$\tiny 6$};
+\draw[->,color=blue] (D) to[out=180,in=120] (E);
+\draw[->,color=blue] (E) to[out=-60,in=-120] (F);
+\draw[->,color=blue] (F) to[out=60,in=0] (D);
+\fill (D) circle[radius=0.05];
+\fill (E) circle[radius=0.05];
+\fill (F) circle[radius=0.05];
+
+\end{scope}
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/50-permutationen/matrizen.tex b/buch/chapters/50-permutationen/matrizen.tex
index 3d06b0a..7e55364 100644
--- a/buch/chapters/50-permutationen/matrizen.tex
+++ b/buch/chapters/50-permutationen/matrizen.tex
@@ -6,4 +6,191 @@
\section{Permutationsmatrizen
\label{buch:section:permutationsmatrizen}}
\rhead{Permutationsmatrizen}
+Die Eigenschaft, dass eine Vertauschung das Vorzeichen kehrt, ist
+eine wohlebekannte Eigenschaft der Determinanten.
+In diesem Abschnitt soll daher eine Darstellung von Permutationen
+als Matrizen gezeigt werden und die Verbindung zwischen dem
+Vorzeichen einer Permutation und der Determinanten hergestellt
+werden.
+
+\subsection{Matrizen}
+Gegeben sei jetzt eine Permutation $\sigma\in S_n$.
+Aus $\sigma$ lässt sich eine lineare Abbildung $\Bbbk^n\to\Bbbk^n$
+konstruieren, die die Standardbasisvektoren permutiert, also
+\[
+f_{\sigma}\colon
+\Bbbk^n \to \Bbbk^n
+:
+\left\{
+\begin{aligned}
+e_1&\mapsto e_{\sigma(1)} \\
+e_2&\mapsto e_{\sigma(2)} \\
+\vdots&\\
+e_n&\mapsto e_{\sigma(n)}
+\end{aligned}
+\right.
+\]
+Die Matrix $P_\sigma$ der linearen Abbildung $f_{\sigma}$ hat in Spalte $i$
+genau eine $1$ in der Zeile $\sigma(i)$, also
+\[
+(P_\sigma)_{ij} = \delta_{j\sigma(i)}.
+\]
+
+\begin{beispiel}
+Die zur Permutation
+\[
+\begin{pmatrix}
+1&2&3&4&5&6\\
+2&1&3&5&6&4
+\end{pmatrix}
+\]
+gehörige lineare Abbildung $f_\sigma$ hat die Matrix
+\[
+A_\sigma
+=
+\begin{pmatrix}
+0&1&0&0&0&0\\
+1&0&0&0&0&0\\
+0&0&1&0&0&0\\
+0&0&0&0&0&1\\
+0&0&0&1&0&0\\
+0&0&0&0&1&0
+\end{pmatrix}
+\qedhere
+\]
+\end{beispiel}
+
+\begin{definition}
+Eine Permutationsmatrix ist eine Matrix $P\in M_n(\Bbbk)$
+derart, die in jeder Zeile und Spalte genau eine $1$ enthalten ist,
+während alle anderen Matrixelemente $0$ sind.
+\end{definition}
+
+Es ist klar, dass aus einer Permutationsmatrix auch die Permutation
+der Standardbasisvektoren abgelesen werden kann.
+Die Verknüpfung von Permutationen wird zur Matrixmultiplikation
+von Permutationsmatrizen, die Zuordnung $\sigma\mapsto P_\sigma$
+ist also ein Homomorphismus
+$
+S_n \to M_n(\Bbbk^n),
+$
+es ist $P_{\sigma_1\sigma_2}=P_{\sigma_1}P_{\sigma_2}$.
+
+\subsection{Transpositionen}
+Transpositionen sind Permutationen, die genau zwei Elemente von $[n]$
+vertauschen.
+Wir ermitteln jetzt die Permutationsmatrix der Transposition $\tau=\tau_{ij}$
+\[
+P_{\tau_{ij}}
+=
+\begin{pmatrix}
+1& & & & & & & & \\
+ &\ddots& & & & & & & \\
+ & &1& & & & & & \\
+ & & &0 &\dots&1 & & & \\
+ & & &\vdots& &\vdots& & & \\
+ & & &1 &\dots&0 & & & \\
+ & & & & & &1& & \\
+ & & & & & & &\ddots& \\
+ & & & & & & & &1
+\end{pmatrix}
+\qedhere
+\]
+
+Die Permutation $\sigma$ mit dem Zyklus $1\to 2\to\dots\to l-1\to l\to 1$
+der Länge $l$ kann aus aufeinanderfolgenden Transpositionen zusammengesetzt
+werden, die zugehörigen Permutationsmatrizen sind
+\begin{align*}
+P_\sigma
+&=
+P_{\tau_{12}}
+P_{\tau_{23}}
+P_{\tau_{34}}\dots
+P_{\tau_{l-2,l-1}}
+P_{\tau_{l-1,l}}
+\\
+&=
+\begin{pmatrix}
+0&1&0&0&\dots\\
+1&0&0&0&\dots\\
+0&0&1&0&\dots\\
+0&0&0&1&\dots\\
+\vdots&\vdots&\vdots&\vdots&\ddots
+\end{pmatrix}
+\begin{pmatrix}
+1&0&0&0&\dots\\
+0&0&1&0&\dots\\
+0&1&0&0&\dots\\
+0&0&0&1&\dots\\
+\vdots&\vdots&\vdots&\vdots&\ddots
+\end{pmatrix}
+\begin{pmatrix}
+1&0&0&0&\dots\\
+0&1&0&0&\dots\\
+0&0&0&1&\dots\\
+0&0&1&0&\dots\\
+\vdots&\vdots&\vdots&\vdots&\ddots
+\end{pmatrix}
+\dots
+\\
+&=
+\begin{pmatrix}
+0&0&1&0&\dots\\
+1&0&0&0&\dots\\
+0&1&0&0&\dots\\
+0&0&0&1&\dots\\
+\vdots&\vdots&\vdots&\vdots&\ddots
+\end{pmatrix}
+\begin{pmatrix}
+1&0&0&0&\dots\\
+0&1&0&0&\dots\\
+0&0&0&1&\dots\\
+0&0&1&0&\dots\\
+\vdots&\vdots&\vdots&\vdots&\ddots
+\end{pmatrix}
+\dots
+\\
+&=
+\begin{pmatrix}
+0&0&0&1&\dots\\
+1&0&0&0&\dots\\
+0&1&0&0&\dots\\
+0&0&1&0&\dots\\
+\vdots&\vdots&\vdots&\vdots&\ddots
+\end{pmatrix}
+\\
+&\vdots\\
+&=
+\begin{pmatrix}
+0&0&0&0&\dots&0&1\\
+1&0&0&0&\dots&0&0\\
+0&1&0&0&\dots&0&0\\
+0&0&1&0&\dots&0&0\\
+\vdots&\vdots&\vdots&\vdots&\ddots&\vdots&\vdots\\
+0&0&0&0&\dots&1&0
+\end{pmatrix}
+\end{align*}
+
+\subsection{Determinante und Vorzeichen}
+Die Transpositionen haben Permutationsmatrizen, die aus der Einheitsmatrix
+entstehen, indem genau zwei Zeilen vertauscht werden.
+Die Determinante einer solchen Permutationsmatrix ist
+\[
+\det P_{\tau} = - \det E = -1 = \operatorname{sgn}(\tau).
+\]
+Nach der Produktregel für die Determinante folgt für eine Darstellung
+der Permutation $\sigma=\tau_1\dots\tau_l$ als Produkt von Transpositionen,
+dass
+\[
+\det P_{\sigma}
+=
+\det P_{\tau_1} \dots \det P_{\tau_l}
+=
+(-1)^l
+=
+\operatorname{sgn}(\sigma).
+\]
+Das Vorzeichen einer Permutation ist also identisch mit der Determinante
+der zugehörigen Permutationsmatrix.
+
diff --git a/buch/chapters/50-permutationen/transpositionen.tex b/buch/chapters/50-permutationen/transpositionen.tex
index f27b20a..604e010 100644
--- a/buch/chapters/50-permutationen/transpositionen.tex
+++ b/buch/chapters/50-permutationen/transpositionen.tex
@@ -6,3 +6,137 @@
\section{Permutationen und Transpositionen
\label{buch:section:permutationen-und-transpositionen}}
\rhead{Transpositionen}
+Im vorangegangenen Abschnitt haben wir Permutationen durch die
+Zyklenzerlegung charakterisiert.
+Es zeigt sich aber, dass sich eine Permutation in noch elementarere
+Bausteine zerlegen lässt, die Transpositionen.
+
+\begin{definition}
+Einen Transposition $\tau\in S_n$ ist ein Permutation, die genau
+zwei Elemente vertauscht.
+Die Transposition $\tau_{ij}$ ist definiert durch
+\[
+\tau_{ij}(x)
+=
+\begin{cases}
+i&\qquad x=j\\
+j&\qquad x=i\\
+x&\qquad\text{sonst.}
+\end{cases}
+\]
+\end{definition}
+
+Eine Transposition hat genau einen Zyklus der Länge $2$, alle anderen
+Zyklen haben die Länge $1$.
+
+\subsection{Zyklus und Permutationen aus Transpositionen}
+Sei $\sigma$ die zyklische Vertauschung der Elemente $1,\dots,k\in [n]$,
+also die Permutation, die $1\to2\to3\to\dots\to k-2\to k-1\to k\to 1$
+abbildet.
+Dieser Zyklus lässt sich wie folgt aus Transpositionen zusammensetzen:
+\begin{center}
+\includegraphics{chapters/50-permutationen/images/transpositionen.pdf}
+\end{center}
+Es ist also
+\[
+\sigma
+=
+\tau_{12} \tau_{23} \tau_{34} \dots \tau_{k-3,k-2} \tau_{k-2,k-1} \tau_{k-1,k}.
+\]
+\begin{satz}
+Jede Permutation $\sigma\in S_n$ lässt sich als ein Produkt von
+Transpositionen schreiben.
+Jeder Zyklus der Länge $k$ lässt sich aus $k-1$ Transpositionen
+zusammensetzen.
+Eine Permutation mit einer Zerlegung in Zyklen der Längen $l_1,\dots,l_p$
+kann als Produkt von $l_1+\dots+l_p-p$ Transpositionen geschrieben werden.
+\end{satz}
+
+\subsection{Signum einer Permutation}
+Die Anzahl Transpositionen, die benötigt werden, um eine Permutation
+zu beschreiben, ist nicht fest.
+Wenn $\sigma$ mit $k$ Transpositionen geschrieben werden kann und
+$\gamma$ mit $l$, dann hat $\gamma\sigma\gamma^{-1}$ die gleiche
+Zyklenzerlegung, kann aber mit $k+2l$ Transpositionen geschrieben
+werden.
+Die Anzahl Transpositionen, die zur Darstellung einer Permutation
+nötig ist, ändert sich aber immer nur um eine gerade Zahl.
+Die Anzahl ist also keine Invariante einer Permutation, aber ob
+die Anzahl gerade ist oder nicht, ist sehr wohl eine charkterisierende
+Eigenschaft einer Permutation.
+
+\begin{definition}
+Das {\em Vorzeichen} oder {\em Signum} einer Permutation $\sigma$ ist
+die Zahl $\operatorname{sgn}(\sigma)=(-1)^k$, wenn $\sigma$ als Produkt
+von $k$ Transpositionen geschrieben werden kann.
+\end{definition}
+
+Die inverse Permutation $\sigma^{-1}$ hat das gleiche Signum wie $\sigma$.
+Wenn nämlich $\sigma= \tau_1\tau_2\dots\tau_k$ geschrieben werden kann,
+dann ist $\sigma^{-1}=\tau_k\dots\tau_2\tau_1$, sowohl $\sigma$ wie
+$\sigma^{-1}$ können also mit der gleichen Zahl von Transpositionen
+geschrieben werden, sie haben also auch das gleiche Vorzeichen.
+
+Die Abbildung $S_n\to\{\pm\}$, die einer Permutation das Signum zuordnet,
+ist ein Homomorphismus von Gruppen,
+d.~h.
+\[
+\operatorname{sgn}(\sigma_1\sigma_2)
+=
+\operatorname{sgn}(\sigma_1)
+\operatorname{sgn}(\sigma_2)
+\]
+da ganz offensichtlich $\sigma_1\sigma_2$ mit $k_1+k_2$ Transpositionen
+geschrieben kann, wenn $\sigma_i$ mit $k_i$ Transpositionen geschrieben
+werden kann.
+
+Das Signum definiert in der symmetrischen Gruppe eine Teilmenge bestehnd
+aus den Permutationen mit Signum $+1$.
+
+\begin{definition}
+Die Teilmenge
+\[
+A_n
+=
+\{
+\sigma\in S_n\;|\; \operatorname{sgn}(\sigma)=1
+\}
+\subset S_n.
+\]
+heisst die {\em alternierende Gruppe} der Ordnung $n$
+Die Elemente von $A_n$ heissen auch die {\em geraden} Permutationen,
+die
+Elemente von $S_n\setminus A_n$ heissen auch die {\em ungeraden}
+Permutationen.
+\end{definition}
+
+Die alternierende Gruppe $A_n$ ist tatsächlich eine Untergruppe.
+Zunächst ist $\operatorname{sign}(e)=(-1)^0=1$, also ist $e\in A_n$.
+Es wurde schon gezeigt, dass mit jedem Element $\sigma\in A_n$ auch
+das inverse Element $\sigma^{-1}\in A_n$ ist.
+Es muss aber noch sichergestellt werden, dass das Produkt von zwei
+geraden Transpositionen wieder gerade ist:
+\[
+\begin{aligned}
+\sigma_1,\sigma_2&\in A_n
+&\Rightarrow&&
+\operatorname{sign}(\sigma_1)
+&=
+\operatorname{sign}(\sigma_2)
+=
+1
+\\
+&&\Rightarrow&&
+\operatorname{sign}(\sigma_1\sigma_2)
+&=
+\operatorname{sign}(\sigma_1)
+\operatorname{sign}(\sigma_2)
+=
+1\cdot 1=1
+&&\Rightarrow&
+\sigma_1\sigma_2&\in A_n.
+\end{aligned}
+\]
+Damit ist gezeigt, dass die alternierende Gruppe $A_n$ ein Untergruppe von
+$S_n$ ist.
+
diff --git a/buch/chapters/50-permutationen/uebungsaufgaben/5001.tex b/buch/chapters/50-permutationen/uebungsaufgaben/5001.tex
new file mode 100644
index 0000000..2893adf
--- /dev/null
+++ b/buch/chapters/50-permutationen/uebungsaufgaben/5001.tex
@@ -0,0 +1,121 @@
+Sind die beiden Permutationen
+\[
+\sigma_1
+=
+\begin{pmatrix}
+1& 2& 3& 4& 5& 6& 7& 8\\
+8& 6& 5& 7& 2& 3& 4& 1
+\end{pmatrix}
+\qquad\text{und}\qquad
+\sigma_2
+=
+\begin{pmatrix}
+1& 2& 3& 4& 5& 6& 7& 8\\
+8& 7& 5& 6& 3& 4& 1& 2
+\end{pmatrix}
+\]
+konjugiert in $S_8$?
+Wenn ja, finden Sie eine Permutation $\gamma$ derart, dass
+$\gamma\sigma_1\gamma^{-1}=\sigma_2$
+
+\begin{loesung}
+Die Zyklenzerlegungen von $\sigma_1$ und $\sigma_2$ sind
+\begin{center}
+\begin{tikzpicture}[>=latex,thick]
+\begin{scope}[xshift=-3.3cm]
+\node at (-0.25,1.7) {$\sigma_1$};
+\draw (-3.3,-1.3) rectangle (2.8,1.3);
+\coordinate (A) at (-2.4,0.5);
+\coordinate (B) at (-2.4,-0.5);
+\coordinate (C) at (-0.8,0.5);
+\coordinate (D) at (-0.8,-0.5);
+\coordinate (E) at (0.8,0.5);
+\coordinate (F) at (0.8,-0.5);
+\coordinate (G) at (1.8,0.5);
+\coordinate (H) at (1.8,-0.5);
+
+\draw[->] (E) to[out=-135,in=135] (F);
+\draw[->] (F) to[out=-45,in=-135] (H);
+\draw[->] (H) to[out=45,in=-45] (G);
+\draw[->] (G) to[out=135,in=45] (E);
+
+\draw[->] (A) to[out=-180,in=-180] (B);
+\draw[->] (B) to[out=0,in=0] (A);
+
+\draw[->] (C) to[out=-180,in=-180] (D);
+\draw[->] (D) to[out=0,in=0] (C);
+
+\node at (A) [above] {$1$};
+\node at (B) [below] {$8$};
+\node at (C) [above] {$4$};
+\node at (D) [below] {$7$};
+\node at (E) [above left] {$2$};
+\node at (F) [below left] {$6$};
+\node at (H) [below right] {$3$};
+\node at (G) [above right] {$5$};
+
+\fill (A) circle[radius=0.05];
+\fill (B) circle[radius=0.05];
+\fill (C) circle[radius=0.05];
+\fill (D) circle[radius=0.05];
+\fill (E) circle[radius=0.05];
+\fill (F) circle[radius=0.05];
+\fill (G) circle[radius=0.05];
+\fill (H) circle[radius=0.05];
+\end{scope}
+\begin{scope}[xshift=3.3cm]
+\node at (-0.25,1.7) {$\sigma_2$};
+\draw (-3.3,-1.3) rectangle (2.8,1.3);
+\coordinate (A) at (-2.4,0.5);
+\coordinate (B) at (-2.4,-0.5);
+\coordinate (C) at (-0.8,0.5);
+\coordinate (D) at (-0.8,-0.5);
+\coordinate (E) at (0.8,0.5);
+\coordinate (F) at (0.8,-0.5);
+\coordinate (G) at (1.8,0.5);
+\coordinate (H) at (1.8,-0.5);
+
+\draw[->] (E) to[out=-135,in=135] (F);
+\draw[->] (F) to[out=-45,in=-135] (H);
+\draw[->] (H) to[out=45,in=-45] (G);
+\draw[->] (G) to[out=135,in=45] (E);
+
+\draw[->] (A) to[out=-180,in=-180] (B);
+\draw[->] (B) to[out=0,in=0] (A);
+
+\draw[->] (C) to[out=-180,in=-180] (D);
+\draw[->] (D) to[out=0,in=0] (C);
+
+\node at (A) [above] {$3$};
+\node at (B) [below] {$5$};
+\node at (C) [above] {$4$};
+\node at (D) [below] {$6$};
+\node at (E) [above left] {$7$};
+\node at (F) [below left] {$1$};
+\node at (H) [below right] {$8$};
+\node at (G) [above right] {$2$};
+
+\fill (A) circle[radius=0.05];
+\fill (B) circle[radius=0.05];
+\fill (C) circle[radius=0.05];
+\fill (D) circle[radius=0.05];
+\fill (E) circle[radius=0.05];
+\fill (F) circle[radius=0.05];
+\fill (G) circle[radius=0.05];
+\fill (H) circle[radius=0.05];
+\end{scope}
+\end{tikzpicture}
+\end{center}
+Da die beiden Permutationen die gleiche Zyklenzerlegung haben, müssen
+sie konjugiert sein.
+Die Permutation
+\[
+\gamma
+=
+\begin{pmatrix}
+1&2&3&4&5&6&7&8\\
+6&5&1&4&8&7&2&3
+\end{pmatrix}
+\]
+bildet die Zyklenzerlegung ab, also ist $\gamma\sigma_1\gamma^{-1}=\sigma_2$.
+\end{loesung}
diff --git a/buch/chapters/70-graphen/beschreibung.tex b/buch/chapters/70-graphen/beschreibung.tex
index f027932..25cfcc0 100644
--- a/buch/chapters/70-graphen/beschreibung.tex
+++ b/buch/chapters/70-graphen/beschreibung.tex
@@ -17,7 +17,7 @@ dann Beziehungen zwischen diesen Objekten.
\label{subsection:definition-von-graphen}}
In der Einleitung zu diesem Abschnitt wurde bereits eine informelle
Beschreibung des Konzeptes eines Graphen gegeben.
-Um zu einer Beschreibung mit Hilfe von Matrizen kommen können,
+Um zu einer Beschreibung mit Hilfe von Matrizen zu kommen,
wird eine exakte Definition benötigt.
Dabei werden sich einige Feinheiten zeigen, die für Anwendungen wichtig
sind und sich in Unterschieden in der Definition der zugehörigen Matrix
@@ -29,7 +29,7 @@ auch {\em Vertices} genannt.
\index{Knoten}%
\index{Vertex}%
Die Unterschiede zeigen sich in der Art und Weise, wie die Knoten
-mit sogenannten die Kanten
+mit sogenannten Kanten
\index{Kante}%
verbunden werden.
Bei einen ungerichteten Graphen sind die beiden Endpunkte einer Kante
@@ -63,9 +63,10 @@ durch die Widerstände ab.
Will man Spannungen und Ströme in einem solchen Netzwerk berechnen,
ist auch das Fehlen von Schleifen, die von $a$ zu $a$ führen, kein
Verlust.
-Die Endpunkte solcher Widerstände wären immer auf gleichem Potential,
-es würde daher kein Strom fliessen, sie haben daher keinen Einfluss auf
-das Verhalten des Netzwerkes und können weggelassen werden.
+Die Endpunkte solcher Widerstände wären immer auf dem gleichen Potential.
+Folglich würde kein Strom fliessen und sie hätten keinen Einfluss auf
+das Verhalten des Netzwerkes.
+Sie können einfach weggelassen werden.
\subsubsection{Gerichtete Graphen}
In vielen Anwendungen sind die Endpunkte einer Kante nicht austauschbar.
@@ -98,7 +99,7 @@ In einem gerichteten Graphen gehört also zu jeder Kante auch eine Richtung
und die Unterscheidung von Anfangs- und Endpunkt einer Kante ist sinnvoll
geworden.
Ausderdem ist eine Kante $(a,a)$ wohldefiniert, also eine Kante, die vom
-Knoten $a$ wieder zu $a$ zurückführen.
+Knoten $a$ wieder zu $a$ zurückführt.
Man kann einen ungerichteten Graphen in einen gerichteten Graphen
verwandeln, indem wir jede Kante $\{a,b\}$ durch zwei Kanten
@@ -115,11 +116,11 @@ E'
\{a,e\}\in E
\}.
\end{equation*}
-Eine umgekehrte Zuordnung eines ungerichteten Graphen zu einem gerichteten
-Graphen ist nicht möglich, da eine ``Schleife'' $(a,a)$ nicht in Kante
+Eine umgekehrte Zuordnung eines gerichteten zu einem ungerichteten
+Graphen ist nicht möglich, da eine ``Schleife'' $(a,a)$ nicht in eine Kante
des ungerichteten Graphen abgebildet werden kann.
-In einem gerichteten Graphen kann man sinnvoll von gerichteten Pfad
+In einem gerichteten Graphen kann man sinnvoll von gerichteten Pfaden
sprechen.
\index{Pfad}%
Ein {\em Pfad} $\gamma$ in einem gerichteten Graphen $(V,E)$ ist eine Folge
@@ -129,14 +130,53 @@ Dies bedeutet, dass der Endpunkt jeder Kante mit dem Anfangspunkt der
nachfolgenden Kante übereinstimmt.
Die {\em Länge} des Pfades $\gamma=(k_1,\dots,k_r)$ ist $|\gamma|=r$.
-Eine naheliegende Beschreibung eines gerichteten Graphen mit Hilfe einer
+\subsubsection{Adjazenzmatrix}
+\begin{figure}
+\centering
+\includegraphics{chapters/70-graphen/images/adjazenzu.pdf}
+\caption{Adjazenz-, Inzidenz- und Gradmatrix eines ungerichteten
+Graphen mit $5$ Knoten und $7$ Kanten.
+\label{buch:graphen:fig:adjazenzu}}
+\end{figure}
+Eine naheliegende Beschreibung eines Graphen mit Hilfe einer
Matrix kann man wie folgt erhalten.
Zunächst werden die Knoten aus der Menge $V$ durch die Zahlen
$1,\dots,n$ mit $n=|V|$ ersetzt.
Diese Zahlen werden dann als Zeilen- uns Spaltenindizes interpretiert.
-Die zum Graphen gehörige Matrix enthält die Einträge
+Die zum Graphen gehörige sogenannte {\em Adjazenzmatrix} $A(G)$
+enthält die Einträge
+\begin{equation}
+a_{ij}
+=
+\begin{cases}
+1&\qquad \{j,i\} \in E\\
+0&\qquad \text{sonst.}
+\end{cases}
+\label{buch:graphen:eqn:linkmatrix}
+\end{equation}
+Die Matrix hat also genau dann einen von Null verschiedenen Eintrag
+in Zeile $i$ und Spalte $j$, wenn die beiden Knoten $i$ und $j$
+im Graphen verbunden sind.
+Die Adjazenzmatrix eines ungerichteten Graphen ist immer symmetrisch.
+Ein Beispiel ist in Abbildung~\ref{buch:graphen:fig:adjazenzu}
+dargestellt.
+
+\begin{figure}
+\centering
+\includegraphics{chapters/70-graphen/images/adjazenzd.pdf}
+\caption{Adjazenz-, Inzidenz- und Gradmatrix eines gerichteten
+Graphen mit $5$ Knoten und $7$ Kanten.
+\label{buch:graphen:fig:adjazenzd}}
+\end{figure}
+Die Adjazenzmatrix kann auch für einen gerichteten Graphen definiert
+werden wie dies in in Abbildung~\ref{buch:graphen:fig:adjazenzu}
+illustriert ist.
+Ihre Einträge sind in diesem Fall definiert mit Hilfe der
+gerichteten Kanten als
\begin{equation}
-g_{ij}
+A(G)_{ij}
+=
+a_{ij}
=
\begin{cases}
1&\qquad (j,i) \in E\\
@@ -144,76 +184,72 @@ g_{ij}
\end{cases}
\label{buch:graphen:eqn:linkmatrix}
\end{equation}
-Die Matrix $G$ hat also genau dann einen nicht verschwindenden
+Die Matrix $A(G)$ hat also genau dann einen nicht verschwindenden
Matrixeintrag in Zeile $i$ und Spalte $j$, wenn es eine Verbindung
von Knoten $j$ zu Knoten $i$ gibt.
+
% XXX Abbildung Graph und Verbindungs-Matrix
-Die Beschreibung des Graphen mit der Matrix $G$ nach
+
+\subsubsection{Adjazenzmatrix und die Anzahl der Pfade}
+Die Beschreibung des Graphen mit der Adjazenzmatrix $A=A(G)$ nach
\eqref{buch:graphen:eqn:linkmatrix} ermöglicht bereits, eine interessante
Aufgabe zu lösen.
\begin{satz}
\label{buch:graphen:pfade-der-laenge-n}
-Der gerichtete Graph $([n],E)$ werde beschrieben durch die Matrix $G$.
-Dann gibt das Element in Zeile $j$ und Spalte $i$ von $G^n$ die Anzahl
+Der gerichtete Graph $G=([n],E)$ werde beschrieben durch die Adjazenzmatrix
+$A=A(G)$.
+Dann gibt das Element in Zeile $j$ und Spalte $i$ von $A^n$ die Anzahl
der Wege der Länge $n$ an, die von Knoten $i$ zu Knoten $j$ führen.
Insbesondere kann man die Definition~\eqref{buch:graphen:eqn:linkmatrix}
-formulieruen als in Zeile $j$ und Spalte $i$ der Matrix steht die Anzahl
+formulieren als: In Zeile $j$ und Spalte $i$ der Matrix steht die Anzahl
der Pfade der Länge $1$, die $i$ mit $j$ verbinden.
\end{satz}
\begin{proof}[Beweis]
-Es ist klar, dass $G^1$ die genannte Eigenschaft hat.
-Wir beweisen, dass $G^n$ Pfade der Länge $n$ zählt, mit Hilfe von
+Es ist klar, dass $A^1$ die genannte Eigenschaft hat.
+Wir beweisen, dass $A^n$ Pfade der Länge $n$ zählt, mit Hilfe von
vollständiger Induktion.
-Zur Unterscheidung schreiben wir $G^{(n)}$ für die Matrix, die in Zeile
+Zur Unterscheidung schreiben wir $A^{(n)}$ für die Matrix, die in Zeile
$j$ und Spalte $i$ die Anzahl der Pfade der Länge $n$ von $i$ nach $j$
enhält.
-Die zugehörigen Matrixelemente schreiben wir $g_{ji}^{n}$ bzw.~$g_{ji}^{(n)}$.
-Wir haben also zu zeigen, dass $G^n = G^{(n)}$.
+Die zugehörigen Matrixelemente schreiben wir $a_{ji}^{n}$ bzw.~$a_{ji}^{(n)}$.
+Wir haben also zu zeigen, dass $A^n = A^{(n)}$.
Wir nehmen daher an, dass bereits bewiesen ist, dass das Element in Zeile
-$j$ und Spalte $i$ von $G^{n-1}$ die Anzahl der Pfade der Länge $n-1$
-zählt, dass also $G^{n-1}=G^{(n-1)}$.
+$j$ und Spalte $i$ von $A^{n-1}$ die Anzahl der Pfade der Länge $n-1$
+zählt, dass also $A^{n-1}=A^{(n-1)}$.
Dies ist die Induktionsannahme.
Wir bilden jetzt alle Pfade der Länge $n$ von $i$ nach $k$.
Ein Pfad der Länge besteht aus einem Pfad der Länge $n-1$, der von $i$ zu
einem beliebigen Knoten $j$ führt, gefolgt von einer einzelnen Kante,
die von $j$ nach $k$ führt.
-Ob es eine solche Kante gibt, zeigt das Matrixelement $g_{kj}$ an.
-Das Element in Zeile $j$ und Spalte $i$ der Matrix $G^{(n-1)}$ gibt
+Ob es eine solche Kante gibt, zeigt das Matrixelement $a_{kj}$ an.
+Das Element in Zeile $j$ und Spalte $i$ der Matrix $A^{(n-1)}$ gibt
die Anzahl der Wege von $i$ nach $j$ an.
-Es gibt also $g_{kj}\cdot g_{ji}^{(n-1)}$ Wege der Länge $n$, die von $i$
+Es gibt also $a_{kj}\cdot a_{ji}^{(n-1)}$ Wege der Länge $n$, die von $i$
nach $k$ führen, aber als zweitletzten Knoten über den Knoten $j$ führen.
Die Gesamtzahl der Wege der Länge $n$ von $i$ nach $k$ ist daher
\[
-g_{ki}^{(n)}
+a_{ki}^{(n)}
=
-\sum_{j=1}^n g_{kj} g_{ji}^{(n-1)}.
+\sum_{j=1}^n a_{kj} a_{ji}^{(n-1)}.
\]
In Matrixschreibweise bedeutet dies
\[
-G^{(n)}
+A^{(n)}
=
-G\cdot G^{(n-1)}
+A\cdot A^{(n-1)}
=
-G\cdot G^{n-1}
+A\cdot A^{n-1}
=
-G^n.
+A^n.
\]
Beim zweiten Gleichheitszeichen haben wir die Induktionsannahme
verwendet.
\end{proof}
-Die Definition~\eqref{buch:graphen:eqn:linkmatrix} der Matrix, die den
-Graphen beschreibt, lässt sich natürlich auch auf einen ungerichteten
-Graphen verallgemeinern.
-Die entstehende Matrix hat dann aber die zusätzlichen Eigenschaften, dass
-alle Diagonalelemente $0$ sind und dass die Matrix symmetrisch ist.
-Auch im Fall eines ungerichteten Graphen kann die Matrix dazu verwendet
-werden, die Anzahl der Pfade zu zählen.
-
Der Satz~\ref{buch:graphen:pfade-der-laenge-n} ermöglicht auch, einen
Algorithmus für den sogenannten Durchmesser eines Graphen zu formulieren.
@@ -225,40 +261,21 @@ es zwischen zwei beliebigen Knoten einen Pfad der Länge $\le d$ gibt.
\end{definition}
Der Durchmesser $d$ eines Graphen ist der kleinste Exponent derart,
-dass $G^d$ keine ausserdiagonalen Einträge $0$ hat.
-Die Diagonalelemente von $G^n$ zählen die Anzahl der geschlossenen Pfade
+dass $A^d$ keine ausserdiagonalen Einträge $0$ hat.
+Die Diagonalelemente von $A^n$ zählen die Anzahl der geschlossenen Pfade
der Länge $n$, die durch einen Knoten führen.
Diese können für den Durchmesser ignoriert werden.
-Man kann also Potenzen $G^n$ berechnen bis keine Einträge $0$ mehr vorhanden
+Man kann also Potenzen $A^n$ berechnen bis keine Einträge $0$ mehr vorhanden
sind.
\begin{beispiel}
\begin{figure}
\centering
-\begin{tikzpicture}[>=latex,thick]
-\def\l{0.25}
-\def\r{1}
-\def\punkt#1{({\r*sin(((#1)-1)*72)},{\r*cos(((#1)-1)*72)})}
-\def\R{2}
-\def\Punkt#1{({\R*sin(((#1)-6)*72)},{\R*cos(((#1)-6)*72)})}
-\draw \Punkt{6} -- \Punkt{7} -- \Punkt{8} -- \Punkt{9} -- \Punkt{10} -- cycle;
-\draw \punkt{1} -- \punkt{3} -- \punkt{5} -- \punkt{2} -- \punkt{4} -- cycle;
-\foreach \k in {1,...,5}{
- \draw \punkt{\k} -- \Punkt{(\k+5)};
- \fill[color=white] \punkt{\k} circle[radius=\l];
- \node at \punkt{\k} {$\k$};
- \draw \punkt{\k} circle[radius=\l];
-}
-\foreach \k in {6,...,10}{
- \fill[color=white] \Punkt{\k} circle[radius=\l];
- \node at \Punkt{\k} {$\k$};
- \draw \Punkt{\k} circle[radius=\l];
-}
-\end{tikzpicture}
+\includegraphics{chapters/70-graphen/images/peterson.pdf}
\caption{Peterson-Graph mit zehn Knoten.
\label{buch:figure:peterson}}
\end{figure}
-Der Peterson-Graph hat die Matrix
+Der Peterson-Graph hat die Adjazenzmatrix
\[
G
=
@@ -325,24 +342,131 @@ Dies ist, was eine Beschriftung einer Kante bewerkstelligt.
Eine Beschriftung mit Elementen der Menge $L$
eines gerichteten oder ungerichteten Graphen $G=(V,E)$
ist eine Abbildung $l\colon E\to L$.
+\index{Beschriftung}%
\end{definition}
-\subsection{Die Adjazenz-Matrix und Laplace-Matrix
+\subsection{Inzidenzmatrix}
+Die Adjazenzmatrix kann zusätzliche Information, die möglicherweise
+mit den Kanten verbunden ist, nicht mehr darstellen.
+Dies tritt zum Beispiel in der Informatik bei der Beschreibung
+endlicher Automaten auf, wo zu jeder gerichteten Kante auch noch
+Buchstaben gehören, für die der Übergang entlang dieser Kante
+möglich ist.
+
+Die {\em Inzidenzmatrix} löst dieses Problem.
+\index{Inzidenzmatrix}%
+Dazu werden zunächst die Kanten numeriert $1,\dots,m$
+numeriert.
+Die Matrixeinträge
+\[
+a_{ij} = \begin{cases}
+1\qquad&\text{Knoten $i$ ist ein Endpunkt von Kante $j$}
+\\
+0\qquad&\text{sonst}
+\end{cases}
+\]
+stellen die Beziehung zwischen Kanten und Knoten her.
+
+\subsubsection{Beschriftete Graphen}
+Die Inzidenzmatrix kann auch einen erweiterten Graphenbegriff abbilden,
+in dem zwischen zwei Kanten mehrere Verbindungen möglich sind.
+Graphen mit beschrifteten Kanten gehören dazu.
+
+\begin{definition}
+Ein gerichteter Graph mit beschrifteten Kanten ist eine Menge $V$ von
+Knoten und eine Menge von beschrifteten Kanten der Form
+\[
+E \{ (a,b,l)\in V^2\times L\;|\; \text{Eine Kante mit Beschriftung $l$ führt von $a$ nach $b$}\}.
+\]
+Die Menge $L$ enthält die möglichen Beschriftungen der Kanten.
+\end{definition}
+
+Für einen gerichteten Graphen wird in der Inzidenzmatrix für
+den Anfangspunkt einer Kante $-1$ eingetragen und für den
+Endpunkt $+1$.
+% XXX Beispiel
+
+\subsubsection{Inzidenzmatrix und Adjazenzmatrix}
+Sei $B(G)$ die Inzidenzmatrix eines Graphen $G$.
+Die Spalten von $B(G)$ sind mit den Kanten des Graphen indiziert.
+Die Matrix $B(G)B(G)^t$ ist eine quadratische Matrix, deren
+Zeilen und Spalten mit den Knoten des Graphen indiziert sind.
+In dieser Matrix geht die Informatione über die individuellen
+Kanten wieder verloren.
+Sie hat für $i\ne j$ die Einträge
+\begin{align*}
+(B(G)B(G)^t)_{ij}
+&=
+\sum_{\text{$k$ Kante}} b_{ik}b_{jk}
+\\
+&=\text{Anzahl der Kanten, die $i$ mit $j$ verbinden}
+\\
+&=a_{ij}
+\end{align*}
+Die Adjazenzmatrix eines Graphen lässt sich also aus der
+Inzidenzmatrix berechnen.
+
+\subsubsection{Gradmatrix}
+\index{Gradmatrix}%
+Die Diagonale von $B(G)B(G)^t$ enthält die Werte
+\begin{align*}
+(B(G)B(G)^t)_{ii}
+&=
+\sum_{\text{$k$ Kante}} b_{ik}^2
+=
+\text{Anzahl Kanten, die im Knoten $i$ enden}
+\end{align*}
+Der {\em Grad} eines Knoten eines Graphen ist die Anzahl der
+\index{Grad eines Knotens}%
+Kanten, die in diesem Knoten enden.
+Die Diagonalmatrix die aus den Graden der Knoten besteht, heisst die
+Gradmatrix $D(G)$ des Graphen.
+Es gilt daher $B(G)B(G)^t = A(G) + D(G)$.
+
+\subsubsection{Gerichtete Graphen}
+Für einen gerichteten Graphen ändert sich an der Diagonalen
+der Matrix $B(G)B(G)^t$ nichts.
+Da es in einem gerichteten Graphen nur eine einzige Kante $k$ gibt, die zwei
+Knoten $i$ und $j$ verbinden kann, muss das zugehörige
+Ausserdiagonalelement
+\[
+a_{ij}
+=b_{ik}b_{jk}
+=
+-1
+\]
+sein.
+Für einen gerichteten Graphen sind daher alle Ausserdiagonalelemente
+negativ und es gilt $B(G)B(G)^t = D(G)-A(G)$.
+
+\subsubsection{Anwendung: Netlist}
+Eine natürliche Anwendung eines gerichteten und beschrifteten Graphen
+ist eine eletronische Schaltung.
+Die Knoten des Graphen sind untereinander verbundene Leiter, sie werden
+auch {\em nets} genannt.
+Die beschrifteten Kanten sind die elektronischen Bauteile, die solche
+Nets miteinander verbinden.
+Die Inzidenzmatrix beschreibt, welche Anschlüsse eines Bauteils mit
+welchen Nets verbunden werden müssen.
+Die Informationen in der Inzidenzmatrix werden also in einer
+Applikation zum Schaltungsentwurf in ganz natürlicher Weise erhoben.
+
+\subsection{Die Adjazenzmatrix und Laplace-Matrix
\label{subsection:adjazenz-und-laplace-matrix}}
Die Beschreibung mit der Matrix~\eqref{buch:graphen:eqn:linkmatrix}
``vergisst'' den ``Namen'' der Kante, die eine Verbindung zwischen zwei
Knoten herstellt.
Damit ist sie keine geeignete Grundlage, um beschriftete Graphen einer
Matrixbeschreibung zuzuführen.
-Eine solche muss eine Matrix verwenden, nicht nur das Vorhandensein einer
+Eine solche muss eine Matrix verwenden, die nicht nur das Vorhandensein einer
Verbindung wiedergibt, sondern ausdrückt, welche Kante welche beiden
Knoten miteinander verbindet.
-Dies führt auf die sogenannte Ajazenz-Matrix.
+Dies führt zur sogenannten Adjazenzmatrix.
\begin{definition}
\label{buch:def:adjazenz-matrix}
Ist $G=(V,E)$ ein gerichteter Graph mit $n=|G|$ Vertizes und $m=|E|$ Kanten,
-dann ist die zugehörige {\em Adjazenz-Matrix} $A=A(G)$ eine $n\times m$-Matrix.
+dann ist die zugehörige {\em Adjazenzmatrix} $A=A(G)$ eine $n\times m$-Matrix.
In der Spalte $k$ wird der Anfangspunkt der Kante $k$ mit $-1$, der Endpunkt
mit $+1$ angezeigt, die übrigen Einträge sind $0$.
$A$ hat also die Matrixelemente
@@ -358,13 +482,13 @@ a_{ik}
\end{equation}
\end{definition}
-Der wesentliche Unterschied dieser Definition von der Matrix $H$
+Der wesentliche Unterschied dieser Definition von der Matrix $G$
liegt in der Bedeutung der Einträge.
-Für $H$ drückt ein nicht verschwindendes Matrixelement das Vorhandensein
+Für $G$ drückt ein nicht verschwindendes Matrixelement das Vorhandensein
einer Kante aus, in $A$ ist es die Tatsache, dass in diesem Knoten
-eine Kante endet.
+eine Kante beginnt oder endet.
-Es ist natürlich möglich, aus der Adjazenz-Matrix auch die Link-Matrix
+Es ist natürlich möglich, aus der Adjazenzmatrix auch die Link-Matrix
zu rekonstruieren.
Dazu muss für jedes Paar $(j,i)$ von Knoten festgestellt werden,
ob die Adjazenzmatrix eine entsprechende Verbindung enthält, also ob der
diff --git a/buch/chapters/70-graphen/chapter.tex b/buch/chapters/70-graphen/chapter.tex
index ae1bb9c..b6e02c9 100644
--- a/buch/chapters/70-graphen/chapter.tex
+++ b/buch/chapters/70-graphen/chapter.tex
@@ -14,18 +14,19 @@ aber auch viele andere Datenstrukturen.
\index{Graph}%
Die Knoten können einzelne Objekte beschreiben, die Kanten beschreiben
dann Beziehungen zwischen diesen Objekten.
-Graphen haben zwar nur eine eindimensionale Geometrie, sie können aber als
-erste Approximation auch dreidimensionaler Objekte dienen.
+Graphen haben zwar nur eine eindimensionale Geometrie, sie können aber auch als
+erste Approximation dreidimensionaler Objekte dienen.
Die Bedeutung des Graphenkozeptes wird unterstrichen von der Vielzahl
-von Fragestellungen, die über Graphen gestellt worden sind und der
+von Fragestellungen, die über Graphen gestellt, und der
zugehöriten Lösungsalgorithmen, die zu ihrer Beantwortung gefunden
worden sind.
Die Komplexitätstheorie hat sogar gezeigt, dass sich jedes diskrete
Problem in ein Graphenproblem umformulieren lässt.
\index{Komplexitätstheorie}%
+
Das Problem, einen Stundenplan zu finden, der sicherstellt, dass
-alle Studierenden an jedes Fach besuchen können, für die sie sich
+alle Studierenden jedes Fach besuchen können, für die sie sich
angemeldet haben, lässt sich zum Beispiel wie folgt als ein
Graphenproblem formulieren.
Die Fächer betrachten wir als Knoten des Graphen.
diff --git a/buch/chapters/70-graphen/images/Makefile b/buch/chapters/70-graphen/images/Makefile
new file mode 100644
index 0000000..b42cbae
--- /dev/null
+++ b/buch/chapters/70-graphen/images/Makefile
@@ -0,0 +1,19 @@
+#
+# Makefile -- Bilder für Kapitel Graphen
+#
+# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+#
+all: peterson.pdf adjazenzu.pdf adjazenzd.pdf kreis.pdf
+
+peterson.pdf: peterson.tex
+ pdflatex peterson.tex
+
+adjazenzu.pdf: adjazenzu.tex
+ pdflatex adjazenzu.tex
+
+adjazenzd.pdf: adjazenzd.tex
+ pdflatex adjazenzd.tex
+
+kreis.pdf: kreis.tex
+ pdflatex kreis.tex
+
diff --git a/buch/chapters/70-graphen/images/adjazenzd.pdf b/buch/chapters/70-graphen/images/adjazenzd.pdf
new file mode 100644
index 0000000..dc3dd8f
--- /dev/null
+++ b/buch/chapters/70-graphen/images/adjazenzd.pdf
Binary files differ
diff --git a/buch/chapters/70-graphen/images/adjazenzd.tex b/buch/chapters/70-graphen/images/adjazenzd.tex
new file mode 100644
index 0000000..5cef18e
--- /dev/null
+++ b/buch/chapters/70-graphen/images/adjazenzd.tex
@@ -0,0 +1,100 @@
+%
+% adjazenzd.tex -- Adjazenz-Matrix für einen gerichten Graphen
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{mathtools}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math,calc}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\def\r{1.8}
+
+\begin{scope}
+\coordinate (A) at ({\r*cos(0*72)},{\r*sin(0*72)});
+\coordinate (B) at ({\r*cos(1*72)},{\r*sin(1*72)});
+\coordinate (C) at ({\r*cos(2*72)},{\r*sin(2*72)});
+\coordinate (D) at ({\r*cos(3*72)},{\r*sin(3*72)});
+\coordinate (E) at ({\r*cos(4*72)},{\r*sin(4*72)});
+
+\draw[->,shorten >= 0.2cm,shorten <= 0.2cm] (A) -- (C);
+\draw[color=white,line width=5pt] (B) -- (D);
+\draw[->,shorten >= 0.2cm,shorten <= 0.2cm] (B) -- (D);
+
+\draw[->,shorten >= 0.2cm,shorten <= 0.2cm] (A) -- (B);
+\draw[->,shorten >= 0.2cm,shorten <= 0.2cm] (B) -- (C);
+\draw[->,shorten >= 0.2cm,shorten <= 0.2cm] (C) -- (D);
+\draw[->,shorten >= 0.2cm,shorten <= 0.2cm] (D) -- (E);
+\draw[->,shorten >= 0.2cm,shorten <= 0.2cm] (E) -- (A);
+
+\draw (A) circle[radius=0.2];
+\draw (B) circle[radius=0.2];
+\draw (C) circle[radius=0.2];
+\draw (D) circle[radius=0.2];
+\draw (E) circle[radius=0.2];
+
+\node at (A) {$1$};
+\node at (B) {$2$};
+\node at (C) {$3$};
+\node at (D) {$4$};
+\node at (E) {$5$};
+\node at (0,0) {$G$};
+
+\node at ($0.5*(A)+0.5*(B)-(0.1,0.1)$) [above right] {$\scriptstyle 1$};
+\node at ($0.5*(B)+0.5*(C)+(0.05,-0.07)$) [above left] {$\scriptstyle 2$};
+\node at ($0.5*(C)+0.5*(D)+(0.05,0)$) [left] {$\scriptstyle 3$};
+\node at ($0.5*(D)+0.5*(E)$) [below] {$\scriptstyle 4$};
+\node at ($0.5*(E)+0.5*(A)+(-0.1,0.1)$) [below right] {$\scriptstyle 5$};
+\node at ($0.6*(A)+0.4*(C)$) [above] {$\scriptstyle 6$};
+\node at ($0.4*(B)+0.6*(D)$) [left] {$\scriptstyle 7$};
+
+
+\end{scope}
+
+\begin{scope}[xshift=3cm,yshift=-1.1cm]
+\node at (0,0) [right] {$\displaystyle
+B(G)
+=
+\begin{pmatrix*}[r]
+-1& 0& 0& 0& 1&-1& 0\\
+ 1&-1& 0& 0& 0& 0&-1\\
+ 0& 1&-1& 0& 0& 1& 0\\
+ 0& 0& 1&-1& 0& 0& 1\\
+ 0& 0& 0& 1&-1& 0& 0
+\end{pmatrix*}$};
+\end{scope}
+
+\begin{scope}[xshift=3cm,yshift=1.1cm]
+\node at (0,0) [right] {$\displaystyle
+A(G)
+=
+\begin{pmatrix*}[r]
+ 0& 1& 1& 0& 1\\
+ 1& 0& 1& 1& 0\\
+ 1& 1& 0& 1& 0\\
+ 0& 1& 1& 0& 1\\
+ 1& 0& 0& 1& 0
+\end{pmatrix*},
+\quad
+D(G)
+=
+\begin{pmatrix*}[r]
+3&0&0&0&0\\
+0&3&0&0&0\\
+0&0&3&0&0\\
+0&0&0&3&0\\
+0&0&0&0&1
+\end{pmatrix*}
+$};
+\end{scope}
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/70-graphen/images/adjazenzu.pdf b/buch/chapters/70-graphen/images/adjazenzu.pdf
new file mode 100644
index 0000000..d3f255e
--- /dev/null
+++ b/buch/chapters/70-graphen/images/adjazenzu.pdf
Binary files differ
diff --git a/buch/chapters/70-graphen/images/adjazenzu.tex b/buch/chapters/70-graphen/images/adjazenzu.tex
new file mode 100644
index 0000000..b6d129d
--- /dev/null
+++ b/buch/chapters/70-graphen/images/adjazenzu.tex
@@ -0,0 +1,98 @@
+%
+% adjazenzu.tex -- Adjazenz-Matrix für einen ungerichten Graphen
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math,calc}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\def\r{1.8}
+
+\begin{scope}
+\coordinate (A) at ({\r*cos(0*72)},{\r*sin(0*72)});
+\coordinate (B) at ({\r*cos(1*72)},{\r*sin(1*72)});
+\coordinate (C) at ({\r*cos(2*72)},{\r*sin(2*72)});
+\coordinate (D) at ({\r*cos(3*72)},{\r*sin(3*72)});
+\coordinate (E) at ({\r*cos(4*72)},{\r*sin(4*72)});
+
+\draw[shorten >= 0.2cm,shorten <= 0.2cm] (A) -- (C);
+\draw[color=white,line width=5pt] (B) -- (D);
+\draw[shorten >= 0.2cm,shorten <= 0.2cm] (B) -- (D);
+
+\draw[shorten >= 0.2cm,shorten <= 0.2cm] (A) -- (B);
+\draw[shorten >= 0.2cm,shorten <= 0.2cm] (B) -- (C);
+\draw[shorten >= 0.2cm,shorten <= 0.2cm] (C) -- (D);
+\draw[shorten >= 0.2cm,shorten <= 0.2cm] (D) -- (E);
+\draw[shorten >= 0.2cm,shorten <= 0.2cm] (E) -- (A);
+
+\draw (A) circle[radius=0.2];
+\draw (B) circle[radius=0.2];
+\draw (C) circle[radius=0.2];
+\draw (D) circle[radius=0.2];
+\draw (E) circle[radius=0.2];
+
+\node at (A) {$1$};
+\node at (B) {$2$};
+\node at (C) {$3$};
+\node at (D) {$4$};
+\node at (E) {$5$};
+\node at (0,0) {$G$};
+
+\node at ($0.5*(A)+0.5*(B)-(0.1,0.1)$) [above right] {$\scriptstyle 1$};
+\node at ($0.5*(B)+0.5*(C)+(0.05,-0.07)$) [above left] {$\scriptstyle 2$};
+\node at ($0.5*(C)+0.5*(D)+(0.05,0)$) [left] {$\scriptstyle 3$};
+\node at ($0.5*(D)+0.5*(E)$) [below] {$\scriptstyle 4$};
+\node at ($0.5*(E)+0.5*(A)+(-0.1,0.1)$) [below right] {$\scriptstyle 5$};
+\node at ($0.6*(A)+0.4*(C)$) [above] {$\scriptstyle 6$};
+\node at ($0.4*(B)+0.6*(D)$) [left] {$\scriptstyle 7$};
+
+\end{scope}
+
+\begin{scope}[xshift=3cm,yshift=-1.1cm]
+\node at (0,0) [right] {$\displaystyle
+B(G)
+=
+\begin{pmatrix}
+1&0&0&0&1&0&0\\
+1&1&0&0&0&1&0\\
+0&1&1&0&0&0&1\\
+0&0&1&1&0&1&0\\
+0&0&0&1&1&0&1
+\end{pmatrix}$};
+\end{scope}
+
+\begin{scope}[xshift=3cm,yshift=1.1cm]
+\node at (0,0) [right] {$\displaystyle
+A(G)
+=
+\begin{pmatrix}
+0&1&1&0&1\\
+1&0&1&1&0\\
+1&1&0&1&0\\
+0&1&1&0&1\\
+1&0&0&1&0
+\end{pmatrix},
+\quad
+D(G)
+=
+\begin{pmatrix}
+3&0&0&0&0\\
+0&3&0&0&0\\
+0&0&3&0&0\\
+0&0&0&3&0\\
+0&0&0&0&2
+\end{pmatrix}
+$};
+\end{scope}
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/70-graphen/images/kreis.pdf b/buch/chapters/70-graphen/images/kreis.pdf
new file mode 100644
index 0000000..f7ed37a
--- /dev/null
+++ b/buch/chapters/70-graphen/images/kreis.pdf
Binary files differ
diff --git a/buch/chapters/70-graphen/images/kreis.tex b/buch/chapters/70-graphen/images/kreis.tex
new file mode 100644
index 0000000..a926839
--- /dev/null
+++ b/buch/chapters/70-graphen/images/kreis.tex
@@ -0,0 +1,47 @@
+%
+% tikztemplate.tex -- template for standalon tikz images
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{mathtools}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\def\r{3}
+
+\foreach \w in {0,20,...,340}{
+ \draw (\w:\r) circle[radius=0.2];
+ \draw[->,shorten >= 0.2cm,shorten <= 0.2cm] (\w:\r) -- ({\w+20}:\r);
+}
+
+\foreach \x in {1,...,15}{
+ \node at ({20*(\x-1)}:\r) {$\scriptstyle \x$};
+}
+\node at (340:\r) {$\scriptstyle n$};
+\node at (320:\r) {$\scriptstyle \dots$};
+\node at (300:\r) {$\scriptstyle \dots$};
+
+\begin{scope}[xshift=4cm]
+\node at (0,0) [right] {$\displaystyle
+L=\begin{pmatrix*}[r]
+ 2&-1& 0& 0&\dots& 0&-1\\
+-1& 2&-1& 0&\dots& 0& 0\\
+ 0&-1& 2&-1&\dots& 0& 0\\
+ 0& 0&-1& 2&\dots& 0& 0\\
+\vdots&\vdots&\vdots&\vdots&\ddots&\vdots&\vdots\\
+ 0& 0& 0& 0&\dots& 2&-1\\
+-1& 0& 0& 0&\dots&-1& 2
+\end{pmatrix*}$};
+\end{scope}
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/70-graphen/images/peterson.pdf b/buch/chapters/70-graphen/images/peterson.pdf
new file mode 100644
index 0000000..259d808
--- /dev/null
+++ b/buch/chapters/70-graphen/images/peterson.pdf
Binary files differ
diff --git a/buch/chapters/70-graphen/images/peterson.tex b/buch/chapters/70-graphen/images/peterson.tex
new file mode 100644
index 0000000..c0af98b
--- /dev/null
+++ b/buch/chapters/70-graphen/images/peterson.tex
@@ -0,0 +1,38 @@
+%
+% tikztemplate.tex -- template for standalon tikz images
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\def\l{0.25}
+\def\r{1}
+\def\punkt#1{({\r*sin(((#1)-1)*72)},{\r*cos(((#1)-1)*72)})}
+\def\R{2}
+\def\Punkt#1{({\R*sin(((#1)-6)*72)},{\R*cos(((#1)-6)*72)})}
+\draw \Punkt{6} -- \Punkt{7} -- \Punkt{8} -- \Punkt{9} -- \Punkt{10} -- cycle;
+\draw \punkt{1} -- \punkt{3} -- \punkt{5} -- \punkt{2} -- \punkt{4} -- cycle;
+\foreach \k in {1,...,5}{
+ \draw \punkt{\k} -- \Punkt{(\k+5)};
+ \fill[color=white] \punkt{\k} circle[radius=\l];
+ \node at \punkt{\k} {$\k$};
+ \draw \punkt{\k} circle[radius=\l];
+}
+\foreach \k in {6,...,10}{
+ \fill[color=white] \Punkt{\k} circle[radius=\l];
+ \node at \Punkt{\k} {$\k$};
+ \draw \Punkt{\k} circle[radius=\l];
+}
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/70-graphen/wavelets.tex b/buch/chapters/70-graphen/wavelets.tex
index 6a4876a..0739f14 100644
--- a/buch/chapters/70-graphen/wavelets.tex
+++ b/buch/chapters/70-graphen/wavelets.tex
@@ -6,3 +6,128 @@
\section{Wavelets auf Graphen
\label{buch:section:wavelets-auf-graphen}}
\rhead{Wavelets auf Graphen}
+Graphen werden oft verwendet um geometrische Objekte zu approximieren.
+Funktionen auf einem Graphen können dann Approximationen von physikalischen
+Grössen wie zum Beispiel der Temperatur auf dem geometrischen Objekt
+interpretiert werden.
+Verschiedene Basen für die Beschreibung solcher Funktionen sind im Laufe
+der Zeit verwendet worden, doch Wavelets auf einem Graphen sind eine
+neuere Idee, mit der man aus der Laplace-Matrix Basen gewinnen kann,
+die die Idee von langsam sich ausbreitenden Störungen besonders gut
+wiederzugeben in der Lage sind.
+
+In diesem Abschnitt werden erst Funktionen auf einem Graphen genauer
+definiert.
+In Abschnitt~\ref{buch:subsection:standardbasis-und-eigenbasis}
+wird die Eigenbasis mit dem Laplace-Operator konstruiert und mit
+der Standarbasis verglichen.
+Schliesslich werden in Abschnitt~\ref{buch:subsection:wavelet-basen}
+verschiedene Wavelet-Basen konstruiert.
+
+\subsection{Funktionen auf einem Graphen und die Laplace-Matrix}
+Sei $G$ ein Graph mit der Knotenmenge $V$.
+Eine Funktion $f$ auf einem Graphen ist eine Funktion $f\colon V\to\mathbb{R}$.
+Funktionen auf $G$ sind also Vektoren, die mit den Knoten $V$ indiziert
+sind.
+
+Es gibt auch ein Skalarprodukt für Funktionen auf dem Graphen.
+Sind $f$ und $g$ zwei Funktionen auf $G$, dann ist das Skalarprodukt
+definiert durch
+\[
+\langle f,g\rangle
+=
+\frac{1}{|V|}\sum_{v\in V} \overline{f}(v) g(v)
+\]
+Dies ist das bekannte Skalarprodukt der Vektoren mit Komponenten $f(v)$.
+
+\begin{figure}
+\centering
+\includegraphics{chapters/70-graphen/images/kreis.pdf}
+\caption{Beispiel Graph zur Illustration der verschiedenen Basen auf einem
+Graphen.
+\label{buch:graphen:fig:kreis}}
+\end{figure}
+\begin{beispiel}
+Wir illustrieren die im folgenden entwickelte Theorie an dem Beispielgraphen
+von Abbildung~\ref{buch:graphen:fig:kreis}.
+Besonders interessant sind die folgenden Funktionen:
+\[
+\left.
+\begin{aligned}
+s_m(k)
+&=
+\sin\frac{2\pi mk}{n}
+\\
+c_m(k)
+&=
+\cos\frac{2\pi mk}{n}
+\end{aligned}
+\;
+\right\}
+\quad
+\Rightarrow
+\quad
+e_m(k)
+=
+e^{2\pi imk/n}
+=
+c_m(k) + is_m(k).
+\]
+Das Skalarprodukt dieser Funktionen ist
+\[
+\langle e_m, e_{m'}\rangle
+=
+\frac1n
+\sum_{k=1}^n
+\overline{e^{2\pi i km/n}}
+e^{2\pi ikm'/n}
+=
+\frac1n
+\sum_{k=1}^n
+e^{\frac{2\pi i}{n}(m'-m)k}
+=
+\delta_{mm'}
+\]
+Die Funktionen bilden daher eine Orthonormalbasis des Raums der
+Funktionen auf $G$.
+Wegen $\overline{e_m} = e_{-m}$ folgt, dass für gerade $n$
+die Funktionen
+\[
+c_0, c_1,s_1,c_2,s_2,\dots c_{\frac{n}2-1},c_{\frac{n}2-1},c_{\frac{n}2}
+\]
+eine orthonormierte Basis.
+\end{beispiel}
+
+
+Die Laplace-Matrix kann mit der folgenden Definition zu einer linearen
+Abbildung auf Funktionen auf dem Graphen gemacht werden.
+Sei $f\colon V\to \mathbb{R}$ und $L$ die Laplace-Matrix mit
+Matrixelementen $l_{vv'}$ wobei $v,v'\in V$ ist.
+Dann definieren wir die Funktion $Lf$ durch
+\[
+(Lf)(v)
+=
+\sum_{v'\in V} l_{vv'}f(v').
+\]
+
+\subsection{Standardbasis und Eigenbasis
+\label{buch:subsection:standardbasis-und-eigenbasis}}
+Die einfachste Basis, aus der siche Funktionen auf dem Graphen linear
+kombinieren lassen, ist die Standardbasis.
+Sie hat für jeden Knoten $v$ des Graphen eine Basisfunktion mit den Werten
+\[
+e_v\colon V\to\mathbb R:v'\mapsto \begin{cases}
+1\qquad&v=v'\\
+0\qquad&\text{sonst.}
+\end{cases}
+\]
+
+
+\subsection{Wavelet-Basen
+\label{buch:subsection:wavelet-basen}}
+
+
+
+
+
+
diff --git a/buch/chapters/80-wahrscheinlichkeit/Makefile.inc b/buch/chapters/80-wahrscheinlichkeit/Makefile.inc
index 6546e01..6fd104c 100644
--- a/buch/chapters/80-wahrscheinlichkeit/Makefile.inc
+++ b/buch/chapters/80-wahrscheinlichkeit/Makefile.inc
@@ -7,5 +7,6 @@
CHAPTERFILES = $(CHAPTERFILES) \
chapters/80-wahrscheinlichkeit/google.tex \
chapters/80-wahrscheinlichkeit/markov.tex \
+ chapters/80-wahrscheinlichkeit/positiv.tex \
chapters/80-wahrscheinlichkeit/parrondo.tex \
chapters/80-wahrscheinlichkeit/chapter.tex
diff --git a/buch/chapters/80-wahrscheinlichkeit/chapter.tex b/buch/chapters/80-wahrscheinlichkeit/chapter.tex
index e9e7531..85b6d8c 100644
--- a/buch/chapters/80-wahrscheinlichkeit/chapter.tex
+++ b/buch/chapters/80-wahrscheinlichkeit/chapter.tex
@@ -33,4 +33,5 @@ dargestellt.
\input{chapters/80-wahrscheinlichkeit/google.tex}
\input{chapters/80-wahrscheinlichkeit/markov.tex}
+\input{chapters/80-wahrscheinlichkeit/positiv.tex}
\input{chapters/80-wahrscheinlichkeit/parrondo.tex}
diff --git a/buch/chapters/80-wahrscheinlichkeit/google.tex b/buch/chapters/80-wahrscheinlichkeit/google.tex
index bb5597d..ca78b3d 100644
--- a/buch/chapters/80-wahrscheinlichkeit/google.tex
+++ b/buch/chapters/80-wahrscheinlichkeit/google.tex
@@ -6,57 +6,6 @@
\section{Google-Matrix
\label{buch:section:google-matrix}}
\rhead{Google-Matrix}
-
-%
-% Ein Modell für Webseitenbesucher
-%
-\subsection{Ein Modell für Webseitenbesucher
-\label{buch:subsection:modell-fuer-webseitenbesucher}}
-\begin{figure}
-\centering
-\begin{tikzpicture}[>=latex,thick]
-\foreach \x in {0,3,6,9}{
- \foreach \y in {0,3}{
- \fill[color=white] ({\x},{\y}) circle[radius=0.3];
- \draw ({\x},{\y}) circle[radius=0.3];
- }
-}
-\node at (0,3) {$1$};
-\node at (0,0) {$2$};
-\node at (3,3) {$3$};
-\node at (3,0) {$4$};
-\node at (6,3) {$5$};
-\node at (6,0) {$6$};
-\node at (9,3) {$7$};
-\node at (9,0) {$8$};
-% 1
-\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (0,3) -- (3,3);
-\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (0,3) -- (0,0);
-% 2
-\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (0,0) to[out=-20,in=-160] (3,0);
-% 3
-\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (3,3) -- (6,3);
-\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (3,3) -- (0,0);
-% 4
-\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (3,0) -- (6,3);
-\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (3,0) -- (6,0);
-\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (3,0) to[out=160,in=20] (0,0);
-% 5
-\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (6,3) -- (9,3);
-\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (6,3) -- (9,0);
-\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (6,3) -- (6,0);
-% 6
-\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (6,0) to[out=20,in=160] (9,0);
-% 7
-\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (9,3) .. controls (7.5,4) .. (6,4) -- (3,4) .. controls (1.5,4) .. (0,3);
-\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (9,3) to[out=-110,in=110] (9,0);
-% 8
-\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (9,0) to[out=-160,in=-20] (6,0);
-\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (9,0) to[out=70,in=-70] (9,3);
-\end{tikzpicture}
-\caption{Modell-Internet als Beispiel für die Link-Matrix und die Google-Matrix.
-\label{buch:figure:modellinternet}}
-\end{figure}
Das Internet besteht aus einer grossen Zahl von Websites, etwa 400~Millionen
aktiven Websites, jede besteht aus vielen einzelnen Seiten.
Es ist daher angemessen von $N\approx 10^9$ verschiedenen Seiten auszugehen.
@@ -84,6 +33,18 @@ bedeutet aber auch, dass nach Synonymen oder alternative Formen eines
Wortes separat gesucht werden muss, was die Übersichtlichkeit wieder
zerstört.
+%
+% Ein Modell für Webseitenbesucher
+%
+\subsection{Ein Modell für Webseitenbesucher
+\label{buch:subsection:modell-fuer-webseitenbesucher}}
+\begin{figure}
+\centering
+\includegraphics{chapters/80-wahrscheinlichkeit/images/internet.pdf}
+\caption{Modell-Internet als Beispiel für die Link-Matrix und die Google-Matrix.
+\label{buch:figure:modellinternet}}
+\end{figure}
+
Das kombinierte Vorkommen von Wörtern oder Begriffen alleine kann also
nicht ausreichen, um die Seiten zum Beispiel einem Fachgebiet zuzuordnen.
Dazu muss eine externe Informationsquelle angezapft werden.
@@ -358,7 +319,7 @@ Da sich die Wahrscheinlichkeiten im Vektor $p$ zu $1$ summieren, gilt
\begin{pmatrix}
1&1&\dots&1
\end{pmatrix}
-}_{\displaystyle = u^t}
+}_{\displaystyle = U^t}
\begin{pmatrix}
P(S_1)\\
P(S_2)\\
@@ -369,12 +330,12 @@ P(S_N)
P(S_1)+P(S_2)+\dots+P(S_N)=1.
\]
Man erhält also die Wirkung der gewünschte Matrix $A$, indem man $p$
-erst mit dem Zeilenvektor $u^t$ und das Resultat mit $q$ multipliziert.
+erst mit dem Zeilenvektor $U^t$ und das Resultat mit $q$ multipliziert.
Es gilt daher
\[
-Ap = qu^tp
+Ap = qU^tp
\qquad\Rightarrow\qquad
-A=qu^t.
+A=qU^t.
\]
Ausmultipliziert ist dies die Matrix
\[
@@ -385,11 +346,11 @@ q_2&q_2&\dots&q_2\\
q_N&q_N&\dots&q_N
\end{pmatrix}.
\]
-Im Fall $q=\frac1Nu$ kann dies zu
+Im Fall $q=\frac1NU$ kann dies zu
\[
A
=
-\frac1N uu^t
+\frac1N UU^t
=
\frac1N
\begin{pmatrix}
@@ -401,22 +362,23 @@ A
\]
vereinfacht werden.
-\begin{definition}
+\begin{definition}[Google-Matrix]
Die Matrix
-\[
+\begin{equation}
G
=
\alpha H
+
\frac{1-\alpha}{N}
-uu^t
+UU^t
\qquad\text{oder}\qquad
G
=
\alpha H
+
-(1-\alpha)qu^t
-\]
+(1-\alpha)qU^t
+\label{buch:wahrscheinlichkeit:eqn:google-matrix}
+\end{equation}
heisst die
{\em Google-Matrix}.
\index{Google-Matrix}%
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/Makefile b/buch/chapters/80-wahrscheinlichkeit/images/Makefile
new file mode 100644
index 0000000..8d34217
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/Makefile
@@ -0,0 +1,79 @@
+#
+# Makefile
+#
+# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschulen
+#
+all: dreieck.pdf trenn.pdf vergleich.pdf vergleich.jpg \
+ positiv.pdf positiv.jpg diffusion.png diffusion.pdf \
+ konvex.pdf internet.pdf markov.pdf markov2.pdf markov3.pdf \
+ spielB.pdf spielBtilde.pdf
+
+# Visualisierung diffusion in einer primitiven Matrix
+diffusion.pdf: diffusion.tex diffusion.jpg
+ pdflatex diffusion.tex
+
+diffusion.png: diffusion.pov vektoren.inc
+ povray +A0.1 +W1920 +H1080 -Odiffusion.png diffusion.pov
+
+diffusion.jpg: diffusion.png
+ convert diffusion.png -density 300 -units PixelsPerInch diffusion.jpg
+
+vektoren.inc: diffusion.m
+ octave diffusion.m
+
+# Visualizierung positive Matrix
+positiv.pdf: positiv.tex positiv.jpg
+ pdflatex positiv.tex
+
+positiv.png: positiv.pov quadrant.inc
+ povray +A0.1 +W1920 +H1080 -Opositiv.png positiv.pov
+
+positiv.jpg: positiv.png
+ convert positiv.png -density 300 -units PixelsPerInch positiv.jpg
+
+quadrant.inc: positiv.m
+ octave positiv.m
+
+# Visualiziserung Vergleichstrick
+vergleich.png: vergleich.pov
+ povray +A0.1 +W1920 +H1080 -Overgleich.png vergleich.pov
+
+vergleich.jpg: vergleich.png Makefile
+ convert -extract 1110x1080+180+0 vergleich.png \
+ -density 300 -units PixelsPerInch vergleich.jpg
+
+vergleich.pdf: vergleich.tex vergleich.jpg
+ pdflatex vergleich.tex
+
+# Darstellung zum Trenntrick
+trenn.pdf: trenn.tex
+ pdflatex trenn.tex
+
+# Darstellung zur Dreiecksungleichung
+dreieck.pdf: dreieck.tex drei.inc
+ pdflatex dreieck.tex
+
+drei.inc: dreieck.m
+ octave dreieck.m
+
+# Konvex
+konvex.pdf: konvex.tex
+ pdflatex konvex.tex
+
+internet.pdf: internet.tex
+ pdflatex internet.tex
+
+markov.pdf: markov.tex
+ pdflatex markov.tex
+
+markov2.pdf: markov2.tex
+ pdflatex markov2.tex
+
+markov3.pdf: markov3.tex
+ pdflatex markov3.tex
+
+spielB.pdf: spielB.tex
+ pdflatex spielB.tex
+
+spielBtilde.pdf: spielBtilde.tex
+ pdflatex spielBtilde.tex
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/diffusion.jpg b/buch/chapters/80-wahrscheinlichkeit/images/diffusion.jpg
new file mode 100644
index 0000000..b79b07b
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/diffusion.jpg
Binary files differ
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/diffusion.m b/buch/chapters/80-wahrscheinlichkeit/images/diffusion.m
new file mode 100644
index 0000000..ad56fe5
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/diffusion.m
@@ -0,0 +1,33 @@
+#
+# diffusion.m
+#
+# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+#
+e1 = [ 1; 0; 0; 0; 0; 0 ];
+A = 0.8*eye(6) + 0.1*shift(eye(6),1) + 0.1*shift(eye(6),-1);
+A(1,1) = 0.9;
+A(6,6) = 0.9;
+A(1,6) = 0;
+A(6,1) = 0;
+
+N = 30;
+b = zeros(6,N);
+b(:,1) = e1;
+for i = (2:N)
+ b(:,i) = A * b(:,i-1);
+end
+b
+
+f = fopen("vektoren.inc", "w");
+for i = (1:N)
+ fprintf(f, "vektor(%d,%.4f,%.4f,%.4f,%.4f,%.4f,%.4f)\n", i,
+ b(1,i), b(2,i), b(3,i), b(4,i), b(5,i), b(6,i))
+end
+fclose(f);
+
+A1=A
+A2=A*A
+A3=A*A2
+A4=A*A3
+A5=A*A4
+A6=A*A5
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/diffusion.pdf b/buch/chapters/80-wahrscheinlichkeit/images/diffusion.pdf
new file mode 100644
index 0000000..ac4c0ff
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/diffusion.pdf
Binary files differ
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/diffusion.png b/buch/chapters/80-wahrscheinlichkeit/images/diffusion.png
new file mode 100644
index 0000000..f4c6294
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/diffusion.png
Binary files differ
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/diffusion.pov b/buch/chapters/80-wahrscheinlichkeit/images/diffusion.pov
new file mode 100644
index 0000000..9b385da
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/diffusion.pov
@@ -0,0 +1,87 @@
+//
+// diffusion.pov
+//
+// (c) 2021 Prof Dr Andreas Müller, OST Ostscheizer Fachhochschule
+//
+#version 3.7;
+#include "colors.inc"
+
+global_settings {
+ assumed_gamma 1
+}
+
+#declare imagescale = 0.270;
+#declare N = 30;
+#declare vscale = 10;
+#declare r = 0.08;
+
+camera {
+ location <43, 20, -50>
+ look_at <N/2+2, vscale*0.49, 3>
+ right 16/9 * x * imagescale
+ up y * imagescale
+}
+
+light_source {
+ <-4, 20, -50> color White
+ area_light <1,0,0> <0,0,1>, 10, 10
+ adaptive 1
+ jitter
+}
+
+sky_sphere {
+ pigment {
+ color rgb<1,1,1>
+ }
+}
+
+#macro saeule(xx,yy,h)
+box { <xx+0.1,0,yy+0.1>, <xx+0.9,vscale*h,yy+0.9> }
+#end
+
+#macro vektor(xx,a,b,c,d,e,f)
+ saeule(xx,5,a)
+ saeule(xx,4,b)
+ saeule(xx,3,c)
+ saeule(xx,2,d)
+ saeule(xx,1,e)
+ saeule(xx,0,f)
+#end
+
+union {
+#include "vektoren.inc"
+ pigment {
+ color rgb<0.8,1,1>*0.6
+ }
+ finish {
+ specular 0.9
+ metallic
+ }
+}
+
+union {
+#declare xx = 1;
+#while (xx <= N+1)
+ cylinder { <xx, 0, 0>, <xx, 0, 6>, r }
+ #declare xx = xx + 1;
+#end
+#declare yy = 0;
+#while (yy <= 6)
+ cylinder { <1, 0, yy>, <N+1, 0, yy>, r }
+ #declare yy = yy + 1;
+#end
+ sphere { <1,0,0>, r }
+ sphere { <1,0,6>, r }
+ sphere { <N+1,0,0>, r }
+ sphere { <N+1,0,6>, r }
+ cylinder { <1,0,6>, <1,1.1*vscale,6>, r }
+ cylinder { <1,vscale-r/2,6>, <1,vscale+r/2,6>, 2*r }
+ cone { <1,1.1*vscale,6>, 2*r, <1,1.15*vscale,6>, 0 }
+ pigment {
+ color rgb<1,0.6,1>*0.6
+ }
+ finish {
+ specular 0.9
+ metallic
+ }
+}
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/diffusion.tex b/buch/chapters/80-wahrscheinlichkeit/images/diffusion.tex
new file mode 100644
index 0000000..ff58659
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/diffusion.tex
@@ -0,0 +1,46 @@
+%
+% diffusion.tex -- Diffusion unter der Wirkung der Matrix
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\node at (0,0) {\includegraphics[width=12cm]{diffusion.jpg}};
+
+\node at (-6.3,-1.2) [rotate=-10] {$k=6$};
+\node at (-5.15,-0.7) [rotate=-10] {$k=1$};
+
+\node at (5.8,-3.25) [rotate=-10] {$k=6$};
+\node at (6.3,-2.5) [rotate=-10] {$k=1$};
+
+\node at (-6.2,-1.7) [rotate=26] {$n=1$};
+\node at (4.8,-3.7) [rotate=53] {$n=30$};
+
+%\foreach \x in {-6,-5.9,...,6.01}{
+% \draw[line width=0.1pt] (\x,-3.5) -- (\x,3.5);
+%}
+%\foreach \x in {-6,...,6}{
+% \draw[line width=0.5pt] (\x,-3.5) -- (\x,3.5);
+% \node at (\x,-3.5) [below] {$\x$};
+%}
+%\foreach \y in {-3.5,-3.4,...,3.51}{
+% \draw[line width=0.1pt] (-6,\y) -- (6,\y);
+%}
+%\foreach \y in {-3,...,3}{
+% \draw[line width=0.5pt] (-6,\y) -- (6,\y);
+% \node at (-6,\y) [left] {$\y$};
+%}
+%\fill (0,0) circle[radius=0.05];
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/dreieck.m b/buch/chapters/80-wahrscheinlichkeit/images/dreieck.m
new file mode 100644
index 0000000..cc9661b
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/dreieck.m
@@ -0,0 +1,41 @@
+#
+# dreieck.m
+#
+# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+#
+w = 12
+N = 10
+
+rand("seed", 1);
+
+angles = 80 * rand(1,N)
+radii = 2 * rand(1,N) + 0.4
+angle = 20
+
+radii = radii * w / (cosd(angle) * sum(radii))
+radius = sum(radii)
+radius * cosd(angle)
+
+points = zeros(2,N);
+ray = zeros(2,N);
+
+p = [ 0; 0 ];
+for i = (1:N)
+ p = p + radii(1,i) * [ cosd(angles(1,i)); sind(angles(1,i)) ];
+ points(:, i) = p;
+ ray(:, i) = sum(radii(1,1:i)) * [ cosd(angle); sind(angle) ];
+end
+
+points
+
+ray
+
+fn = fopen("drei.inc", "w");
+for i = (1:N)
+ fprintf(fn, "\\coordinate (A%d) at (%.4f,%.4f);\n", i,
+ points(1,i), points(2,i));
+ fprintf(fn, "\\coordinate (B%d) at (%.4f,%.4f);\n", i,
+ ray(1,i), ray(2,i));
+end
+fprintf(fn, "\\def\\r{%.4f}\n", radius);
+fclose(fn);
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/dreieck.pdf b/buch/chapters/80-wahrscheinlichkeit/images/dreieck.pdf
new file mode 100644
index 0000000..0cca2e1
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/dreieck.pdf
Binary files differ
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/dreieck.tex b/buch/chapters/80-wahrscheinlichkeit/images/dreieck.tex
new file mode 100644
index 0000000..0935992
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/dreieck.tex
@@ -0,0 +1,90 @@
+%
+% dreieck.tex -- verallgemeinerte Dreiecksungleichung
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usepackage{pgf}
+\usetikzlibrary{arrows,intersections,math,calc,hobby}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\coordinate (O) at (0,0);
+
+\input{drei.inc}
+
+\begin{scope}
+\clip (O) rectangle (12.3,8);
+\draw[color=red!40] (O) circle[radius=\r];
+\end{scope}
+
+\draw[->] (-0.1,0) -- (12.3,0) coordinate[label={$\Re z$}];
+\draw[->] (0,-0.1) -- (0,8.3) coordinate[label={right:$\Im z$}];
+
+\fill[color=blue] (A1) circle[radius=0.05];
+\fill[color=blue] (A2) circle[radius=0.05];
+\fill[color=blue] (A3) circle[radius=0.05];
+\fill[color=blue] (A4) circle[radius=0.05];
+\fill[color=blue] (A5) circle[radius=0.05];
+\fill[color=blue] (A6) circle[radius=0.05];
+\fill[color=blue] (A7) circle[radius=0.05];
+\fill[color=blue] (A8) circle[radius=0.05];
+\fill[color=blue] (A9) circle[radius=0.05];
+\fill[color=blue] (A10) circle[radius=0.05];
+\draw[color=blue] (O) -- (A1);
+\draw[color=blue] (A1) -- (A2);
+\draw[color=blue] (A2) -- (A3);
+\draw[color=blue] (A3) -- (A4);
+\draw[color=blue] (A4) -- (A5);
+\draw[color=blue] (A5) -- (A6);
+\draw[color=blue] (A6) -- (A7);
+\draw[color=blue] (A7) -- (A8);
+\draw[color=blue] (A8) -- (A9);
+\draw[color=blue] (A9) -- (A10);
+\draw[->,color=blue!40] (O) -- (A10);
+\node[color=blue] at ($0.5*(A1)$) [left] {$z_1$};
+\node[color=blue] at ($0.5*(A1)+0.5*(A2)$) [left] {$z_2$};
+\node[color=blue] at ($0.5*(A2)+0.5*(A3)$) [above] {$z_3$};
+\node[color=blue] at ($0.5*(A3)+0.5*(A4)$) [above] {$z_4$};
+\node[color=blue] at ($0.5*(A4)+0.5*(A5)$) [below right] {$z_5$};
+\node[color=blue] at ($0.5*(A5)+0.5*(A6)$) [left] {$z_6$};
+\node[color=blue] at ($0.5*(A6)+0.5*(A7)$) [left] {$z_7$};
+\node[color=blue] at ($0.5*(A7)+0.5*(A8)$) [above] {$z_8$};
+\node[color=blue] at ($0.5*(A8)+0.5*(A9)$) [left] {$z_9$};
+\node[color=blue] at ($0.5*(A9)+0.5*(A10)$) [above] {$z_{10}$};
+\node[color=blue] at ($0.8*(A10)$) [rotate=35,below] {$\displaystyle\sum_{i=1}^n z_i$};
+
+\draw[->,color=red] (O) -- (B10);
+\fill[color=red] (B1) circle[radius=0.05];
+\fill[color=red] (B2) circle[radius=0.05];
+\fill[color=red] (B3) circle[radius=0.05];
+\fill[color=red] (B4) circle[radius=0.05];
+\fill[color=red] (B5) circle[radius=0.05];
+\fill[color=red] (B6) circle[radius=0.05];
+\fill[color=red] (B7) circle[radius=0.05];
+\fill[color=red] (B8) circle[radius=0.05];
+\fill[color=red] (B9) circle[radius=0.05];
+\fill[color=red] (B10) circle[radius=0.05];
+
+\node[color=red] at ($0.5*(B1)$) [above] {$|z_1|c$};
+\node[color=red] at ($0.5*(B1)+0.5*(B2)$) [above] {$|z_2|c$};
+\node[color=red] at ($0.5*(B2)+0.5*(B3)$) [above] {$|z_3|c$};
+\node[color=red] at ($0.5*(B3)+0.5*(B4)$) [above] {$|z_4|c$};
+\node[color=red] at ($0.5*(B4)+0.5*(B5)$) [above] {$|z_5|c$};
+\node[color=red] at ($0.5*(B5)+0.5*(B6)$) [above] {$|z_6|c$};
+\node[color=red] at ($0.5*(B6)+0.5*(B7)$) [above] {$|z_7|c$};
+\node[color=red] at ($0.5*(B7)+0.5*(B8)$) [above] {$|z_8|c$};
+\node[color=red] at ($0.5*(B8)+0.5*(B9)$) [above] {$|z_9|c$};
+\node[color=red] at ($0.5*(B9)+0.5*(B10)$) [above] {$|z_{10}|c$};
+
+\node[color=red] at ($0.8*(B10)$) [rotate=20,below] {$\displaystyle c\sum_{i=1}^n |z_i|$};
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/internet.pdf b/buch/chapters/80-wahrscheinlichkeit/images/internet.pdf
new file mode 100644
index 0000000..12eaf1e
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/internet.pdf
Binary files differ
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/internet.tex b/buch/chapters/80-wahrscheinlichkeit/images/internet.tex
new file mode 100644
index 0000000..1b384ad
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/internet.tex
@@ -0,0 +1,58 @@
+%
+% internet.tex -- Modellinternet
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\foreach \x in {0,3,6,9}{
+ \foreach \y in {0,3}{
+ \fill[color=white] ({\x},{\y}) circle[radius=0.3];
+ \draw ({\x},{\y}) circle[radius=0.3];
+ }
+}
+\node at (0,3) {$1$};
+\node at (0,0) {$2$};
+\node at (3,3) {$3$};
+\node at (3,0) {$4$};
+\node at (6,3) {$5$};
+\node at (6,0) {$6$};
+\node at (9,3) {$7$};
+\node at (9,0) {$8$};
+% 1
+\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (0,3) -- (3,3);
+\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (0,3) -- (0,0);
+% 2
+\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (0,0) to[out=-20,in=-160] (3,0);
+% 3
+\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (3,3) -- (6,3);
+\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (3,3) -- (0,0);
+% 4
+\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (3,0) -- (6,3);
+\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (3,0) -- (6,0);
+\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (3,0) to[out=160,in=20] (0,0);
+% 5
+\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (6,3) -- (9,3);
+\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (6,3) -- (9,0);
+\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (6,3) -- (6,0);
+% 6
+\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (6,0) to[out=20,in=160] (9,0);
+% 7
+\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (9,3) .. controls (7.5,4) .. (6,4) -- (3,4) .. controls (1.5,4) .. (0,3);
+\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (9,3) to[out=-110,in=110] (9,0);
+% 8
+\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (9,0) to[out=-160,in=-20] (6,0);
+\draw[->,shorten >= 0.3cm, shorten <= 0.3cm] (9,0) to[out=70,in=-70] (9,3);
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/konvex.pdf b/buch/chapters/80-wahrscheinlichkeit/images/konvex.pdf
new file mode 100644
index 0000000..f77cc62
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/konvex.pdf
Binary files differ
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/konvex.tex b/buch/chapters/80-wahrscheinlichkeit/images/konvex.tex
new file mode 100644
index 0000000..05bbc60
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/konvex.tex
@@ -0,0 +1,75 @@
+%
+% konvex.tex -- template for standalon tikz images
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math,calc,hobby}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\def\punkt#1{
+ \fill[color=white] #1 circle[radius=0.05];
+ \draw #1 circle[radius=0.05];
+}
+
+\begin{scope}[xshift=-3cm]
+\coordinate (O) at (0,0);
+\coordinate (A) at (-1,5);
+\coordinate (B) at (3,2);
+\draw[->] (O) -- (A);
+\draw[->] (O) -- (B);
+\begin{scope}
+\clip (-2,0) rectangle (4,6);
+\draw[color=red!40,line width=0.4pt] ($2*(B)-(A)$) -- ($2*(A)-(B)$);
+\end{scope}
+\draw[color=red,line width=1.5pt] (A) -- (B);
+\punkt{(O)}
+\punkt{(A)}
+\punkt{(B)}
+\node at (O) [below left] {$O$};
+\node at (A) [above right] {$A$};
+\node at (B) [above right] {$B$};
+\node at ($0.5*(A)$) [left] {$\vec{a}$};
+\node at ($0.5*(B)$) [below right] {$\vec{b}$};
+\fill[color=white] ($0.6*(A)+0.4*(B)$) circle[radius=0.05];
+\draw[color=red] ($0.6*(A)+0.4*(B)$) circle[radius=0.05];
+\node[color=red] at ($0.6*(A)+0.4*(B)$) [above right] {$t\vec{a}+(1-t)\vec{b}$};
+\end{scope}
+
+\begin{scope}[xshift=4cm]
+\coordinate (O) at (0,0);
+\coordinate (A) at (-1,3);
+\coordinate (B) at (2,5);
+\coordinate (C) at (4,1);
+\draw[->] (O) -- (A);
+\draw[->] (O) -- (B);
+\draw[->] (O) -- (C);
+\fill[color=red!50,opacity=0.5] (A) -- (B) -- (C) -- cycle;
+\draw[color=red,line width=1.5pt,opacity=0.7] (A) -- (B) -- (C) -- cycle;
+\punkt{(O)}
+\punkt{(A)}
+\punkt{(B)}
+\punkt{(C)}
+\node at (O) [below left] {$O$};
+\node at (A) [left] {$P_1$};
+\node at (B) [above] {$P_2$};
+\node at (C) [right] {$P_3$};
+\node at ($0.5*(A)$) [left] {$\vec{p}_1$};
+\node at ($0.3*(B)$) [right] {$\vec{p}_2$};
+\node at ($0.5*(C)$) [below] {$\vec{p}_3$};
+\fill[color=white] ($0.5*(C)+0.3*(A)+0.2*(B)$) circle[radius=0.05];
+\draw[color=red] ($0.5*(C)+0.3*(A)+0.2*(B)$) circle[radius=0.05];
+\node[color=red] at ($0.5*(C)+0.3*(A)+0.2*(B)$) [above] {$\displaystyle\sum_{t=1}^3 t_i\vec{p}_i$};
+\end{scope}
+
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/markov.pdf b/buch/chapters/80-wahrscheinlichkeit/images/markov.pdf
new file mode 100644
index 0000000..fba9489
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/markov.pdf
Binary files differ
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/markov.tex b/buch/chapters/80-wahrscheinlichkeit/images/markov.tex
new file mode 100644
index 0000000..72f3b85
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/markov.tex
@@ -0,0 +1,99 @@
+%
+% markov2.tex -- template for standalon tikz images
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\def\punkt#1#2#3{
+ \fill[color=white] #1 circle[radius=0.10];
+ \fill[color=#2] #1 circle[radius=0.13];
+ \node[color=white] at #1 {$\scriptstyle #3$};
+}
+
+\def\xs{2.5}
+\def\ys{1}
+
+\foreach \x in {0,...,5}{
+ \draw[color=red,line width=0.5pt]
+ ({\x*\xs},{-0.7*\ys}) -- ({\x*\xs},{-6.5*\ys});
+}
+
+\def\dotradius{0.04}
+
+\def\dotrow#1#2{
+ \punkt{({#1*\xs},{-1*\ys})}{#2}{1}
+ \punkt{({#1*\xs},{-2*\ys})}{#2}{2}
+ \punkt{({#1*\xs},{-3*\ys})}{#2}{3}
+ \punkt{({#1*\xs},{-4*\ys})}{#2}{4}
+ \fill[color=#2] ({#1*\xs},{-5*\ys-0.3}) circle[radius=\dotradius];
+ \fill[color=#2] ({#1*\xs},{-5*\ys-0.15}) circle[radius=\dotradius];
+ \fill[color=#2] ({#1*\xs},{-5*\ys}) circle[radius=\dotradius];
+ \fill[color=#2] ({#1*\xs},{-5*\ys+0.15}) circle[radius=\dotradius];
+ \fill[color=#2] ({#1*\xs},{-5*\ys+0.3}) circle[radius=\dotradius];
+ \punkt{({#1*\xs},{-6*\ys})}{#2}{s}
+}
+
+\def\fan#1#2{
+ \foreach \x in {1,2,3,4,6}{
+ \foreach \y in {1,2,3,4,6}{
+ \draw[->,shorten >= 2mm,shorten <= 2mm,color=#2]
+ ({#1*\xs},{-\x*\ys})
+ --
+ ({(#1+1)*\xs},{-\y*\ys});
+ }
+ }
+}
+
+\begin{scope}
+\clip (-0.5,{-6.5*\ys}) rectangle ({5*\xs+0.5},-0.5);
+\fan{-1}{gray}
+\fan{0}{gray}
+\fan{1}{gray}
+\fan{2}{black}
+\fan{3}{gray}
+\fan{4}{gray}
+\fan{5}{gray}
+\end{scope}
+
+\dotrow{0}{gray}
+\dotrow{1}{gray}
+\dotrow{2}{black}
+\dotrow{3}{black}
+\dotrow{4}{gray}
+\dotrow{5}{gray}
+
+\def\ty{-0.5}
+\node[color=gray] at ({0.5*\xs},{\ty*\ys}) {$T(n-1,n-2)$};
+\node[color=gray] at ({1.5*\xs},{\ty*\ys}) {$T(n,n-1)$};
+\node[color=black] at ({2.5*\xs},{\ty*\ys}) {$T(n+1,n)$};
+\node[color=gray] at ({3.5*\xs},{\ty*\ys}) {$T(n+2,n+1)$};
+\node[color=gray] at ({4.5*\xs},{\ty*\ys}) {$T(n+3,n+2)$};
+
+\draw[->,color=red] (-0.7,{-6.5*\ys}) -- ({5*\xs+0.7},{-6.5*\ys}) coordinate[label={$t$}];
+
+\foreach \x in {0,...,5}{
+ \draw[color=red]
+ ({\x*\xs},{-6.5*\ys-0.05})
+ --
+ ({\x*\xs},{-6.5*\ys+0.05});
+}
+\node[color=red] at ({0*\xs},{-6.5*\ys}) [below] {$n-2\mathstrut$};
+\node[color=red] at ({1*\xs},{-6.5*\ys}) [below] {$n-1\mathstrut$};
+\node[color=red] at ({2*\xs},{-6.5*\ys}) [below] {$n\mathstrut$};
+\node[color=red] at ({3*\xs},{-6.5*\ys}) [below] {$n+1\mathstrut$};
+\node[color=red] at ({4*\xs},{-6.5*\ys}) [below] {$n+2\mathstrut$};
+\node[color=red] at ({5*\xs},{-6.5*\ys}) [below] {$n+3\mathstrut$};
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/markov2.pdf b/buch/chapters/80-wahrscheinlichkeit/images/markov2.pdf
new file mode 100644
index 0000000..d534c8f
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/markov2.pdf
Binary files differ
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/markov2.tex b/buch/chapters/80-wahrscheinlichkeit/images/markov2.tex
new file mode 100644
index 0000000..c2fab2e
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/markov2.tex
@@ -0,0 +1,113 @@
+%
+% markov.tex -- Illustration markov-Kette
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\def\punkt#1#2#3{
+ \fill[color=white] #1 circle[radius=0.10];
+ \fill[color=#2] #1 circle[radius=0.13];
+ \node[color=white] at #1 {$\scriptstyle #3$};
+}
+
+\def\xs{2.5}
+\def\ys{1}
+
+\foreach \x in {0,...,5}{
+ \draw[color=red,line width=0.5pt]
+ ({\x*\xs},{-0.7*\ys}) -- ({\x*\xs},{-8.5*\ys});
+}
+
+\def\dotradius{0.04}
+
+\def\dotrow#1#2{
+ \punkt{({#1*\xs},{-1*\ys})}{#2}{1}
+ \punkt{({#1*\xs},{-2*\ys})}{#2}{2}
+ \fill[color=#2] ({#1*\xs},{-3*\ys-0.3}) circle[radius=\dotradius];
+ \fill[color=#2] ({#1*\xs},{-3*\ys-0.15}) circle[radius=\dotradius];
+ \fill[color=#2] ({#1*\xs},{-3*\ys}) circle[radius=\dotradius];
+ \fill[color=#2] ({#1*\xs},{-3*\ys+0.15}) circle[radius=\dotradius];
+ \fill[color=#2] ({#1*\xs},{-3*\ys+0.3}) circle[radius=\dotradius];
+ \punkt{({#1*\xs},{-4*\ys})}{#2}{7}
+ \punkt{({#1*\xs},{-5*\ys})}{#2}{8}
+ \punkt{({#1*\xs},{-6*\ys})}{#2}{9}
+ \fill[color=#2] ({#1*\xs},{-7*\ys-0.3}) circle[radius=\dotradius];
+ \fill[color=#2] ({#1*\xs},{-7*\ys-0.15}) circle[radius=\dotradius];
+ \fill[color=#2] ({#1*\xs},{-7*\ys}) circle[radius=\dotradius];
+ \fill[color=#2] ({#1*\xs},{-7*\ys+0.15}) circle[radius=\dotradius];
+ \fill[color=#2] ({#1*\xs},{-7*\ys+0.3}) circle[radius=\dotradius];
+ \punkt{({#1*\xs},{-8*\ys})}{#2}{s}
+}
+
+\def\fan#1#2{
+ \foreach \x in {1,2,4}{
+ \foreach \y in {1,2,4}{
+ \draw[->,shorten >= 2mm,shorten <= 2mm,color=#2]
+ ({#1*\xs},{-\x*\ys})
+ --
+ ({(#1+1)*\xs},{-\y*\ys});
+ }
+ }
+ \foreach \x in {5,6,8}{
+ \foreach \y in {5,6,8}{
+ \draw[->,shorten >= 2mm,shorten <= 2mm,color=#2]
+ ({#1*\xs},{-\x*\ys})
+ --
+ ({(#1+1)*\xs},{-\y*\ys});
+ }
+ }
+}
+
+\begin{scope}
+\clip (-0.5,{-8.5*\ys}) rectangle ({5*\xs+0.5},-0.5);
+\fan{-1}{gray}
+\fan{0}{gray}
+\fan{1}{gray}
+\fan{2}{black}
+\fan{3}{gray}
+\fan{4}{gray}
+\fan{5}{gray}
+\end{scope}
+
+\dotrow{0}{gray}
+\dotrow{1}{gray}
+\dotrow{2}{black}
+\dotrow{3}{black}
+\dotrow{4}{gray}
+\dotrow{5}{gray}
+
+\def\ty{-0.5}
+\node[color=gray] at ({0.5*\xs},{\ty*\ys}) {$T(n-1,n-2)$};
+\node[color=gray] at ({1.5*\xs},{\ty*\ys}) {$T(n,n-1)$};
+\node[color=black] at ({2.5*\xs},{\ty*\ys}) {$T(n+1,n)$};
+\node[color=gray] at ({3.5*\xs},{\ty*\ys}) {$T(n+2,n+1)$};
+\node[color=gray] at ({4.5*\xs},{\ty*\ys}) {$T(n+3,n+2)$};
+
+\draw[->,color=red] (-0.7,{-8.5*\ys}) -- ({5*\xs+0.7},{-8.5*\ys}) coordinate[label={$t$}];
+
+\foreach \x in {0,...,5}{
+ \draw[color=red]
+ ({\x*\xs},{-8.5*\ys-0.05})
+ --
+ ({\x*\xs},{-8.5*\ys+0.05});
+}
+\node[color=red] at ({0*\xs},{-8.5*\ys}) [below] {$n-2\mathstrut$};
+\node[color=red] at ({1*\xs},{-8.5*\ys}) [below] {$n-1\mathstrut$};
+\node[color=red] at ({2*\xs},{-8.5*\ys}) [below] {$n\mathstrut$};
+\node[color=red] at ({3*\xs},{-8.5*\ys}) [below] {$n+1\mathstrut$};
+\node[color=red] at ({4*\xs},{-8.5*\ys}) [below] {$n+2\mathstrut$};
+\node[color=red] at ({5*\xs},{-8.5*\ys}) [below] {$n+3\mathstrut$};
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/markov3.pdf b/buch/chapters/80-wahrscheinlichkeit/images/markov3.pdf
new file mode 100644
index 0000000..61f4fe7
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/markov3.pdf
Binary files differ
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/markov3.tex b/buch/chapters/80-wahrscheinlichkeit/images/markov3.tex
new file mode 100644
index 0000000..0b99ef3
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/markov3.tex
@@ -0,0 +1,113 @@
+%
+% markov2.tex -- template for standalon tikz images
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\def\punkt#1#2#3{
+ \fill[color=white] #1 circle[radius=0.10];
+ \fill[color=#2] #1 circle[radius=0.13];
+ \node[color=white] at #1 {$\scriptstyle #3$};
+}
+
+\def\xs{2.5}
+\def\ys{1}
+
+\fill[color=blue!20]
+ (-0.5,{-3.3*\ys}) rectangle ({5*\xs+0.5},{-0.7*\ys});
+
+\foreach \x in {0,...,5}{
+ \draw[color=red,line width=0.5pt]
+ ({\x*\xs},{-0.7*\ys}) -- ({\x*\xs},{-7.5*\ys});
+}
+
+\def\dotradius{0.04}
+
+\def\dotrow#1#2{
+ \punkt{({#1*\xs},{-1*\ys})}{#2}{1}
+ \fill[color=#2] ({#1*\xs},{-2*\ys-0.3}) circle[radius=\dotradius];
+ \fill[color=#2] ({#1*\xs},{-2*\ys-0.15}) circle[radius=\dotradius];
+ \fill[color=#2] ({#1*\xs},{-2*\ys}) circle[radius=\dotradius];
+ \fill[color=#2] ({#1*\xs},{-2*\ys+0.15}) circle[radius=\dotradius];
+ \fill[color=#2] ({#1*\xs},{-2*\ys+0.3}) circle[radius=\dotradius];
+ \punkt{({#1*\xs},{-3*\ys})}{#2}{7}
+ \punkt{({#1*\xs},{-4*\ys})}{#2}{8}
+ \punkt{({#1*\xs},{-5*\ys})}{#2}{9}
+ \fill[color=#2] ({#1*\xs},{-6*\ys-0.3}) circle[radius=\dotradius];
+ \fill[color=#2] ({#1*\xs},{-6*\ys-0.15}) circle[radius=\dotradius];
+ \fill[color=#2] ({#1*\xs},{-6*\ys}) circle[radius=\dotradius];
+ \fill[color=#2] ({#1*\xs},{-6*\ys+0.15}) circle[radius=\dotradius];
+ \fill[color=#2] ({#1*\xs},{-6*\ys+0.3}) circle[radius=\dotradius];
+ \punkt{({#1*\xs},{-7*\ys})}{#2}{s}
+}
+
+\def\fan#1#2{
+ \foreach \x in {1,3}{
+ \draw[->,shorten >= 2mm,shorten <= 2mm,color=#2,line width=2pt]
+ ({#1*\xs},{-\x*\ys})
+ --
+ ({(#1+1)*\xs},{-\x*\ys});
+ }
+ \foreach \x in {4,5,7}{
+ \foreach \y in {1,3,4,5,7}{
+ \draw[->,shorten >= 2mm,shorten <= 2mm,color=#2]
+ ({#1*\xs},{-\x*\ys})
+ --
+ ({(#1+1)*\xs},{-\y*\ys});
+ }
+ }
+}
+
+\begin{scope}
+\clip (-0.5,{-7.5*\ys}) rectangle ({5*\xs+0.5},-0.5);
+\fan{-1}{gray}
+\fan{0}{gray}
+\fan{1}{gray}
+\fan{2}{black}
+\fan{3}{gray}
+\fan{4}{gray}
+\fan{5}{gray}
+\end{scope}
+
+\dotrow{0}{gray}
+\dotrow{1}{gray}
+\dotrow{2}{black}
+\dotrow{3}{black}
+\dotrow{4}{gray}
+\dotrow{5}{gray}
+
+\def\ty{-0.5}
+\node[color=gray] at ({0.5*\xs},{\ty*\ys}) {$T(n-1,n-2)$};
+\node[color=gray] at ({1.5*\xs},{\ty*\ys}) {$T(n,n-1)$};
+\node[color=black] at ({2.5*\xs},{\ty*\ys}) {$T(n+1,n)$};
+\node[color=gray] at ({3.5*\xs},{\ty*\ys}) {$T(n+2,n+1)$};
+\node[color=gray] at ({4.5*\xs},{\ty*\ys}) {$T(n+3,n+2)$};
+
+\draw[->,color=red] (-0.7,{-7.5*\ys}) -- ({5*\xs+0.7},{-7.5*\ys}) coordinate[label={$t$}];
+
+\foreach \x in {0,...,5}{
+ \draw[color=red]
+ ({\x*\xs},{-7.5*\ys-0.05})
+ --
+ ({\x*\xs},{-7.5*\ys+0.05});
+}
+\node[color=red] at ({0*\xs},{-7.5*\ys}) [below] {$n-2\mathstrut$};
+\node[color=red] at ({1*\xs},{-7.5*\ys}) [below] {$n-1\mathstrut$};
+\node[color=red] at ({2*\xs},{-7.5*\ys}) [below] {$n\mathstrut$};
+\node[color=red] at ({3*\xs},{-7.5*\ys}) [below] {$n+1\mathstrut$};
+\node[color=red] at ({4*\xs},{-7.5*\ys}) [below] {$n+2\mathstrut$};
+\node[color=red] at ({5*\xs},{-7.5*\ys}) [below] {$n+3\mathstrut$};
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/positiv.jpg b/buch/chapters/80-wahrscheinlichkeit/images/positiv.jpg
new file mode 100644
index 0000000..53544cb
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/positiv.jpg
Binary files differ
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/positiv.m b/buch/chapters/80-wahrscheinlichkeit/images/positiv.m
new file mode 100644
index 0000000..4dca950
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/positiv.m
@@ -0,0 +1,36 @@
+#
+# positiv.m
+#
+# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+#
+N = 10;
+p = 0.2;
+
+A = eye(3) + p * rand(3,3);
+A = [
+ 1, 0.2, 0.2;
+ 0.1, 1, 0.1;
+ 0.05, 0.05, 1
+];
+B = eye(3);
+
+function retval = punkt(x)
+ retval = sprintf("<%.4f,%.4f,%.4f>", x(1), x(3), x(2));
+end
+
+fn = fopen("quadrant.inc", "w");
+for i = (1:N)
+ fprintf(fn, "quadrant(%s,%s,%s)\n",
+ punkt(B(:,1)), punkt(B(:,2)), punkt(B(:,3)))
+ B = B * A;
+end
+
+x = [ 1; 1; 1 ];
+for i = (1:100)
+ x = A * x;
+ x = x / norm(x);
+end
+fprintf(fn, "eigenvektor(<%.4f, %.4f, %.4f>)\n", x(1), x(3), x(2));
+
+
+fclose(fn);
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/positiv.pdf b/buch/chapters/80-wahrscheinlichkeit/images/positiv.pdf
new file mode 100644
index 0000000..39aa3cd
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/positiv.pdf
Binary files differ
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/positiv.png b/buch/chapters/80-wahrscheinlichkeit/images/positiv.png
new file mode 100644
index 0000000..a2bd9bf
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/positiv.png
Binary files differ
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/positiv.pov b/buch/chapters/80-wahrscheinlichkeit/images/positiv.pov
new file mode 100644
index 0000000..9197498
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/positiv.pov
@@ -0,0 +1,137 @@
+//
+// diffusion.pov
+//
+// (c) 2021 Prof Dr Andreas Müller, OST Ostscheizer Fachhochschule
+//
+#version 3.7;
+#include "colors.inc"
+
+global_settings {
+ assumed_gamma 1
+}
+
+#declare imagescale = 0.077;
+#declare N = 30;
+#declare vscale = 10;
+#declare r = 0.04;
+
+camera {
+ location <43, 20, -20>
+ look_at <1, 0.83, 2.5>
+ right 16/9 * x * imagescale
+ up y * imagescale
+}
+
+light_source {
+ <40, 20, -10> color White
+ area_light <1,0,0> <0,0,1>, 10, 10
+ adaptive 1
+ jitter
+}
+
+sky_sphere {
+ pigment {
+ color rgb<1,1,1>
+ }
+}
+
+//
+// draw an arrow from <from> to <to> with thickness <arrowthickness> with
+// color <c>
+//
+#macro arrow(from, to, arrowthickness, c)
+#declare arrowdirection = vnormalize(to - from);
+#declare arrowlength = vlength(to - from);
+union {
+ sphere {
+ from, 1.1 * arrowthickness
+ }
+ cylinder {
+ from,
+ from + (arrowlength - 5 * arrowthickness) * arrowdirection,
+ arrowthickness
+ }
+ cone {
+ from + (arrowlength - 5 * arrowthickness) * arrowdirection,
+ 2 * arrowthickness,
+ to,
+ 0
+ }
+ pigment {
+ color c
+ }
+ finish {
+ specular 0.9
+ metallic
+ }
+}
+#end
+
+arrow(<0,0,0>, <3,0,0>, r, White)
+arrow(<0,0,0>, <0,3,0>, r, White)
+arrow(<0,0,0>, <0,0,3>, r, White)
+
+#macro quadrant(A, B, C)
+intersection {
+ sphere { <0, 0, 0>, 1
+ matrix <A.x, A.y, A.z,
+ B.x, B.y, B.z,
+ C.x, C.y, C.z,
+ 0, 0, 0 >
+ }
+ plane { vnormalize(vcross(A, B)), 0 }
+ plane { vnormalize(vcross(B, C)), 0 }
+ plane { vnormalize(vcross(C, A)), 0 }
+ pigment {
+ //color rgbf<0.8,1,1,0.7>
+ color rgb<0.8,1,1>
+ }
+ finish {
+ specular 0.9
+ metallic
+ }
+}
+#end
+
+#macro eigenvektor(E)
+union {
+ cylinder { -E, 8 * E, r }
+ #declare r0 = 0.7 * r;
+
+ sphere { 3 * < 0, E.y, E.z >, r0 }
+ sphere { 3 * < E.x, 0, E.z >, r0 }
+ sphere { 3 * < E.x, E.y, 0 >, r0 }
+ sphere { 3 * E, r0 }
+
+ cylinder { 3*< E.x, 0, 0 >, 3*< E.x, 0, E.z >, r0 }
+ cylinder { 3*< E.x, 0, 0 >, 3*< E.x, E.y, 0 >, r0 }
+ cylinder { 3*< 0, E.y, 0 >, 3*< E.x, E.y, 0 >, r0 }
+ cylinder { 3*< 0, E.y, 0 >, 3*< 0, E.y, E.z >, r0 }
+ cylinder { 3*< 0, 0, E.z >, 3*< 0, E.y, E.z >, r0 }
+ cylinder { 3*< 0, 0, E.z >, 3*< E.x, 0, E.z >, r0 }
+
+ cylinder { 3*< E.x, E.y, 0 >, 3*E, r0 }
+ cylinder { 3*< 0, E.y, E.z >, 3*E, r0 }
+ cylinder { 3*< E.x, 0, E.z >, 3*E, r0 }
+ pigment {
+ color rgb<1,0.6,1>*0.6
+ }
+ finish {
+ specular 0.9
+ metallic
+ }
+}
+#end
+
+#include "quadrant.inc"
+
+//union {
+// pigment {
+// color rgb<0.8,1,1>*0.6
+// }
+// finish {
+// specular 0.9
+// metallic
+// }
+//}
+
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/positiv.tex b/buch/chapters/80-wahrscheinlichkeit/images/positiv.tex
new file mode 100644
index 0000000..911b599
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/positiv.tex
@@ -0,0 +1,51 @@
+%
+% positiv.tex
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{times}
+\usepackage{amsmath}
+\usepackage{txfonts}
+\usepackage[utf8]{inputenc}
+\usepackage{graphics}
+\usetikzlibrary{arrows,intersections,math}
+\usepackage{ifthen}
+\begin{document}
+
+\newboolean{showgrid}
+\setboolean{showgrid}{false}
+\def\breite{7}
+\def\hoehe{4}
+
+\begin{tikzpicture}[>=latex,thick]
+
+% Povray Bild
+\node at (0,0) {\includegraphics[width=14cm]{positiv.jpg}};
+
+% Gitter
+\ifthenelse{\boolean{showgrid}}{
+\draw[step=0.1,line width=0.1pt] (-\breite,-\hoehe) grid (\breite, \hoehe);
+\draw[step=0.5,line width=0.4pt] (-\breite,-\hoehe) grid (\breite, \hoehe);
+\draw (-\breite,-\hoehe) grid (\breite, \hoehe);
+\fill (0,0) circle[radius=0.05];
+}{}
+
+\node at (-2.6,-3.8) [right] {$x_1$};
+\node at (-5.4,3.8) [right] {$x_3$};
+
+\node[color=red] at (-4.5,-1.3) {$0$};
+\node[color=red] at (-4.15,-1.25) {$1$};
+\node[color=red] at (-3.75,-0.90) {$2$};
+\node[color=red] at (-3.22,-0.80) {$3$};
+\node[color=red] at (-2.6,-0.70) {$4$};
+\node[color=red] at (-1.8,-0.60) {$5$};
+\node[color=red] at (-0.9,-0.50) {$6$};
+\node[color=red] at (0.2,-0.40) {$7$};
+\node[color=red] at (1.6,-0.20) {$8$};
+\node[color=red] at (4.0,0.10) {$9$};
+
+\end{tikzpicture}
+
+\end{document}
+
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/spielB.pdf b/buch/chapters/80-wahrscheinlichkeit/images/spielB.pdf
new file mode 100644
index 0000000..466974d
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/spielB.pdf
Binary files differ
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/spielB.tex b/buch/chapters/80-wahrscheinlichkeit/images/spielB.tex
new file mode 100644
index 0000000..92989ed
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/spielB.tex
@@ -0,0 +1,59 @@
+%
+% spielB.tex -- Zutandsdiagramm für Spiel B
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\def\R{2}
+\def\r{0.5}
+\coordinate (A) at (0,\R);
+\coordinate (B) at ({\R*sqrt(3)/2},{-0.5*\R});
+\coordinate (C) at ({-\R*sqrt(3)/2},{-0.5*\R});
+
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (A) -- (B);
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (A) -- (C);
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (C) -- (B);
+
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (B) to[out=90,in=-30] (A);
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (C) to[out=90,in=-150] (A);
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (B) to[out=-150,in=-30] (C);
+
+\pgfmathparse{0.93*\R}
+\xdef\Rgross{\pgfmathresult}
+
+\node at (30:\Rgross) {$\frac34$};
+\node at (150:\Rgross) {$\frac14$};
+\node at (-90:\Rgross) {$\frac14$};
+
+\pgfmathparse{0.33*\R}
+\xdef\Rklein{\pgfmathresult}
+
+\node at (-90:\Rklein) {$\frac34$};
+\node at (30:\Rklein) {$\frac9{10}$};
+\node at (150:\Rklein) {$\frac1{10}$};
+
+\fill[color=white] (A) circle[radius=\r];
+\draw (A) circle[radius=\r];
+\node at (A) {$0$};
+
+\fill[color=white] (B) circle[radius=\r];
+\draw (B) circle[radius=\r];
+\node at (B) {$2$};
+
+\fill[color=white] (C) circle[radius=\r];
+\draw (C) circle[radius=\r];
+\node at (C) {$1$};
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/spielBtilde.pdf b/buch/chapters/80-wahrscheinlichkeit/images/spielBtilde.pdf
new file mode 100644
index 0000000..7812c9c
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/spielBtilde.pdf
Binary files differ
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/spielBtilde.tex b/buch/chapters/80-wahrscheinlichkeit/images/spielBtilde.tex
new file mode 100644
index 0000000..b2d4b01
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/spielBtilde.tex
@@ -0,0 +1,59 @@
+%
+% spielBtilde.tex -- Zustandsdiagramm des modifzierten Spiels
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\def\R{2.5}
+\def\r{0.5}
+\coordinate (A) at (0,\R);
+\coordinate (B) at ({\R*sqrt(3)/2},{-0.5*\R});
+\coordinate (C) at ({-\R*sqrt(3)/2},{-0.5*\R});
+
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (A) -- (B);
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (A) -- (C);
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (C) -- (B);
+
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (B) to[out=90,in=-30] (A);
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (C) to[out=90,in=-150] (A);
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (B) to[out=-150,in=-30] (C);
+
+\pgfmathparse{0.93*\R}
+\xdef\Rgross{\pgfmathresult}
+
+\node at (30:\Rgross) {$\frac34-\varepsilon$};
+\node at (150:\Rgross) {$\frac14+\varepsilon$};
+\node at (-90:\Rgross) {$\frac14+\varepsilon$};
+
+\pgfmathparse{0.32*\R}
+\xdef\Rklein{\pgfmathresult}
+
+\node at (-90:\Rklein) {$\frac34-\varepsilon$};
+\node at (30:\Rklein) {$\frac9{10}+\varepsilon$};
+\node at (150:\Rklein) {$\frac1{10}-\varepsilon$};
+
+\fill[color=white] (A) circle[radius=\r];
+\draw (A) circle[radius=\r];
+\node at (A) {$0$};
+
+\fill[color=white] (B) circle[radius=\r];
+\draw (B) circle[radius=\r];
+\node at (B) {$2$};
+
+\fill[color=white] (C) circle[radius=\r];
+\draw (C) circle[radius=\r];
+\node at (C) {$1$};
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/trenn.pdf b/buch/chapters/80-wahrscheinlichkeit/images/trenn.pdf
new file mode 100644
index 0000000..f4fa58f
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/trenn.pdf
Binary files differ
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/trenn.tex b/buch/chapters/80-wahrscheinlichkeit/images/trenn.tex
new file mode 100644
index 0000000..f34879c
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/trenn.tex
@@ -0,0 +1,44 @@
+%
+% trenn.tex -- Trenntrick graphische Darstellung
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\def\d{6}
+
+\coordinate (u) at (5,3);
+\coordinate (v) at (3,1);
+\coordinate (ve) at (5,1.666);
+
+\fill[color=gray!40] (0,0) rectangle (u);
+
+\begin{scope}
+\clip (0,0) rectangle (6.1,4.1);
+\draw[color=red] (0,0) -- (9,3);
+\end{scope}
+
+\draw[->] (-0.1,0) -- (6.3,0) coordinate[label={$x_1$}];
+\draw[->] (0,-0.1) -- (0,4.3) coordinate[label={right:$x_2$}];
+
+\fill (u) circle[radius=0.05];
+\node at (u) [above right] {$u$};
+
+\fill (v) circle[radius=0.05];
+\node at (v) [above right] {$v$};
+
+\fill[color=red] (ve) circle[radius=0.05];
+\node[color=red] at (ve) [above,rotate={atan(1/3)}] {$(1+\varepsilon)v$};
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/vergleich.jpg b/buch/chapters/80-wahrscheinlichkeit/images/vergleich.jpg
new file mode 100644
index 0000000..3274f42
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/vergleich.jpg
Binary files differ
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/vergleich.pdf b/buch/chapters/80-wahrscheinlichkeit/images/vergleich.pdf
new file mode 100644
index 0000000..b7215b4
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/vergleich.pdf
Binary files differ
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/vergleich.png b/buch/chapters/80-wahrscheinlichkeit/images/vergleich.png
new file mode 100644
index 0000000..f20bd48
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/vergleich.png
Binary files differ
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/vergleich.pov b/buch/chapters/80-wahrscheinlichkeit/images/vergleich.pov
new file mode 100644
index 0000000..e696481
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/vergleich.pov
@@ -0,0 +1,203 @@
+//
+// diffusion.pov
+//
+// (c) 2021 Prof Dr Andreas Müller, OST Ostscheizer Fachhochschule
+//
+#version 3.7;
+#include "colors.inc"
+#include "textures.inc"
+#include "transforms.inc"
+
+global_settings {
+ assumed_gamma 1
+}
+
+#declare imagescale = 0.077;
+#declare N = 30;
+#declare vscale = 10;
+#declare r = 0.04;
+
+camera {
+ location <43, 20, -20>
+ look_at <1, 0.83, 2.5>
+ right 16/9 * x * imagescale
+ up y * imagescale
+}
+
+light_source {
+ <20, 60, -80> color White
+ area_light <1,0,0> <0,0,1>, 40, 40
+ adaptive 1
+ jitter
+}
+
+sky_sphere {
+ pigment {
+ color rgb<1,1,1>
+ }
+}
+
+//
+// draw an arrow from <from> to <to> with thickness <arrowthickness> with
+// color <c>
+//
+#macro arrow(from, to, arrowthickness, c)
+#declare arrowdirection = vnormalize(to - from);
+#declare arrowlength = vlength(to - from);
+union {
+ sphere {
+ from, 1.1 * arrowthickness
+ }
+ cylinder {
+ from,
+ from + (arrowlength - 5 * arrowthickness) * arrowdirection,
+ arrowthickness
+ }
+ cone {
+ from + (arrowlength - 5 * arrowthickness) * arrowdirection,
+ 2 * arrowthickness,
+ to,
+ 0
+ }
+ pigment {
+ color c
+ }
+ finish {
+ specular 0.9
+ metallic
+ }
+}
+#end
+
+#declare O = <0,0,0>;
+#declare Ex = <1,0,0>;
+#declare Ey = <0,1,0>;
+#declare Ez = <0,0,1>;
+#declare s = 3;
+
+#declare A_transformation = Matrix_Trans(<1.0300,0.2050,0.1050>,<0.4100,1.0250,0.1100>,<0.4200,0.2200,1.0150>,<0,0,0>);
+//#declare A_transformation = Matrix_Trans(<1.0300,0.2050,0.1050>,<0.4100,1.0250,0.1100>,<0.4200,0.2200,0.5150>,<0,0,0>);
+
+arrow(O, s * Ex, r, rgb<0.6,0.2,0.4>)
+arrow(O, s * Ez, r, rgb<0.2,0.4,0.2>)
+arrow(O, s * Ey, r, rgb<0.2,0.2,0.4>)
+
+#declare A = vtransform(Ex, A_transformation);
+#declare B = vtransform(Ey, A_transformation);
+#declare C = vtransform(Ez, A_transformation);
+
+#macro quadrant(rad)
+intersection {
+ sphere { <0, 0, 0>, rad
+ //A_transformation
+ matrix <A.x, A.y, A.z,
+ B.x, B.y, B.z,
+ C.x, C.y, C.z,
+ 0, 0, 0 >
+ }
+ plane { vnormalize(-vcross(A, B)), 0 }
+ plane { vnormalize(-vcross(B, C)), 0 }
+ plane { vnormalize(-vcross(C, A)), 0 }
+ pigment {
+ color rgbf<0.8,1,1,0.5>
+ //color rgb<0.8,1,1>
+ }
+ finish {
+ specular 0.9
+ metallic
+ }
+}
+union {
+ cylinder { O, s*A, 0.3*r }
+ sphere { s*A, 0.3*r }
+ cylinder { O, s*B, 0.3*r }
+ sphere { s*B, 0.3*r }
+ cylinder { O, s*C, 0.3*r }
+ sphere { s*C, 0.3*r }
+ pigment {
+ color White
+ }
+ finish {
+ specular 0.9
+ metallic
+ }
+}
+#end
+
+#declare d = 3;
+//union {
+// plane { <0, 1, 0>, -d }
+// plane { <1, 0, 0>, -d }
+// pigment {
+// color Gray
+// }
+// finish {
+// specular 0.9
+// }
+//}
+
+quadrant(s)
+
+#declare V = < 1, 1, 0 >;
+#declare U = < 1.3, 2.5, 0 >;
+
+#declare VV = vtransform(V, A_transformation);
+#declare Vx = vtransform(<V.x, 0, 0>, A_transformation);
+#declare Vy = vtransform(<0, V.y, 0>, A_transformation);
+#declare UU = vtransform(U, A_transformation);
+#declare Ux = vtransform(<U.x, 0, 0>, A_transformation);
+#declare Uy = vtransform(<0, U.y, 0>, A_transformation);
+
+union {
+ sphere { V, r }
+ sphere { U, r }
+ cylinder { U, V, 0.5*r }
+ pigment {
+ color Red
+ }
+ finish {
+ specular 0.9
+ metallic
+ }
+}
+
+union {
+ cylinder { < U.x, 0, 0 >, < U.x, U.y, 0>, 0.3 * r }
+ cylinder { < V.x, 0, 0 >, < V.x, V.y, 0>, 0.3 * r }
+ cylinder { < 0, U.y, 0 >, < U.x, U.y, 0>, 0.3 * r }
+ cylinder { < 0, V.y, 0 >, < V.x, V.y, 0>, 0.3 * r }
+ pigment {
+ color rgb<1, 0.6, 1>
+ }
+ finish {
+ specular 0.9
+ metallic
+ }
+}
+
+union {
+ sphere { VV, r }
+ sphere { UU, r }
+ cylinder { UU, VV, 0.5*r }
+ pigment {
+ color Yellow
+ }
+ finish {
+ specular 0.9
+ metallic
+ }
+}
+
+union {
+ cylinder { Ux, UU, 0.3 * r }
+ cylinder { Uy, UU, 0.3 * r }
+ cylinder { Vx, VV, 0.3 * r }
+ cylinder { Vy, VV, 0.3 * r }
+ pigment {
+ color rgb<1, 1, 0.6>
+ }
+ finish {
+ specular 0.9
+ metallic
+ }
+}
diff --git a/buch/chapters/80-wahrscheinlichkeit/images/vergleich.tex b/buch/chapters/80-wahrscheinlichkeit/images/vergleich.tex
new file mode 100644
index 0000000..23d7d66
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/images/vergleich.tex
@@ -0,0 +1,46 @@
+%
+% vergleich.tex
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{times}
+\usepackage{amsmath}
+\usepackage{txfonts}
+\usepackage[utf8]{inputenc}
+\usepackage{graphics}
+\usetikzlibrary{arrows,intersections,math}
+\usepackage{ifthen}
+\begin{document}
+
+\newboolean{showgrid}
+\setboolean{showgrid}{false}
+\def\breite{5}
+\def\hoehe{5}
+
+\begin{tikzpicture}[>=latex,thick]
+
+% Povray Bild
+\node at (0,0) {\includegraphics[width=10cm]{vergleich.jpg}};
+
+\node at (-1.3,-4.8) [right] {$x_1$};
+\node[opacity=0.5] at (1.9,-0.9) [right] {$x_2$};
+\node at (-4.6,4.7) [right] {$x_3$};
+
+\node at (-3.2,2.6) [above] {$u$};
+\node at (-3.5,-0.7) [below left] {$v$};
+\node at (-1,2.8) [above] {$Au$};
+\node at (-2.6,-0.5) [below] {$Av$};
+
+% Gitter
+\ifthenelse{\boolean{showgrid}}{
+\draw[step=0.1,line width=0.1pt] (-\breite,-\hoehe) grid (\breite, \hoehe);
+\draw[step=0.5,line width=0.4pt] (-\breite,-\hoehe) grid (\breite, \hoehe);
+\draw (-\breite,-\hoehe) grid (\breite, \hoehe);
+\fill (0,0) circle[radius=0.05];
+}{}
+
+\end{tikzpicture}
+
+\end{document}
+
diff --git a/buch/chapters/80-wahrscheinlichkeit/markov.tex b/buch/chapters/80-wahrscheinlichkeit/markov.tex
index 5fb156a..0485714 100644
--- a/buch/chapters/80-wahrscheinlichkeit/markov.tex
+++ b/buch/chapters/80-wahrscheinlichkeit/markov.tex
@@ -6,5 +6,919 @@
\section{Diskrete Markov-Ketten und Wahrscheinlichkeitsmatrizen
\label{buch:section:diskrete-markov-ketten}}
\rhead{Diskrete Markov-Ketten}
+Die einführend im Abschnitt~\ref{buch:section:google-matrix}
+vorgestellte Google-Matrix ist nur ein Beispiel für ein
+Modell eines stochastischen Prozesses, der mit Hilfe von Matrizen
+modelliert werden kann.
+In diesem Abschnitt soll diese Art von Prozessen etwas formalisiert
+werden.
+
+%
+% Beschreibung der Markov-Eigenschaft
+%
+\subsection{Markov-Eigenschaft}
+% XXX Notation, Zustände, Übergangswahrscheinlichkeit
+Ein stochastischer Prozess ist eine Familie von Zustandsvariablen
+$X_t$ mit Werten in einer Menge $\mathcal{S}$ von Zuständen.
+Der Parameter $t$ wird üblicherweise als die Zeit interpretiert,
+er kann beliebige reelle Werte oder diskrete Werte annahmen, im letzten
+Fall spricht man von einem Prozess mit diskreter Zeit.
+
+Das Ereignis $\{X_t=x\}$ wird gelesen als ``zur Zeit $t$ befindet sich
+der Prozess im Zustand $x$''.
+Mit $P(X_t = x)$ wir die Wahrscheinlichkeit bezeichnet, dass sich
+der Prozess zur Zeit $t$ im Zustand $x$ befindet.
+Die Funktion $t\mapsto X_t$ beschreiben also den zeitlichen Ablauf
+der vom Prozess durchlaufenen Zustände.
+Dies ermöglicht, Fragen nach dem Einfluss früherer Zustände,
+also des Eintretens eines Ereignisses $\{X_{t_0}=x\}$ auf das Eintreten eines
+Zustands $s\in\mathcal{S}$ zu einem späteren Zeitpunkt $t_1>t_0$
+zu studieren.
+Das Ereignis $\{X_t = x\}$ kann man sich als abhängig von der Vorgeschichte
+vorstellen.
+Die Vorgeschichte besteht dabei aus dem Eintreten gewisser Ereignisse
+\[
+\{X_0=x_0\},
+\{X_1=x_1\},
+\{X_2=x_2\},
+\dots,
+\{X_n=x_n\}
+\]
+zu früheren Zeiten $t_0<t_1<\dots<t_n<t$.
+Die bedingte Wahrscheinlichkeit
+\begin{equation}
+P(X_t = x|
+X_{t_n}=x_n\wedge X_{t_{n-1}}=x_{n-1}\wedge\dots\wedge X_{t_1}=x_1\wedge
+X_{t_0}=x_0)
+\label{buch:wahrscheinlichkeit:eqn:historybedingt}
+\end{equation}
+ist die Wahrscheinlichkeit dafür, dass der Prozess zur Zeit $t$ den
+Zustand $x$ erreicht, wenn er zu den Zeitpunkten $t_0,t_1,\dots,t_n$
+die Zustände $x_0,x_1,\dots,x_n$ durchlaufen hat.
+
+\subsubsection{Gedächtnislosigkeit}
+% XXX Gedächtnislösigkeit, Markov-Eigenschaft
+In vielen Fällen ist nur der letzte durchlaufene Zustand wichtig.
+Die Zustände in den Zeitpunkten $t_0<\dots<t_{n-1}$ haben dann keinen
+Einfluss auf die Wahrscheinlichkeit.
+Auf die bedingte
+Wahrscheinlichkeit~\eqref{buch:wahrscheinlichkeit:eqn:historybedingt}
+sollten also die Ereignisse $\{X_{t_0}=x_0\}$ bis $\{X_{t_{n-1}}=x_{n-1}\}$
+keinen Einfluss haben.
+
+\begin{definition}
+Ein stochastischer Prozess erfüllt die Markov-Eigenschaft, wenn
+für jede Folge von früheren Zeitpunkten $t_0<t_1<\dots <t_n<t$ und Zuständen
+$x_0,\dots,x_n,x\in \mathcal{S}$ die
+Wahrscheinlichkeit~\eqref{buch:wahrscheinlichkeit:eqn:historybedingt}
+nicht von der Vorgeschichte abhängt, also
+\[
+P(X_t = x|
+X_{t_n}=x_n\wedge X_{t_{n-1}}=x_{n-1}\wedge\dots\wedge X_{t_1}=x_1\wedge
+X_{t_0}=x_0)
+=
+P(X_t = x|
+X_{t_n}=x_n).
+\]
+\index{Markov-Eigenschaft}
+\end{definition}
+
+Die Wahrscheinlichkeiten $P(X_t=x|X_s=y)$ mit $t>s$ bestimmen das
+zeitliche Verhalten der Wahrscheinlichkeiten vollständig.
+Wir schreiben daher auch
+\[
+p_{xy}(t, s)
+=
+P(X_t = x|X_s=y)
+\]
+für die sogenannte {\em transiente Übergangswahrscheinlichkeit}.
+Für eine endliche Menge von Zuständen, können die transienten
+Übergangswahrscheinlichkeiten auch als zeitabhängige
+quadratische Matrix $P(s,t)$ geschrieben werden, deren
+Einträge
+\[
+(P(s,t))_{xy}
+=
+p_{xy}(t,s)
+\]
+mit den Zuständen $x,y\in\mathcal{S}$ indiziert sind.
+
+\subsubsection{Die Chapman-Kolmogorov-Gleichung}
+% XXX Chapman-Kolmogorov-Gleichung
+Man beachte, dass in der Definition der Markov-Eigenschaft
+keine Voraussetzungen darüber gemacht werden, wie nahe
+am Zeitpunkt $t$ der letzte Zeitpunkt $t_n$ der Vorgeschichte liegt.
+Die transienten Übergangswahrscheinlichkeiten $p_{xy}(s,t)$ werden
+aber im allgemeinen davon abhängen, wie weit in der Vergangenheit
+der Zeitpunkt $s<t$ liegt.
+Für eine näheren Zeitpunkt $\tau$ mit $s<\tau <t$ muss es daher
+einen Zusammenhang zwischen den transienten Übergangswahrscheinlichkeiten
+$p_{xy}(s,\tau)$, $p_{xy}(\tau,t)$ und $p_{xy}(s,t)$ geben.
+
+\begin{satz}[Chapman-Kolmogorov]
+Hat der Prozess die Markov-Eigenschaft und ist $s<\tau <t$, dann gilt
+\[
+p_{xy}(t,s) = \sum_{z\in\mathcal{S}} p_{xz}(t,\tau) p_{zy}(\tau,s),
+\]
+was in Matrixform auch als
+\[
+P(t,s) = P(t,\tau)P(\tau,s)
+\]
+geschrieben werden kann.
+\end{satz}
+
+Auch hier spielt es keine Rolle, wie nahe an $t$ der Zwischenzeitpunkt
+$\tau$ liegt.
+Die Formel von Chapman-Kolmogoroff kann natürlich für zusätzliche
+Zwischenpunkte $s<t_1<t_2<\dots< t_n< t$ formuliert werden.
+In Matrix-Notation gilt
+\[
+P(t,s) = P(t,t_n)P(t_n,t_{n-1})\dots P(t_2,t_1)P(t_1,s),
+\]
+was ausgeschrieben zu
+\[
+p_{xy}(t,s)
+=
+\sum_{x_1,\dots,x_n\in\mathcal{S}}
+p_{xx_n}(t,t_n)
+p_{x_nx_{n-1}}(t_n,t_{n-1})
+\dots
+p_{x_2x_1}(t_2,t_1)
+p_{x_1y}(t_1,s)
+\]
+wird.
+Jeder Summand auf der rechten Seite beschreibt einen Weg des Prozesses
+derart, dass er zu den Zwischenzeitpunkten bestimmte
+Zwischenzustände durchläuft.
+
+% XXX Pfadwahrscheinlichkeit
+\begin{definition}
+Die Wahrscheinlichkeit, dass der stochastische Prozess zwischen Zeitpunkten
+$t_0$ und $t_n$ die Zwischenzustände $x_i$ zu Zeiten $t_i$ durchläuft ist
+das Produkt
+\[
+\sum_{x_1,\dots,x_n\in\mathcal{S}}
+p_{x_{n+1}x_n}(t_{n+1},t_n)
+p_{x_nx_{n-1}}(t_n,t_{n-1})
+\dots
+p_{x_2x_1}(t_2,t_1)
+p_{x_1x_0}(t_1,s)
+=
+\prod_{i=0}^{n}
+p_{x_{i+1}x_i}(t_{i+1}t_i)
+\]
+heisst die {\em Pfadwahrscheinlichkeit} für genannten Pfad.
+\index{Pfadwahrscheinlichkeit}%
+\end{definition}
+
+%
+% Diskrete Markov-Kette
+%
+\subsection{Diskrete Markov-Kette}
+% XXX Diskrete Zeit, Endliche Zustandsmenge
+Die Markov-Eigenschaft besagt, dass man keine Information verliert,
+wenn man die Vorgeschichte eines Zeitpunktes ignoriert.
+Insbesondere kann man eine Menge von geeigneten diskreten
+Zeitpunkten wählen, ohne viel Information über den Prozess zu
+verlieren.
+Eine {\em diskrete Markov-Kette} ist eine stochastischer Prozess,
+für den die Menge der Zeitpunkte $t$ diskret ist.
+Es ist üblich, für die Zeitpunkte ganze oder natürliche Zahlen zu
+verwenden.
+
+\begin{definition}
+Eine diskrete Markov-Kette ist ein stochastischer Prozess
+$(X_t)_{t\in\mathbb{N}}$ mit Werten in $\mathcal{S}$, der die
+Markov-Eigenschaft
+\[
+P(X_{n+1}=x_{n+1}|X_n=x_n\wedge\dots X_0=x_0)
+=
+P(X_{n+1}=x_{n+1}|X_n=x_n)
+\]
+hat.
+\end{definition}
+
+\begin{figure}
+\centering
+\includegraphics{chapters/80-wahrscheinlichkeit/images/markov.pdf}
+\caption{Diskrete Markovkette mit Zuständen $\mathcal{S}=\{1,2,3,\dots,s\}$
+und Übergangsmatrizen $T(n+1,n)$.
+\label{buch:wahrscheinlichkeit:fig:diskretemarkovkette}}
+\end{figure}
+
+Die transienten Übergangswahrscheinlichkeiten zwischen aufeinanderfolgenden
+Zeitpunkten stellen jetzt die vollständige Information über die
+zeitliche Entwicklung dar
+(Abbildung~\ref{buch:wahrscheinlichkeit:fig:diskretemarkovkette}).
+Aus der Matrix
+\[
+T(n+1,n)
+=
+\begin{pmatrix}
+p_{11}(n+1,n) & \dots & p_{1s}(n+1,n)\\
+\vdots & \ddots & \vdots \\
+p_{11}(n+1,n) & \dots & p_{1s}(n+1,n)
+\end{pmatrix},
+\]
+auch die $1$-Schritt Übergangswahrscheinlichkeit genannt, kann man jetzt
+auch die Matrix der Überganswahrscheinlichkeiten für mehrere Schritte
+\[
+T(n+m,n)
+=
+T(n+m,n+m-1)
+T(n+m-1,n+m-2)
+\dots
+T(n+1,n)
+\]
+mit der Chapman-Komogorov-Formel bestimmen.
+Die Markov-Eigenschaft stellt also sicher, dass man nur die
+$1$-Schritt-Übergangswahrscheinlichkeiten kennen muss.
+
+Eine Matrix $T$ kann als Matrix der Übergangswahrscheinlichkeiten
+verwendet werden, wenn sie zwei Bedingungen erfüllt:
+\begin{enumerate}
+\item Die Einträge von $T$ müssen als Wahrscheinlichkeiten interpretiert
+werden können, sie müssen also alle zwischen $0$ und $1$ sein:
+$0\le t_{ij}\le 1$ für $i,j\in\mathcal{S}$
+\item Die Matrix muss alle möglichen Fälle erfassen.
+Dazu ist notwendig, dass sich die Wahrscheinlichkeiten aller Übergänge
+aus einem Zustand $j$ zu $1$ summieren, also
+\[
+\sum_{i\in\mathcal{S}} p_{ij} = 1.
+\]
+Die Summe der Elemente einer Spalte
+\end{enumerate}
+
+\begin{beispiel}
+Die Permutationsmatrix einer Permutation $\sigma\in S_n$
+(Abschnitt~\label{buch:section:permutationsmatrizen})
+ist eine Matrix mit Einträgen $0$ und $1$, so dass die erste Bedingung
+erfüllt ist.
+In jeder Zeile oder Spalte kommt genau eine $1$ vor, so dass auch die
+zweite Bedingung erfüllt ist.
+Eine Permutationsmatrix beschreibt einen stochastischen Prozess, dessen
+Übergänge deterministisch sind.
+\end{beispiel}
+
+\subsubsection{Zustandswahrscheinlichkeiten}
+% XXX Zustandswahrscheinlichkeit
+Die Wahrscheinlichkeit, mit der sich der Prozess zum Zeitpunkt $n$
+im Zustand $i\in\mathcal{S}$ befindet, wird
+\[
+p_i(n)
+=
+P(X_i=n)
+\]
+geschrieben, die auch in einem Vektor $p(n)$ zusammengefasst
+werden können.
+Die Matrix der Übergangswahrscheinlichkeiten erlaubt, die Verteilung
+$p(n+1)$ aus der Verteilung $p(n)$ zu berechnen.
+Nach dem Satz von der totalen Wahrscheinlichkeit ist nämlich
+\[
+P(X_{n+1}=x)
+=
+\sum_{y\in\mathcal{S}}
+P(X_{n+1}=x|X_n=y) P(X_n=y)
+\qquad\text{oder}\qquad
+p^{(n+1)} = T(n+1,n) p^{(n)}
+\]
+in Matrixform.
+Die Zeitentwicklung kann also durch Multiplikation mit der Übergangsmatrix
+berechnet werden.
+
+\subsubsection{Zeitunabhängige Übergangswahrscheinlichkeiten}
+% XXX Übergangswahrscheinlichkeit
+Besonderes einfach wird die Situation, wenn die Übergangsmatrix $T(n+1,n)$
+nicht von der Zeit abhängt.
+In diesem Fall ist $T(n+1,n) = T$ für alle $n$.
+Eine solche Markov-Kette heisst {\em homogen}.
+\index{homogene Markov-Kette}%
+Die Mehrschritt-Übergangswahrscheinlichkeiten sind dann gegeben
+durch die Matrix-Potenzen $T(n+m,n)=T^m$.
+Im Folgenden gehen wir immer von einer homogenen Markov-Kette aus.
+
+\subsubsection{Stationäre Verteilung}
+% XXX stationäre Verteilung
+Im Beispiel der Google-Matrix erwarten wir intuitiv, dass sich mit
+der Zeit eine Verteilung einstellt, die sich über die Zeit nicht
+mehr ändert.
+Ein solche Verteilung heisst stationär.
+
+\begin{definition}
+Eine Verteilungsvektor $p$ heisst {\em stationär} für die
+homogene Markov-Kette mit Übergangsmatrix $T$, wenn $Tp=p$.
+\index{stationäre Verteilung}%
+\end{definition}
+
+Eine stationäre Verteilung ist offenbar ein Eigenvektor der Matrix
+$T$ zum Eigenwert $1$.
+Gefunden werden kann er als Lösung des Gleichungssystems $Tp=p$.
+Dazu muss die Matrix $T-E$ singulär sein.
+Die Summe einer Spalte von $T$ ist aber immer ein, da $E$ in jeder Spalte
+genau eine $1$ enthält, ist die Summe der Einträge einer Spalte von
+$T-E$ folglich $0$.
+Die Summe aller Zeilen von $T-E$ ist also $0$, die Matrix $T-E$
+ist singulär.
+Dies garantiert aber noch nicht, dass alle Einträge in diesem
+Eigenvektor auch tatsächlich nichtnegativ sind.
+Die Perron-Frobienus-Theorie von
+Abschnitt~\ref{buch:section:positive-vektoren-und-matrizen}
+beweist, dass sich immer ein Eigenvektor mit nichtnegativen
+Einträgen finden lässt.
+
+Es ist aber nicht garantiert, dass eine stationäre Verteilung
+auch eindeutig bestimmt ist.
+Dieser Fall tritt immer ein, wenn die geometrische Vielfachheit
+des Eigenwerts $1$ grösser ist als $1$.
+In Abschnitt~\ref{buch:subsection:elementare-eigenschaften}
+werden Bedingungen an eine Matrix $T$ untersucht, die garantieren,
+dass der Eigenraum zum Eigenvektor $1$ einedeutig bestimmt ist.
+
+\begin{beispiel}
+Als Beispiel dafür betrachten wir eine Permutation $\sigma\in S_n$
+und die zugehörige Permutationsmatrix $P$,
+wie sie in Abschnitt~\label{buch:section:permutationsmatrizen}
+beschrieben worden ist.
+Wir verwenden die
+Zyklenzerlegung (Abschnitt~\ref{buch:subsection:zyklenzerlegung})
+\(
+[n] = \{ Z_1, Z_2,\dots \}
+\)
+der Permutation $\sigma$, ist ist also $\sigma(Z_i) = Z_i$ für alle
+Zyklen.
+
+Jede Verteilung $p$, die auf jedem Zyklus konstant ist, ist eine
+stationäre Verteilung.
+Ist nämlich $i\in Z_k$, dann ist natürlich auch $\sigma(i)\in Z_k$,
+und damit ist $p_{\sigma(i)}=p_i$.
+
+Für jede Wahl von nichtnegativen Zahlen $z_i$ für $i=1,\dots,k$
+mit der Eigenschaft $z_1+\dots+z_k=1$ kann man eine stationäre
+Verteilung $p(z)$ konstruieren, indem man
+\[
+p_i(z)
+=
+\frac{z_i}{|Z_r|}
+\qquad\text{wenn}\quad i\in Z_r
+\]
+setzt.
+Die Konstruktion stellt sicher, dass sich die Komponenten zu $1$
+summieren.
+Wir können aus dem Beispiel auch ableiten, dass die geometrische
+Vielfachheit des Eigenvektors $1$ mindestens so gross ist wie die
+Anzahl der Zyklen der Permutation $\sigma$.
+\end{beispiel}
+
+\subsubsection{Irreduzible Markov-Ketten}
+Die Zyklen-Zerlegung einer Permutation bilden voneinander isolierte
+Mengen von Zuständen, es gibt keine Möglichkeit eines Übergangs zu
+einem anderen Zyklus.
+Die Zyklen können daher unabhängig voneinander studiert werden.
+Diese Idee kann auf allgemeine Markov-Ketten verallgemeinert werden.
+
+\begin{definition}
+Zwei Zustände $i,j\in\mathcal{S}$ kommunizieren, wenn die
+Übergangswahrscheinlichkeiten $T_{ij}(n) \ne 0$ und $T_{ij}(n)\ne 0$ sind
+für $n$ gross genug.
+\end{definition}
+
+Die Zustände, die zu verschiedenen Zyklen einer Permutation gehören,
+kommunizieren nicht.
+Gerade deshalb waren auch die verschiedenen stationären Verteilungen
+möglich.
+Eine eindeutige stationäre Verteilung können wir also nur erwarten,
+wenn alle Zustände miteinander kommunizieren.
+
+% XXX irreduzible Markov-Ketten
+\begin{definition}
+Eine homogene Markov-Kette heisst {\em irreduzibel}, alle Zustände miteinander
+kommunizieren.
+\index{irreduzible Markov-Kette}
+\end{definition}
+
+\begin{figure}
+\centering
+\includegraphics{chapters/80-wahrscheinlichkeit/images/markov2.pdf}
+\caption{Diese Markov-Kette zerfällt in verschiedene irreduzible
+Markov-Ketten, dere Zustandsmengen nicht miteinander kommunizieren.
+Solche Markov-Ketten können unabhängig voneinander studiert werden.
+\label{buch:wahrscheinlichkeit:fig:markovzerfall}}
+\end{figure}
+
+Die Bedingung der Irreduzibilität ist gleichbedeutend damit,
+dass für genügend grosses $n$ alle Matrixelemente von $T^n$ positiv sind.
+Solche Matrizen nennt man positiv,
+in Abschnitt~\ref{buch:section:positive-vektoren-und-matrizen}
+wird gezeigt, dass positive Matrizen immer eine eindeutige
+stationäre Verteilung haben.
+In Abbildung~\ref{buch:wahrscheinlichkeit:fig:markovzerfall}
+ist eine reduzible Markov-Kette dargestellt, die Zustandsmenge
+zerfällt in zwei Teilmengen von Zuständen, die nicht miteinander
+kommunizieren.
+Ein irreduzible Markov-Kette liegt vor, wenn sich ähnlich wie
+in Abbildung~\ref{buch:wahrscheinlichkeit:fig:diskretemarkovkette}
+jeder Zustand von jedem anderen aus erreichen lässt.
+
+Wenn sich der Vektorraum $\mathbb{R}^n$ in zwei unter $T$ invariante
+Unterräme zerlegen lässt, dann hat nach Wahl von Basen in den Unterräumen
+die Matrix $T$ die Form
+\[
+\left(
+\begin{array}{c|c}
+T_1&0\\
+\hline
+0&T_2
+\end{array}
+\right).
+\]
+Insbesondere kann man stationäre Verteilungen von $T_1$ und $T_2$
+unabhängig voneinander suchen.
+Ist $p_i$ eine stationäre Verteilung von $T_i$, dann ist
+\[
+T
+\left(
+\begin{array}{c}
+g_1p_1\\
+\hline g_2p_2
+\end{array}
+\right)
+=
+\left(
+\begin{array}{c}
+g_1T_1p_1\\
+\hline
+g_2T_2p_2
+\end{array}
+\right)
+=
+\left(
+\begin{array}{c}
+g_1p_1\\
+\hline
+g_2p_2
+\end{array}
+\right),\qquad
+\text{ für $g_i\in\mathbb{R}$.}
+\]
+Durch Wahl der Gewichte $g_i\ge 0$ mit $g_1+g_2=1$ lassen sich so
+die stationären Verteilungen für $T$ aus den stationären Verteilungen
+der $T_i$ ermitteln.
+Das Problem, die stationären Verteilungen von $T$ zu finden, ist
+auf die Untermatrizen $T_i$ reduziert worden.
+
+\subsubsection{Die konvexe Menge der stationären Verteilungen}
+\begin{figure}
+\centering
+\includegraphics{chapters/80-wahrscheinlichkeit/images/konvex.pdf}
+\caption{Die Konvexe Kombination von Vektoren $\vec{p}_1,\dots,\vec{p}_n$ ist
+eine Summe der Form $\sum_{i=1}^n t_i\vec{p}_i$ wobei die $t_i\ge 0$
+sind mit $\sum_{i=1}^nt_i=1$.
+Für zwei Punkte bilden die konvexen Kombinationen die Verbindungsstrecke
+zwischen den Punkten, für drei Punkte in drei Dimensionen spannen die
+konvexen Kombinationen ein Dreieck auf.
+\label{buch:wahrscheinlichkeit:fig:konvex}}
+\end{figure}
+Die stationären Verteilungen
+\[
+\operatorname{Stat}(T)
+=
+\{
+p\in\mathbb R_+^n\;|\; \text{$Tp=p $ und $\|p\|_1=1$}
+\}
+\]
+bilden was man eine konvexe Menge nennt.
+Sind nämlich $p$ und $q$ stationäre Verteilungen, dann gilt zunächst
+$Tp=p$ und $Tq=q$.
+Wegen der Linearität gilt aber auch $T(tp+(1-t)q)=tTp + (1-t)Tq
+=tp+(1-t)q$.
+Jede Verteilung auf der ``Verbindungsstrecke'' zwischen den beiden
+Verteilungen ist auch wieder stationär.
+
+\begin{definition}
+Eine {\em konvexe Kombination} von Vektoren $v_1,\dots,v_k\in\mathbb{R^n}$
+ist ein Vektor der Form
+\[
+v=t_1v_1+\dots + t_kv_k
+\qquad\text{mit}\quad
+t_i\ge 0\;\text{und}\;
+t_1+\dots+t_n = 1.
+\]
+\index{konvexe Kombination}%
+Eine Teilmenge $M\subset \mathbb{R}^n$ heisst konvex, wenn zu
+zwei Vektoren $x,y\in M$ auch jede konvexe Kombination von $x$ und $y$
+wieder in $M$ ist.
+\index{konvex}%
+\end{definition}
+
+Die konvexen Kombinationen der Vektoren sind Linearkombination
+mit nichtnegativen Koeffizienten. Sie bilden im Allgemeinen
+einen $(k-1)$-Simplex in $\mathbb{R}^n$.
+Für zwei Punkte $x$ und $y$ bilden die konvexen Kombination
+$tx+(1-t)y$ für $t\in[0,1]$ die Verbindungsstrecke der beiden
+Vektoren.
+Eine Menge ist also konvex, wenn sie mit zwei Punkten immer auch
+ihre Verbindungsstrecke enthält
+% XXX Bild für Konvexe Menge
+
+
+
+% XXX Grenzverteilung
+\subsubsection{Grenzverteilung}
+Im Beispiel der Google-Matrix wurde ein iterativer Algorithmus
+zur Berechnung des Pagerank verwendet.
+Es stellt sich daher die Frage, ob diese Methode für andere homogene
+Markov-Ketten auch funkioniert.
+Man beginnt also mit einer beliebigen Verteilung $p(0)$ und wendet
+die Übergangsmatrix $T$ wiederholt an.
+Es entsteht somit eine Folge $p(n) = T^np(0)$.
+
+\begin{definition}
+Falls die Folge $p(n) = T^np(0)$ konvergiert, heisst der Grenzwert
+\[
+p(\infty) = \lim_{n\to\infty} p(n)
+\]
+eine {\em Grenzverteilung} von $T$.
+\index{Grenzverteilung}%
+\end{definition}
+
+Falls eine Grenzverteilung existiert, dann ist sie eine stationäre
+Verteilung.
+Für eine stationäre Verteilung $p(0)$ ist die Folge $p(n)$ eine
+konstante Folge, sie konvergiert also gegen $p(0)$.
+Stationäre Verteilungen sind also automatisch Grenzverteilungen.
+Falls der Raum der stationären Verteilungen mehrdimensional sind,
+dann ist auch die Grenzverteilung nicht eindeutig bestimmt, selbst
+wenn sie existiert.
+Aber nicht einmal die Existenz einer Grenzverteilung ist garantiert,
+wie das folgende Beispiel zeigt.
+
+\begin{beispiel}
+Sei $T$ die Permutationsmatrix der zyklischen Verteilung von drei
+Elementen in $S_3$, also die Matrix
+\[
+T=\begin{pmatrix}
+0&0&1\\
+1&0&0\\
+0&1&0
+\end{pmatrix}.
+\]
+Die konstante Verteilung $\frac13U$ ist offensichtlich eine
+stationäre Verteilung.
+In Abschnitt~\ref{buch:section:positive-vektoren-und-matrizen}
+wird gezeigt, dass es die einzige ist.
+Sei jetzt $p(0)$ eine beliebiger Vektor in $\mathbb{R}^3$ mit
+nichtnegativen Einträgen, die sich zu $1$ summieren.
+Dann bilden die Vektoren $p(n)=T^np(0)$ einen Dreierzyklus
+\begin{align*}
+p(0)&=p(3)=p(6)=\dots =\begin{pmatrix}p_1(0)\\p_2(0)\\p_3(0)\end{pmatrix},
+\\
+p(1)&=p(4)=p(7)=\dots =\begin{pmatrix}p_2(0)\\p_3(0)\\p_1(0)\end{pmatrix},
+\\
+p(2)&=p(5)=p(8)=\dots =\begin{pmatrix}p_3(0)\\p_1(0)\\p_2(0)\end{pmatrix}.
+\end{align*}
+Die Folge $p(n)$ kann also nur dann konvergieren, wenn die drei
+Komponenten gleich sind.
+\end{beispiel}
+
+\subsubsection{Erwartungswert und Varianz}
+% XXX Erwartungswert und Varianz für eine Grenzverteilung
+Wenn sich im Laufe der Zeit eine Grenzverteilung einstellen soll, dann
+muss es auch möglich sein, Erwartungswert und Varianz dieser Verteilung
+zu berechnen.
+Dazu muss jedem Zustand ein Zahlenwert zugeordnet werden.
+Sei also
+\(
+g: \mathcal{S}\to R
+\)
+eine Funktion, die einem Zustand eine reelle Zahl zuordnet.
+Aus der Zufallsvariable $X_n$ des Zustands zur Zeit $n$ wird daraus
+die Zufallsvariable $Y_n=g(X_n)$ des Wertes zur Zeit $n$.
+Die Abbildung $g$ kann auch als Vektor mit der Komponenten $g_i$
+für $i\in\mathcal{S}$ betrachtet werden, wir verwenden für diesen
+Vektor wieder die Schreibweise $g$.
+
+Für die Verteilung $p(n)$ kann man jetzt auch Erwartungswert und
+Varianz berechnen.
+Der Erwartungswert ist
+\[
+E(Y)
+=
+\sum_{i\in\mathcal{S}} g_i p_i(n)
+=
+g^t p(n).
+\]
+Für die Varianz muss $g_i$ durch $g_i^2$ ersetzt werden.
+Dies kann am einfachsten mit dem Hadamard-Produkt geschrieben werden:
+\begin{align*}
+E(Y^2)
+&=
+\sum_{i\in\mathcal{S}} g_i p_i(n)
+=
+(g\odot g)^t p(n)
+\\
+E(Y^k)
+&=
+(g^{\odot k})^t p(n),
+\end{align*}
+wobei wir die Hadamard-Potenz $A^{\odot k}$ einer Matrix $A$ rekursiv
+durch
+\[
+A^{\odot 0}=E
+\qquad\text{und}\qquad
+A^{\odot k} = A\odot A^{\odot (k-1)}
+\]
+definieren.
+
+\subsubsection{Erwartungswert von Werten auf Übergängen}
+% XXX Erwartungswert für Zufallsvariablen, die von den Übergängen abhängen
+In Abschnitt~\ref{buch:section:paradoxon-von-parrondo} wird ein Spiel
+vorgestellt, in dem der Gewinn davon abhängt, welcher Übergang stattfindet,
+nicht welcher Zustand erreicht wird.
+Es git daher eine Matrix $G$ von Gewinnen, der Eintrag $g_{ij}$ ist
+der Gewinn, der bei einem Übergang von Zustand $j$ in den Zustand $i$
+ausgezahlt wird.
+Mit dieser Matrix lassen sich jetzt viele verschiedene Fragen beantworten:
+
+\begin{frage}
+\label{buch:wahrscheinlichkeit:frage1}
+Mit welchem Gewinn kann man in Runde $n$ des Spiels rechnen,
+wenn $p(n-1)$ die Verteilung zur Zeit $n-1$ ist?
+\end{frage}
+
+Der Erwartungswert ist
+\begin{align*}
+E(Y)
+&=
+\sum_{i,j\in\mathcal{S}}
+g_{ji} t_{ji} p_i(n-1)
+\intertext{oder in Matrixform}
+&=
+U^t
+(G\odot T)
+p(n-1).
+\end{align*}
+
+\begin{frage}
+Mit welchen Gewinnen kann man rechnen, wenn der Prozess sich zu Beginn
+einer Spielrunde im Zustand $i$ befindet?
+\end{frage}
+
+Dies ist der Spezialfall der Frage~\ref{buch:wahrscheinlichkeit:frage1}
+für die Verteilung $p_j(n-1) = \delta_{ij}$.
+Der Erwartungswert ist die Summe der Spalte $j$ der Matrix $G\odot T$.
+Man kann das Produkt $U^t(G\odot T)$ also auch als eine Zeilenvektor
+von Gewinnerwartungen unter der Vorbedingung $X_{n-1}=j$ betrachten.
+\[
+\begin{pmatrix}
+E(Y|X_{n-1}=1)
+&\dots&
+E(Y|X_{n-1}=n)
+\end{pmatrix}
+=
+U^t (G\odot T).
+\]
+Indem man $G$ durch $G^{\odot k}$ ersetzt, kann man beliebige höhere
+Momente berechnen.
+
+\subsection{Absorbierende Zustände}
+% XXX Definition
+Eine Grenzverteilung beschreibt die relative Häufigkeit, mit der
+der Prozess in den verschiedenen Zuständen vorbeikommt.
+In einem Spiel, in dem der Spieler ruiniert werden kann, gibt es
+aus dem Ruin-Zustand keinen Weg zurück.
+Der Spieler bleibt in diesem Zustand.
+
+\begin{definition}
+Ein Zustand $i$ einer homogenen Markov-Kette mit Übergangsmatrix $T$
+heisst {\em absorbierend}, wenn $T_{ii}=1$ ist.
+\index{absorbierender Zustand}%
+Eine Markov-Kette mit mindestens einem absorbierenden Zustand heisst
+{\em absorbierende Markov-Kette}.
+\index{absorbierende Markov-Kette}%
+Nicht absorbierende Zustände heissen {\em transient}
+\index{transienter Zustand}%
+\end{definition}
+
+\begin{figure}
+\centering
+\includegraphics{chapters/80-wahrscheinlichkeit/images/markov3.pdf}
+\caption{Markov-Kette mit absorbierenden Zuständen (blau hinterlegt).
+Erreicht die Markov-Kette einen absorbierenden Zustand, dann verbleibt
+sie für alle zukünftigen Zustände in diesem Zustand.
+\label{buch:wahrscheinlichkeit:fig:abs}}
+\end{figure}
+
+Eine Markov-Kette kann mehrere absorbierende Zustände haben, wie in
+Abbildung~\ref{buch:wahrscheinlichkeit:fig:abs} dargestellt.
+Indem man die absorbierenden Zustände zuerst auflistet, bekommt die
+Übergangsmatrix die Form
+\[
+T=
+\left(
+\begin{array}{c|c}
+E&R\\
+\hline
+0&Q
+\end{array}
+\right).
+\]
+Die Matrix $R$ beschreibt die Wahrscheinlichkeiten, mit denen man
+ausgehend von einem transienten Zustand
+in einem bestimmten absorbierenden Zustand landet.
+Die Matrix $Q$ beschreibt die Übergänge, bevor dies passiert.
+Die Potenzen von $T$ sind
+\[
+T^2
+=
+\left(
+\begin{array}{c|c}
+E&R+RQ \\
+\hline
+0&Q^2
+\end{array}
+\right),
+\quad
+T^3
+=
+\left(
+\begin{array}{c|c}
+E&R+RQ+RQ^2 \\
+\hline
+0&Q^3
+\end{array}
+\right),
+\;
+\dots,
+\;
+T^k
+=
+\left(
+\begin{array}{c|c}
+E&\displaystyle R\sum_{l=0}^{k-1} Q^l \\
+\hline
+0&Q^k
+\end{array}
+\right).
+\]
+Da man früher oder später in einem absorbierenden Zustand landet,
+muss $\lim_{k\to\infty} Q^k=0$ sein.
+Die Summe in der rechten oberen Teilmatrix kann man als geometrische
+Reihe summieren, man erhält die Matrix
+\[
+\sum_{l=0}^{k-1} Q^l = (E-Q)^{-1}(E-Q^k),
+\]
+die für $k\to\infty$ gegen
+\[
+N
+=
+\lim_{k\to\infty} \sum_{l=0}^{k-1} Q^l
+=
+(E-Q)^{-1}
+\]
+konvergiert.
+Die Matrix $N$ heisst die {\em Fundamentalmatrix} der absorbierenden
+Markov-Kette.
+\index{Fundamental-Matrix}%
+
+\subsubsection{Absorbtionszeit}
+% XXX Absorptionszeit
+Wie lange dauert es im Mittel, bis der Prozess in einem
+Absorptionszustand $i$ stecken bleibt?
+Die Fundamentalmatrix $N$ der Markov-Kette beantwortet diese
+Frage.
+Wenn der Prozess genau im Schritt $k$ zum ersten Mal Zustand $i$
+ankommt, dann ist $E(k)$ die mittlere Wartezeit.
+Der Prozess verbringt also zunächst $k-1$ Schritte in transienten
+Zuständen, bevor er in einen absorbierenden Zustand wechselt.
+
+Wir brauchen die Wahrscheinlichkeit für einen Entwicklung des Zustandes
+ausgehend vom Zustand $j$, die nach $k-1$ Schritten im Zustand $l$
+landet, von wo er in den absorbierenden Zustand wechselt.
+Diese Wahrscheinlichkeit ist
+\[
+P(X_k = i\wedge X_{k-1} = l \wedge X_0=j)
+=
+\sum_{i_1,\dots,i_{k-2}}
+r_{il} q_{li_{k-2}} q_{i_{k-2}i_{k-3}}\dots q_{i_2i_1} q_{i_1j}
+\]
+Von den Pfaden, die zur Zeit $k-1$ im Zustand $l$ ankommen gibt es
+aber auch einige, die nicht absorbiert werden.
+Für die Berechnung der Wartezeit möchten wir nur die Wahrscheinlichkeit
+innerhalb der Menge der Pfade, die auch tatsächlich absorbiert werden,
+das ist die bedingte Wahrscheinlichkeit
+\begin{equation}
+\begin{aligned}
+P(X_k = i\wedge X_{k-1} = l \wedge X_0=j|X_k=i)
+&=
+\frac{
+P(X_k = i\wedge X_{k-1} = l \wedge X_0=j)
+}{
+P(X_k=i)
+}
+\\
+&=
+\sum_{i_1,\dots,i_{k-2}}
+q_{li_{k-2}} q_{i_{k-2}i_{k-3}}\dots q_{i_2i_1} q_{i_1j}.
+\end{aligned}
+\label{buch:wahrscheinlichkeit:eqn:ankunftswahrscheinlichkeit}
+\end{equation}
+Auf der rechten Seite steht das Matrixelement $(l,j)$ von $Q^{k-1}$.
+
+% XXX Differenz
+
+Für die Berechnung der erwarteten Zeit ist müssen wir die
+Wahrscheinlichkeit mit $k$ multiplizieren und summieren:
+\begin{align}
+E(k)
+&=
+\sum_{k=0}^\infty
+k(
+q^{(k)}_{lj}
+-
+q^{(k-1)}_{lj}
+)
+\notag
+\\
+&=
+\dots
++
+(k+1)(
+q^{(k)}_{lj}
+-
+q^{(k+1)}_{lj}
+)
++
+k(
+q^{(k-1)}_{lj}
+-
+q^{(k)}_{lj}
+)
++
+\dots
+\label{buch:wahrscheinlichkeit:eqn:telescope}
+\\
+&=
+\dots
++
+q^{(k-1)}_{lj}
++
+\dots
+=
+\sum_{k} q^{(k)}_{lj}.
+\notag
+\end{align}
+In zwei benachbarten Termen in
+\eqref{buch:wahrscheinlichkeit:eqn:telescope}
+heben sich die Summanden $kq^{(k)}_{lj}$ weg, man spricht von
+einer teleskopischen Reihe.
+Die verbleibenden Terme sind genau die Matrixelemente der Fundamentalmatrix $N$.
+Die Fundamentalmatrix enthält also im Eintrag $(l,j)$ die Wartezeit
+bis zur Absorption über den Zustand $l$.
+
+\subsubsection{Wartezeit}
+% XXX Mittlere Zeit bis zu einem bestimmten Zustand
+Die mittlere Wartezeit bis zum Erreichen eines Zustands kann mit der
+Theorie zur Berechnung der Absorptionszeit berechnet werden.
+Dazu modifiziert man den Prozess dahingehend, dass der Zielzustand
+ein absorbierender Zustand wird.
+Der Einfachheit halber gehen wir davon aus, dass der Zustand $1$
+der Zielzustand ist.
+Wir ersetzen die Übergangsmatrix $T$ durch die Matrix
+\[
+\tilde{T}
+=
+\left(
+\begin{array}{c|ccc}
+1 &t_{12}&\dots &t_{1n}\\
+\hline
+0 &t_{22}&\dots &t_{2n}\\
+\vdots&\dots &\ddots&\vdots\\
+0 &t_{n2}&\dots &t_{nn}
+\end{array}\right).
+\]
+$\tilde{T}$ hat den Zustand $1$ als absorbierenden Zustand.
+Die $Q$ und $R$ sind
+\[
+\tilde{R}
+=
+\begin{pmatrix}t_{12}&\dots&t_{1n}\end{pmatrix},
+\quad
+\tilde{Q}
+=
+\begin{pmatrix}
+t_{22}&\dots &t_{2n}\\
+\vdots&\ddots&\vdots\\
+t_{n2}&\dots &t_{nn}
+\end{pmatrix}.
+\]
+Die Wartezeit bis zum Erreichen des Zustands $i$ ausgehend von einem
+Zustand $n$ kann jetzt aus der Absorbtionszeit der Markov-Kette
+im Zustand $1$ mit Hilfe der Fundamentalmatrix
+\[
+\tilde{N}
+=
+(E-\tilde{Q})^{-1}
+\]
+berechnet werden.
diff --git a/buch/chapters/80-wahrscheinlichkeit/parrondo.tex b/buch/chapters/80-wahrscheinlichkeit/parrondo.tex
index ac4163e..a62d813 100644
--- a/buch/chapters/80-wahrscheinlichkeit/parrondo.tex
+++ b/buch/chapters/80-wahrscheinlichkeit/parrondo.tex
@@ -6,3 +6,801 @@
\section{Das Paradoxon von Parrondo
\label{buch:section:paradoxon-von-parrondo}}
\rhead{Das Paradoxon von Parrondo}
+Das Paradoxon von Parrondo ist ein der Intuition widersprechendes
+Beispiel für eine Kombination von Spielen mit negativer Gewinnerwartung,
+deren Kombination zu einem Spiel mit positiver Gewinnerwartung führt.
+Die Theorie der Markov-Ketten und der zugehörigen Matrizen ermöglicht
+eine sehr einfache Analyse.
+
+%
+% Parrondo Teilspiele
+%
+\subsection{Die beiden Teilspiele
+\label{buch:subsection:teilspiele}}
+
+\subsubsection{Das Spiel $A$}
+Das Spiel $A$ besteht darin, eine Münze zu werfen.
+Je nach Ausgang gewinnt oder verliert der Spieler eine Einheit.
+Sei $X$ die Zufallsvariable, die den gewonnen Betrag beschreibt.
+Für eine faire Münze ist die Gewinnerwartung in diesem Spiel natürlich
+$E(X)=0$.
+Wenn die Wahrscheinlichkeit für einen Gewinn $1+e$ ist, dann muss
+die Wahrscheinlichkeit für einen Verlust $1-e$ sein, und die
+Gewinnerwartung ist
+\(
+E(X)
+=
+1\cdot P(X=1) + (-1)\cdot P(X=-1)
+=
+1+e + (-1)(1-e)
+=
+2e.
+\)
+Die Gewinnerwartung ist also genau dann negativ, wenn $e<0$ ist.
+
+\subsubsection{Das Spiel $B$}
+Das zweite Spiel $B$ ist etwas komplizierter, da der Spielablauf vom
+aktuellen Kapital $K$ des Spielers abhängt.
+Wieder gewinnt oder verliert der Spieler eine Einheit,
+die Gewinnwahrscheinlichkeit hängt aber vom Dreierrest des Kapitals ab.
+Sei $Y$ die Zufallsvariable, die den Gewinn beschreibt.
+Ist $K$ durch drei teilbar, ist die Gewinnwahrscheinlichkeit $\frac1{10}$,
+andernfalls ist sie $\frac34$.
+Formell ist
+\begin{equation}
+\begin{aligned}
+P(Y=1|\text{$K$ durch $3$ teilbar}) &= \frac{1}{10}
+\\
+P(Y=1|\text{$K$ nicht durch $3$ teilbar}) &= \frac{3}{4}
+\end{aligned}
+\label{buch:wahrscheinlichkeit:eqn:Bwahrscheinlichkeiten}
+\end{equation}
+Insbesondere ist die Wahrscheinlichkeit für einen Gewinn in zwei der
+Fälle recht gross, in einem Fall aber sehr klein.
+
+\subsubsection{Übergangsmatrix im Spiel $B$}
+\begin{figure}
+\centering
+\includegraphics{chapters/80-wahrscheinlichkeit/images/spielB.pdf}
+\caption{Zustandsdiagramm für das Spiel $B$, Zustände sind die
+Dreierreste des Kapitals.
+\label{buch:wahrscheinlichkeit:fig:spielB}}
+\end{figure}%
+Für den Verlauf des Spiels spielt nur der Dreierrest des Kapitals
+eine Rolle.
+Es gibt daher drei mögliche Zustände $0$, $1$ und $2$.
+In einem Spielzug finde ein Übergang in einen anderen Zustand
+statt, der Eintrag $b_{ij}$ ist die Wahrscheinlichkeit
+\[
+b_{ij}
+=
+P(K\equiv i|K\equiv j),
+\]
+dass ein Übergang vom Zustand $j$ in den Zustand $i$ stattfindet.
+Die Matrix ist
+\[
+B=
+\begin{pmatrix}
+0 &\frac14 &\frac34\\
+\frac1{10} &0 &\frac14\\
+\frac9{10} &\frac34 &0
+\end{pmatrix}.
+\]
+
+\subsubsection{Gewinnerwartung in einem Einzelspiel $B$}
+Die Gewinnerwartung einer einzelnen Runde des Spiels $B$ hängt natürlich
+ebenfalls vom Ausgangskapital ab.
+Mit den Wahrscheinlichkeiten von
+\eqref{buch:wahrscheinlichkeit:eqn:Bwahrscheinlichkeiten}
+findet man die Gewinnerwartung
+\begin{equation}
+\begin{aligned}
+E(Y| \text{$K$ durch $3$ teilbar})
+&=
+1\cdot P(Y=1|K\equiv 0\mod 3)
++
+(-1)\cdot P(Y=-1|K\equiv 0\mod 3)
+\\
+&=
+\frac1{10}
+-
+\frac{9}{10}
+=
+-\frac{8}{10}
+\\
+E(Y| \text{$K$ nicht durch $3$ teilbar})
+&=
+1\cdot P(Y=1|K\not\equiv 0\mod 3)
++
+(-1)\cdot P(Y=-1|K\not\equiv 0\mod 3)
+\\
+&=
+\frac34-\frac14
+=
+\frac12.
+\end{aligned}
+\label{buch:wahrscheinlichkeit:eqn:Berwartungen}
+\end{equation}
+Falls $K$ durch drei teilbar ist, muss der Spieler
+also mit einem grossen Verlust rechnen, andernfalls mit einem
+moderaten Gewinn.
+
+Ohne weiteres Wissen über das Anfangskapital ist es zulässig anzunehmen,
+dass die drei möglichen Reste die gleiche Wahrscheinlichkeit haben.
+Die Gewinnerwartung in diesem Fall ist dann
+\begin{align}
+E(Y)
+&=
+E(Y|\text{$K$ durch $3$ teilbar}) \cdot \frac13
++
+E(Y|\text{$K$ nicht durch $3$ teilbar}) \cdot \frac23
+\notag
+\\
+&=
+-\frac{8}{10}\cdot\frac{1}{3}
++
+\frac{1}{2}\cdot\frac{2}{3}
+=
+-\frac{8}{30}+\frac{10}{30}
+=
+\frac{2}{30}
+=
+\frac{1}{15}.
+\label{buch:wahrscheinlichkeit:eqn:Beinzelerwartung}
+\end{align}
+Unter der Annahme, dass alle Reste die gleiche Wahrscheinlichkeit haben,
+ist das Spiel also ein Gewinnspiel.
+
+Die Berechnung der Gewinnerwartung in einem Einzelspiel kann man
+wie folgt formalisieren.
+Die Matrix $B$ gibt die Übergangswahrscheinlichkeiten zwischen
+verschiedenen Zuständen.
+Die Matrix
+\[
+G=\begin{pmatrix}
+ 0&-1& 1\\
+ 1& 0&-1\\
+-1& 1& 0
+\end{pmatrix}
+\]
+gibt die Gewinne an, die bei einem Übergang anfallen.
+Die Matrixelemente $g_{ij}b_{ij}$ des Hadamard-Produktes
+$G\odot B$
+von $G$ mit $B$ enthält in den Spalten die Gewinnerwartungen
+für die einzelnen Übergänge aus einem Zustand.
+Die Summe der Elemente der Spalte $j$ enthält die Gewinnerwartung
+\[
+E(Y|K\equiv j)
+=
+\sum_{i=0}^2 g_{ij}b_{ij}
+\]
+für einen Übergang aus dem Zustand $j$.
+Man kann dies auch als einen Zeilenvektor schreiben, der durch Multiplikation
+der Matrix $G\odot B$ mit dem Zeilenvektor
+$U^t=\begin{pmatrix}1&1&1\end{pmatrix}$
+entsteht:
+\[
+\begin{pmatrix}
+E(Y|K\equiv 0)&
+E(Y|K\equiv 1)&
+E(Y|K\equiv 2)
+\end{pmatrix}
+=
+U^t
+G\odot B.
+\]
+Die Gewinnerwartung ist dann das Produkt
+\[
+E(Y)
+=
+\sum_{i=0}^2
+E(Y|K\equiv i) p_i
+=
+U^t
+(G\odot B)p.
+\]
+Tatsächlich ist
+\[
+G\odot B
+=
+\begin{pmatrix}
+ 0 &-\frac14 & \frac34\\
+ \frac1{10} & 0 &-\frac14\\
+-\frac9{10} & \frac34 & 0
+\end{pmatrix}
+\quad\text{und}\quad
+U^t G\odot B
+=
+\begin{pmatrix}-\frac{8}{10}&\frac12&\frac12\end{pmatrix}.
+\]
+Dies stimmt mit den Erwartungswerten in
+\eqref{buch:wahrscheinlichkeit:eqn:Berwartungen}
+überein.
+Die gesamte Geinnerwartung ist dann
+\begin{equation}
+(G\odot B)
+\begin{pmatrix}\frac13\\\frac13\\\frac13\end{pmatrix}
+=
+\begin{pmatrix}-\frac{8}{10}&\frac12&\frac12\end{pmatrix}
+\frac13U
+=
+\frac13\biggl(-\frac{8}{10}+\frac12+\frac12\biggr)
+=
+\frac13\cdot\frac{2}{10}
+=
+\frac{1}{15},
+\label{buch:wahrscheinlichkeit:eqn:BodotEinzelerwartung}
+\end{equation}
+dies stimmt mit \eqref{buch:wahrscheinlichkeit:eqn:Beinzelerwartung}
+überrein.
+
+\subsubsection{Das wiederholte Spiel $B$}
+Natürlich spielt man das Spiel nicht nur einmal, sondern man wiederholt es.
+Es ist verlockend anzunehmen, dass die Dreierreste $0$, $1$ und $2$ des
+Kapitals immer noch gleich wahrscheinlich sind.
+Dies braucht jedoch nicht so zu sein.
+Wir prüfen die Hypothese daher, indem wir die Wahrscheinlichkeit
+für die verschiedenen Dreierreste des Kapitals in einem interierten
+Spiels ausrechnen.
+
+Das Spiel kennt die Dreierreste als die drei für das Spiel ausschlaggebenden
+Zuständen.
+Das Zustandsdiagramm~\ref{buch:wahrscheinlichkeit:fig:spielB} zeigt
+die möglichen Übergänge und ihre Wahrscheinlichkeiten, die zugehörige
+Matrix ist
+\[
+B
+=
+\begin{pmatrix}
+0 &\frac14 &\frac34\\
+\frac1{10} &0 &\frac14\\
+\frac9{10} &\frac34 &0
+\end{pmatrix}
+\]
+Die Matrix $B$ ist nicht negativ und man kann nachrechnen, dass $B^2>0$ ist.
+Damit ist die Perron-Frobenius-Theorie von
+Abschnitt~\ref{buch:section:positive-vektoren-und-matrizen}
+anwendbar.
+
+Ein Eigenvektor zum Eigenwert $1$ kann mit Hilfe des Gauss-Algorithmus
+gefunden werden:
+\begin{align*}
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+-1 &\frac14 &\frac34 \\
+\frac1{10} &-1 &\frac14 \\
+\frac9{10} &\frac34 &-1 \\
+\hline
+\end{tabular}
+&\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+1 &-\frac14 &-\frac34 \\
+0 &-\frac{39}{40} & \frac{13}{40} \\
+0 & \frac{39}{40} &-\frac{13}{40} \\
+\hline
+\end{tabular}
+\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+1 &-\frac14 &-\frac34 \\
+0 & 1 &-\frac13 \\
+0 & 0 & 0 \\
+\hline
+\end{tabular}
+\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+1 & 0 &-\frac56 \\
+0 & 1 &-\frac13 \\
+0 & 0 & 0 \\
+\hline
+\end{tabular}
+\end{align*}
+Daraus liest man einen möglichen Lösungsvektor mit den Komponenten
+$5$, $2$ und $6$ ab.
+Wir suchen aber einen Eigenvektor, der als Wahrscheinlichkeitsverteilung
+dienen kann.
+Dazu müssen sich die Komponente zu $1$ summieren, was man durch normieren
+in der $l^1$-Norm erreichen kann:
+\begin{equation}
+p
+=
+\begin{pmatrix}
+P(K\equiv 0)\\
+P(K\equiv 1)\\
+P(K\equiv 2)
+\end{pmatrix}
+=
+\frac{1}{5+2+6}
+\begin{pmatrix}
+5\\2\\6
+\end{pmatrix}
+=
+\frac{1}{13}
+\begin{pmatrix}
+5\\2\\6
+\end{pmatrix}
+\approx
+\begin{pmatrix}
+ 0.3846 \\
+ 0.1538 \\
+ 0.4615
+\end{pmatrix}.
+\label{buch:wahrscheinlichkeit:spielBP}
+\end{equation}
+Die Hypothese, dass die drei Reste gleich wahrscheinlich sind, ist
+also nicht zutreffend.
+
+Die Perron-Frobenius-Theorie sagt, dass sich die
+Verteilung~\ref{buch:wahrscheinlichkeit:spielBP} nach einiger Zeit
+einstellt.
+Wir können jetzt auch die Gewinnerwartung in einer einzelnen
+Runde des Spiels ausgehend von dieser Verteilung der Reste des Kapitals
+berechnen.
+Dazu brauchen wir zunächst die Wahrscheinlichkeiten für Gewinn oder
+Verlust, die wir mit dem Satz über die totale Wahrscheinlichkeit
+nach
+\begin{align*}
+P(Y=+1)
+&=
+P(Y=+1|K\equiv 0) \cdot P(K\equiv 0)
++
+P(Y=+1|K\equiv 1) \cdot P(K\equiv 1)
++
+P(Y=+1|K\equiv 2) \cdot P(K\equiv 2)
+\\
+&=
+\frac{1}{10}\cdot\frac{5}{13}
++
+\frac{3}{4} \cdot\frac{2}{13}
++
+\frac{3}{4} \cdot\frac{6}{13}
+\\
+&=
+\frac1{13}\biggl(
+\frac{1}{2}+\frac{3}{2}+\frac{9}{2}
+\biggr)
+=
+\frac{13}{26}
+=
+\frac12
+\\
+P(Y=-1)
+&=
+P(Y=-1|K\equiv 0) \cdot P(K\equiv 0)
++
+P(Y=-1|K\equiv 1) \cdot P(K\equiv 1)
++
+P(Y=-1|K\equiv 2) \cdot P(K\equiv 2)
+\\
+&=
+\frac{9}{10}\cdot\frac{5}{13}
++
+\frac{1}{4} \cdot\frac{2}{13}
++
+\frac{1}{4} \cdot\frac{6}{13}
+\\
+&=
+\frac{1}{13}\biggl(
+\frac{9}{2} + \frac{1}{2} + \frac{3}{2}
+\biggr)
+=
+\frac{1}{2}
+\end{align*}
+berechnen können.
+Gewinn und Verlust sind also gleich wahrscheinlich, das Spiel $B$ ist also
+ebenfalls fair.
+
+Auch diese Gewinnwahrscheinlichkeit kann etwas formeller mit dem
+Hadamard-Produkt berechnet werden:
+\[
+U^t (G\odot B) p
+=
+\begin{pmatrix}-\frac{8}{10}&\frac12&\frac12\end{pmatrix}
+\frac{1}{13}
+\begin{pmatrix}
+5\\2\\6
+\end{pmatrix}
+=
+-\frac{8}{10}\cdot\frac{5}{13}
++\frac{1}{2} \cdot\frac{2}{13}
++\frac{1}{2} \cdot\frac{6}{13}
+=
+\frac{1}{26}(-8 + 2+ 6)
+=
+0,
+\]
+wie erwartet.
+
+\subsubsection{Das modifizierte Spiel $\tilde{B}$}
+\begin{figure}
+\centering
+\includegraphics{chapters/80-wahrscheinlichkeit/images/spielBtilde.pdf}
+\caption{Zustandsdiagramm für das modifizerte Spiel $\tilde{B}$,
+Zustände sind die Dreierreste des Kapitals.
+Gegenüber dem Spiel $B$
+(Abbildung~\ref{buch:wahrscheinlichkeit:fig:spielB})
+sind die Wahrscheinlichkeiten für Verlust
+um $\varepsilon$ vergrössert und die Wahrscheinlichkeiten für Gewinn um
+$\varepsilon$ verkleinert worden.
+\label{buch:wahrscheinlichkeit:fig:spielBtile}}
+\end{figure}
+%
+Wir modifizieren jetzt das Spiel $B$ derart, dass die Wahrscheinlichkeiten
+für Gewinn um $\varepsilon$ verringert werden und die Wahrscheinlichkeiten
+für Verlust um $\varepsilon$ vergrössert werden.
+Die Übergangsmatrix des modifzierten Spiels $\tilde{B}$ ist
+\[
+\tilde{B}
+=
+\begin{pmatrix}
+ 0 & \frac{1}{4}+\varepsilon & \frac{3}{4}-\varepsilon \\
+\frac{1}{10}-\varepsilon & 0 & \frac{1}{4}+\varepsilon \\
+\frac{9}{10}+\varepsilon & \frac{3}{4}-\varepsilon & 0
+\end{pmatrix}
+=
+B
++
+\varepsilon
+\underbrace{
+\begin{pmatrix}
+ 0& 1&-1\\
+-1& 0& 1\\
+ 1&-1& 0
+\end{pmatrix}
+}_{\displaystyle F}
+\]
+Wir wissen bereits, dass der Vektor $p$
+von \eqref{buch:wahrscheinlichkeit:spielBP}
+als stationäre Verteilung
+Eigenvektor zum Eigenwert
+$B$ ist, wir versuchen jetzt in erster Näherung die modifizierte
+stationäre Verteilung $p_{\varepsilon}=p+\varepsilon p_1$ des modifizierten
+Spiels zu bestimmen.
+
+\subsubsection{Gewinnerwartung im modifizierten Einzelspiel}
+Die Gewinnerwartung aus den verschiedenen Ausgangszuständen kann mit Hilfe
+des Hadamard-Produktes berechnet werden.
+Wir berechnen dazu zunächst
+\[
+G\odot \tilde{B}
+=
+G\odot (B+\varepsilon F)
+=
+G\odot B + \varepsilon G\odot F
+\quad\text{mit}\quad
+G\odot F = \begin{pmatrix}
+0&1&1\\
+1&0&1\\
+1&1&0
+\end{pmatrix}.
+\]
+Nach der früher dafür gefundenen Formel ist
+\begin{align*}
+\begin{pmatrix}
+E(Y|K\equiv 0)&
+E(Y|K\equiv 1)&
+E(Y|K\equiv 2)
+\end{pmatrix}
+&=
+U^t (G\odot \tilde{B})
+\\
+&=
+U^t (G\odot B)
++
+\varepsilon
+U^t (G\odot F)
+\\
+&=
+\begin{pmatrix} -\frac{8}{10}&\frac12&\frac12 \end{pmatrix}
++
+2\varepsilon U^t
+\\
+&=
+\begin{pmatrix} -\frac{8}{10}+2\varepsilon&\frac12+2\varepsilon&\frac12+2\varepsilon \end{pmatrix}.
+\end{align*}
+Unter der Annahme gleicher Wahrscheinlichkeiten für die Ausgangszustände,
+erhält man die Gewinnerwartung
+\begin{align*}
+E(Y)
+&=
+U^t(G\odot \tilde{B})
+\begin{pmatrix}
+\frac13\\
+\frac13\\
+\frac13
+\end{pmatrix}
+\\
+&=
+U^t
+(G\odot B)
+\frac13 U
++
+\varepsilon
+U^t
+(G\odot F)
+\frac13 U
+\\
+&=
+\frac1{15}
++
+2\varepsilon
+\end{align*}
+unter Verwendung der in
+\eqref{buch:wahrscheinlichkeit:eqn:BodotEinzelerwartung}
+berechneten Gewinnerwartung für das Spiel $B$.
+
+\subsubsection{Iteration des modifizierten Spiels}
+Der Gaussalgorithmus liefert nach einiger Rechnung, die man am besten
+mit einem Computeralgebrasystem durchführt,
+\[
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+-1 & \frac{1}{4}+\varepsilon & \frac{3}{4}-\varepsilon \\
+\frac{1}{10}-\varepsilon & -1 & \frac{1}{4}+\varepsilon \\
+\frac{9}{10}+\varepsilon & \frac{3}{4}-\varepsilon & -1 \\
+\hline
+\end{tabular}
+\rightarrow
+% [ 2 ]
+% [ 80 epsilon + 12 epsilon + 78 ]
+%(%o15) Col 1 = [ ]
+% [ 0 ]
+% [ ]
+% [ 0 ]
+% [ 0 ]
+% [ ]
+% Col 2 = [ 2 ]
+% [ 80 epsilon + 12 epsilon + 78 ]
+% [ ]
+% [ 0 ]
+% [ 2 ]
+% [ (- 80 epsilon ) + 40 epsilon - 65 ]
+% [ ]
+% Col 3 = [ 2 ]
+% [ (- 80 epsilon ) - 12 epsilon - 26 ]
+% [ ]
+% [ 0 ]
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+1&0&-\frac{65-40\varepsilon+80\varepsilon^2}{78+12\varepsilon+80\varepsilon^2}\\
+0&0&-\frac{26+12\varepsilon+80\varepsilon^2}{78+12\varepsilon+80\varepsilon^2}\\
+0&0&0\\
+\hline
+\end{tabular},
+\]
+woraus man die Lösung
+\[
+p
+=
+\begin{pmatrix}
+65-40\varepsilon+80\varepsilon^2\\
+26+12\varepsilon+80\varepsilon^2\\
+78+12\varepsilon+80\varepsilon^2\\
+\end{pmatrix}
+\]
+ablesen kann.
+Allerdings ist dies keine Wahrscheinlichkeitsverteilung,
+wir müssen dazu wieder normieren.
+Die Summe der Komponenten ist
+\[
+\|p\|_1
+=
+169 - 16 \varepsilon + 240 \varepsilon^2.
+\]
+Damit bekommen wir für die Lösung bis zur ersten Ordnung
+\[
+p_\varepsilon
+=
+\frac{1}{ 169 - 16 \varepsilon + 240 \varepsilon^2}
+\begin{pmatrix}
+65-40\varepsilon+80\varepsilon^2\\
+26+12\varepsilon+80\varepsilon^2\\
+78+12\varepsilon+80\varepsilon^2\\
+\end{pmatrix}
+=
+% [ 2 3 ]
+% [ 5 440 epsilon 34080 epsilon 17301120 epsilon ]
+% [ -- - ----------- - -------------- + ----------------- + . . . ]
+% [ 13 2197 371293 62748517 ]
+% [ ]
+% [ 2 3 ]
+%(%o19)/T/ [ 2 188 epsilon 97648 epsilon 6062912 epsilon ]
+% [ -- + ----------- + -------------- - ---------------- + . . . ]
+% [ 13 2197 371293 62748517 ]
+% [ ]
+% [ 2 3 ]
+% [ 6 252 epsilon 63568 epsilon 11238208 epsilon ]
+% [ -- + ----------- - -------------- - ----------------- + . . . ]
+% [ 13 2197 371293 62748517 ]
+\frac{1}{13}
+\begin{pmatrix} 5\\2\\6 \end{pmatrix}
++
+\frac{\varepsilon}{2197}
+\begin{pmatrix}
+-440\\188\\252
+\end{pmatrix}
++
+O(\varepsilon^2).
+\]
+Man beachte, dass der konstante Vektor der ursprüngliche Vektor $p$
+für das Spiel $B$ ist.
+Der lineare Term ist ein Vektor, dessen Komponenten sich zu $1$ summieren,
+in erster Ordnung ist also die $l^1$-Norm des Vektors wieder
+$\|p_\varepsilon\|_1=0+O(\varepsilon^2)$.
+
+Mit den bekannten Wahrscheinlichkeiten kann man jetzt die
+Gewinnerwartung in einem einzeln Spiel ausgehend von der Verteilung
+$p_{\varepsilon}$ berechnen.
+Dazu braucht man das Hadamard-Produkt
+\[
+G\odot \tilde{B}
+=
+G=\begin{pmatrix}
+ 0&-1& 1\\
+ 1& 0&-1\\
+-1& 1& 0
+\end{pmatrix}
+\odot
+\begin{pmatrix}
+0 &\frac14+\varepsilon & \frac34-\varepsilon \\
+\frac{1}{10}-\varepsilon & 0 & \frac14+\varepsilon \\
+\frac{9}{10}+\varepsilon &\frac34-\varepsilon & 0
+\end{pmatrix}
+=
+\begin{pmatrix}
+ 0 &-\frac14-\varepsilon & \frac34-\varepsilon \\
+ \frac{1}{10}-\varepsilon & 0 &-\frac14-\varepsilon \\
+-\frac{9}{10}-\varepsilon & \frac34-\varepsilon & 0
+\end{pmatrix}
+\]
+Wie früher ist der erwartete Gewinn
+\begin{align*}
+E(Y)
+&=
+U^t (G\odot \tilde{B}) p_{\varepsilon}
+\\
+&=
+\begin{pmatrix}
+-\frac{3}{10}-2\varepsilon & \frac12-2\varepsilon & \frac12-2\varepsilon
+\end{pmatrix}
+p_{\varepsilon}
+\\
+% 3 2
+% 480 epsilon - 48 epsilon + 294 epsilon
+%(%o50) - ----------------------------------------
+% 2
+% 240 epsilon - 16 epsilon + 169
+&=
+-
+\varepsilon\cdot
+\frac{
+294-48\varepsilon+480\varepsilon^2
+}{
+169-16\varepsilon+240\varepsilon^2
+}
+=
+-\frac{294}{169}\varepsilon + O(\varepsilon^2).
+\end{align*}
+Insbesondere ist also die Gewinnerwartung negativ für nicht zu grosse
+$\varepsilon>0$.
+Das Spiel ist also ein Verlustspiel.
+
+%
+% Die Kombination
+%
+\subsection{Kombination der Spiele
+\label{buch:subsection:kombination}}
+Jetzt werden die beiden Spiele $A$ und $B$ zu einem neuen
+Spiel kombiniert.
+Für das Spiel $A$ haben wir bis jetzt keine Übergansmatrix aufgestellt,
+da das Kapital darin keine Rolle spielt.
+Um die beiden Spiele kombinieren zu können brauchen wir aber die Übergansmatrix
+für die drei Zustände $K\equiv 0,1,2$.
+Sie ist
+\[
+A=\begin{pmatrix}
+0&\frac12&\frac12\\
+\frac12&0&\frac12\\
+\frac12&\frac12&0
+\end{pmatrix}.
+\]
+
+\subsubsection{Das Spiel $C$}
+In jeder Durchführung des Spiels wird mit einem Münzwurf entschieden,
+ob Spiel $A$ oder Spiel $B$ gespielt werden soll.
+Mit je Wahrscheinlichkeit $\frac12$ werden also die Übergansmatrizen
+$A$ oder $B$ verwendet:
+\[
+P(K\equiv i|K\equiv j)
+=
+A\cdot P(\text{Münzwurf Kopf})
++
+B\cdot P(\text{Münzwurf Kopf})
+=
+\frac12(A+B)
+=
+\begin{pmatrix}
+0 & \frac{3}{8} & \frac{5}{8} \\
+\frac{3}{10} & 0 & \frac{3}{8} \\
+\frac{7}{10} & \frac{5}{8} & 0
+\end{pmatrix}
+\]
+Die Gewinnerwartung in einem Einzelspiel ist
+\begin{align*}
+E(Y)
+&=
+U^t
+(G\odot C)
+\frac13U
+\\
+&=
+U^t
+\begin{pmatrix}
+ 0 &-\frac{3}{8} & \frac{5}{8} \\
+ \frac{3}{10} & 0 &-\frac{3}{8} \\
+-\frac{7}{10} & \frac{5}{8} & 0
+\end{pmatrix}
+\frac13U
+\\
+&=
+\begin{pmatrix}
+-\frac{2}{5} & \frac{1}{4} & \frac{1}{4}
+\end{pmatrix}
+\frac13U
+=
+\frac13\biggl(-\frac{2}{5}+\frac{1}{4}+\frac{1}{4}\biggr)
+=
+-\frac{1}{30}
+\end{align*}
+Das Einzelspiel ist also ein Verlustspiel.
+
+\subsubsection{Das iterierte Spiel $C$}
+Für das iterierte Spiel muss man wieder den Eigenvektor von $C$ zum
+Eigenwert $1$ finden, die Rechnung mit dem Gauss-Algorithmus liefert
+\[
+p=
+\frac{1}{709}
+\begin{pmatrix}
+245\\180\\84
+\end{pmatrix}.
+\]
+Damit kann man jetzt die Gewinnwahrscheinlichkeit im iterierten Spiel
+berechnen, es ist
+\begin{align*}
+E(Y)
+&=
+U^t
+(G\odot C) p
+\\
+&=
+\begin{pmatrix}
+-\frac{2}{5} & \frac{1}{4} & \frac{1}{4}
+\end{pmatrix}
+\frac{1}{709}
+\begin{pmatrix}
+245\\180\\84
+\end{pmatrix}
+\\
+&=
+\frac{
+-2\cdot 49 + 45 + 71
+}{709}
+=
+\frac{18}{709},
+\end{align*}
+Das iteriert Spiel $B$ ist also ein Gewinnspiel!
+Obwohl die Spiele $A$ und $B$ für sich alleine in der iterierten Form
+keine Gewinnspiele sind, ist das kombinierte Spiel, wo man zufällig
+die beiden Spiel verbindet immer ein Gewinnspiel.
+
+Man kann statt des Spiels $B$ auch das modifizierte Spiel $\tilde{B}$
+verwenden, welches für kleine $\varepsilon>0$ ein Verlustspiel ist.
+Die Analyse lässt sich in der gleichen Weise durchführen und liefert
+wieder, dass für nicht zu grosses $\varepsilon$ das kombinierte Spiel
+ein Gewinnspiel ist.
+
+
+
+
diff --git a/buch/chapters/80-wahrscheinlichkeit/positiv.tex b/buch/chapters/80-wahrscheinlichkeit/positiv.tex
new file mode 100644
index 0000000..9f8f38f
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/positiv.tex
@@ -0,0 +1,721 @@
+%
+% positiv.tex
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\section{Positive Vektoren und Matrizen
+\label{buch:section:positive-vektoren-und-matrizen}}
+\rhead{Positive Vektoren und Matrizen}
+Die Google-Matrix und die Matrizen, die wir in Markov-Ketten angetroffen
+haben, zeichnen sich dadurch aus, dass alle ihre Einträge positiv oder
+mindestens nicht negativ sind.
+Die Perron-Frobenius-Theorie, die in diesem Abschnitt entwickelt
+werden soll, zeigt, dass Positivität einer Matrix nützliche
+Konsequenzen für Eigenwerte und Eigenvektoren hat.
+Das wichtigste Resultat ist die Tatsache, dass postive Matrizen immer
+einen einzigen einfachen Eigenwert mit Betrag $\varrho(A)$ haben,
+was zum Beispiel die Konvergenz des Pagerank-Algorithmus garantiert.
+Dies wird im Satz von Perron-Frobenius in
+Abschnitt~\ref{buch:subsection:der-satz-von-perron-frobenius}
+erklärt.
+
+%
+% Elementare Definitionen und Eigenschaften
+%
+\subsection{Elementare Eigenschaften
+\label{buch:subsection:elementare-eigenschaften}}
+In diesem Abschnitt betrachten wir ausschliesslich reelle Vektoren
+und Matrizen.
+Die Komponenten sind somit immer mit miteinander vergleichbar, daraus
+lässt sich auch eine Vergleichsrelation zwischen Vektoren
+ableiten.
+
+\begin{definition}
+Ein Vektor $v\in\mathbb{R}^n$ heisst {\em positiv}, geschrieben
+$v>0$, wenn alle seine Komponenten positiv sind: $v_i>0\forall i$.
+Ein Vektor $v\in\mathbb{R}^n$ heisst {\em nichtnegativ}, in Formeln
+$v\ge 0$, wenn alle
+seine Komponenten nicht negativ sind: $v_i\ge 0\forall i$.
+\index{positiver Vektor}%
+\index{nichtnegativer Vektor}%
+\end{definition}
+
+Geometrisch kann man sich die Menge der positven Vektoren in zwei Dimensionen
+als die Punkte des ersten Quadranten oder in drei Dimensionen als die
+Vektoren im ersten Oktanten vorstellen.
+
+Aus der Positivität eines Vektors lässt sich jetzt eine Vergleichsrelation
+für beliebige Vektoren ableiten.
+Mit der folgenden Definition wird erreicht, das mit Ungleichungen für Vektoren
+auf die gleiche Art und Weise gerechnet werden kann, wie man sich
+dies von Ungleichungen zwischen Zahlen gewohnt ist.
+
+\begin{definition}
+Für zwei Vektoren $u,v\in\mathbb{R}^n$ ist genau dann $u>v$, wenn
+$u-v > 0$ ist.
+Ebenso ist $u\ge v$ genau dann, wenn $u-v\ge 0$.
+\end{definition}
+
+Ungleichungen zwischen Vektoren kann man daher auch so interpretieren,
+dass sie für jede Komponente einzeln gelten müssen.
+Die Definition funktionieren analog auch für Matrizen:
+
+\begin{definition}
+Eine Matrix $A\in M_{m\times n}(\mathbb{R})$ heisst {\em positiv},
+wenn alle ihre Einträge $a_{ij}$ positiv sind: $a_{ij}>0\forall i,j$.
+Eine Matrix $A\in M_{m\times n}(\mathbb{R})$ heisst {\em nichtnegativ},
+wenn alle ihre Einträge $a_{ij}$ nichtnegativ sind: $a_{ij}\ge 0\forall i,j$.
+\index{positive Matrix}%
+\index{nichtnegative Matrix}%
+Man schreibt $A>B$ bzw.~$A\ge B$ wenn $A-B>0$ bzw.~$A-B\ge 0$.
+\end{definition}
+
+Die Permutationsmatrizen sind Beispiele von nichtnegativen Matrizen,
+deren Produkte wieder nichtnegativ sind.
+Dies ist aber ein sehr spezieller Fall, wie das folgende Beispiel
+zeigt.
+
+\begin{beispiel}
+Wir betrachten die Matrix
+\begin{equation}
+A=
+\begin{pmatrix}
+0.9&0.1& & & & \\
+0.1&0.8&0.1& & & \\
+ &0.1&0.8&0.1& & \\
+ & &0.1&0.8&0.1& \\
+ & & &0.1&0.8&0.1\\
+ & & & &0.1&0.9
+\end{pmatrix}
+\label{buch:wahrscheinlichkeit:eqn:diffusion}
+\end{equation}
+Die Multiplikation eines Vektors mit dieser Matrix bewirkt, dass die
+Komponenten des Vektors auf benachbarte Komponenten ``verschmiert'' werden.
+Wendet man $A$ wiederholt auf den ersten Standardbasisvektor $v_1=e_1$ an,
+erhält man nacheinander die Vektoren $v_2=Av_1$, $v_n = Av_{n-1}$.
+\begin{figure}
+\centering
+\includegraphics{chapters/80-wahrscheinlichkeit/images/diffusion.pdf}
+\caption{Die sechs Komponenten für $k=1$ bis $k=6$ der Vektoren $A^{n-1}e_1$
+für die Matrix $A$ in \eqref{buch:wahrscheinlichkeit:eqn:diffusion}
+sind als Säulen dargestellt.
+Sie zeigen, dass für genügend grosses $n$, alle Komponenten
+des Vektors $A^{n-1}e_1$ positiv werden.
+\label{buch:wahrscheinlichkeit:fig:diffusion}}
+\end{figure}
+In Abbildung~\ref{buch:wahrscheinlichkeit:fig:diffusion} sind die Komponenten
+als Säulen dargestellt.
+Man kann erkennen, dass für genügend grosse $n$ alle Komponenten
+der Vektoren positiv werden.
+
+Man kann auch direkt die Potenzen $A^n$ ausrechen und sehen, dass
+\[
+A^5
+=
+\begin{pmatrix}
+ 0.65658& 0.27690& 0.05925& 0.00685& 0.00041& 0.00001\\
+ 0.27690& 0.43893& 0.22450& 0.05281& 0.00645& 0.00041\\
+ 0.05925& 0.22450& 0.43249& 0.22410& 0.05281& 0.00685\\
+ 0.00685& 0.05281& 0.22410& 0.43249& 0.22450& 0.05925\\
+ 0.00041& 0.00645& 0.05281& 0.22450& 0.43893& 0.27690\\
+ 0.00001& 0.00041& 0.00685& 0.05925& 0.27690& 0.65658
+\end{pmatrix}
+>0
+\]
+und dass daher für alle $n\ge 5$ die Matrix $A^n$ positiv ist.
+\end{beispiel}
+
+Die Eigenschaft der Matrix $A$ von
+\eqref{buch:wahrscheinlichkeit:eqn:diffusion}, dass $A^n>0$
+für genügend grosses $n$ ist bei Permutationsmatrizen nicht
+vorhanden.
+Die Zyklen-Zerlegung einer Permutationsmatrix zeigt, welche
+Unterräume von $\mathbb{R}^n$ die iterierten Bilder eines
+Standardbasisvektors aufspannen.
+Diese sind invariante Unterräume der Matrix.
+Das im Beispiel illustrierte Phänomen findet dann nur in invarianten
+Unterräumen statt.
+
+\begin{beispiel}
+Die Matrix
+\begin{equation}
+A=\begin{pmatrix}
+0.9&0.1& & & & \\
+0.1&0.8&0.1& & & \\
+ &0.1&0.9& & & \\
+ & & &0.9&0.1& \\
+ & & &0.1&0.8&0.1\\
+ & & & &0.1&0.9
+\end{pmatrix}
+\label{buch:wahrscheinlichkeit:eqn:diffusionbloecke}
+\end{equation}
+besteht aus zwei $3\times 3$-Blöcken.
+Die beiden Unterräume $V_1=\langle e_1,e_2,e_3\rangle$
+und $V_2=\langle e_4,e_5,e_6\rangle$ sind daher invariante
+Unterräume von $A$ und damit auch von $A^n$.
+Die Potenzen haben daher auch die gleich Blockstruktur.
+Insbesondere sind zwar die Blöcke von $A^n$ für $n>1$ positive
+Teilmatrizen, aber die Matrix $A^n$ ist für alle $n$ nicht positiv.
+\end{beispiel}
+
+\begin{definition}
+Eine nichtnegative Matrix mit der Eigenschaft, dass $A^n>0$ für
+ein genügend grosses $n$, heisst {\em primitiv}.
+\end{definition}
+
+Die Matrix $A$ von \eqref{buch:wahrscheinlichkeit:eqn:diffusion}
+ist also primitiv, Permutationsmatrizen sind niemals primitiv.
+Die Matrix $A$ von \eqref{buch:wahrscheinlichkeit:eqn:diffusionbloecke}
+ist nicht primitiv, aber die einzelnen Blöcke sind primitiv.
+Viele der Ausssagen über positive Matrizen lassen sich auf primitive
+nichtnegative Matrizen verallgemeinern.
+
+Das Beispiel zeigt auch, dass der Begriff der primitiven Matrix
+eng mit der Idee verknüpft ist, die Problemstellung in invariante
+Unterräume aufzuteilen, in denen eine primitive Matrix vorliegt.
+Primitive Matrizen werden damit zu naheliegenden Bausteinen für
+die Problemlösung für nicht primitive Matrizen.
+
+Eine interessante Eigenschaft positiver Vektoren oder Matrizen
+ist, dass die Positivität sich manchmal ``upgraden'' lässt,
+wie im folgenden Satz.
+Er zeigt, dass ein Vektor, der grösser ist als ein anderer, auch
+um einen definierten Faktor $>1$ grösser ist.
+Dies wird geometrisch in
+Abbildung~\ref{buch:wahrscheinlichkeit:figure:trenn} illustriert.
+
+\begin{figure}
+\centering
+\includegraphics{chapters/80-wahrscheinlichkeit/images/trenn.pdf}
+\caption{Die Vektoren $w\le u$ liegen im grauen Rechteck.
+Zwei nichtnegative Vektoren $u$ und $v$ mit $u>v$
+haben keine gleichen Komponenten.
+Daher kann man $v$ mit einer Zahl $\vartheta=1+\varepsilon > 1$
+strecken, so dass der gestreckte Vektor $(1+\varepsilon)v$ gerade noch
+im grauen Rechteck liegt: $u\ge (1+\varepsilon)v$.
+Streckung mit einem grösseren Faktor führt dagegen aus dem Rechteck
+hinaus.
+\label{buch:wahrscheinlichkeit:figure:trenn}}
+\end{figure}
+
+\begin{satz}[Trenntrick]
+\label{buch:wahrscheinlichkeit:satz:trenntrick}
+Sind $u$ und $v$ nichtnegative Vektoren und $u>v$, dann gibt es eine
+positive Zahl $\varepsilon>0$ derart, dass
+$u\ge (1+\varepsilon)v$.
+Ausserdem kann $\varepsilon$ so gewählt werden, dass $u\not\ge(1+\mu)v$
+für $\mu>\varepsilon$.
+\end{satz}
+
+\begin{proof}[Beweis]
+Wir betrachten die Zahl
+\[
+\vartheta
+=
+\max_{v_i\ne 0} \frac{u_i}{v_i}.
+\]
+Wegen $u>v$ sind die Quotienten auf der rechten Seite alle $>0$.
+Da nur endlich viele Quotienten miteinander verglichen werden, ist
+daher auch $\vartheta >1$.
+Es folgt $u\ge \vartheta v$.
+Wegen $\vartheta >1$ ist $\varepsilon = \vartheta -1 >0$ und
+$u\ge (1+\varepsilon)v$.
+\end{proof}
+
+Der Satz besagt also, dass es eine Komponente $v_i\ne 0$ gibt
+derart, dass $u_i = (1+\varepsilon)v_i$.
+Diese Komponenten limitiert also, wie stark man $v$ strecken kann,
+so dass er immer noch $\le u$ ist.
+Natürlich folgt aus den der Voraussetzung $u>v$ auch, dass $u$ ein
+positiver Vektor ist (Abbildung~\ref{buch:wahrscheinlichkeit:figure:trenn}).
+
+\begin{figure}
+\centering
+\includegraphics{chapters/80-wahrscheinlichkeit/images/vergleich.pdf}
+\caption{Eine positive Matrix $A$ bildet nichtnegative Vektoren in
+positive Vektoren ab
+(Korollar~\ref{buch:wahrscheinlichkeit:satz:Au>0korollar}).
+Zwei verschiedene Vektoren auf einer Seitenfläche erfüllen $u\ge v$,
+aber nicht $u>v$, da sie sich in der Koordinaten $x_2$ nicht unterscheiden.
+Die Bilder unter $A$ unterscheiden sich dann auch in $x_2$, es gilt
+$Au>Av$ (siehe auch Satz~\ref{buch:wahrscheinlichkeit:satz:vergleichstrick})
+\label{buch:wahrscheinlichkeit:fig:vergleich}}
+\end{figure}
+
+\begin{satz}[Vergleichstrick]
+\label{buch:wahrscheinlichkeit:satz:vergleichstrick}
+Sei $A$ eine positive Matrix und seinen $u$ und $v$ Vektoren
+mit $u\ge v$ und $u\ne v$, dann ist $Au > Av$
+(siehe auch Abbildung~\ref{buch:wahrscheinlichkeit:fig:vergleich}).
+\end{satz}
+
+\begin{proof}[Beweis]
+Wir schreiben $d=u-v$, nach Voraussetzung ist $d\ne 0$.
+Der Satz besagt dann, dass aus $d\ge 0$ folgt, dass $Ad>0$, dies
+müssen wir beweisen.
+
+Die Ungleichung $Ad>0$ besagt, dass alle Komponenten von $Ad$
+positiv sind.
+Um dies nachzuweisen, berechnen wir
+\begin{equation}
+(Ad)_i
+=
+\sum_{j=1}^n
+a_{ij}
+d_j.
+\label{buch:wahrscheinlichkeit:eqn:Adpositiv}
+\end{equation}
+Alle Terme $a_{ij}>0$, weil $A$ positiv ist, und mindestens eine
+der Komponenten $d_j>0$, weil $d\ne 0$.
+Insbesondere sind alle Terme der Summe $\ge 0$, woraus wir
+bereits schliessen können, dass $(Ad)_i\ge 0$ sein muss.
+Die Komponente $d_j>0$ liefert einen positiven Beitrag
+$a_{ij}d_j>0$
+zur Summe~\eqref{buch:wahrscheinlichkeit:eqn:Adpositiv},
+also ist $(Ad)_i>0$.
+\end{proof}
+
+Der folgende Spezialfall folgt unmittelbar aus dem
+Satz~\ref{buch:wahrscheinlichkeit:satz:vergleichstrick}.
+
+\begin{korollar}
+\label{buch:wahrscheinlichkeit:satz:Au>0korollar}
+Ist $A$ eine positive Matrix und $u\ge 0$ mit $u\ne 0$, dann
+ist $Au>0$.
+\end{korollar}
+
+Eine positive Matrix macht also aus nicht verschwindenden
+und nicht negativen Vektoren positive Vektoren.
+
+%
+% Die verallgemeinerte Dreiecksungleichung
+%
+\subsection{Die verallgemeinerte Dreiecksungleichung
+\label{buch:subsection:verallgemeinerte-dreiecksungleichung}}
+Die Dreiecksungleichung besagt, dass für beliebige Vektoren
+$u,v\in\mathbb{R}^n$ gilt
+\[
+|u+v|\le |u|+|v|
+\]
+mit Gleichheit genau dann, wenn $u$ und $v$ linear abhängig sind.
+Wenn beide von $0$ verschieden sind, dann gibt es eine positive Zahl
+$t$ mit $u=tv$.
+Wir brauchen eine Verallgemeinerung für eine grössere Zahl von
+Summanden.
+
+\begin{figure}
+\centering
+\includegraphics{chapters/80-wahrscheinlichkeit/images/dreieck.pdf}
+\caption{Die verallgemeinerte Dreiecksungleichung von
+Satz~\ref{buch:wahrscheinlichkeit:satz:verallgemeinerte-dreiecksungleichung}
+besagt, dass
+die Länge einer Summe von Vektoren (blau) höchstens so gross ist wie die
+Summe der Längen, mit Gleichheit genau dann, wenn alle Vektoren die
+gleiche Richtung haben (rot).
+Hier dargestellt am Beispiel von Zahlen in der komplexen Zahlenebene.
+In dieser Form wird die verallgemeinerte Dreiecksungleichung in
+Satz~\ref{buch:wahrscheinlichkeit:satz:verallgdreieckC}
+\label{buch:wahrscheinlichkeit:fig:dreieck}}
+\end{figure}
+
+\begin{satz}[Verallgemeinerte Dreiecksungleichung]
+\label{buch:wahrscheinlichkeit:satz:verallgemeinerte-dreiecksungleichung}
+Für $n$ Vektoren $v_i\ne 0$ gilt
+\[
+|u_1+\dots+u_n| \le |u_1|+\dots+|u_n|
+\]
+mit Gleichheit genau dann, wenn alle Vektoren nichtnegative Vielfache
+eines gemeinsamen Einheitsvektors $c$ sind: $u_i=|u_i|c$
+(siehe auch Abbildung~\ref{buch:wahrscheinlichkeit:fig:dreieck}).
+\end{satz}
+
+\begin{proof}[Beweis]
+Die Aussage kann mit vollständiger Induktion bewiesen werden.
+Die Induktionsverankerung ist der Fall $n=2$ gegeben durch die
+gewöhnliche Dreiecksungleichung.
+
+Wir nehmen daher jetzt an, die Aussage sei für $n$ bereits bewiesen,
+wir müssen sie dann für $n+1$ beweisen.
+Die Summe von $n+1$ Vektoren kann man $u=u_1+\dots+u_n$ und $v=u_{n+1}$
+aufteilen.
+Es gilt dann
+\[
+|u+v|
+=
+|u_1+\dots+u_n+u_{n+1}|
+\]
+und
+\[
+|u_1+\dots+u_n| = |u_1|+\dots+|u_n|.
+\]
+Aus der Induktionsannahme folgt dann, dass die Vektoren $u_1,\dots,u_n$
+positive Vielfache eines Einheitsvektors $u$ sind, $u_i=|u_i|c$.
+Es ist dann
+\[
+u=u_1+\dots+u_n = \biggl(\sum_{i=1}^n |u_i|\biggr).
+\]
+Aus der gewöhnlichen Dreiecksungleichung, angewendet auf $u$ und $v$
+folgt jetzt, dass $v$ ebenfalls ein nichtnegatives Vielfaches von $c$ ist.
+Damit ist der Induktionsschritt vollzogen.
+\end{proof}
+
+\begin{satz}
+\label{buch:wahrscheinlichkeit:satz:verallgdreieckC}
+Seien $a_1,\dots,a_n$ positive Zahlen und $u_i\in\mathbb C$ derart,
+dass
+\[
+\biggl|
+\sum_{i=1}^n a_i u_i
+\biggr|
+=
+\sum_{i=1}^n a_i |u_i|,
+\]
+dann gibt es eine komplexe Zahl $c$ und einen nichtnegativen Vektor $v$
+derart, dass $u=cv$.
+\end{satz}
+
+Der Satz besagt, dass die komplexen Komponenten $u_i$ alle das gleiche
+Argument haben.
+Die motiviert den nachstehenden geometrischen Beweis des Satzes.
+
+\begin{proof}[Beweis]
+Wer stellen uns die komplexen Zahlen $u_i$ als Vektoren in der
+zweidimensionalen Gaussschen Ebene vor.
+Dann ist die Aussage nichts anderes als ein Spezialfall von
+Satz~\ref{buch:wahrscheinlichkeit:satz:verallgemeinerte-dreiecksungleichung}
+für den zweidimensionalen reellen Vektorraum $\mathbb{C}$.
+\end{proof}
+
+
+%
+% Der Satz von Perron-Frobenius
+%
+\subsection{Der Satz von Perron-Frobenius
+\label{buch:subsection:der-satz-von-perron-frobenius}}
+Wir sind an den Eigenwerten und Eigenvektoren einer positiven
+oder primitiven Matrix interessiert.
+Nach Definition des Spektralradius $\varrho(A)$ muss es einen Eigenvektor
+zu einem Eigenwert $\lambda$ mit Betrag $|\lambda|=\varrho(A)$ geben,
+aber a priori wissen wir nicht, ob es einen reellen Eigenwert vom
+Betrag $\varrho(A)$ gibt, und ob der Eigenvektor dazu reell ist.
+
+\begin{figure}
+\centering
+\includegraphics{chapters/80-wahrscheinlichkeit/images/positiv.pdf}
+\caption{Die Iteration einer positiven Matrix bildet den positiven Oktanten
+in immer enger werdende Kegel ab, die die Richtung des gesuchten Eigenvektors
+gemeinsam haben.
+\label{buch:wahrscheinlichkeit:figure:positiv}}
+\end{figure}
+
+In Abbildung~\ref{buch:wahrscheinlichkeit:fig:vergleich} kann man sehen,
+dass eine positive Abbildung den positiven Oktanten in einen etwas engeren
+Kegel hinein abbildet.
+Iteriert man dies (Abbildung~\ref{buch:wahrscheinlichkeit:figure:positiv}),
+wird die Bildmenge immer enger, bis sie nur ein
+sehr enger Kegel um die Richtung des Eigenvektors ist.
+Tatsächlich kann man aus dieser Idee auch einen topologischen
+Beweis des untenstehenden Satzes von Perron-Frobenius konstruieren.
+Er beruht darauf, dass eine Abbildung, die Distanzen verkleinert,
+einen Fixpunkt hat.
+Die Konstruktion einer geeigneten Metrik ist allerdings eher
+kompliziert, weshalb wir im Beweise der nachstehenden Aussagen
+den konventionellen Weg wählen.
+
+Wir beginnen damit zu zeigen, dass für positive Matrizen $A$,
+nichtnegative Eigenvektoren zu Eigenwerten $\lambda\ne 0$
+automatisch positiv sind.
+Ausserdem müssen die zugehörigen Eigenwerte sogar positiv sein.
+
+\begin{satz}
+Sei $A$ eine positive Matrix und $u$ ein nichtnegativer Eigenvektor zum
+Eigenwert $\lambda\ne 0$.
+Dann ist $u$ ein positiver Vektor und $\lambda > 0$.
+\end{satz}
+
+\begin{proof}[Beweis]
+Nach dem Korollar~\ref{buch:wahrscheinlichkeit:satz:Au>0korollar}
+folgt, dass $Au>0$ ein positiver Vektor ist, es sind
+also alle Komponenten positiv.
+Der Vektor $u$ ist aber auch ein Eigenvektor, es gilt also
+$\lambda u = Au$.
+Da alle Komponenten von $Au$ positiv sind, müssen auch
+alle Komponenten von $\lambda u$ positiv sein.
+Das ist nur möglich, wenn $\lambda > 0$.
+\end{proof}
+
+\begin{satz}
+\label{buch:wahrscheinlichkeit:satz:positivereigenvektor}
+Sei $A$ eine positive Matrix und $v$ ein Eigenvektor von $A$ zu einem
+Eigenwert $\lambda$ mit Betrag $|\lambda|=\varrho(A)$,
+dann ist der Vektor $u$ mit den Komponenten $u_i=|v_i|$ ein
+positiver Eigenvektor zu Eigenwert $\varrho(A)$.
+\end{satz}
+
+\begin{proof}[Beweis]
+Es gilt natürlich auch, dass
+\[
+(Au)_i
+=
+\sum_{j=1}^n a_{ij}u_j
+=
+\sum_{j=1}^n |a_{ij}v_j|
+\ge
+\biggl|
+\sum_{j=1}^n a_{ij}v_j
+\biggr|
+=
+|(Av)_i|
+=
+|\lambda v_i|
+=
+\varrho(A) |v_i|
+=
+\varrho(A) u_i,
+\]
+oder $Au \ge \varrho(A)u$.
+Wir müssen zeigen, dass sogar $Au=\varrho(A)u$ gilt.
+Wir nehmen daher an, dass $Au\ne \varrho(A)u$ ist, und führen dies zu
+einem Widerspruch.
+
+Da $\varrho(A)u$ ein nichtnegativer Vektor ist, können wir den Vergleichstrick
+Satz~\ref{buch:wahrscheinlichkeit:satz:vergleichstrick}, auf die beiden
+Vektoren $Au$ und $\varrho(A)u$ anwenden.
+Wir schliessen $A^2u > \varrho(A)Au$.
+
+Mit dem Trenntrick
+Satz~\ref{buch:wahrscheinlichkeit:satz:trenntrick}
+können wir jetzt eine Zahl $\vartheta>1$ finden derart, dass
+\[
+A^2 u \ge \vartheta \varrho(A) Au
+\]
+ist.
+Durch weitere Anwendung von $A$ findet man
+\begin{align*}
+A^3 u & \ge (\vartheta \varrho(A))^2 Au
+\\
+&\phantom{0}\vdots
+\\
+A^{k+1} u & \ge (\vartheta \varrho(A))^{k} Au
+\end{align*}
+Daraus kann man jetzt die Norm abschätzen:
+\[
+\begin{aligned}
+\| A^{k}\|\, |Au|
+&\ge
+\| A^{k+1}u\|
+\ge
+(\vartheta\varrho(A))^{k} |Au|
+&&
+\Rightarrow
+&
+\|A^k\| &\ge (\vartheta\varrho(A))^k
+\\
+&&&\Rightarrow&
+\|A^k\|^{\frac{1}{k}} &\ge \vartheta\varrho(A)
+\\
+&&&\Rightarrow&
+\lim_{k\to\infty}
+\|A^k\|^{\frac{1}{k}} &\ge \vartheta\varrho(A)
+\\
+&&&\Rightarrow&
+\varrho(A)&\ge \vartheta\varrho(A)
+\end{aligned}
+\]
+Wegen $\vartheta>1$ ist dies aber gar nicht möglich.
+Dieser Widerspruch zeigt, dass $u=v$ sein muss, insbesondere ist
+$v$ ein nichtnegativer Eigenvektor.
+\end{proof}
+
+\begin{satz}
+Sei $A$ eine positive Matrix und $v$ ein Eigenvektor zu einem
+Eigenwert $\lambda$ mit Betrag $|\lambda|=\varrho(A)$.
+Dann ist $\lambda=\varrho(A)$.
+\end{satz}
+
+\begin{proof}[Beweis]
+Nach Satz~\ref{buch:wahrscheinlichkeit:satz:positivereigenvektor}
+ist der Vektor $u$ mit den Komponenten $u_i=|v_i|$ ein positiver
+Eigenvektor zum Eigenwert $\varrho(A)$.
+Aus der Eigenvektorgleichung für $u$ folgt
+\begin{equation}
+Au = \varrho(A) u
+\quad\Rightarrow\quad
+\sum_{j=1}^n a_{ij}|v_j| = \varrho(A) |v_i|.
+\label{buch:wahrscheinlichkeit:eqn:pev1}
+\end{equation}
+Anderseits ist $v$ ein Eigenvektor zum Eigenwert $\lambda$, also gilt
+\[
+\sum_{j=1}^n a_{ij}v_j = \lambda v_i.
+\]
+Der Betrag davon ist
+\begin{equation}
+\biggl|
+\sum_{j=1}^n a_{ij}v_j
+\biggr|
+=
+|\lambda v_i|
+=
+\varrho(A) |v_i|
+=
+\varrho |v_i|.
+\label{buch:wahrscheinlichkeit:eqn:pev2}
+\end{equation}
+Die beiden Gleichungen
+\eqref{buch:wahrscheinlichkeit:eqn:pev1}
+und
+\eqref{buch:wahrscheinlichkeit:eqn:pev2}
+zusammen ergeben die Gleichung
+\[
+\biggl|
+\sum_{j=1}^n a_{ij}v_j
+\biggr|
+=
+\sum_{j=1}^n a_{ij}|v_j|.
+\]
+Nach der verallgemeinerten Dreiecksungleichung
+Satz~\ref{buch:subsection:verallgemeinerte-dreiecksungleichung}
+folgt jetzt, dass es eine komplexe Zahl $c$ vom Betrag $1$ gibt derart,
+dass $v_j = |v_j|c=u_jc$.
+Insbesondere ist $v=cu$ und damit ist
+\[
+\lambda v = Av = Acu = c Au = c\varrho(A) u = \varrho(A) v,
+\]
+woraus $\lambda=\varrho(A)$ folgt.
+\end{proof}
+
+\begin{satz}
+\label{buch:wahrscheinlichkeit:satz:geometrischeinfach}
+Der Eigenraum einer positiven Matrix $A$ zum Eigenwert $\varrho(A)$ ist
+eindimensional.
+\end{satz}
+
+\begin{proof}[Beweis]
+Sei $u$ der bereits gefundene Eigenvektor von $A$ zum Eigenwert $\varrho(A)$
+und sei $v$ ein weiterer, linear unabhängiger Eigenvektor zum
+gleichen Eigenwert.
+Da $A$ und $\varrho(A)$ reell sind, sind auch die Vektoren $\Re v$ und $\Im v$
+aus den Realteilen $\Re v_i$ oder den Imaginärteilen $\Im v_i$ Eigenvektoren.
+Beide Vektoren sind reelle Vektoren und mindestens einer davon ist mit
+$u$ linear unabhängig.
+Wir dürfen daher annehmen, dass $v$ ein linear unabhängiger Eigenvektor
+zum Eigenwert $\varrho(A)$ ist.
+
+Weil wir wissen, dass $u$ ein positiver Vektor ist, gibt es einen
+grösstmöglichen Faktor $c>0$ derart, dass $u\ge cv$ oder $u\ge cv$.
+Insbesondere verschwindet mindestens eine Komponente von $u-cv$.
+Da $u$ und $v$ Eigenvektoren zum Eigenwert $\varrho(A)$ sind,
+ist
+\[
+A(u-cv)
+=
+\varrho(A)(u-cv).
+\]
+Der Vektor auf der rechten Seite hat mindestens eine verschwindende
+Komponente.
+Der Vektor auf der linken Seite ist nach Vergleichstrick
+Satz~\ref{buch:wahrscheinlichkeit:satz:vergleichstrick}
+\[
+A(u-cv) > 0,
+\]
+alle seine Komponenten sind $>0$.
+Dieser Widerspruch zeigt, dass die Annahme, es gäbe einen von $u$ linear
+unabhängigen Eigenvektor zum Eigenwert $\varrho(A)$ nicht haltbar ist.
+\end{proof}
+
+\begin{satz}
+\label{buch:wahrscheinlichkeit:satz:algebraischeinfach}
+Der verallgemeinerte Eigenraum zum Eigenwert $\varrho(A)$ einer
+positiven Matrix $A$ ist eindimensional.
+Ist $u$ der Eigenvektor von $A$ zum Eigenwert $\varrho(A)$ nach
+Satz~\ref{buch:wahrscheinlichkeit:satz:geometrischeinfach}
+und $p^t$ der entsprechende Eigenvektor $A^t$, dann
+ist
+\[
+\mathbb{R}^n
+=
+\langle u\rangle
+\oplus
+\{ x\in\mathbb{R}^n\;|\; px=0\}
+=
+\langle u\rangle
+\oplus
+\ker p
+\]
+eine Zerlegung in invariante Unterräume von $A$.
+\end{satz}
+
+\begin{proof}[Beweis]
+Die beiden Vektoren $x$ und $p$ sind beide positiv, daher ist das
+Produkt $pu\ne 0$.
+Insbesondere ist $u\not\in\ker p$
+
+Es ist klar, dass $A\langle u\rangle = \langle Au\rangle = \langle u\rangle$
+ein invarianter Unterraum ist.
+Für einen Vektor $x\in\mathbb{R}^n$ mit $px=0$ erfüllt das Bild $Ax$
+\[
+p(Ax)=(pA)x=(A^tp^t)^tx=
+\varrho(A)(p^t)^tx
+=
+\varrho(A)px = 0,
+\]
+somit ist $A\ker p \subset \ker p$.
+Beide Räume sind also invariante Unteräume.
+
+$\ker p$ ist $(n-1)$-dimensional, $\langle u\rangle$ ist eindimensional
+und $u$ ist nicht in $\ker p$ enthalten.
+Folglich spannen $\langle u\rangle$ und $\ker p$ den ganzen Raum auf.
+
+Gäbe es einen weitern linear unabhängigen Vektor im verallgemeinerten
+Eigenraum von $\mathcal{E}_{\varrho(A)}$, dann müsste es auch einen
+solchen Vektor in $\ker p$ geben.
+Da $\ker p$ invariant ist, müsste es also auch einen weiteren Eigenvektor
+$u_2$ zum Eigenwert $\varrho(A)$ in $\ker p$ geben.
+Die beiden Vektoren $u$ und $u_1$ sind dann beide Eigenvektoren, was
+nach Satz~\ref{buch:wahrscheinlichkeit:satz:geometrischeinfach}
+nicht möglich ist.
+\end{proof}
+
+Die in den Sätzen
+\ref{buch:wahrscheinlichkeit:satz:positivereigenvektor}
+bis
+\ref{buch:wahrscheinlichkeit:satz:algebraischeinfach}
+gefundenen Resultate können wir folgt zusammengefasst werden:
+
+\begin{satz}[Perron-Frobenius]
+\label{buch:wahrscheinlichkeit:satz:perron-frobenius}
+Sei $A$ eine positive Matrix mit Spektralradius $\varrho(A)$.
+Dann gibt es einen positiven Eigenvektor zum Eigenwert $\varrho(A)$,
+mit geometrischer und algebraischer Vielfachheit $1$.
+\end{satz}
+
+\begin{beispiel}
+In der Google-Matrix mit freiem Willen
+nach
+\eqref{buch:wahrscheinlichkeit:eqn:google-matrix}
+enthält den Term $((1-\alpha)/N)UU^t$.
+Die Matrix $UU^t$ ist eine Matrix aus lauter Einsen, der Term
+ist also für $\alpha < 1$ eine positive Matrix.
+Die Google-Matrix ist daher eine positive Matrix.
+Nach dem Satz von Perron-Frobenius ist die Grenzverteilung
+eindeutig bestimmt.
+\end{beispiel}
+
+Der Satz~\ref{buch:wahrscheinlichkeit:satz:perron-frobenius}
+von Perron-Frobenius kann auf primitive Matrizen verallgemeinert
+werden.
+
+\begin{satz}
+\label{buch:wahrscheinlichkeit:satz:perron-frobenius2}
+Sei $A$ ein primitive, nichtnegative Matrix.
+Dann ist $\varrho(A)$ der einzige Eigenwert vom Betrag $\varrho(A)$
+und er hat geometrische und algebraische Vielfachheit $1$.
+\end{satz}
+
+\begin{proof}[Beweis]
+Nach Voraussetzung gibt es ein $n$ derart, dass $A^n>0$.
+Für $A^n$ gelten die Resultate von
+Satz~\ref{buch:wahrscheinlichkeit:satz:perron-frobenius}.
+
+XXX TODO
+\end{proof}
diff --git a/buch/chapters/80-wahrscheinlichkeit/rechnungen/btilde.maxima b/buch/chapters/80-wahrscheinlichkeit/rechnungen/btilde.maxima
new file mode 100644
index 0000000..6ba2ee6
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/rechnungen/btilde.maxima
@@ -0,0 +1,103 @@
+B: matrix(
+ [ 0 , 1/4, 3/4 ],
+ [ 1/10, 0 , 1/4 ],
+ [ 9/10, 3/4, 0 ]
+);
+F: matrix(
+ [ 0, -1, 1 ],
+ [ 1, 0, -1 ],
+ [ -1, 1, 0 ]
+);
+G: matrix(
+ [ 0, -1, 1 ],
+ [ 1, 0, -1 ],
+ [ -1, 1, 0 ]
+);
+U: matrix([1], [1], [1]);
+p: (1/3) * U;
+
+ratsimp(expand((B * G) . p));
+ratsimp(expand(transpose(U) . (B * G) . p));
+
+/* find the eigenvector */
+/* find the eigenvector */
+B0: B - identfor(B);
+
+r: expand(B0[1] / B0[1,1]);
+B0[1]: r;
+B0[2]: B0[2] - B0[2,1] * r;
+B0[3]: B0[3] - B0[3,1] * r;
+
+B0: expand(B0);
+
+r: B0[2] / B0[2,2];
+B0[2]: r;
+B0[3]: B0[3] - B0[3,2] * r;
+
+B0: ratsimp(expand(B0));
+
+B0[1]: B0[1] - B0[1,2] * B0[2];
+
+B0: ratsimp(expand(B0));
+
+l: 78 + 12 * epsilon + 80 * epsilon^2;
+
+D: ratsimp(expand(l*B0));
+n: ratsimp(expand(l -D[1,3] -D[2,3]));
+
+p: (1/n) * matrix(
+[ -B0[1,3]*l ],
+[ -B0[2,3]*l ],
+[ l ]
+);
+p: ratsimp(expand(p));
+
+/* compute the expected gain */
+G*B;
+ratsimp(expand(transpose(U). (G*B) . p));
+
+/* modified game */
+Btilde: B - epsilon * F;
+ratsimp(expand((Btilde * G) . p));
+gain: ratsimp(expand(transpose(U) . (Btilde * G) . p));
+
+/* find the eigenvector */
+B0: Btilde - identfor(Btilde);
+
+r: expand(B0[1] / B0[1,1]);
+B0[1]: r;
+B0[2]: B0[2] - B0[2,1] * r;
+B0[3]: B0[3] - B0[3,1] * r;
+
+B0: expand(B0);
+
+r: B0[2] / B0[2,2];
+B0[2]: r;
+B0[3]: B0[3] - B0[3,2] * r;
+
+B0: ratsimp(expand(B0));
+
+B0[1]: B0[1] - B0[1,2] * B0[2];
+
+B0: ratsimp(expand(B0));
+
+l: 78 + 12 * epsilon + 80 * epsilon^2;
+
+D: ratsimp(expand(l*B0));
+n: ratsimp(expand(l -D[1,3] -D[2,3]));
+
+pepsilon: (1/n) * matrix(
+[ -B0[1,3]*l ],
+[ -B0[2,3]*l ],
+[ l ]
+);
+pepsilon: ratsimp(expand(pepsilon));
+
+/* taylor series expansion of the eigenvector */
+taylor(pepsilon, epsilon, 0, 3);
+
+/* expectation */
+
+G*Btilde;
+gainepsilon: ratsimp(expand(transpose(U). (G*Btilde) . pepsilon));
+taylor(gainepsilon, epsilon, 0, 5);
diff --git a/buch/chapters/90-crypto/Makefile.inc b/buch/chapters/90-crypto/Makefile.inc
new file mode 100644
index 0000000..9543ce1
--- /dev/null
+++ b/buch/chapters/90-crypto/Makefile.inc
@@ -0,0 +1,12 @@
+#
+# Makefile.inc -- Makefile dependencies for chapter 9
+#
+# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+#
+
+CHAPTERFILES = $(CHAPTERFILES) \
+ chapters/90-crypto/arith.tex \
+ chapters/90-crypto/ff.tex \
+ chapters/90-crypto/aes.tex \
+ chapters/90-crypto/rs.tex \
+ chapters/90-crypto/chapter.tex
diff --git a/buch/chapters/90-crypto/aes.tex b/buch/chapters/90-crypto/aes.tex
new file mode 100644
index 0000000..6004dde
--- /dev/null
+++ b/buch/chapters/90-crypto/aes.tex
@@ -0,0 +1,35 @@
+%
+% aes.tex -- Beschreibung des AES Algorithmus
+%
+% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil
+%
+\section{Advanced Encryption Standard -- AES
+\label{buch:section:aes}}
+\rhead{Advanced Encryption Standard}
+Eine wichtige Forderung bei der Konzeption des damals neuen
+Advanced Encryption Standard war, dass darin keine ``willkürlich''
+erscheinenden Operationen geben darf, bei denen der Verdacht
+entstehen könnte, dass sich dahinter noch offengelegtes Wissen
+über einen möglichen Angriff auf den Verschlüsselungsalgorithmus
+verbergen könnte.
+Dies war eine Schwäche des vor AES üblichen DES Verschlüsselungsalgorithmus.
+In seiner Definition kommt eine Reihe von Konstanten vor, über deren
+Herkunft nichts bekannt war.
+Die Gerüchteküche wollte wissen, dass die NSA die Konstanten aus dem
+ursprünglichen Vorschlag abgeändert habe, und dass dies geschehen sei,
+um den Algorithmus durch die NSA angreifbar zu machen.
+
+Eine weiter Forderung war, dass die Sicherheit des neuen
+Verschlüsselungsstandards ``skalierbar'' sein soll, dass man also
+die Schlüssellänge mit der Zeit von 128~Bit auf 196 oder sogar 256~Bit
+steigern kann.
+Der Standard wird dadurch langlebiger und gleichzeitig entsteht die
+Möglichkeit, Sicherheit gegen Rechenleistung einzutauschen.
+Weniger leistungsfähige Systeme können den Algorithmus immer noch
+nutzen, entweder mit geringerer Verschlüsselungsrate oder geringerer
+Sicherheit.
+
+In diesem Abschnitt soll gezeigt werde, wie sich die AES
+spezifizierten Operationen als mit der Arithmetik der
+endlichen Körper beschreiben lassen.
+
diff --git a/buch/chapters/90-crypto/arith.tex b/buch/chapters/90-crypto/arith.tex
new file mode 100644
index 0000000..b6f2fd8
--- /dev/null
+++ b/buch/chapters/90-crypto/arith.tex
@@ -0,0 +1,25 @@
+%
+% arith.tex
+%
+% (c) 2021 Prof Dr Andreas Müller, Hochschule Rapperswil
+%
+\section{Arithmetik für die Kryptographie
+\label{buch:section:arithmetik-fuer-kryptographie}}
+\rhead{Arithmetik für die Kryptographie}
+
+\subsection{Potenzieren
+\label{buch:subsection:potenzieren}}
+% XXX Divide-and-Conquer Algorithmus
+
+\subsection{Rechenoperationen in $\mathbb{F}_p$
+\label{buch:subsection:rechenoperationen-in-fp}}
+% XXX Multiplikation: modulare Reduktion mit jedem Digit
+% XXX Divide-and-Conquer
+
+\subsection{Rechenoperationen in $\mathbb{F}_{2^l}$
+\label{buch:subsection:rechenoperatione-in-f2l}}
+% XXX Darstellung eines Körpers der Art F_{2^l}
+% XXX Addition (XOR) und Multiplikation
+% XXX Beispiel F_{2^8}
+% XXX Beispiel F einer Oakley-Gruppe
+
diff --git a/buch/chapters/90-crypto/chapter.tex b/buch/chapters/90-crypto/chapter.tex
new file mode 100644
index 0000000..43ac8de
--- /dev/null
+++ b/buch/chapters/90-crypto/chapter.tex
@@ -0,0 +1,31 @@
+%
+% chapter.tex -- Anwendungen von Matrizen in der Codierungstheorie und
+% Kryptographie
+%
+% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil
+%
+% !TeX spellcheck = de_CH
+\chapter{Anwendungen in Kryptographie und Codierungstheorie
+\label{buch:chapter:kryptographie}}
+\lhead{Kryptographie und Codierungstheorie}
+\rhead{}
+Die algebraische Theorie der endlichen Körper hat sich als besonders
+nützliche herausgestellt in der Krypographie.
+Die Eigenschaften dieser Körper sind reichhaltig genug, um
+kryptographsch widerstandsfähige Algorithmen zu liefern, die
+auch in ihrer Stärke beliebig skaliert werden können.
+Gleichzeitig liefert die Algebra auch eine effiziente Implementierung.
+In diesem Abschnitt soll dies an einigen Beispielen gezeigt werden.
+
+\input{chapters/90-crypto/arith.tex}
+\input{chapters/90-crypto/ff.tex}
+\input{chapters/90-crypto/aes.tex}
+\input{chapters/90-crypto/rs.tex}
+
+\section*{Übungsaufgaben}
+\rhead{Übungsaufgaben}
+\aufgabetoplevel{chapters/90-crypto/uebungsaufgaben}
+\begin{uebungsaufgaben}
+\uebungsaufgabe{9001}
+\end{uebungsaufgaben}
+
diff --git a/buch/chapters/90-crypto/ff.tex b/buch/chapters/90-crypto/ff.tex
new file mode 100644
index 0000000..4ab9c34
--- /dev/null
+++ b/buch/chapters/90-crypto/ff.tex
@@ -0,0 +1,664 @@
+%
+% ff.tex -- Kryptographie und endliche Körper
+%
+% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil
+%
+
+\section{Kryptographie und endliche Körper
+\label{buch:section:kryptographie-und-endliche-koerper}}
+\rhead{Kryptographie und endliche Körper}
+
+\subsection{Potenzen in $\mathbb{F}_p$ und diskreter Logarithmus
+\label{buch:subsection:potenzen-diskreter-logarithmus}}
+Für kryptographische Anwendungen wird eine einfach zu berechnende
+Funktion benötigt,
+die ohne zusätzliches Wissen, üblicherweise der Schlüssel genannt,
+nicht ohne weiteres umkehrbar ist.
+Die arithmetischen Operationen in einem endlichen Körper sind
+mit geringem Aufwand durchführbar.
+Für die ``schwierigste'' Operation, die Division, steht der
+euklidische Algorithmus zur Verfügung.
+
+Die nächstschwierigere Operation ist die Potenzfunktion.
+Für $g\in \Bbbk$ und $a\in\mathbb{N}$ ist die Potenz $g^a\in\Bbbk$
+natürlich durch die wiederholte Multiplikation definiert.
+In der Praxis werden aber $g$ und $a$ Zahlen mit vielen Binärstellen
+sein, die die wiederholte Multiplikation ist daher sicher nicht
+effizient, das Kriterium der einfachen Berechenbarkeit scheint
+also nicht erfüllt.
+Der folgende Algorithmus berechnet die Potenz in $O(\log_2 a$
+Multiplikationen.
+
+\begin{algorithmus}[Divide-and-conquer]
+\label{buch:crypto:algo:divide-and-conquer}
+Sei $a=a_0 + a_12^1 + a_22^2 + \dots + a_k2^k$ die Binärdarstellung
+der Zahl $a$.
+\begin{enumerate}
+\item setze $f=g$, $x=1$, $i=0$
+\label{divide-and-conquer-1}
+\item solange $i\ge k$ ist, führe aus
+\label{divide-and-conquer-2}
+\begin{enumerate}
+\item
+\label{divide-and-conquer-3}
+falls $a_i=1$ setze $x \coloneqq x \cdot f$
+\item
+\label{divide-and-conquer-4}
+$i \coloneqq i+1$ und $f\coloneqq f\cdot f$
+\end{enumerate}
+\end{enumerate}
+Die Potenz $x=g^a$ kann so in $O(\log_2a)$ Multiplikationen
+berechnet werden.
+\end{algorithmus}
+
+\begin{proof}[Beweis]
+Die Initalisierung in Schritt~\ref{divide-and-conquer-1} stellt sicher,
+dass $x$ den Wert $g^0$ hat.
+Schritt~\ref{divide-and-conquer-4} stellt sicher,
+dass die Variable $f$ immer den Wert $g^{2^i}$ hat.
+Im Schritt~\ref{divide-and-conquer-3} wird zu $x$ die Potenz
+$g^{a_i2^i}$ hinzumultipliziert.
+Am Ende des Algorithmus hat daher $x$ den Wert
+\[
+x = g^{a_02^0} \cdot g^{a_12^1} \cdot g^{a_22^2} \cdot\ldots\cdot 2^{a_k2^k}
+=
+g^{a_0+a_12+a_22^2+\dots+a_k2^k}
+=
+g^a.
+\]
+Die Schleife wird $\lfloor1+\log_2ab\rfloor$ mal durchlaufen.
+In jedem Fall wird auf jeden Fall die Multiplikation in
+Schritt~\ref{divide-and-conquer-4} durchgeführt
+und im schlimmsten Fall auch noch die Multiplikation in
+Schritt~\ref{divide-and-conquer-3}.
+Es werden also nicht mehr als $2\lfloor 1+\log_2a\rfloor=O(\log_2a)$
+Multiplikationen durchgeführt.
+\end{proof}
+
+\begin{beispiel}
+Man berechne die Potenz $7^{2021}$ in $\mathbb{F}_p$.
+Die Binärdarstellung von 2021 ist $2021_{10}=\texttt{11111100101}_2$.
+Wir stellen die nötigen Operationen des
+Algorithmus~\ref{buch:crypto:algo:divide-and-conquer} in der folgenden
+Tabelle
+\begin{center}
+\begin{tabular}{|>{$}r<{$}|>{$}r<{$}|>{$}r<{$}|>{$}r<{$}|}
+\hline
+ i& f& a_i& x\\
+\hline
+ 0& 7& 1& 7\\
+ 1& 49& 0& 7\\
+ 2&1110& 1& 24\\
+ 3& 486& 0& 24\\
+ 4&1234& 0& 24\\
+ 5& 667& 1& 516\\
+ 6& 785& 1& 977\\
+ 7& 418& 1& 430\\
+ 8& 439& 1& 284\\
+ 9& 362& 1& 819\\
+10& 653& 1& 333\\
+\hline
+\end{tabular}
+\end{center}
+Daraus liest man ab, dass $7^{2021}=333\in\mathbb{F}_{1291}$.
+\end{beispiel}
+
+Die Tabelle suggeriert, dass die Potenzen von $g$ ``wild'', also
+scheinbar ohne System in $\mathbb{F}_p$ herumspringen.
+Dies deutet an, dass die Umkehrung der Exponentialfunktion in $\mathbb{F}_p$
+schwierig ist.
+Die Umkehrfunktion der Exponentialfunktion, die Umkehrfunktion von
+$x\mapsto g^x$ in $\mathbb{F}_p$ heisst der {\em diskrete Logarithmus}.
+\index{diskreter Logarithmus}%
+Tatsächlich ist der diskrete Logarithmus ähnlich schwierig zu bestimmen
+wie das Faktorisieren von Zahlen, die das Produkt grosser
+Primafaktoren ähnlicher Grössenordnung wie $p$ sind.
+Die Funktion $x\mapsto g^x$ ist die gesuchte, schwierig zu invertierende
+Funktion.
+
+Auf dern ersten Blick scheint der
+Algorithmus~\ref{buch:crypto:algo:divide-and-conquer}
+den Nachteil zu haben, dass erst die Binärdarstellung der Zahl $a$
+ermittelt werden muss.
+In einem Computer ist dies aber normalerweise kein Problem, da $a$
+im Computer ohnehin binär dargestellt ist.
+Die Binärziffern werden in der Reihenfolge vom niederwertigsten zum
+höchstwertigen Bit benötigt.
+Die folgende Modifikation des Algorithmus ermittelt laufend
+auch die Binärstellen von $a$.
+Die dazu notwendigen Operationen sind im Binärsystem besonders
+effizient implementierbar, die Division durch 2 ist ein Bitshift, der
+Rest ist einfach das niederwertigste Bit der Zahl.
+
+\begin{algorithmus}
+\label{buch:crypto:algo:divide-and-conquer2}
+\begin{enumerate}
+\item
+Setze $f=g$, $x=1$, $i=0$
+\item
+Solange $a>0$ ist, führe aus
+\begin{enumerate}
+\item
+Verwende den euklidischen Algorithmus um $r$ und $b$ zu bestimmen mit $a=2b+r$
+\item
+Falls $r=1$ setze $x \coloneqq x \cdot f$
+\item
+$i \coloneqq i+1$, $a = b$ und $f\coloneqq f\cdot f$
+\end{enumerate}
+\end{enumerate}
+Die Potenz $x=g^a$ kann so in $O(\log_2a)$ Multiplikationen
+berechnet werden.
+\end{algorithmus}
+
+
+%
+% Diffie-Hellman Schlüsseltausch
+%
+\subsection{Diffie-Hellman-Schlüsseltausch
+\label{buch:subsection:diffie-hellman}}
+Eine Grundaufgabe der Verschlüsselung im Internet ist, dass zwei
+Kommunikationspartner einen gemeinsamen Schlüssel für die Verschlüsselung
+der Daten aushandeln können müssen.
+Es muss davon ausgegangen werden, dass die Kommunikation abgehört wird.
+Trotzdem soll es für einen Lauscher nicht möglich sein, den
+ausgehandelten Schlüssel zu ermitteln.
+
+% XXX Historisches zu Diffie und Hellman
+
+Die beiden Partner $A$ und $B$ einigen sich zunächst auf eine Zahl $g$,
+die öffentlich bekannt sein darf.
+Weiter erzeugen sie eine zufällige Zahl $a$ und $b$, die sie geheim
+halten.
+Das Verfahren soll aus diesen beiden Zahlen einen Schlüssel erzeugen,
+den beide Partner berechnen können, ohne dass sie $a$ oder $b$
+übermitteln müssen.
+Die beiden Zahlen werden daher auch die privaten Schlüssel genannt.
+
+Die Idee von Diffie und Hellman ist jetzt, die Werte $x=g^a$ und $y=g^b$
+zu übertragen.
+In $\mathbb{R}$ würden dadurch natürlich dem Lauscher auch $a$ offenbart,
+er könnte einfach $a=\log_g x$ berechnen.
+Ebenso kann auch $b$ als $b=\log_g y$ erhalten werden, die beiden
+privaten Schlüssel wären also nicht mehr privat.
+Statt der Potenzfunktion in $\mathbb{R}$ muss also eine Funktion
+verwendet werden, die nicht so leicht umgekehrt werden kann.
+Die Potenzfunktion in $\mathbb{F}_p$ erfüllt genau diese Eigenschaft.
+Die Kommunikationspartner einigen sich also auch noch auf die (grosse)
+Primzahl $p$ und übermitteln $x=g^a\in\mathbb{F}_p$ und
+$y=g^b\in\mathbb{F}_p$.
+
+\begin{figure}
+\centering
+\includegraphics{chapters/90-crypto/images/dh.pdf}
+\caption{Schlüsselaustausch nach Diffie-Hellman.
+Die Kommunikationspartner $A$ und $B$ einigen sich öffentlich auf
+$p\in\mathbb{N}$ und $g\in\mathbb{F}_p$.
+$A$ wählt dann einen privaten Schlüssel $a\in\mathbb{N}$ und
+$B$ wählt $b\in\mathbb{N}$, sie tauschen dann $x=g^a$ und $y=g^b$
+aus.
+$A$ erhält den gemeinsamen Schlüssel aus $y^a$, $B$ erhält ihn
+aus $x^b$.
+\label{buch:crypto:fig:dh}}
+\end{figure}
+
+Aus $x$ und $y$ muss jetzt der gemeinsame Schlüssel abgeleitet werden.
+$A$ kennt $y=g^b$ und $a$, $B$ kennt $x=g^a$ und $b$.
+Beide können die Zahl $s=g^{ab}\in\mathbb{F}_p$ berechnen.
+$A$ macht das, indem er $y^a=(g^b)^a = g^{ab}$ rechnet,
+$B$ rechnet $x^b = (g^a)^b = g^{ab}$, beide natürlich in $\mathbb{F}_p$.
+Der Lauscher kann aber $g^{ab}$ nicht ermitteln, dazu müsste er
+$a$ oder $b$ ermitteln können.
+Die Zahl $s=g^{ab}$ kann also als gemeinsamer Schlüssel verwendet
+werden.
+
+
+
+\subsection{Elliptische Kurven
+\label{buch:subsection:elliptische-kurven}}
+Das Diffie-Hellman-Verfahren basiert auf der Schwierigkeit, in einem
+Körper $\mathbb{F}_p$ die Gleichung $a^x=b$ nach $x$ aufzulösen.
+Die Addition in $\mathbb{F}_p$ wird dazu nicht benötigt.
+Es reicht, eine Menge mit einer Multiplikation zu haben, in der das
+die Gleichung $a^x=b$ schwierig zu lösen ist.
+Ein Gruppe wäre also durchaus ausreichend.
+
+Ein Kandidat für eine solche Gruppe könnte der Einheitskreis
+$S^1=\{z\in\mathbb{C}\;|\; |z|=1\}$ in der komplexen Ebene sein.
+Wählt man eine Zahl $g=e^{i\alpha}$, wobei $\alpha$ ein irrationales
+Vielfaches von $\pi$ ist, dann sind alle Potenzen $g^n$ für natürliche
+Exponenten voneinander verschieden.
+Wäre nämlich $g^{n_1}=g^{n_2}$, dann wäre $e^{i\alpha(n_1-n_2)}=1$ und
+somit müsste $\alpha=2k\pi/(n_1-n_2)$ sein.
+Damit wäre aber $\alpha$ ein rationales Vielfaches von $\pi$, im Widerspruch
+zur Voraussetzung.
+Die Abbildung $n\mapsto g^n\in S^1$ ist auf den ersten Blick etwa ähnlich
+undurchschaubar wie die Abbildung $n\mapsto g^n\in\mathbb{F}_p$.
+Es gibt zwar die komplexe Logarithmusfunktion, mit der man $n$ bestimmen
+kann, dazu muss man aber den Wert von $g^n$ mit beliebiger Genauigkeit
+kennen, denn die Werte von $g^n$ können beliebig nahe beieinander liegen.
+
+Der Einheitskreis ist die Lösungsmenge der Gleichung $x^2+y^2=1$ für
+reelle Koordinaten $x$ und $y$,
+doch Rundungsunsicherheiten verunmöglichen den Einsatz in einem
+Verfahren ähnlich dem Diffie-Hellman-Verfahren.
+Dieses Problem kann gelöst werden, indem für die Variablen Werte
+aus einem endlichen Körper verwendet werden.
+Gesucht ist also eine Gleichung in zwei Variablen, deren Lösungsmenge
+in einem endlichen Körper eine Gruppenstruktur trägt.
+Die Lösungsmenge ist eine ``Kurve'' von Punkten mit
+Koordinaten in einem endlichen Körper.
+
+In diesem Abschnitt wird gezeigt, dass sogenannte elliptische Kurven
+über endlichen Körpern genau die verlangen Eigenschaften haben.
+
+\subsubsection{Elliptische Kurven}
+Elliptische Kurven sind Lösungen einer Gleichung der Form
+\begin{equation}
+Y^2+XY=X^3+aX+b
+\label{buch:crypto:eqn:ellipticcurve}
+\end{equation}
+mit Werten von $X$ und $Y$ in einem geeigneten Körper.
+Die Koeffizienten $a$ und $b$ müssen so gewählt werden, dass die
+Gleichung~\eqref{buch:crypto:eqn:ellipticcurve} genügend viele
+Lösungen hat.
+Über den komplexen Zahlen hat die Gleichung natürlich für jede Wahl von
+$X$ drei Lösungen.
+Für einen endlichen Körper können wir dies im allgemeinen nicht erwarten,
+aber wenn wir genügend viele Wurzeln zu $\mathbb{F}$ hinzufügen können wir
+mindestens erreichen, dass die Lösungsmenge so viele Elemente hat,
+dass ein Versuch, die Gleichung $g^x=b$ mittels Durchprobierens zu
+lösen, zum Scheitern verurteil ist.
+
+\begin{definition}
+\label{buch:crypto:def:ellipticcurve}
+Die {\em elliptische Kurve} $E_{a,b}(\Bbbk)$ über dem Körper $\Bbbk$ ist
+die Menge
+\[
+E_{a,b}(\Bbbk)
+=
+\{(X,Y)\in\Bbbk^2\;|\;Y^2+XY=X^3+aX+b\},
+\]
+für $a,b\in\Bbbk$.
+\end{definition}
+
+Um die Anschauung zu vereinfachen, werden wir elliptische Kurven über
+dem Körper $\mathbb{R}$ visualisieren.
+Die daraus gewonnenen geometrischen Einsichten werden wir anschliessend
+algebraisch umsetzen.
+In den reellen Zahlen kann man die
+Gleichung~\eqref{buch:crypto:eqn:ellipticcurve}
+noch etwas vereinfachen.
+Indem man in \eqref{buch:crypto:eqn:ellipticcurve}
+quadratisch ergänzt, bekommt man
+\begin{align}
+Y^2 + XY + \frac14X^2 &= X^3+\frac14 X^2 +aX+b
+\notag
+\\
+\Rightarrow\qquad
+v^2&=X^3+\frac14X^2+aX+b,
+\label{buch:crypto:eqn:ell2}
+\end{align}
+indem man $v=Y+\frac12X$ setzt.
+Man beachte, dass man diese Substition nur machen kann, wenn $\frac12$
+definiert ist.
+In $\mathbb{R}$ ist dies kein Problem, aber genau über den Körpern
+mit Charakteristik $2$, die wir für die Computer-Implementation
+bevorzugen, ist dies nicht möglich.
+Es geht hier aber nur um die Visualisierung.
+
+Auch die Form \eqref{buch:crypto:eqn:ell2} lässt sich noch etwas
+vereinfachen.
+Setzt man $X=u-\frac1{12}$, dann verschwindet nach einiger Rechnung,
+die wir hier nicht durchführen wollen, der quadratische Term
+auf der rechten Seite.
+Die interessierenden Punkte sind Lösungen der einfacheren Gleichung
+\begin{equation}
+v^2
+=
+u^3+\biggl(a-\frac{1}{48}\biggr)u + b-\frac{a}{12}+\frac{1}{864}
+=
+u^3+Au+B.
+\label{buch:crypto:ellvereinfacht}
+\end{equation}
+In dieser Form ist mit $(u,v)$ immer auch $(u,-v)$ eine Lösung,
+die Kurve ist symmetrisch bezüglich der $u$-Achse.
+Ebenso kann man ablesen, dass nur diejenigen $u$-Werte möglich sind,
+für die das kubische Polynom $u^3+Au+B$ auf der rechten Seite von
+\eqref{buch:crypto:ellvereinfacht}
+nicht negativ ist.
+
+Sind $u_1$, $u_2$ und $u_3$ die Nullstellen des kubischen Polynoms
+auf der rechten Seite von~\eqref{buch:crypto:ellvereinfacht}, folgt
+\[
+v^2
+=
+(u-u_1)(u-u_2)(u-u_3)
+=
+u^3
+-(u_1+u_2+u_3)u^2
++(u_1u_2+u_1u_3+u_2u_3)u
+-
+u_1u_2u_3.
+\]
+Durch Koeffizientenvergleich sieht man, dass $u_1+u_2+u_3=0$ sein muss.
+\begin{figure}
+\centering
+\includegraphics{chapters/90-crypto/images/elliptic.pdf}
+\caption{Elliptische Kurve in $\mathbb{R}$ in der Form
+$v^2=u^3+Au+B$ mit Nullstellen $u_1$, $u_2$ und $u_3$ des
+kubischen Polynoms auf der rechten Seite.
+Die blauen Punkte und Geraden illustrieren die Definition der
+Gruppenoperation in der elliptischen Kurve.
+\label{buch:crypto:fig:elliptischekurve}}
+\end{figure}
+Abbildung~\ref{buch:crypto:fig:elliptischekurve}
+zeigt eine elliptische Kurve in der Ebene.
+
+\subsubsection{Geometrische Definition der Gruppenoperation}
+In der speziellen Form \ref{buch:crypto:ellvereinfacht} ist die
+elliptische Kurve symmetrisch unter Spiegelung an der $u$-Achse.
+Die Spiegelung ist eine Involution, zweimalige Ausführung führt auf
+den ursprünglichen Punkt zurück.
+Die Inverse in einer Gruppe hat diese Eigenschaft auch, es ist
+daher naheliegend, den gespiegelten Punkt als die Inverse eines
+Elementes zu nehmen.
+
+Eine Gerade durch zwei Punkte der
+in Abbildung~\ref{buch:crypto:fig:elliptischekurve}
+dargestellten Kurve schneidet die Kurve ein drittes Mal.
+Die Gruppenoperation wird so definiert, dass drei Punkte der Kurve
+auf einer Geraden das Gruppenprodukt $e$ haben.
+Da aus $g_1g_2g_3=e$ folgt $g_3=(g_1g_2)^{-1}$ oder
+$g_1g_2=g_3^{-1}$, erhält man das Gruppenprodukt zweier Elemente
+auf der elliptischen Kurve indem erst den dritten Schnittpunkt
+ermittelt und diesen dann an der $u$-Achse spiegelt.
+
+Die geometrische Konstruktion schlägt fehl, wenn $g_1=g_2$ ist.
+In diesem Fall kann man die Tangente im Punkt $g_1$ an die Kurve
+verwenden.
+Dieser Fall tritt zum Beispiel auch in den drei Punkten
+$(u_1,0)$, $(u_2,0)$ und $(u_3,0)$ ein.
+
+Um das neutrale Element der Gruppe zu finden, können wir
+zwei Punkte $g$ und $g^{-1}$ miteinander verknüpfen.
+Die Gerade durch $g$ und $g^{-1}$ schneidet aber die Kurve
+kein drittes Mal.
+Ausserdem sind alle Geraden durch $g$ und $g^{-1}$ für verschiedene
+$g$ parallel.
+Das neutrale Element entspricht also einem unendlich weit entfernten Punkt.
+Das neutrale Element entsteht immer dann als Produkt, wenn zwei
+Punkte die gleiche $u$-Koordinaten haben.
+
+\subsubsection{Gruppenoperation, algebraische Konstruktion}
+Nach den geometrischen Vorarbeiten zur Definition der Gruppenoperation
+kann können wir die Konstruktion jetzt algebraisch umsetzen.
+
+Zunächst überlegen wir uns wieder eine Involution, welche als Inverse
+dienen kann.
+Dazu beachten wir, dass die linke Seite der definierenden Gleichung
+\begin{equation}
+Y^2+XY=X^3-aX+b.
+\label{buch:crypto:eqn:grupopgl}
+\end{equation}
+auch als $Y(Y+X)$ geschrieben werden kann.
+Die Abbildung $Y\mapsto -X-Y$ macht daraus
+\[
+(-X-Y)(-X-Y+X)=(X+Y)Y,
+\]
+dies ist also die gesuchte Involution.
+
+Seien also $g_1=(x_1,y_1)$ und $g_2=(x_2,y_2)$ zwei verschiedene Lösungen
+der Gleichung \eqref{buch:crypto:eqn:grupopgl}
+Als erstes brauchen wir eine Gleichung für die Gerade durch die beiden
+Punkte.
+Sei also $l(X,Y)$ eine Linearform derart, dass $l(g_1)=d$ und $l(g_2)=d$
+für ein geeignetes $d\in\Bbbk$.
+Dann gilt auch für die Punkte
+\[
+g(t) = tg_1 + (1-t)g_2
+\qquad\Rightarrow\qquad
+l(g(t))
+=
+tl(g_1) + (1-t)l(g_2)
+=
+tc+(1-t)c
+=
+(t+1-t)c
+=c,
+\]
+jeder Punkt der Geraden durch $g_1$ und $g_2$ lässt sich in dieser Form
+schreiben.
+
+Setzt man jetzt $g(t)$ in die Gleichung ein, erhält man eine kubische
+Gleichung in $t$, von der wir bereits zwei Nullstellen kennen, nämlich
+$0$ und $1$.
+Die kubische Gleichung muss also durch $t$ und $(t-1)$ teilbar sein.
+Diese Berechnung kann man einfach in einem Computeralgebrasystem
+durchführen.
+Das Polynom ist
+\[
+p(t)
+=
+\]
+Nach Division durch $t(t-1)$ erhält man als den Quotienten
+\begin{align*}
+q(t)
+&=
+(y_2-y_1)^2
++
+(y_2-y_1) (x_2-x_1)
++
+t(x_2-x_1)^3
+-
+2x_2^3+3x_1x_2^2-x_1^3
+\end{align*}
+und den Rest
+\[
+r(t)
+=
+t(y_1^2+x_1y_1-x_1^3-ax_1-b)
++
+(1-t)(y_2^2+x_2y_2-x_2^3-ax_2-b).
+\]
+Die Klammerausdrücke verschwinden, da die sie gleichbedeutend damit sind,
+dass die Punkte Lösungen von \eqref{buch:crypto:eqn:grupopgl} sind.
+
+Für den dritten Punkt auf der Geraden muss $t$ so gewählt werden, dass
+$q(t)=0$ ist.
+Dies ist aber eine lineare Gleichung mit der Lösung
+\begin{align*}
+t
+&=
+-\frac{
+(y_1-y_2)^2
++
+(y_2-y_1)(x_2-x_1)
+-2x_2^3+3x_1x_2^2-x_1^3
+}{(x_2-x_1)^3}
+.
+\end{align*}
+Setzt man dies $g(t)$ ein, erhält man für die Koordinaten des dritten
+Punktes $g_3$ die Werte
+\begin{align}
+x_3
+&=
+\frac{
+(y_2-y_1)^2(x_2-x_1) + (y_2-y_1)(x_2-x_1)^2
+-(x_2^4+x_1^4)
+}{
+(x_2-x_1)^3
+}
+\label{buch:crypto:eqn:x3}
+\\
+y_3
+&=
+\frac{
+(y_2-y_1)^3
++(x_2-x_1)(y_2-y_1)^2
+-(x_{2}-x_{1})^3 ( y_{2} - y_{1})
+-(x_{2}-x_{1})^2 ( x_{1} y_{2}- x_{2} y_{1})
+}{
+(x_2-x_1)^3
+}
+\label{buch:crypto:eqn:y3}
+\end{align}
+Die Gleichungen
+\eqref{buch:crypto:eqn:x3}
+und
+\eqref{buch:crypto:eqn:y3}
+ermöglichen also, das Element $g_1g_2^{-1}$ zu berechnen.
+Interessant daran ist, dass in den Formeln die Konstanten $a$ und $b$
+gar nicht vorkommen.
+
+Es bleibt noch der wichtige Fall des Quadrierens in der Gruppe zu
+behandeln, also den Fall $g_1=g_2$.
+In diese Fall sind die Formeln
+\eqref{buch:crypto:eqn:x3}
+und
+\eqref{buch:crypto:eqn:y3}
+ganz offensichtlich nicht anwendbar.
+Die geometrische Anschauung hat nahegelegt, die Tangent an die Kurve
+im Punkt $g_1$ zu nehmen.
+In $\mathbb{R}$ würde man dafür einen Grenzübergang $g_2\to g_1$ machen,
+aber in einem endlichen Körper ist dies natürlich nicht möglich.
+
+Wir schreiben die Gerade als Parameterdarstellung in der Form
+\(
+t\mapsto g(t)= (x_1+ut, y_1+vt)
+\)
+für beliebige Parameter in $\Bbbk$.
+Die Werte $u_1$ und $u_2$ müssen so gewählt werden, dass $g(t)$ eine
+Tangente wird.
+Setzt man $g(t)$ in die Gleichung~\eqref{buch:crypto:eqn:grupopgl} ein,
+entsteht ein kubische Gleichung, die genau dann eine doppelte Nullstelle
+bei $0$ hat, wenn $u,v$ die Tangentenrichtung beschreiben.
+Einsetzen von $g(t)$ in \eqref{buch:crypto:eqn:grupopgl}
+ergibt die Gleichung
+\begin{align}
+0
+&=
+-u^3t^3
++
+(-3u^2x_{1}+v^2+uv)t^2
++
+(2vy_1+uy_1-3ux_1^2+vx_1-au)t
++
+(y_1^2+x_1y_1-x_1^3-ax_1-b)
+\label{buch:crypto:eqn:tangente1}
+\end{align}
+Damit bei $t=0$ eine doppelte Nullstelle mussen die letzten beiden
+Koeffizienten verschwinden, dies führt auf die Gleichungen
+\begin{align}
+y_1^2+x_1y_1&=x_1^3+ax_1+b
+\label{buch:crypto:eqn:rest1}
+\\
+(2y_1
++x_1)v
++(y_1
+-3x_1^2
+-a)u
+&=0
+\label{buch:crypto:eqn:rest2}
+\end{align}
+Die erste Gleichung \eqref{buch:crypto:eqn:rest1} drückt aus,
+dass $g_1$ ein Punkt der Kurve ist, sie ist automatisch erfüllt.
+
+Die zweite Gleichung
+\eqref{buch:crypto:eqn:rest2}
+legt das Verhältnis von $u$ und $v$, also die
+\label{buch:crypto:eqn:rest2}
+Tangentenrichtung fest.
+Eine mögliche Lösung ist
+\begin{equation}
+\begin{aligned}
+u &= x_1+2y_1
+\\
+v &= -y_1+3x_1^2+a.
+\end{aligned}
+\label{buch:crypto:eqn:uv}
+\end{equation}
+
+Der Quotient ist ein lineares Polynom in $t$, die Nullstelle parametrisiert
+den Punkt, der $(g_1)^{-2}$ entspricht.
+Der zugehörige Wert von $t$ ist
+\begin{equation}
+t=-\frac{3u^2x_1-v^2-uv}{u^3}.
+\label{buch:crypto:eqn:t}
+\end{equation}
+
+
+Setzt man
+\label{buch:crypto:eqn:t}
+und
+\eqref{buch:crypto:eqn:uv}
+in $g(t)$ ein, erhält man sehr komplizierte Ausdrücke für den dritten Punkt.
+Wir verzichten darauf, diese Ausdrücke hier aufzuschreiben.
+In der Praxis wird man in einem Körper der Charakteristik 2 arbeiten.
+In diesem Körper werden alle geraden Koeffizienten zu $0$, alle ungeraden
+Koeffizienten werden unabhängig vom Vorzeichen zu $1$.
+Damit bekommt man die folgenden, sehr viel übersichtlicheren Ausdrücke
+für den dritten Punkt:
+\begin{equation}
+\begin{aligned}
+x
+&=
+-\frac{
+y_1^2+x_1y_1+x_1^4+x_1^3+ax_1-a^2
+ }{
+x_1^2
+}
+\\
+y
+&=
+\frac{
+y_1^3+(x_1^2+x_1+a)y_1^2+(x_1^4 +a^2)y_1+x_1^6+ax_1^4+ax_1^3+a^2x_1^2+a^2x_1+a^3
+}{
+ x_1^3
+}
+\end{aligned}
+\label{buch:crypto:eqn:tangentechar2}
+\end{equation}
+Damit haben wir einen vollständigen Formelsatz für die Berechnung der
+Gruppenoperation in der elliptischen Kurve mindestens für den praktisch
+relevanten Fall einer Kurve über einem Körper der Charakteristik $2$.
+
+\begin{satz}
+Die elliptische Kurve
+\[
+E_{a,b}(\mathbb{F}_{p^l})
+=
+\{
+(X,Y)\in\mathbb{F}_{p^l}
+\;|\;
+Y^2+XY = X^3-aX-b
+\}
+\]
+trägt eine Gruppenstruktur, die wie folgt definiert ist:
+\begin{enumerate}
+\item Der Punkt $(0,0)$ entspricht dem neutralen Element.
+\item Das inverse Element von $(x,y)$ ist $(-x,-y-x)$.
+\item Für zwei verschiedene Punkte $g_1$ und $g_2$ kann $g_3=(g_1g_2)^{-1}$
+mit Hilfe der Formeln
+\eqref{buch:crypto:eqn:x3}
+und
+\eqref{buch:crypto:eqn:y3}
+gefunden werden.
+\item Für einen Punkt $g_1$ kann $g_3=g_1^{-2}$ in Charakteristik $2$ mit
+Hilfe der Formeln
+\eqref{buch:crypto:eqn:tangentechar2}
+gefunden werden.
+\end{enumerate}
+Diese Operationen machen $E_{a,b}(\mathbb{F}_{p^l})$ zu einer endlichen
+abelschen Gruppe.
+\end{satz}
+
+\subsubsection{Beispiele}
+% XXX
+TODO: elliptische Kurven in IPsec: Oakley Gruppen
+
+\subsubsection{Diffie-Hellman in einer elliptischen Kurve}
+% XXX
+TODO: $g^x$ in einer elliptischen Kurve
+
+
+
diff --git a/buch/chapters/90-crypto/images/Makefile b/buch/chapters/90-crypto/images/Makefile
new file mode 100644
index 0000000..9480163
--- /dev/null
+++ b/buch/chapters/90-crypto/images/Makefile
@@ -0,0 +1,13 @@
+#
+# Makefile -- build images for crypto chapter
+#
+# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+#
+all: dh.pdf elliptic.pdf
+
+dh.pdf: dh.tex
+ pdflatex dh.tex
+
+elliptic.pdf: elliptic.tex
+ pdflatex elliptic.tex
+
diff --git a/buch/chapters/90-crypto/images/dh.pdf b/buch/chapters/90-crypto/images/dh.pdf
new file mode 100644
index 0000000..67b95a5
--- /dev/null
+++ b/buch/chapters/90-crypto/images/dh.pdf
Binary files differ
diff --git a/buch/chapters/90-crypto/images/dh.tex b/buch/chapters/90-crypto/images/dh.tex
new file mode 100644
index 0000000..1faa830
--- /dev/null
+++ b/buch/chapters/90-crypto/images/dh.tex
@@ -0,0 +1,53 @@
+%
+% dh.tex -- diffie hellmann key exchange
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math,calc,hobby}
+\begin{document}
+\definecolor{darkgreen}{rgb}{0,0.6,0}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+\def\l{2.5}
+\fill[color=blue!20] (-7,-6.5) rectangle (7,0.5);
+\fill[color=red!20] (-\l,-6.5) rectangle (\l,0.501);
+\node[color=red] at (0,-1.5) {öffentliches Netzwerk};
+\node[color=blue] at (-7,0.2) [right] {privat};
+\node[color=blue] at (7,0.2) [left] {privat};
+\coordinate (A) at (-\l,-2.5);
+\coordinate (C) at (\l,-5.5);
+\coordinate (B) at (\l,-2.5);
+\coordinate (D) at (-\l,-5.5);
+\node at (0,0) {$p\in\mathbb{N},g\in\mathbb{F}_p$ aushandeln};
+\fill[color=white] (-\l,-0.7) circle[radius=0.3];
+\draw (-\l,-0.7) circle[radius=0.3];
+\fill[color=white] (\l,-0.7) circle[radius=0.3];
+\draw (\l,-0.7) circle[radius=0.3];
+\node at (-\l,-0.7) {$A$};
+\node at (\l,-0.7) {$B$};
+\node at (-\l,-1.5) [left] {$a$ auswählen};
+\node at (-\l,-2.0) [left] {$x=g^a\in\mathbb{F}_p$ auswählen};
+\node at (\l,-1.5) [right] {$b$ auswählen};
+\node at (\l,-2.0) [right] {$y=g^b\in\mathbb{F}_p$ auswählen};
+\draw[->] (-\l,-1) -- (-\l,-6);
+\draw[->] (\l,-1) -- (\l,-6);
+\draw[->] (A) -- (C);
+\draw[->] (B) -- (D);
+\fill (A) circle[radius=0.08];
+\fill (B) circle[radius=0.08];
+\node at ($0.8*(A)+0.2*(C)$) [above right] {$x=g^a$};
+\node at ($0.8*(B)+0.2*(D)$) [above left] {$y=g^b$};
+\node at (-\l,-5.5) [left] {$s=g^{ab}=y^a\in\mathbb{F}_p$ ausrechnen};
+\node at (\l,-5.5) [right] {$s=g^{ab}=x^b\in\mathbb{F}_p$ ausrechnen};
+\fill[rounded corners=0.3cm,color=darkgreen!20] ({-\l-1},-7) rectangle ({\l+1},-6);
+\draw[rounded corners=0.3cm] ({-\l-1},-7) rectangle ({\l+1},-6);
+\node at (0,-6.5) {$A$ und $B$ haben den gemeinsamen Schlüssel $s$};
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/90-crypto/images/elliptic.pdf b/buch/chapters/90-crypto/images/elliptic.pdf
new file mode 100644
index 0000000..d408f1e
--- /dev/null
+++ b/buch/chapters/90-crypto/images/elliptic.pdf
Binary files differ
diff --git a/buch/chapters/90-crypto/images/elliptic.tex b/buch/chapters/90-crypto/images/elliptic.tex
new file mode 100644
index 0000000..f0843cd
--- /dev/null
+++ b/buch/chapters/90-crypto/images/elliptic.tex
@@ -0,0 +1,97 @@
+%
+% elliptic.tex -- elliptic curve
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{4}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\def\uone{-1.1}
+\def\utwo{0.3}
+\pgfmathparse{-(\uone+\utwo)}
+\xdef\uthree{\pgfmathresult}
+\xdef\r{0.017}
+
+\def\gone{-1.05}
+\def\gtwo{0.2}
+\def\gthree{1.105}
+
+\pgfmathparse{-sqrt((\gone-\uone)*(\gone-\utwo)*(\gone-\uthree))}
+\xdef\yone{\pgfmathresult}
+\pgfmathparse{sqrt((\gtwo-\uone)*(\gtwo-\utwo)*(\gtwo-\uthree))}
+\xdef\ytwo{\pgfmathresult}
+\pgfmathparse{sqrt((\gthree-\uone)*(\gthree-\utwo)*(\gthree-\uthree))}
+\xdef\ythree{\pgfmathresult}
+
+\begin{scope}
+\clip (-1.5,-1.5) rectangle (1.5,1.5);
+\draw[color=blue]
+ ({\gone-(\gtwo-\gone)},{\yone-(\ytwo-\yone)})
+ --
+ ({\gone+2*(\gtwo-\gone)},{\yone+2*(\ytwo-\yone)});
+\draw[color=blue] (\gthree,-2) -- (\gthree,2);
+\end{scope}
+
+\draw[line width=1.4pt,color=red]
+ (\uone,0) --
+ plot[domain={\uone+0.001}:{\utwo-0.001},samples=100]
+ (\x,{sqrt((\x-\uone)*(\x-\utwo)*(\x-\uthree))})
+ -- (\utwo,0);
+\draw[line width=1.4pt,color=red]
+ (\uone,0) --
+ plot[domain={\uone+0.001}:{\utwo-0.001},samples=100]
+ (\x,{-sqrt((\x-\uone)*(\x-\utwo)*(\x-\uthree))})
+ -- (\utwo,0);
+
+\draw[line width=1.4pt,color=red]
+ (\uthree,0) --
+ plot[domain={\uthree}:1.5,samples=100]
+ (\x,{sqrt((\x-\uone)*(\x-\utwo)*(\x-\uthree))}) ;
+\draw[line width=1.4pt,color=red]
+ (\uthree,0) --
+ plot[domain={\uthree}:1.5,samples=100]
+ (\x,{-sqrt((\x-\uone)*(\x-\utwo)*(\x-\uthree))}) ;
+
+\draw[->] (-1.5,0) -- (1.5,0) coordinate[label={$u$}];
+\draw[->] (0,-1.5) -- (0,1.5) coordinate[label={right:$v$}];
+\node at (0,0) [below left] {$O$};
+
+\fill[color=white] (\uone,0) circle[radius=\r];
+\draw (\uone,0) circle[radius=\r];
+\node at ({\uone+0.01},-0.01) [above left] {$u_1$};
+
+\fill[color=white] (\utwo,0) circle[radius=\r];
+\draw (\utwo,0) circle[radius=\r];
+\node at ({\utwo-0.01},-0.01) [above right] {$u_2$};
+
+\fill[color=white] (\uthree,0) circle[radius=\r];
+\draw (\uthree,0) circle[radius=\r];
+\node at ({\uthree+0.01},-0.01) [above left] {$u_3$};
+
+\fill[color=white] (\gone,\yone) circle[radius=\r];
+\draw[color=blue] (\gone,\yone) circle[radius=\r];
+
+\fill[color=white] (\gtwo,\ytwo) circle[radius=\r];
+\draw[color=blue] (\gtwo,\ytwo) circle[radius=\r];
+
+\fill[color=white] (\gthree,\ythree) circle[radius=\r];
+\draw[color=blue] (\gthree,\ythree) circle[radius=\r];
+\fill[color=white] (\gthree,-\ythree) circle[radius=\r];
+\draw[color=blue] (\gthree,-\ythree) circle[radius=\r];
+
+\node[color=blue] at (\gone,{\yone-0.03}) [above left] {$g_1$};
+\node[color=blue] at ({\gtwo+0.03},{\ytwo+0.01}) [above] {$g_2$};
+\node[color=blue] at (\gthree,{\ythree+0.02}) [below right] {$g_3$};
+\node[color=blue] at (\gthree,{-\ythree+0.03}) [below left] {$g_1g_2=g_3^{-1}$};
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/90-crypto/rechnungen/elliptic.maxima b/buch/chapters/90-crypto/rechnungen/elliptic.maxima
new file mode 100644
index 0000000..8c43e6c
--- /dev/null
+++ b/buch/chapters/90-crypto/rechnungen/elliptic.maxima
@@ -0,0 +1,42 @@
+/*
+ * elliptic.maxima
+ *
+ * (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+ */
+
+p: Y^2+X*Y - X^3 - a*X -b;
+
+x: x1*t+(1-t)*x2;
+y: y1*t+(1-t)*y2;
+
+q: subst(x,X,p);
+q: subst(y,Y,q);
+q: ratsimp(expand(q));
+tex(q);
+
+qr: divide(q,t*(t-1),t);
+r: qr[2];
+q: qr[1];
+tex(q);
+
+subst(0,t,r);
+subst(1,t,r);
+
+tex(r);
+
+polydecomp(qr[2], t);
+
+s: solve(q = 0, t);
+tex(s);
+
+x3: ratsimp(expand(subst(s, x)));
+y3: ratsimp(expand(subst(s, y)));
+
+tex(x3);
+tex(y3);
+
+Y3: expand(y3 * (x2-x1)^3 - (y2-y1)^3 - (x2-x1)*(y2-y1)^2 );
+Y3: factor(expand(Y3));
+tex(Y3);
+
+
diff --git a/buch/chapters/90-crypto/rechnungen/tangent.maxima b/buch/chapters/90-crypto/rechnungen/tangent.maxima
new file mode 100644
index 0000000..aa7d236
--- /dev/null
+++ b/buch/chapters/90-crypto/rechnungen/tangent.maxima
@@ -0,0 +1,67 @@
+/*
+ * tangent.maxima
+ *
+ * (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+ */
+
+p: Y^2+X*Y - X^3 - a*X -b;
+
+x: x1 + u * t;
+y: y1 + v * t;
+
+q: subst(x,X,p);
+q: subst(y,Y,q);
+q: ratsimp(expand(q));
+tex(q);
+tex(coeff(expand(q), t, 3));
+tex(coeff(expand(q), t, 2));
+tex(coeff(expand(q), t, 1));
+tex(coeff(expand(q), t, 0));
+qr: divide(q,t^2,t);
+r: qr[2];
+s: solve(qr[1] = 0, t);
+tex(s);
+
+T: subst(s, t);
+
+U: x1+2*y1;
+V: y1-3*x1^2-a;
+X: subst(U, u, x);
+Y: subst(V, v, y);
+T: subst(U, u, T);
+T: subst(V, v, T);
+ratsimp(expand(T));
+
+q: subst(U, u, q);
+q: subst(V, v, q);
+
+qr: divide(q,t^2,t);
+r: qr[2];
+q: qr[1];
+tex(q);
+
+tex(coeff(r, t, 3));
+tex(coeff(r, t, 2));
+tex(coeff(r, t, 1));
+tex(coeff(r, t, 0));
+
+subst(0,t,r);
+subst(0,t,diff(r,t));
+
+tex(r);
+
+polydecomp(qr[2], t);
+
+s: solve(q = 0, t);
+tex(s);
+
+/*
+x3: ratsimp(expand(subst(s, -X)));
+y3: ratsimp(expand(subst(s, -Y-X)));
+*/
+
+x3: ratsimp(expand(subst(s, X)));
+y3: ratsimp(expand(subst(s, Y)));
+
+tex(x3);
+tex(y3);
diff --git a/buch/chapters/90-crypto/rs.tex b/buch/chapters/90-crypto/rs.tex
new file mode 100644
index 0000000..ec8ec8c
--- /dev/null
+++ b/buch/chapters/90-crypto/rs.tex
@@ -0,0 +1,41 @@
+%
+% rs.tex -- Reed-Solomon-Code
+%
+% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil
+%
+\section{Fehlerkorrigierende Codes nach Reed-Solomon
+\label{buch:section:reed-solomon}}
+\rhead{Fehlerkorrigierende Codes}
+Jede Art von Datenübertragung muss sich mit dem Problem der Fehler befassen,
+die auf dem Übertragungskanal entstehen können.
+Die einfachste Lösung dieses Problem versucht, Fehler zu erkennen und
+dann eine erneute Übermittelung zu veranlassen.
+Dies ist zum Beispiel bei der Datenübertragung von einer Raumsonde
+wie Voyager~1 nicht möglich, die Signallaufzeit von der Sonde und wieder
+zurück ist über 40 Stunden.
+Es ist auch nicht sinnvoll beim Lesen eines optischen Mediums wie einer
+CD oder DVD, wenn ein Fehler durch eine Beschädigung der Oberfläche
+des Mediums verursacht wird.
+Erneutes Lesen würde das Resultat auch nicht ändern.
+Es wird also eine Möglichkeit gesucht, die Daten so zu codieren, dass
+ein Fehler nicht nur erkannt sondern auch korrigiert werden kann.
+
+In diesem Abschnitt werden die algebraisch besonders interessanten
+Reed-Solmon-Codes beschrieben.
+Ihren ersten Einsatz hatten Sie bei den Voyager-Raumsonden, die 1977
+gestartet wurden.
+Sie befinden sich im Moment in einer Entfernung von
+Zum ersten mal kommerziell verwendet wurden sie für die optischen
+Medien CD und DVD.
+
+% https://www.youtube.com/watch?v=uOLW43OIZJ0
+% https://www.youtube.com/watch?v=4BfCmZgOKP8
+
+\subsection{Was ist ein Code?
+\label{buch:subsection:was-ist-ein-code}}
+
+\subsection{Reed-Solomon-Code
+\label{buch:subsection:reed-solomon-code}}
+
+\subsection{Decodierung
+\label{buch:subsection:decodierung}}
diff --git a/buch/chapters/90-crypto/uebungsaufgaben/9001.tex b/buch/chapters/90-crypto/uebungsaufgaben/9001.tex
new file mode 100644
index 0000000..5bf4558
--- /dev/null
+++ b/buch/chapters/90-crypto/uebungsaufgaben/9001.tex
@@ -0,0 +1,31 @@
+$A$ und $B$ einigen sich darauf, das Diffie-Hellman-Verfahren für
+$p=2027$ durchzuführen und mit $g=3$ zu arbeiten.
+$A$ verwenden $a=49$ als privaten Schlüssel und erhält von $B$
+den öffentlichen Schlüssel $y=1772$.
+Welchen gemeinsamen Schlüssel verwenden $A$ und $B$?
+
+\begin{loesung}
+Der zu verwendende gemeinsame Schlüssel ist
+$g^{ab}=(g^b)^a = y^a\in\mathbb{F}_2027$.
+Diese Potenz kann man mit dem Divide-and-Conquer-Algorithmus effizient
+berechnen.
+Die Binärdarstellung des privaten Schlüssels von $A$ ist
+$a=49_{10}=\texttt{110001}_2$.
+Der Algorithmus verläuft wie folgt:
+\begin{center}
+\begin{tabular}{|>{$}r<{$}|>{$}r<{$}|>{$}r<{$}|>{$}r<{$}|}
+\hline
+i&g^{2^i}&a_i& x\\
+\hline
+0& 3& 1& 3\\
+1& 9& 0& 3\\
+2& 81& 0& 3\\
+3& 480& 0& 3\\
+4& 1349& 1& 2020\\
+5& 1582& 1& 1088\\
+\hline
+\end{tabular}
+\end{center}
+Der gemeinsame Schlüssel ist daher $s=1088$.
+\end{loesung}
+
diff --git a/buch/chapters/95-homologie/Makefile.inc b/buch/chapters/95-homologie/Makefile.inc
new file mode 100644
index 0000000..7e6f1e7
--- /dev/null
+++ b/buch/chapters/95-homologie/Makefile.inc
@@ -0,0 +1,20 @@
+#
+# Makefile.inc -- Makefile dependencies for chapter 10
+#
+# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+#
+
+CHAPTERFILES = $(CHAPTERFILES) \
+ chapters/95-homologie/simplex.tex \
+ chapters/95-homologie/komplex.tex \
+ chapters/95-homologie/homologie.tex \
+ chapters/95-homologie/mayervietoris.tex \
+ chapters/95-homologie/fixpunkte.tex \
+ chapters/95-homologie/chapter.tex
+
+
+
+
+
+
+
diff --git a/buch/chapters/95-homologie/chapter.tex b/buch/chapters/95-homologie/chapter.tex
new file mode 100644
index 0000000..eaa56c4
--- /dev/null
+++ b/buch/chapters/95-homologie/chapter.tex
@@ -0,0 +1,49 @@
+%
+% chapter.tex -- Homologie
+%
+% (c) 2021 Prof Dr Andreas Müller, Hochschule Rapperswil
+%
+\chapter{Homologie
+\label{buch:chapter:homologie}}
+\lhead{Homologie}
+\rhead{}
+Mit der Inzidenzmatrix war es möglich, einen Graphen zu beschreiben
+und verschiedene interessante Eigenschaften desselben zu berechnen.
+Damit können aber nur eindimensionale Strukturen analysiert werden:
+Es ist zum Beispiel nicht möglich, ein Dreieck vom Rand eines
+Dreiecks zu unterscheiden~\ref{buch:homologie:figure:zusammenziehbar}.
+\begin{figure}
+\centering
+\includegraphics{chapters/95-homologie/images/dreieck.pdf}
+\caption{Ein Dreieck $\triangle$ (rechts) und der Rand des Dreicks
+(links) sind mit den Methoden
+der Graphentheorie nicht unterschiedbar.
+Als topologische Räume sind das Dreieck und sein Rand aber ganz klar
+unterschiedbar: In einem Dreieck ist jeder geschlossene Pfad in einen
+Punkt zusammenziehbar, aber die Randkurve ist nicht mehrzusammenziehbar,
+sobald man das innere des Dreiecks entfernt.
+\label{buch:homologie:figure:zusammenziehbar}}
+\end{figure}
+Die Randkurve ist in einem Dreieck zusammenziehbar, aber sobald man
+das innere des Dreiecks entfernt, ist die Randkurve nicht mehr
+zusammenziehbar.
+Dreieck und der Rand des Dreiecks sind also grundsätzlich verschieden.
+
+Die Inzidenzmatrix ordnet jeder Kante ihre beiden Endpunkte zu.
+Die Homologietheorie verallgemeinert diese Idee.
+Der sogenannte Randoperator ordnet jedem Dreieck, Tetraeder oder allgemein
+jedem Simplex seinen Rand zu.
+Damit wird es möglich, das Dreieck vom Rand des Dreiecks zu unterschieden.
+
+\input{chapters/95-homologie/simplex.tex}
+\input{chapters/95-homologie/komplex.tex}
+\input{chapters/95-homologie/homologie.tex}
+\input{chapters/95-homologie/mayervietoris.tex}
+\input{chapters/95-homologie/fixpunkte.tex}
+
+
+
+
+
+
+
diff --git a/buch/chapters/95-homologie/fixpunkte.tex b/buch/chapters/95-homologie/fixpunkte.tex
new file mode 100644
index 0000000..1ed51ef
--- /dev/null
+++ b/buch/chapters/95-homologie/fixpunkte.tex
@@ -0,0 +1,25 @@
+%
+% fixpunkte.tex
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\section{Fixpunkte
+\label{buch:section:fixpunkte}}
+\rhead{Fixpunkte}
+Zu jeder Abbildung $f\colon X\to X$ eines topologischen Raumes in sich
+selbst gehört die zugehörige lineare Abbildung $f_*\colon H_*(X)\to H_*(X)$
+der Homologiegruppen.
+Diese linearen Abbildungen sind im Allgemeinen viel einfacher zu
+analysieren.
+Zum Beispiel soll in Abschnitt~\ref{buch:subsection:lefshetz}
+die Lefshetz-Spurformel abgeleitet werden, die eine Aussagen darüber
+ermöglicht, ob eine Abbildung einen Fixpunkt haben kann.
+In Abschnitt~\ref{buch:subsection:brower} wird gezeigt wie man damit
+den Browerschen Fixpunktsatz beweisen kann, der besagt, dass jede
+Abbildung eines Einheitsballs in sich selbst immer einen Fixpunkt hat.
+
+\subsection{Lefshetz-Spurformel
+\label{buch:subsection:lefshetz}}
+
+\subsection{Brower-Fixpunktsatz
+\label{buch:subsection:brower}}
diff --git a/buch/chapters/95-homologie/homologie.tex b/buch/chapters/95-homologie/homologie.tex
new file mode 100644
index 0000000..2b80a17
--- /dev/null
+++ b/buch/chapters/95-homologie/homologie.tex
@@ -0,0 +1,18 @@
+%
+% homologie.tex -- Homologie eines Komplexes
+%
+% (c) 2021 Prof Dr Andreas Müller, Hochschule Rapperswil
+%
+\section{Homologie
+\label{buch:section:homologie}}
+\rhead{Homologie}
+
+\subsection{Homologie eines Kettenkomplexes
+\label{buch:subsection:homologie-eines-kettenkomplexes}}
+
+\subsection{Induzierte Abbildung
+\label{buch:subsection:induzierte-abbildung}}
+
+\subsection{Homologie eines simplizialen Komplexes
+\label{buch:subsection:simplizialekomplexe}}
+
diff --git a/buch/chapters/95-homologie/images/Makefile b/buch/chapters/95-homologie/images/Makefile
new file mode 100644
index 0000000..82f1285
--- /dev/null
+++ b/buch/chapters/95-homologie/images/Makefile
@@ -0,0 +1,10 @@
+#
+# Makefile
+#
+# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+#
+all: dreieck.pdf
+
+dreieck.pdf: dreieck.tex
+ pdflatex dreieck.tex
+
diff --git a/buch/chapters/95-homologie/images/dreieck.pdf b/buch/chapters/95-homologie/images/dreieck.pdf
new file mode 100644
index 0000000..e5d360a
--- /dev/null
+++ b/buch/chapters/95-homologie/images/dreieck.pdf
Binary files differ
diff --git a/buch/chapters/95-homologie/images/dreieck.tex b/buch/chapters/95-homologie/images/dreieck.tex
new file mode 100644
index 0000000..1c28bc7
--- /dev/null
+++ b/buch/chapters/95-homologie/images/dreieck.tex
@@ -0,0 +1,54 @@
+%
+% dreieck.tex -- Dreieck und Simplex
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math}
+\begin{document}
+\def\skala{1}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\def\punkt#1{
+ \fill[color=white] #1 circle[radius=0.07];
+ \draw #1 circle[radius=0.07];
+}
+\begin{scope}[xshift=3cm]
+\draw[->] (0,0) -- (3,3);
+\draw[->] (0,0) -- (4,1);
+\draw[->] (4,1) -- (3,3);
+\node at (0,0) [below left] {$P_0$};
+\node at (4,1) [below right] {$P_1$};
+\node at (3,3) [above] {$P_2$};
+\punkt{(0,0)}
+\punkt{(4,1)}
+\punkt{(3,3)}
+\node at (2,0.5) [below] {$k_{01}$};
+\node at (1.5,1.5) [above left] {$k_{02}$};
+\node at (3.5,2) [right] {$k_{12}$};
+\end{scope}
+\begin{scope}[xshift=-3cm]
+\fill[color=gray!40] (0,0) -- (4,1) -- (3,3) -- cycle;
+\draw[->] (0,0) -- (3,3);
+\draw[->] (0,0) -- (4,1);
+\draw[->] (4,1) -- (3,3);
+\node at (0,0) [below left] {$P_0$};
+\node at (4,1) [below right] {$P_1$};
+\node at (3,3) [above] {$P_2$};
+\node at (2,0.5) [below] {$k_{01}$};
+\node at (1.5,1.5) [above left] {$k_{02}$};
+\node at (3.5,2) [right] {$k_{12}$};
+\node at (2.333,1.333) {$\triangle$};
+\punkt{(0,0)}
+\punkt{(4,1)}
+\punkt{(3,3)}
+\end{scope}
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/95-homologie/komplex.tex b/buch/chapters/95-homologie/komplex.tex
new file mode 100644
index 0000000..6dd8efb
--- /dev/null
+++ b/buch/chapters/95-homologie/komplex.tex
@@ -0,0 +1,14 @@
+%
+% komplex.tex -- simpliziale Komplexe und Kettenkomplexe
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\section{Kettenkomplexe
+\label{buch:section:komplex}}
+\rhead{Kettenkomplexe}
+
+\subsection{Randoperator von Simplexen
+\label{buch:subsection:randoperator-von-simplexen}}
+
+\subsection{Kettenkomplexe und Morphismen
+\label{buch:subsection:kettenkomplex}}
diff --git a/buch/chapters/95-homologie/mayervietoris.tex b/buch/chapters/95-homologie/mayervietoris.tex
new file mode 100644
index 0000000..57105f8
--- /dev/null
+++ b/buch/chapters/95-homologie/mayervietoris.tex
@@ -0,0 +1,28 @@
+%
+% mayervietoris.tex
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\section{Exaktheit und die Mayer-Vietoris-Folge
+\label{buch:section:mayervietoris}}
+\rhead{Exaktheit und die Mayer-Vietoris-Folge}
+Die Berechnung der Homologie-Gruppen ist zwar im Wesentlichen ein
+kombinatorisches Problem, trotzdem ist eher aufwändig.
+Oft weiss man, wie sich toplogische Räume aus einfacheren Räumen
+zusammensetzen lassen.
+Eine Mannigkfaltigkeit zum Beispiel wird durch die Karten
+definiert, also zusammenziehbare Teilmengen von $\mathbb{R}^n$,
+die die Mannigkfaltigkeit überdecken.
+Das Ziel dieses Abschnittes ist, Regeln zusammenzustellen, mit denen
+man die Homologie eines solchen zusammengesetzten Raumes aus der
+Homologie der einzelnen Teile und aus den ``Verklebungsabbildungen'',
+die die Teile verbinden, zu berechnen.
+
+\subsection{Kurze exakte Folgen von Kettenkomplexen
+\label{buch:subsection:exaktefolgen}}
+
+\subsection{Schlangenlemma und lange exakte Folgen
+\label{buch:subsection:schlangenlemma}}
+
+\subsection{Mayer-Vietoris-Folge
+\label{buch:subsection:mayervietoris}}
diff --git a/buch/chapters/95-homologie/simplex.tex b/buch/chapters/95-homologie/simplex.tex
new file mode 100644
index 0000000..5ca2ca8
--- /dev/null
+++ b/buch/chapters/95-homologie/simplex.tex
@@ -0,0 +1,238 @@
+%
+% simplex.tex -- simplizes und simpliziale Komplexe
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\section{Simplexe und simpliziale Komplexe
+\label{buch:section:simplexe}}
+\rhead{Simplexe und simpliziale Komplexe}
+Die Idee, das Dreieck und seinen Rand zu unterscheiden verlangt,
+dass wir zunächst Dreiecke und deren höherdimensionale Verallgemeinerungen,
+die sogenannten Simplizes entwickeln müssen.
+
+\subsection{Simplexe und Rand
+\label{buch:subsection:simplexe}}
+
+\subsubsection{Rand eines Dreiecks}
+Die Inzidenz-Matrix eines Graphen hat einer Kante die beiden Endpunkte
+mit verschiedenen Vorzeichen zugeordnet.
+Dieses Idee soll jetzt verallgemeinert werden.
+Der Rand des Dreiecks $\triangle$ in
+Abbildung~\ref{buch:homologie:figure:zusammenziehbar}
+besteht aus den Kanten $P_0P_1$, $P_1P_2$ und $P_0P_2$.
+Für eine algebraische Definition müssen die Kanten offenbar eine
+Orientierung haben, die ist aber garantiert, da wir den Anfangs-
+und Endpunkten einer Kante verschiedene Vorzeichen gegeben haben.
+Dem Dreieck $\triangle$ werden dann die drei Kanten $k_{01}$, $k_{02}$
+und $k_{12}$ zuogeordnet, aber mit zusätzlichen Vorzeichen, die
+die Orientierung festhalten.
+Durchläuft man den Rand von $\triangle$ in der Reihenfolge $P_0P_1P_2$,
+dann müssen die Kanten $k_{12}$ und $k_{02}$ ein negatives Vorzeichen
+erhalten.
+
+Wir können diese Zuordnung wieder mit einer Matrix ausdrücken.
+\[
+\begin{matrix}
+\text{$k_{01}$:}\mathstrut\\
+\text{$k_{02}$:}\mathstrut\\
+\text{$k_{12}$:}\mathstrut
+\end{matrix}
+\qquad
+\partial
+=
+\begin{pmatrix*}[r]
+1\mathstrut\\
+-1\mathstrut\\
+1\mathstrut
+\end{pmatrix*}
+\]
+
+\subsubsection{Simplizes}
+Punkte, Kanten und Dreiecke sind die einfachsten Fälle sogenannter
+Simplizes.
+Wir formulieren die Definition dieser Objekte auf eine Weise,
+die uns ermöglichen soll, sie auf beliebige Dimension zu verallgemeinern.
+
+Die Strecke, die die Punkte $P$ und $Q$ miteinander verbindet,
+kann beschrieben werden durch eine Parametrisierung
+der Form
+\begin{equation}
+s_1
+\colon
+t
+\mapsto
+t\vec{p} + (1-t) \vec{q}
+=
+t_0 \vec{p} + t_1\vec{q},
+\end{equation}
+wobei die beiden positiven reellen Zahlen $t_0,t_1\in\mathbb{R}$ die
+Bedingung $t_0 + t_1 = 1$ erfüllen.
+Für ein eindimensionales Objekt brauchen wir also zwei Punkte und zwei
+positive Parameter, die sich zu $1$ summieren.
+Die Mengen $\triangle_1=\{ (t_0,t_1)\,|t_i\ge 0, t_0+t_1=1\}$ kann also
+ganz allgemein als Parameterraum zur Beschreibung eindimensionalen Objektes
+mit den Endpunkten dienen.
+Eine Strecke ist also eine Abbildung der Form
+\begin{equation}
+s_1
+\colon
+\triangle_1 \to \mathbb{R}^N
+:
+(t_0,t_1)
+\mapsto
+t_0 \vec{p} + t_1\vec{q},
+\end{equation}
+und der Rand besteht aus den Punkten $s_1(0)$ und $s_1(1)$, wobei der
+Anfangspunkt $s_1(0)$ mit einem negativen Vorzeichen versehen wird.
+
+Für höhere Dimensionen brauchen wir auf analoge Weise erst wieder einen
+geeigneten Parameterraum.
+Die Menge
+\[
+\triangle_n
+=
+\{(t_0,\dots,t_n)\in\mathbb{R}^{n+1}\,|\, t_i\ge 0,t_0+t_1+\dots+t_n=1\}
+\]
+beschreibt zum Beispiel für $n=2$ ein Dreieck und für $n=3$ ein
+Tetraeder.
+
+Gegeben $n+1$-Punkte $P_0,\dots,P_n$ mit Ortsvektoren
+$\vec{p}_0,\dots,\vec{p}_n$ können wir eine Abbildung
+\begin{equation}
+s_n
+\colon
+\triangle_n
+\to
+\mathbb{R}^N
+:
+(t_0,\dots,t_n)
+\mapsto
+t_0\vec{p}_0
++
+t_1\vec{p}_1
++
+\dots
++
+t_n\vec{p}_n
+\end{equation}
+Eine solche Abbildung verallgemeinert also den Begriff einer Strecke
+auf höhere Dimensionen.
+
+\begin{definition}
+\label{buch:def:simplex}
+Ein $n$-dimensionales {\em Simplex} oder {\em $n$-Simplex} ist eine
+stetige Abbildung $s_n\colon\triangle_n\to X$.
+\end{definition}
+
+Die Ecken des $n$-Simplex $\triangle_n$ sind die Standardbasisvektoren
+in $\mathbb{R}^{n+1}$.
+Mit $e_k$ bezeichnen wird die Ecke, deren Koordinaten $t_i=0$ sind für
+$k\ne i$, ausser der Koordinaten $t_k$, die den Wert $t_k=1$ hat.
+
+\subsubsection{Rechnen mit Simplizes}
+Damit wir leichter mit Simplizes rechnen können, betrachten wir
+jedes Simplex als einen Basisvektor eines abstrakten Vektorraumes.
+Zu einem $n$-Simplex gehören Vektorräume $C_l$ für jede Dimension
+$l=0$ bis $l=n$.
+Der Vektorraum $C_0$ besteht aus Linearkombinationen
+\[
+C_0
+=
+\{ x_0 P_0 + \dots + x_n P_n \,| x_i\in\mathbb{R} \},
+\]
+$C_0$ ist ein $n$-dimensionaler Raum.
+Der Vektorraum $C_1$ besteht aus Linearkombinationen der Kanten
+\[
+C_1
+=
+\biggl\{
+\sum_{i<j}
+x_{ij} k_{ij}
+\,
+\bigg|
+\,
+x_{ij}\in\mathbb{R}
+\biggr\},
+\]
+wobei $k_{ij}$ die Kante von der Ecke $i$ zur Ecke $j$ ist.
+
+In Dimension $l$ bezeichnen wir mit $C_l$ den Vektorraum bestehend
+aus den Linearkombinationen
+\[
+C_l
+=
+\biggl\{
+\sum_{i_1<\dots<i_l} x_{i_1\dots i_l} s_{i_1\dots i_l}
+\,
+\bigg|
+\,
+s_{i_1\dots i_l}\in\mathbb{R}
+\biggr\},
+\]
+wobei $s_{i_1\dots i_l}$ das Simplex mit den Ecken $i_1,\dots,i_l$ ist.
+
+Für $n=1$ gibt ist $C_1$ ein eindimensionaler Vektorraum und $C_0$
+ist zweidimensional.
+Die Randabbildung, die einer Kante den Rand zuordnet, ist
+\[
+\partial
+\colon
+C_1\to C_0
+:
+s_{01}
+\mapsto
+1\cdot s_0 + (-1)\cdot s_1
+\]
+und hat in den oben beschriebenden Basen die Matrix
+\[
+\partial
+=
+\begin{pmatrix}
+1\\
+-1
+\end{pmatrix}.
+\]
+
+\subsubsection{Rand eines Simplex}
+Einem Simplex muss auch der Rand zugeordnet werden können.
+Setzt man in $\triangle_2$ den Parameter $t_k=0$, dann erhält
+man die Kante,
+die der Ecke mit Nummer $k$ gegenüberliegt.
+Für jedes $k$ gibt es also eine Abbildung
+\[
+i_k
+\colon
+\triangle_{n-1} \to \triangle_n
+:
+(t_0,\dots,t_n)
+\mapsto
+(t_0,\dots,t_{k-1},0,t_{k},\dots,t_n),
+\]
+in die Kante gegenüber der Ecke $e_k$.
+Dies ist auch die Art, wie Kanten des Dreiecks $\triangle$
+in Abbildung~\ref{buch:homologie:figure:zusammenziehbar}
+orientiert wurden.
+
+Für den Rand des $2$-Simplexes mussten die Kanten mit alternierenden
+Vorzeichen zugeordnet werden.
+Damit wird erreicht, dass jeder Punkt sowohl Endpunkt einer
+Kante und
+ausserdem Anfangspunkt der nächsten Kannte ist.
+Diese Eigenschaft soll auch in höheren Dimensionen erhalten bleiben.
+Die vier Dreiecke, die den Rand eines $3$-Simplex ausmachen,
+müssen so orientiert werden,
+dass jede Kante in beiden Richtungen durchlaufen wird.
+
+\begin{definition}
+\label{buch:def:randoperator}
+Der Randoperator ordnet die Kanten eines $n$-Simplex mit alternierenden
+Vorzeichen zu, die Matrix ist
+\[
+\]
+\end{definition}
+
+
+\subsection{Triangulation
+\label{buch:subsection:}}
+
+
diff --git a/buch/chapters/Makefile.inc b/buch/chapters/Makefile.inc
index 8a8bb13..0d8445d 100644
--- a/buch/chapters/Makefile.inc
+++ b/buch/chapters/Makefile.inc
@@ -9,6 +9,7 @@ CHAPTERFILES = \
chapters/vorwort.tex
include chapters/00-einleitung/Makefile.inc
+include chapters/05-zahlen/Makefile.inc
include chapters/10-vektorenmatrizen/Makefile.inc
include chapters/20-polynome/Makefile.inc
include chapters/30-endlichekoerper/Makefile.inc
@@ -18,3 +19,4 @@ include chapters/60-gruppen/Makefile.inc
include chapters/70-graphen/Makefile.inc
include chapters/80-wahrscheinlichkeit/Makefile.inc
include chapters/90-crypto/Makefile.inc
+include chapters/95-homologie/Makefile.inc
diff --git a/buch/chapters/part1.tex b/buch/chapters/part1.tex
index 7ee7d40..23febf7 100644
--- a/buch/chapters/part1.tex
+++ b/buch/chapters/part1.tex
@@ -7,6 +7,7 @@
\input{chapters/vorwort.tex}
\part{Grundlagen}
\input{chapters/00-einleitung/chapter.tex}
+\input{chapters/05-zahlen/chapter.tex}
\input{chapters/10-vektorenmatrizen/chapter.tex}
\input{chapters/20-polynome/chapter.tex}
\input{chapters/30-endlichekoerper/chapter.tex}
@@ -16,6 +17,7 @@
\input{chapters/70-graphen/chapter.tex}
\input{chapters/80-wahrscheinlichkeit/chapter.tex}
\input{chapters/90-crypto/chapter.tex}
+\input{chapters/95-homologie/chapter.tex}
%\begin{appendices}
%\end{appendices}
\vfill
diff --git a/buch/chapters/references.bib b/buch/chapters/references.bib
index 35d3c47..2eed953 100644
--- a/buch/chapters/references.bib
+++ b/buch/chapters/references.bib
@@ -82,7 +82,6 @@ abstract = "In this paper, we present Google, a prototype of a large-scale searc
@online{buch:lissajous,
title = {Makeing Shapes with PSLab Oscilloscope},
author = {CloudyPadmal},
- year = 2018,
url = {https://blog.fossasia.org/making-shapes-with-pslab-oscilloscope/},
DAY = 7,
month = 3,
@@ -105,3 +104,22 @@ abstract = "In this paper, we present Google, a prototype of a large-scale searc
year={1960},
publisher={Academic Press}
}
+
+@book{buch:ebbinghaus,
+ title = {Zahlen},
+ year = 1983,
+ inseries = {Grundwissen Mathematik},
+ volume = 1,
+ publisher = {Springer-Verlag},
+ author = { Hans-Dieter Ebbinghaus et al },
+ isbn = { 3-540-12666-X }
+}
+
+@online{buch:primitivepolynomiallist,
+ title = {Primitive Polynomial List},
+ url = {https://www.partow.net/programming/polynomials/index.html},
+ day = 8,
+ month = 3,
+ year = 2021
+}
+