aboutsummaryrefslogtreecommitdiffstats
diff options
context:
space:
mode:
Diffstat (limited to '')
-rw-r--r--buch/chapters/10-vektorenmatrizen/Makefile.inc2
-rw-r--r--buch/chapters/10-vektorenmatrizen/algebren.tex95
-rw-r--r--buch/chapters/10-vektorenmatrizen/chapter.tex7
-rw-r--r--buch/chapters/10-vektorenmatrizen/gruppen.tex184
-rw-r--r--buch/chapters/10-vektorenmatrizen/hadamard.tex307
-rw-r--r--buch/chapters/10-vektorenmatrizen/koerper.tex4
-rw-r--r--buch/chapters/10-vektorenmatrizen/linear.tex12
-rw-r--r--buch/chapters/10-vektorenmatrizen/ringe.tex4
-rw-r--r--buch/chapters/10-vektorenmatrizen/strukturen.tex28
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/parrondo.tex725
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/rechnungen/btilde.maxima46
11 files changed, 1401 insertions, 13 deletions
diff --git a/buch/chapters/10-vektorenmatrizen/Makefile.inc b/buch/chapters/10-vektorenmatrizen/Makefile.inc
index 954e52c..f769a79 100644
--- a/buch/chapters/10-vektorenmatrizen/Makefile.inc
+++ b/buch/chapters/10-vektorenmatrizen/Makefile.inc
@@ -6,10 +6,12 @@
CHAPTERFILES = $(CHAPTERFILES) \
chapters/10-matrizenvektoren/linear.tex \
+ chapters/10-matrizenvektoren/strukturen.tex \
chapters/10-matrizenvektoren/gruppen.tex \
chapters/10-matrizenvektoren/ringe.tex \
chapters/10-matrizenvektoren/algebren.tex \
chapters/10-matrizenvektoren/koerper.tex \
+ chapters/10-matrizenvektoren/hadamard.tex \
chapters/10-matrizenvektoren/uebungsaufgaben/1001.tex \
chapters/10-matrizenvektoren/uebungsaufgaben/1002.tex \
chapters/10-matrizenvektoren/chapter.tex
diff --git a/buch/chapters/10-vektorenmatrizen/algebren.tex b/buch/chapters/10-vektorenmatrizen/algebren.tex
index 821c408..6b355ee 100644
--- a/buch/chapters/10-vektorenmatrizen/algebren.tex
+++ b/buch/chapters/10-vektorenmatrizen/algebren.tex
@@ -3,5 +3,96 @@
%
% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
%
-\section{Algebren
-\label{buch:grundlagen:section:algebren}}
+\subsection{Algebren
+\label{buch:grundlagen:subsection:algebren}}
+
+\subsubsection{Die Algebra der Funktionen $\Bbbk^X$}
+Sie $X$ eine Menge und $\Bbbk^X$ die Menge aller Funktionen $X\to \Bbbk$.
+Auf $\Bbbk^X$ kann man Addition, Multiplikation mit Skalaren und
+Multiplikation von Funktionen punktweise definieren.
+Für zwei Funktion $f,g\in\Bbbk^X$ und $\lambda\in\Bbbk$ definiert man
+\[
+\begin{aligned}
+&\text{Summe $f+g$:}
+&
+(f+g)(x) &= f(x)+g(x)
+\\
+&\text{Skalare $\lambda f$:}
+&
+(\lambda f)(x) &= \lambda f(x)
+\\
+&\text{Produkt $f\cdot g$:}
+&
+(f\cdot g)(x) &= f(x) g(x)
+\end{aligned}
+\]
+Man kann leicht nachprüfen, dass die Menge der Funktionen $\Bbbk^X$
+mit diesen Verknüfungen die Struktur einer $\Bbbk$-Algebra erhält.
+
+Die Algebra der Funktionen $\Bbbk^X$ hat auch ein Einselement:
+die konstante Funktion
+\[
+1\colon [a,b] \to \Bbbk : x \mapsto 1
+\]
+mit Wert $1$ erfüllt
+\[
+(1\cdot f)(x) = 1(x) f(x) = f(x)
+\qquad\Rightarrow\qquad 1\cdot f = f,
+\]
+die Eigenschaft einer Eins in der Algebra.
+
+\subsubsection{Die Algebra der stetigen Funktionen $C([a,b])$}
+Die Menge der stetigen Funktionen $C([a,b])$ ist natürlich eine Teilmenge
+aller Funktionen: $C([a,b])\subset \mathbb{R}^{[a,b]}$ und erbt damit
+auch die Algebraoperationen.
+Man muss nur noch sicherstellen, dass die Summe von stetigen Funktionen,
+das Produkt einer stetigen Funktion mit einem Skalar und das Produkt von
+stetigen Funktionen wieder eine stetige Funktion ist.
+Eine Funktion ist genau dann stetig, wenn an jeder Stelle der Grenzwert
+mit dem Funktionswert übereinstimmt.
+Genau dies garantieren die bekannten Rechenregeln für stetige Funktionen.
+Für zwei stetige Funktionen $f,g\in C([a,b])$ und einen Skalar
+$\lambda\in\mathbb{R}$ gilt
+\[
+\begin{aligned}
+&\text{Summe:}
+&
+\lim_{x\to x_0} (f+g)(x)
+&=
+\lim_{x\to x_0} (f(x)+g(x))
+=
+\lim_{x\to x_0} f(x) + \lim_{x\to x_0}g(x)
+=
+f(x_0)+g(x_0) = (f+g)(x_0)
+\\
+&\text{Skalare:}
+&
+\lim_{x\to x_0} (\lambda f)(x)
+&=
+\lim_{x\to x_0} (\lambda f(x)) = \lambda \lim_{x\to x_0} f(x)
+=
+\lambda f(x_0) = (\lambda f)(x_0)
+\\
+&\text{Produkt:}
+&
+\lim_{x\to x_0}(f\cdot g)(x)
+&=
+\lim_{x\to x_0} f(x)\cdot g(x)
+=
+\lim_{x\to x_0} f(x)\cdot
+\lim_{x\to x_0} g(x)
+=
+f(x_0)g(x_0)
+=
+(f\cdot g)(x_0).
+\end{aligned}
+\]
+für jeden Punkt $x_0\in[a,b]$.
+Damit ist $C([a,b])$ eine $\mathbb{R}$-Algebra.
+Die Algebra hat auch eine Eins, da die konstante Funktion $1(x)=1$
+stetig ist.
+
+
+
+
+
diff --git a/buch/chapters/10-vektorenmatrizen/chapter.tex b/buch/chapters/10-vektorenmatrizen/chapter.tex
index abe9ba9..e59374c 100644
--- a/buch/chapters/10-vektorenmatrizen/chapter.tex
+++ b/buch/chapters/10-vektorenmatrizen/chapter.tex
@@ -9,12 +9,11 @@
\rhead{}
\input{chapters/10-vektorenmatrizen/linear.tex}
-\input{chapters/10-vektorenmatrizen/gruppen.tex}
-\input{chapters/10-vektorenmatrizen/ringe.tex}
-\input{chapters/10-vektorenmatrizen/algebren.tex}
-\input{chapters/10-vektorenmatrizen/koerper.tex}
+\input{chapters/10-vektorenmatrizen/strukturen.tex}
+\input{chapters/10-vektorenmatrizen/hadamard.tex}
\section*{Übungsaufgaben}
+\rhead{Übungsaufgaben}
\aufgabetoplevel{chapters/10-vektorenmatrizen/uebungsaufgaben}
\begin{uebungsaufgaben}
\uebungsaufgabe{1001}
diff --git a/buch/chapters/10-vektorenmatrizen/gruppen.tex b/buch/chapters/10-vektorenmatrizen/gruppen.tex
index fe77009..1f9db81 100644
--- a/buch/chapters/10-vektorenmatrizen/gruppen.tex
+++ b/buch/chapters/10-vektorenmatrizen/gruppen.tex
@@ -3,6 +3,186 @@
%
% (c) 2021 Prof Dr Andreas Müller, Hochschule Rapeprswil
%
-\section{Gruppen
-\label{buch:grundlagen:setion:gruppen}}
+\subsection{Gruppen
+\label{buch:grundlagen:subsection:gruppen}}
\rhead{Gruppen}
+Die kleinste sinnvolle Struktur ist die einer Gruppe.
+Eine solche besteht aus einer Menge $G$ mit einer Verknüpfung,
+die additiv
+\begin{align*}
+G\times G \to G&: (g,h) = gh
+\intertext{oder multiplikativ }
+G\times G \to G&: (g,h) = g+h
+\end{align*}
+geschrieben werden kann.
+Ein Element $0\in G$ heisst {\em neutrales Element} bezüglich der additiv
+geschriebenen Verknüpfung falls $0+x=x$ für alle $x\in G$.
+\index{neutrales Element}%
+Ein Element $e\in G$ heisst neutrales Element bezüglich der multiplikativ
+geschriebneen Verknüpfung, wenn $ex=x$ für alle $x\in G$.
+In den folgenden Definitionen werden wir immer die multiplikative
+Schreibweise verwenden, für Fälle additiv geschriebener siehe auch die
+Beispiele weiter unten.
+
+\begin{definition}
+\index{Gruppe}%
+Ein {\em Gruppe}
+\index{Gruppe}%
+ist eine Menge $G$ mit einer Verknüfung mit folgenden
+Eigenschaften:
+\begin{enumerate}
+\item
+Die Verknüpfung ist assoziativ: $(ab)c=a(bc)$ für alle $a,b,c\in G$.
+\item
+Es gibt ein neutrales Element $e\in G$
+\item
+Für jedes Element $g\in G$ gibt es ein Element $h\in G$ mit
+$hg=e$.
+\end{enumerate}
+Das Element $h$ heisst auch das Inverse Element zu $g$.
+\end{definition}
+
+Falls nicht jedes Element invertierbar ist, aber wenigstens ein neutrales
+Element vorhanden ist, spricht man von einem {\em Monoid}.
+\index{Monoid}%
+Hat man nur eine Verknüpfung, spricht man oft von einer {\em Halbruppe}.
+\index{Halbgruppe}%
+
+\begin{definition}
+Eine Gruppe $G$ heisst abelsch, wenn $ab=ba$ für alle $a,b\in G$.
+\end{definition}
+
+Additiv geschrieben Gruppen werden immer als abelsch angenommen,
+multiplikativ geschrieben Gruppen können abelsch oder nichtabelsch sein.
+
+\subsubsection{Beispiele von Gruppen}
+
+\begin{beispiel}
+Die Menge $\mathbb{Z}$ mit der Addition ist eine additive Gruppe mit
+dem neutralen Element $0$.
+Das additive Inverse eines Elementes $a$ ist $-a$.
+\end{beispiel}
+
+\begin{beispiel}
+Die von Null verschiedenen Elemente $\Bbbk^*$ eines Zahlekörpers bilden
+bezüglich der Multiplikation eine Gruppe mit neutralem Element $1$.
+Das multiplikative Inverse eines Elementes $a\in \Bbbk$ mit $a\ne 0$
+ist $a^{-1}=\frac1{a}$.
+\end{beispiel}
+
+\begin{beispiel}
+Die Vektoren $\Bbbk^n$ bilden bezüglich der Addition eine Gruppe mit
+dem Nullvektor als neutralem Element.
+Betrachtet man $\Bbbk^n$ als Gruppe, verliert man die Multiplikation
+mit Skalaren aus den Augen.
+$\Bbbk^n$ als Gruppe zu bezeichnen ist also nicht falsch, man
+verliert dadurch aber
+\end{beispiel}
+
+\begin{beispiel}
+Die Menge aller quadratischen $n\times n$-Matrizen $M_n(\Bbbk)$ ist
+eine Gruppe bezüglich der Addition mit der Nullmatrix als neutralem
+Element.
+Bezügich der Matrizenmultiplikation ist $M_n(\Bbbk)$ aber keine
+Gruppe, da sich die singulären Matrizen nicht inverieren lassen.
+Die Menge der invertierbaren Matrizen
+\[
+\operatorname{GL}_n(\Bbbk)
+=
+\{
+A\in M_n(\Bbbk)\;|\; \text{$A$ invertierbar}
+\}
+\]
+ist bezüglich der Multiplikation eine Gruppe.
+Die Gruppe $\operatorname{GL}_n(\Bbbk)$ ist eine echte Teilmenge
+von $M_n(\Bbbk)$, die Addition und Multiplikation führen im Allgemeinen
+aus der Gruppe heraus, es gibt also keine Mögichkeit, in der Gruppe
+$\operatorname{GL}_n(\Bbbk)$ diese Operationen zu verwenden.
+\end{beispiel}
+
+\subsubsection{Einige einfache Rechenregeln in Gruppen}
+Die Struktur einer Gruppe hat bereits eine Reihe von
+Einschränkungen zur Folge.
+Zum Beispiel sprach die Definition des neutralen Elements $e$ nur von
+Produkten der Form $ex=x$, nicht von Produkten $xe$.
+Und die Definition des inversen Elements $h$ von $g$ hat nur
+verlangt, dass $gh=e$, es wurde nichts gesagt über das Produkt $hg$.
+
+\begin{satz}
+\label{buch:vektorenmatrizen:satz:gruppenregeln}
+Ist $G$ eine Gruppe mit neutralem Element $e$, dann gilt
+\begin{enumerate}
+\item
+$xe=x$ für alle $x\in G$
+\item
+Es gibt nur ein neutrales Element.
+Wenn also $f\in G$ mit $fx=x$ für alle $x\in G$, ist dann folgt $f=e$.
+\item
+Wenn $hg=e$ gilt, dann auch $gh=e$ und $h$ ist durch $g$ eindeutig bestimmt.
+\end{enumerate}
+\end{satz}
+
+\begin{proof}[Beweis]
+Wir beweisen als Erstes den ersten Teil der Eigenschaft~3.
+Sei $h$ die Inverse von $g$, also $hg=e$.
+Sei weiter $i$ die Inverse von $h$, also $ih=e$.
+Damit folgt jetzt
+\[
+g
+=
+eg
+=
+(ih)g
+=
+i(hg)
+=
+ie.
+\]
+Wende man dies auf das Produkt $gh$ an, folgt
+\[
+gh
+=
+(ie)h
+=
+i(eh)
+=
+ih
+=
+e
+\]
+Es ist also nicht nur $hg=e$ sondern immer auch $gh=e$.
+
+Für eine Inverse $h$ von $g$ folgt
+\[
+ge
+=
+g(hg)
+=
+(gh)g
+=
+eg
+=
+g,
+\]
+dies ist die Eigenschaft~1.
+
+Sind $f$ und $e$ neutrale Elemente, dann folgt
+\[
+f = fe = e
+\]
+aus der Eigenschaft~1.
+
+Schliesslich sei $x$ ein beliebiges Inverses von $g$, dann ist
+$xg=e$, dann folgt
+$x=xe=x(gh)=(xg)h = eh = h$, es gibt also nur ein Inverses von $g$.
+\end{proof}
+
+Diesem Problem sind wir zum Beispiel auch in
+Abschnitt~\ref{buch:grundlagen:subsection:gleichungssyteme}
+begegnet, wo wir nur gezeigt haben, dass $AA^{-1}=E$ ist.
+Da aber die invertierbaren Matrizen eine Gruppe
+bilden, folgt jetzt aus dem Satz automatisch, dass auch $A^{-1}A=E$.
+
+
+
+
diff --git a/buch/chapters/10-vektorenmatrizen/hadamard.tex b/buch/chapters/10-vektorenmatrizen/hadamard.tex
new file mode 100644
index 0000000..1fd0373
--- /dev/null
+++ b/buch/chapters/10-vektorenmatrizen/hadamard.tex
@@ -0,0 +1,307 @@
+%
+% hadamard.tex
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\section{Hadamard-Algebra
+\label{buch:section:hadamard-algebra}}
+\rhead{Hadamard-Algebra}
+Das Matrizenprodukt ist nicht die einzige Möglichkeit, ein Produkt auf
+Vektoren oder Matrizen zu definieren.
+In diesem Abschnitt soll das Hadamard-Produkt beschrieben werden,
+welches zu einer kommutativen-Algebra-Struktur führt.
+
+%
+% Definition des Hadamard-Produktes
+%
+\subsection{Hadamard-Produkt
+\label{buch:vektorenmatrizen:subsection:hadamard-produkt}}
+Im Folgenden werden wir $\Bbbk^n =M_{n\times 1}(\Bbbk)$ setzen
+und den Fall der Vektoren nicht mehr separat diskutieren.
+Die Addition und Multiplikation mit Skalaren ist in
+$M_{m\times n}(\Bbbk)$ komponentenweise definiert.
+Wir können natürlich auch ein Produkt komponentenweise definieren,
+dies ist das Hadamard-Produkt.
+
+\begin{definition}
+Das {\em Hadamard-Produkt} zweier Matrizen
+$A,B\in M_{m\times n}(\Bbbk)$ ist definiert als die Matrix
+$A\odot B$
+mit den Komponenten
+\[
+(A\odot B)_{ij} = (A)_{ij} (B)_{ij}.
+\]
+Wir nennen $M_{m\times n}(\Bbbk)$ mit der Multiplikation $\odot$
+auch die Hadamard-Algebra $H_{m\times n}(\Bbbk)$.
+\end{definition}
+
+Dies ist jedoch nur interessant, wenn $M_{m\times n}(\Bbbk)$ mit diesem
+Produkt eine interessante algebraische Struktur erhält.
+Dazu müssen die üblichen Verträglichkeitsgesetze zwischen den
+Vektorraumoperationen von $M_{m\times n}(\Bbbk)$ und dem neuen Produkt
+gelten, wir erhalten dann eine Algebra.
+Da alle Operationen elementweise definiert sind, muss man auch alle
+Rechengesetze nur elementweise prüfen.
+Es gilt
+\begin{align*}
+A\odot(B\odot C) &= (A\odot B)\odot C
+&&\Leftrightarrow&
+a_{ij}(b_{ij}c_{ij}) &= (a_{ij}b_{ij})c_{ij}
+\\
+A\odot(B+C) &= A\odot B + A\odot C
+&&\Leftrightarrow&
+a_{ij}(b_{ij}+c_{ij}) &= a_{ij}b_{ij} + a_{ij}c_{ij}
+\\
+(A+B)\odot C&=A\odot C+B\odot C
+&&\Leftrightarrow&
+(a_{ij}+b_{ij})c_{ij}&=a_{ij}c_{ij} + b_{ij}c_{ij}
+\\
+(\lambda A)\odot B &= \lambda (A\odot B)
+&&\Leftrightarrow&
+(\lambda a_{ij})b_{ij}&=\lambda(a_{ij}b_{ij})
+\\
+A\odot(\lambda B)&=\lambda(A\odot B)
+&&\Leftrightarrow&
+a_{ij}(\lambda b_{ij})&=\lambda(a_{ij}b_{ij})
+\end{align*}
+für alle $i,j$.
+
+Das Hadamard-Produkt ist kommutativ, da die Multiplikation in $\Bbbk$
+kommuativ ist.
+Das Hadamard-Produkt kann auch für Matrizen mit Einträgen in einem
+Ring definiert werden, in diesem Fall ist es möglich, dass die entsehende
+Algebra nicht kommutativ ist.
+
+Die Hadamard-Algebra hat auch ein Eins-Elemente, nämlich die Matrix,
+die aus lauter Einsen besteht.
+
+\begin{definition}
+Die sogenannte {\em Einsmatrix} $U$ ist die Matrix
+\[
+U=\begin{pmatrix}
+1&1&\dots&1\\
+\vdots&\vdots&\ddots&\vdots\\
+1&1&\dots&1
+\end{pmatrix}
+\in
+M_{m\times n}(\Bbbk)
+\]
+mit lauter Einträgen $1\in\Bbbk$.
+\end{definition}
+
+Die Hadamard-Algebra ist ein Spezialfall der Algebra der Funktionen
+$\Bbbk^X$.
+Ordnet man dem Vektor $v\in \Bbbk^n$ mit den Komponenten $v_i$
+die Abbildung
+\[
+v\colon [n] \to \Bbbk: i \mapsto v_i
+\]
+zu, dann geht die Addition von Vektoren in die Addition von
+Funktionen über, die Multiplikation von Skalaren mit Vektoren
+geht in die Multiplikation von Funktionen mit Skalaren über
+und die Hadamard-Multiplikation geht über in das Produkt von
+Funktionen.
+
+Auch die Hadamard-Algebra $H_{m\times n}(\Bbbk)$ kann als Funktionenalgebra
+betrachtet werden.
+Einer Matrix $A\in H_{m\times n}(\Bbbk)$ ordnet man die Funktion
+\[
+a\colon [m]\times [n] : (i,j) \mapsto a_{ij}
+\]
+zu.
+Dabei gehen die Algebraoperationen von $H_{m\times n}(\Bbbk)$ über
+in die Algebraoperationen der Funktionenalgebra $\Bbbk^{[m]\times [n]}$.
+Aus der Einsmatrix der Hadamard-Algebra wird dabei zur konstanten
+Funktion $1$ auf $[m]\times[n]$.
+
+\subsection{Hadamard-Produkt und Matrizenalgebra
+\label{buch:vektorenmatrizen:subsection:vertraeglichkeit}}
+Es ist nur in Ausnahmefällen, Hadamard-Produkt und Matrizen-Produkt
+gleichzeitig zu verwenden.
+Das liegt daran, dass die beiden Produkte sich überhaupt nicht
+vertragen.
+
+\subsubsection{Unverträglichkeit von Hadamard- und Matrizen-Produkt}
+Das Hadamard-Produkt und das gewöhnliche Matrizenprodukt sind
+in keiner Weise kompatibel.
+Die beiden Matrizen
+\[
+A=\begin{pmatrix}3&4\\4&5\end{pmatrix}
+\qquad\text{und}\qquad
+B=\begin{pmatrix}-5&4\\4&-3\end{pmatrix}
+\]
+sind inverse Matrizen bezüglich des Matrizenproduktes, also
+$AB=E$.
+Für das Hadamard-Produkt gilt dagegen
+\[
+A\odot B
+=
+\begin{pmatrix}
+-15& 16\\
+ 16&-15
+\end{pmatrix}.
+\]
+Die Inverse einer Matrix $A$ Bezüglich des Hadamard-Produktes hat
+die Einträge $a_{ij}^{-1}$.
+Die Matrix $E$ ist bezüglich des gewöhnlichen Matrizenproduktes
+invertierbar, aber sie ist bezüglich des Hadamard-Produktes nicht
+invertierbar.
+
+\subsubsection{Einbettung der Hadamard-Algebra ein eine Matrizenalgebra}
+Hadamard-Algebren können als Unteralgebren einer Matrizenalgebra
+betrachtet werden.
+Der Operator $\operatorname{diag}$ bildet Vektoren ab in Diagonalmatrizen
+nach der Regel
+\[
+\operatorname{diag}
+\colon
+\Bbbk^n \to M_n(\Bbbk)
+:
+\begin{pmatrix}
+v_1\\
+\vdots\\
+v_n
+\end{pmatrix}
+\mapsto
+\begin{pmatrix}
+v_1&\dots&0\\
+\vdots&\ddots&\vdots\\
+0&\dots&v_n
+\end{pmatrix}
+\]
+Das Produkt von Diagonalmatrizen ist besonders einfach.
+Für zwei Vektoren $a,b\in\Bbbk^n$
+\[
+a\odot b
+=
+\begin{pmatrix}
+a_1b_1\\
+\vdots\\
+a_nb_n
+\end{pmatrix}
+\mapsto
+\begin{pmatrix}
+a_1b_1&\dots&0\\
+\vdots&\ddots&\vdots\\
+0&\dots&a_nb_n
+\end{pmatrix}
+=
+\begin{pmatrix}
+a_1&\dots&0\\
+\vdots&\ddots&\vdots\\
+0&\dots&a_n
+\end{pmatrix}
+\begin{pmatrix}
+b_1&\dots&0\\
+\vdots&\ddots&\vdots\\
+0&\dots&b_n
+\end{pmatrix}.
+\]
+Das Hadamard-Produkt der Vektoren geht also über in das gewöhnliche
+Matrizenprodukt der Diagonalmatrizen.
+
+Für die Hadamard-Matrix ist die Einbettung etwas komplizierter.
+Wir machen aus einer Matrix erst einen Vektor, den wir dann mit
+dem $\operatorname{diag}$ in eine Diagonalmatrix umwandeln:
+\[
+\begin{pmatrix}
+a_{11}&\dots&a_{1n}\\
+\vdots&\ddots&\vdots\\
+a_{m1}&\dots
+\end{pmatrix}
+\mapsto
+\begin{pmatrix}
+a_{11}\\
+\vdots\\
+a_{1n}\\
+a_{21}\\
+\vdots\\
+a_{2n}\\
+\vdots\\
+a_{nn}
+\end{pmatrix}
+\]
+Bei dieser Abbildung geht die Hadamard-Multiplikation wieder in
+das gewöhnliche Matrizenprodukt über.
+
+% XXX Faltungsmatrizen und Fouriertheorie
+\subsubsection{Beispiel: Faltung und Fourier-Theorie}
+
+\subsection{Weitere Verknüpfungen
+\label{buch:vektorenmatrizen:subsection:weitere}}
+
+\subsubsection{Transposition}
+Das Hadamard-Produkt verträgt sich mit der Transposition:
+\[
+(A\odot B)^t = A^t \odot B^t.
+\]
+Insbesondere ist das Hadamard-Produkt zweier symmetrischer Matrizen auch
+wieder symmetrisch.
+
+\subsubsection{Frobeniusnorm}
+Das Hadamard-Produkt in der Hadamard-Algebra $H_{m\times n}(\mathbb{R})$
+nimmt keine Rücksicht auf die Dimensionen einer Matrix und ist nicht
+unterscheidbar von $\mathbb{R}^{m\times n}$ mit dem Hadamard-Produkt.
+Daher darf auch der Begriff einer mit den algebraischen Operationen
+verträglichen Norm nicht von von den Dimensionen abhängen.
+Dies führt auf die folgende Definition einer Norm.
+
+\begin{definition}
+Die {\em Frobenius-Norm} einer Matrix $A\in H_{m\times n}\mathbb{R})$
+mit den Einträgen $(a_{ij})=A$ ist
+\[
+\| A\|_F
+=
+\sqrt{
+\sum_{i,j} a_{ij}^2
+}.
+\]
+Das {\em Frobenius-Skalarprodukt} zweier Matrizen
+$A,B\in H_{m\times n}(\mathbb{R})$
+ist
+\[
+\langle A,B\rangle_F
+=
+\sum_{i,j} a_{ij} b_{ij}
+=
+\operatorname{Spur} A^t B
+\]
+und es gilt $\|A\|_F = \sqrt{\langle A,A\rangle}$.
+\end{definition}
+
+Für komplexe Matrizen muss
+
+\begin{definition}
+Die {\em komplexe Frobenius-Norm} einer Matrix $A\in H_{m\times n}(\mathbb{C})$
+ist
+\[
+\| A\|
+=
+\sqrt{
+\sum_{i,j} |a_{ij}|^2
+}
+=
+\sqrt{
+\sum_{i,u} \overline{a}_{ij} a_{ij}
+}
+\]
+das {\em komplexe Frobenius-Skalarprodukt} zweier Matrizen
+$A,B\in H_{m\times n}(\mathbb{C})$ ist das Produkt
+\[
+\langle A,B\rangle_F
+=
+\sum_{i,j}\overline{a}_{ij} b_{ij}
+=
+\operatorname{Spur} (A^* B)
+\]
+und es gilt $\|A\|_F = \sqrt{\langle A,A\rangle}$.
+\end{definition}
+
+% XXX Frobeniusnorm
+
+\subsubsection{Skalarprodukt}
+
+% XXX Skalarprodukt
+
+
+
diff --git a/buch/chapters/10-vektorenmatrizen/koerper.tex b/buch/chapters/10-vektorenmatrizen/koerper.tex
index c9d3a64..888513e 100644
--- a/buch/chapters/10-vektorenmatrizen/koerper.tex
+++ b/buch/chapters/10-vektorenmatrizen/koerper.tex
@@ -3,8 +3,8 @@
%
% (c) 2021 Prof Dr Andreas Müller, OST Ostschwêizer Fachhochschule
%
-\section{Körper
-\label{buch:section:koerper}}
+\subsection{Körper
+\label{buch:subsection:koerper}}
Die Multiplikation ist in einer Algebra nicht immer umkehrbar.
Die Zahlenkörper von Kapitel~\ref{buch:chapter:zahlen} sind also
sehr spezielle Algebren, man nennt sie Körper.
diff --git a/buch/chapters/10-vektorenmatrizen/linear.tex b/buch/chapters/10-vektorenmatrizen/linear.tex
index 4e3454d..23d16a8 100644
--- a/buch/chapters/10-vektorenmatrizen/linear.tex
+++ b/buch/chapters/10-vektorenmatrizen/linear.tex
@@ -590,6 +590,16 @@ die zu $A$ {\em inverse Matrix}.
\index{inverse Matrix}
Sie wird auch $C=A^{-1}$ geschrieben.
+Die Definition der inversen Matrix stellt sicher, dass $AA^{-1}=E$ gilt,
+daraus folgt aber noch nicht, dass auch $A^{-1}A=E$ ist.
+Die Eigenschaften der Matrizenmultiplikation stellen jedoch sicher,
+dass die Menge der invertierbaren Matrizen eine Struktur bilden,
+die man Gruppe nennt, die in Abschnitt~\ref{buch:grundlagen:subsection:gruppen}
+genauer untersucht wird.
+In diesem Zusammenhang wird dann auf
+Seite~\pageref{buch:vektorenmatrizen:satz:gruppenregeln}
+die Eigenschaft $A^{-1}A=E$ ganz allgemein gezeigt.
+
\subsubsection{Determinante}
%
@@ -839,7 +849,7 @@ Das Bild einer $m\times n$-Matrix $A$ ist die Menge
Zwei Vektoren $a,b\in\operatorname{im}$ haben Urbilder $u,w\in V$ mit
$f(u)=a$ und $f(w)=b$.
-Für Summe und Skalarprodukt folgt
+Für Summe und Multiplikation mit Skalaren folgt
\[
\begin{aligned}
a+b&= f(u)+f(v)=f(u+v) &&\Rightarrow a+b\in\operatorname{im}f\\
diff --git a/buch/chapters/10-vektorenmatrizen/ringe.tex b/buch/chapters/10-vektorenmatrizen/ringe.tex
index f35c490..e53bde5 100644
--- a/buch/chapters/10-vektorenmatrizen/ringe.tex
+++ b/buch/chapters/10-vektorenmatrizen/ringe.tex
@@ -3,6 +3,6 @@
%
% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
%
-\section{Ringe und Moduln
-\label{buch:grundlagen:section:ringe}}
+\subsection{Ringe und Moduln
+\label{buch:grundlagen:subsection:ringe}}
\rhead{Ringe}
diff --git a/buch/chapters/10-vektorenmatrizen/strukturen.tex b/buch/chapters/10-vektorenmatrizen/strukturen.tex
new file mode 100644
index 0000000..6ff4f36
--- /dev/null
+++ b/buch/chapters/10-vektorenmatrizen/strukturen.tex
@@ -0,0 +1,28 @@
+%
+% strukturen.tex
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\section{Algebraische Strukturen
+\label{buch:section:algebraische-Strukturen}}
+Im Laufe der Definition der Vektorräume $\Bbbk^n$ und der
+Operationen für die Matrizen in $M_{m\times n}(\Bbbk)$ haben
+wir eine ganze Reihe von algebraischen Strukturen kennengelernt.
+Nicht immer sind alle Operationen verfügbar, in einem Vektorraum
+gibt es normalerweise kein Produkt.
+Und bei der Konstruktion des Zahlensystems wurde gezeigt, dass
+additive oder multiplikative Inverse nicht selbstverständlich
+sind.
+Sinnvolle Mathematik lässt sich aber erst betreiben, wenn zusammen
+mit den vorhandenen Operationen auch einige Regeln erfüllt sind.
+Die schränkt die Menge der sinnvollen Gruppierungen von Eigenschaften
+ein.
+In diesem Abschnitten sollen diesen sinnvollen Gruppierungen von
+Eigenschaften Namen gegeben werden.
+
+\input{chapters/10-vektorenmatrizen/gruppen.tex}
+\input{chapters/10-vektorenmatrizen/ringe.tex}
+\input{chapters/10-vektorenmatrizen/algebren.tex}
+\input{chapters/10-vektorenmatrizen/koerper.tex}
+
+
diff --git a/buch/chapters/80-wahrscheinlichkeit/parrondo.tex b/buch/chapters/80-wahrscheinlichkeit/parrondo.tex
index ac4163e..d1a38ca 100644
--- a/buch/chapters/80-wahrscheinlichkeit/parrondo.tex
+++ b/buch/chapters/80-wahrscheinlichkeit/parrondo.tex
@@ -6,3 +6,728 @@
\section{Das Paradoxon von Parrondo
\label{buch:section:paradoxon-von-parrondo}}
\rhead{Das Paradoxon von Parrondo}
+Das Paradoxon von Parrondo ist ein der Intuition widersprechendes
+Beispiel für eine Kombination von Spielen mit negativer Gewinnerwartung,
+deren Kombination zu einem Spiel mit positiver Gewinnerwartung führt.
+Die Theorie der Markov-Ketten und der zugehörigen Matrizen ermöglicht
+eine sehr einfache Analyse.
+
+%
+% Parrondo Teilspiele
+%
+\subsection{Die beiden Teilspiele
+\label{buch:subsection:teilspiele}}
+
+\subsubsection{Das Spiel $A$}
+Das Spiel $A$ besteht darin, eine Münze zu werfen.
+Je nach Ausgang gewinnt oder verliert der Spieler eine Einheit.
+Sei $X$ die Zufallsvariable, die den gewonnen Betrag beschreibt.
+Für eine faire Münze ist die Gewinnerwartung in diesem Spiel natürlich
+$E(X)=0$.
+Wenn die Wahrscheinlichkeit für einen Gewinn $1+e$ ist, dann muss
+die Wahrscheinlichkeit für einen Verlust $1-e$ sein, und die
+Gewinnerwartung ist
+\(
+E(X)
+=
+1\cdot P(X=1) + (-1)\cdot P(X=-1)
+=
+1+e + (-1)(1-e)
+=
+2e.
+\)
+Die Gewinnerwartung ist also genau dann negativ, wenn $e<0$ ist.
+
+\subsubsection{Das Spiel $B$}
+Das zweite Spiel $B$ ist etwas komplizierter, da der Spielablauf vom
+aktuellen Kapital $K$ des Spielers abhängt.
+Wieder gewinnt oder verliert der Spieler eine Einheit,
+die Gewinnwahrscheinlichkeit hängt aber vom Dreierrest des Kapitals ab.
+Sei $Y$ die Zufallsvariable, die den Gewinn beschreibt.
+Ist $K$ durch drei teilbar, ist die Gewinnwahrscheinlichkeit $\frac1{10}$,
+andernfalls ist sie $\frac34$.
+Formell ist
+\begin{equation}
+\begin{aligned}
+P(Y=1|\text{$K$ durch $3$ teilbar}) &= \frac{1}{10}
+\\
+P(Y=1|\text{$K$ nicht durch $3$ teilbar}) &= \frac{3}{4}
+\end{aligned}
+\label{buch:wahrscheinlichkeit:eqn:Bwahrscheinlichkeiten}
+\end{equation}
+Insbesondere ist die Wahrscheinlichkeit für einen Gewinn in zwei der
+Fälle recht gross, in einem Fall aber sehr klein.
+
+\subsubsection{Übergangsmatrix im Spiel $B$}
+\begin{figure}
+\centering
+\begin{tikzpicture}[>=latex,thick]
+\def\R{2}
+\def\r{0.5}
+\coordinate (A) at (0,\R);
+\coordinate (B) at ({\R*sqrt(3)/2},{-0.5*\R});
+\coordinate (C) at ({-\R*sqrt(3)/2},{-0.5*\R});
+
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (A) -- (B);
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (A) -- (C);
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (C) -- (B);
+
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (B) to[out=90,in=-30] (A);
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (C) to[out=90,in=-150] (A);
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (B) to[out=-150,in=-30] (C);
+
+\pgfmathparse{0.93*\R}
+\xdef\Rgross{\pgfmathresult}
+
+\node at (30:\Rgross) {$\frac34$};
+\node at (150:\Rgross) {$\frac14$};
+\node at (-90:\Rgross) {$\frac14$};
+
+\pgfmathparse{0.33*\R}
+\xdef\Rklein{\pgfmathresult}
+
+\node at (-90:\Rklein) {$\frac34$};
+\node at (30:\Rklein) {$\frac9{10}$};
+\node at (150:\Rklein) {$\frac1{10}$};
+
+\fill[color=white] (A) circle[radius=\r];
+\draw (A) circle[radius=\r];
+\node at (A) {$0$};
+
+\fill[color=white] (B) circle[radius=\r];
+\draw (B) circle[radius=\r];
+\node at (B) {$2$};
+
+\fill[color=white] (C) circle[radius=\r];
+\draw (C) circle[radius=\r];
+\node at (C) {$1$};
+
+\end{tikzpicture}
+\caption{Zustandsdiagramm für das Spiel $B$, Zustände sind die
+Dreierreste des Kapitals.
+\label{buch:wahrscheinlichkeit:fig:spielB}}
+\end{figure}%
+Für den Verlauf des Spiels spielt nur der Dreierrest des Kapitals
+eine Rolle.
+Es gibt daher drei mögliche Zustände $0$, $1$ und $2$.
+In einem Spielzug finde ein Übergang in einen anderen Zustand
+statt, der Eintrag $b_{ij}$ ist die Wahrscheinlichkeit
+\[
+b_{ij}
+=
+P(K\equiv i|K\equiv j),
+\]
+dass ein Übergang vom Zustand $j$ in den Zustand $i$ stattfindet.
+Die Matrix ist
+\[
+B=
+\begin{pmatrix}
+0 &\frac14 &\frac34\\
+\frac1{10} &0 &\frac14\\
+\frac9{10} &\frac34 &0
+\end{pmatrix}.
+\]
+
+\subsubsection{Gewinnerwartung in einem Einzelspiel $B$}
+Die Gewinnerwartung einer einzelnen Runde des Spiels $B$ hängt natürlich
+ebenfalls vom Ausgangskapital ab.
+Mit den Wahrscheinlichkeiten von
+\eqref{buch:wahrscheinlichkeit:eqn:Bwahrscheinlichkeiten}
+findet man die Gewinnerwartung
+\begin{equation}
+\begin{aligned}
+E(Y| \text{$K$ durch $3$ teilbar})
+&=
+1\cdot P(Y=1|K\equiv 0\mod 3)
++
+(-1)\cdot P(Y=-1|K\equiv 0\mod 3)
+\\
+&=
+\frac1{10}
+-
+\frac{9}{10}
+=
+-\frac{8}{10}
+\\
+E(Y| \text{$K$ nicht durch $3$ teilbar})
+&=
+1\cdot P(Y=1|K\not\equiv 0\mod 3)
++
+(-1)\cdot P(Y=-1|K\not\equiv 0\mod 3)
+\\
+&=
+\frac34-\frac14
+=
+\frac12.
+\end{aligned}
+\label{buch:wahrscheinlichkeit:eqn:Berwartungen}
+\end{equation}
+Falls $K$ durch drei teilbar ist, muss der Spieler
+also mit einem grossen Verlust rechnen, andernfalls mit einem
+moderaten Gewinn.
+
+Ohne weiteres Wissen über das Anfangskapital ist es zulässig anzunehmen,
+dass die drei möglichen Reste die gleiche Wahrscheinlichkeit haben.
+Die Gewinnerwartung in diesem Fall ist dann
+\begin{align}
+E(Y)
+&=
+E(Y|\text{$K$ durch $3$ teilbar}) \cdot \frac13
++
+E(Y|\text{$K$ nicht durch $3$ teilbar}) \cdot \frac23
+\notag
+\\
+&=
+-\frac{8}{10}\cdot\frac{1}{3}
++
+\frac{1}{2}\cdot\frac{2}{3}
+=
+-\frac{8}{30}+\frac{10}{30}
+=
+\frac{2}{30}
+=
+\frac{1}{15}.
+\label{buch:wahrscheinlichkeit:eqn:Beinzelerwartung}
+\end{align}
+Unter der Annahme, dass alle Reste die gleiche Wahrscheinlichkeit haben,
+ist das Spiel also ein Gewinnspiel.
+
+Die Berechnung der Gewinnerwartung in einem Einzelspiel kann man
+wie folgt formalisieren.
+Die Matrix $B$ gibt die Übergangswahrscheinlichkeiten zwischen
+verschiedenen Zuständen.
+Die Matrix
+\[
+G=\begin{pmatrix}
+ 0&-1& 1\\
+ 1& 0&-1\\
+-1& 1& 0
+\end{pmatrix}
+\]
+gibt die Gewinne an, die bei einem Übergang anfallen.
+Die Matrixelemente $g_{ij}b_{ij}$ des elementweisen Produktes
+$G\odot B$
+von $G$ mit $B$ enthält in den Spalten die Gewinnerwartungen
+für die einzelnen Übergänge aus einem Zustand.
+Die Summe der Elemente der Spalte $j$ enthält die Gewinnerwartung
+\[
+E(Y|K\equiv j)
+=
+\sum_{i=0}^2 g_{ij}b_{ij}
+\]
+für einen Übergang aus dem Zustand $j$.
+Man kann dies auch als einen Zeilenvektor schreiben, der durch Multiplikation
+der Matrix $G\odot B$ mit dem Zeilenvektor
+$\begin{pmatrix}1&1&1\end{pmatrix}$
+entsteht:
+\[
+\begin{pmatrix}
+E(Y|K\equiv 0)&
+E(Y|K\equiv 1)&
+E(Y|K\equiv 2)
+\end{pmatrix}
+=
+\begin{pmatrix}1&1&1\end{pmatrix}
+G\odot B.
+\]
+Die Gewinnerwartung ist dann das Produkt
+\[
+E(Y)
+=
+\sum_{i=0}^2
+E(Y|K\equiv i) p_i
+=
+\begin{pmatrix}1&1&1\end{pmatrix}
+(G\odot B)p.
+\]
+Tatsächlich ist
+\[
+G\odot B
+=
+\begin{pmatrix}
+ 0 &-\frac14 & \frac34\\
+ \frac1{10} & 0 &-\frac14\\
+-\frac9{10} & \frac34 & 0
+\end{pmatrix}
+\quad\text{und}\quad
+\begin{pmatrix}1&1&1\end{pmatrix} G\odot B
+=
+\begin{pmatrix}-\frac{8}{10}&\frac12&\frac12\end{pmatrix}.
+\]
+Dies stimmt mit den Erwartungswerten in
+\eqref{buch:wahrscheinlichkeit:eqn:Berwartungen}
+überein.
+Die gesamte Geinnerwartung ist dann
+\begin{equation}
+(G\odot B)
+\begin{pmatrix}\frac13&\frac13&\frac13\end{pmatrix}
+=
+\begin{pmatrix}-\frac{8}{10}&\frac12&\frac12\end{pmatrix}
+\begin{pmatrix}\frac13&\frac13&\frac13\end{pmatrix}
+=
+\frac13\biggl(-\frac{8}{10}+\frac12+\frac12\biggr)
+=
+\frac13\cdot\frac{2}{10}
+=
+\frac{1}{15},
+\label{buch:wahrscheinlichkeit:eqn:BodotEinzelerwartung}
+\end{equation}
+dies stimmt mit \eqref{buch:wahrscheinlichkeit:eqn:Beinzelerwartung}
+überrein.
+
+\subsubsection{Das wiederholte Spiel $B$}
+Natürlich spielt man das Spiel nicht nur einmal, sondern man wiederholt es.
+Es ist verlockend anzunehmen, dass die Dreierreste $0$, $1$ und $2$ des
+Kapitals immer noch gleich wahrscheinlich sind.
+Dies braucht jedoch nicht so zu sein.
+Wir prüfen die Hypothese daher, indem wir die Wahrscheinlichkeit
+für die verschiedenen Dreierreste des Kapitals in einem interierten
+Spiels ausrechnen.
+
+Das Spiel kennt die Dreierreste als die drei für das Spiel ausschlaggebenden
+Zuständen.
+Das Zustandsdiagramm~\ref{buch:wahrscheinlichkeit:fig:spielB} zeigt
+die möglichen Übergänge und ihre Wahrscheinlichkeiten, die zugehörige
+Matrix ist
+\[
+B
+=
+\begin{pmatrix}
+0 &\frac14 &\frac34\\
+\frac1{10} &0 &\frac14\\
+\frac9{10} &\frac34 &0
+\end{pmatrix}
+\]
+Die Matrix $B$ ist nicht negativ und man kann nachrechnen, dass $B^2>0$ ist.
+Damit ist die Perron-Frobenius-Theorie von
+Abschnitt~\ref{buch:section:positive-vektoren-und-matrizen}
+anwendbar.
+
+Ein Eigenvektor zum Eigenwert $1$ kann mit Hilfe des Gauss-Algorithmus
+gefunden werden:
+\begin{align*}
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+-1 &\frac14 &\frac34 \\
+\frac1{10} &-1 &\frac14 \\
+\frac9{10} &\frac34 &-1 \\
+\hline
+\end{tabular}
+&\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+1 &-\frac14 &-\frac34 \\
+0 &-\frac{39}{40} & \frac{13}{40} \\
+0 & \frac{39}{40} &-\frac{13}{40} \\
+\hline
+\end{tabular}
+\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+1 &-\frac14 &-\frac34 \\
+0 & 1 &-\frac13 \\
+0 & 0 & 0 \\
+\hline
+\end{tabular}
+\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+1 & 0 &-\frac56 \\
+0 & 1 &-\frac13 \\
+0 & 0 & 0 \\
+\hline
+\end{tabular}
+\end{align*}
+Daraus liest man einen möglichen Lösungsvektor mit den Komponenten
+$5$, $2$ und $6$ ab.
+Wir suchen aber einen Eigenvektor, der als Wahrscheinlichkeitsverteilung
+dienen kann.
+Dazu müssen sich die Komponente zu $1$ summieren, was man durch normieren
+in der $l^1$-Norm erreichen kann:
+\begin{equation}
+p
+=
+\begin{pmatrix}
+P(K\equiv 0)\\
+P(K\equiv 1)\\
+P(K\equiv 2)
+\end{pmatrix}
+=
+\frac{1}{5+2+6}
+\begin{pmatrix}
+5\\2\\6
+\end{pmatrix}
+=
+\frac{1}{13}
+\begin{pmatrix}
+5\\2\\6
+\end{pmatrix}
+\approx
+\begin{pmatrix}
+ 0.3846 \\
+ 0.1538 \\
+ 0.4615
+\end{pmatrix}.
+\label{buch:wahrscheinlichkeit:spielBP}
+\end{equation}
+Die Hypothese, dass die drei Reste gleich wahrscheinlich sind, ist
+also nicht zutreffend.
+
+Die Perron-Frobenius-Theorie sagt, dass sich die
+Verteilung~\ref{buch:wahrscheinlichkeit:spielBP} nach einiger Zeit
+einstellt.
+Wir können jetzt auch die Gewinnerwartung in einer einzelnen
+Runde des Spiels ausgehend von dieser Verteilung der Reste des Kapitals
+berechnen.
+Dazu brauchen wir zunächst die Wahrscheinlichkeiten für Gewinn oder
+Verlust, die wir mit dem Satz über die totale Wahrscheinlichkeit
+nach
+\begin{align*}
+P(Y=+1)
+&=
+P(Y=+1|K\equiv 0) \cdot P(K\equiv 0)
++
+P(Y=+1|K\equiv 1) \cdot P(K\equiv 1)
++
+P(Y=+1|K\equiv 2) \cdot P(K\equiv 2)
+\\
+&=
+\frac{1}{10}\cdot\frac{5}{13}
++
+\frac{3}{4} \cdot\frac{2}{13}
++
+\frac{3}{4} \cdot\frac{6}{13}
+\\
+&=
+\frac1{13}\biggl(
+\frac{1}{2}+\frac{3}{2}+\frac{9}{2}
+\biggr)
+=
+\frac{13}{26}
+=
+\frac12
+\\
+P(Y=-1)
+&=
+P(Y=-1|K\equiv 0) \cdot P(K\equiv 0)
++
+P(Y=-1|K\equiv 1) \cdot P(K\equiv 1)
++
+P(Y=-1|K\equiv 2) \cdot P(K\equiv 2)
+\\
+&=
+\frac{9}{10}\cdot\frac{5}{13}
++
+\frac{1}{4} \cdot\frac{2}{13}
++
+\frac{1}{4} \cdot\frac{6}{13}
+\\
+&=
+\frac{1}{13}\biggl(
+\frac{9}{2} + \frac{1}{2} + \frac{3}{2}
+\biggr)
+=
+\frac{1}{2}
+\end{align*}
+berechnen können.
+Gewinn und Verlust sind also gleich wahrscheinlich, das Spiel $B$ ist also
+ebenfalls fair.
+
+\subsubsection{Das modifizierte Spiel $B$}
+\begin{figure}
+\centering
+\begin{tikzpicture}[>=latex,thick]
+\def\R{2.5}
+\def\r{0.5}
+\coordinate (A) at (0,\R);
+\coordinate (B) at ({\R*sqrt(3)/2},{-0.5*\R});
+\coordinate (C) at ({-\R*sqrt(3)/2},{-0.5*\R});
+
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (A) -- (B);
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (A) -- (C);
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (C) -- (B);
+
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (B) to[out=90,in=-30] (A);
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (C) to[out=90,in=-150] (A);
+\draw[->,shorten >= 0.5cm,shorten <= 0.5cm] (B) to[out=-150,in=-30] (C);
+
+\pgfmathparse{0.93*\R}
+\xdef\Rgross{\pgfmathresult}
+
+\node at (30:\Rgross) {$\frac34-\varepsilon$};
+\node at (150:\Rgross) {$\frac14+\varepsilon$};
+\node at (-90:\Rgross) {$\frac14+\varepsilon$};
+
+\pgfmathparse{0.32*\R}
+\xdef\Rklein{\pgfmathresult}
+
+\node at (-90:\Rklein) {$\frac34-\varepsilon$};
+\node at (30:\Rklein) {$\frac9{10}+\varepsilon$};
+\node at (150:\Rklein) {$\frac1{10}-\varepsilon$};
+
+\fill[color=white] (A) circle[radius=\r];
+\draw (A) circle[radius=\r];
+\node at (A) {$0$};
+
+\fill[color=white] (B) circle[radius=\r];
+\draw (B) circle[radius=\r];
+\node at (B) {$2$};
+
+\fill[color=white] (C) circle[radius=\r];
+\draw (C) circle[radius=\r];
+\node at (C) {$1$};
+
+\end{tikzpicture}
+\caption{Zustandsdiagramm für das modifizerte Spiel $\tilde{B}$,
+Zustände sind die Dreierreste des Kapitals.
+Gegenüber dem Spiel $B$
+(Abbildung~\ref{buch:wahrscheinlichkeit:fig:spielB})
+sind die Wahrscheinlichkeiten für Verlust
+um $\varepsilon$ vergrössert und die Wahrscheinlichkeiten für Gewinn um
+$\varepsilon$ verkleinert worden.
+\label{buch:wahrscheinlichkeit:fig:spielBtile}}
+\end{figure}
+%
+Wir modifizieren jetzt das Spiel $B$ derart, dass die Wahrscheinlichkeiten
+für Gewinn um $\varepsilon$ verringert werden und die Wahrscheinlichkeiten
+für Verlust um $\varepsilon$ vergrössert werden.
+Die Übergangsmatrix des modifzierten Spiels $\tilde{B}$ ist
+\[
+\tilde{B}
+=
+\begin{pmatrix}
+ 0 & \frac{1}{4}+\varepsilon & \frac{3}{4}-\varepsilon \\
+\frac{1}{10}-\varepsilon & 0 & \frac{1}{4}+\varepsilon \\
+\frac{9}{10}+\varepsilon & \frac{3}{4}-\varepsilon & 0
+\end{pmatrix}
+=
+B
++
+\varepsilon
+\underbrace{
+\begin{pmatrix}
+ 0& 1&-1\\
+-1& 0& 1\\
+ 1&-1& 0
+\end{pmatrix}
+}_{\displaystyle F}
+\]
+Wir wissen bereits, dass der Vektor $p$
+von \eqref{buch:wahrscheinlichkeit:spielBP}
+als stationäre Verteilung
+Eigenvektor zum Eigenwert
+$B$ ist, wir versuchen jetzt in erster Näherung die modifizierte
+stationäre Verteilung $p_{\varepsilon}=p+\varepsilon p_1$ des modifizierten
+Spiels zu bestimmen.
+
+\subsubsection{Gewinnerwartung im modifizierten Einzelspiel}
+Die Gewinnerwartung aus den verschiedenen Ausgangszuständen kann mit Hilfe
+des Hadamard-Produktes berechnet werden.
+Wir berechnen dazu zunächst
+\[
+G\odot \tilde{B}
+=
+G\odot (B+\varepsilon F)
+=
+G\odot B + \varepsilon G\odot F
+\quad\text{mit}\quad
+G\odot F = \begin{pmatrix}
+0&1&1\\
+1&0&1\\
+1&1&0
+\end{pmatrix}.
+\]
+Nach der früher dafür gefundenen Formel ist
+\begin{align*}
+\begin{pmatrix}
+E(Y|K\equiv 0)&
+E(Y|K\equiv 1)&
+E(Y|K\equiv 2)
+\end{pmatrix}
+&=
+\begin{pmatrix}1&1&1\end{pmatrix} G\odot \tilde{B}
+\\
+&=
+\begin{pmatrix}1&1&1\end{pmatrix} G\odot B
++
+\varepsilon
+\begin{pmatrix}1&1&1\end{pmatrix} G\odot F
+\\
+&=
+\begin{pmatrix} -\frac{8}{10}&\frac12&\frac12 \end{pmatrix}
++
+\varepsilon\begin{pmatrix}2&2&2\end{pmatrix}
+\\
+&=
+\begin{pmatrix} -\frac{8}{10}+2\varepsilon&\frac12+2\varepsilon&\frac12+2\varepsilon \end{pmatrix}.
+\end{align*}
+Unter der Annahme gleicher Wahrscheinlichkeiten für die Ausgangszustände,
+erhält man die Gewinnerwartung
+\begin{align*}
+E(Y)
+&=
+\begin{pmatrix}1&1&1\end{pmatrix} G\odot \tilde{B}
+\begin{pmatrix}
+\frac13&
+\frac13&
+\frac13
+\end{pmatrix}
+\\
+&=
+\begin{pmatrix}1&1&1\end{pmatrix} G\odot B
+\begin{pmatrix} \frac13& \frac13& \frac13 \end{pmatrix}
++
+\varepsilon
+\begin{pmatrix}1&1&1\end{pmatrix} G\odot F
+\begin{pmatrix} \frac13& \frac13& \frac13 \end{pmatrix}
+\\
+&=
+\frac1{15}
++
+2\varepsilon
+\end{align*}
+unter Verwendung der in
+\eqref{buch:wahrscheinlichkeit:eqn:BodotEinzelerwartung}
+berechneten Gewinnerwartung für das Spiel $B$.
+
+\subsubsection{Iteration des modifizierten Spiels}
+Der Gaussalgorithmus liefert nach einiger Rechnung, die man am besten
+mit einem Computeralgebrasystem durchführt,
+\[
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+-1 & \frac{1}{4}+\varepsilon & \frac{3}{4}-\varepsilon \\
+\frac{1}{10}-\varepsilon & -1 & \frac{1}{4}+\varepsilon \\
+\frac{9}{10}+\varepsilon & \frac{3}{4}-\varepsilon & -1 \\
+\hline
+\end{tabular}
+\rightarrow
+% [ 2 ]
+% [ 80 epsilon + 12 epsilon + 78 ]
+%(%o15) Col 1 = [ ]
+% [ 0 ]
+% [ ]
+% [ 0 ]
+% [ 0 ]
+% [ ]
+% Col 2 = [ 2 ]
+% [ 80 epsilon + 12 epsilon + 78 ]
+% [ ]
+% [ 0 ]
+% [ 2 ]
+% [ (- 80 epsilon ) + 40 epsilon - 65 ]
+% [ ]
+% Col 3 = [ 2 ]
+% [ (- 80 epsilon ) - 12 epsilon - 26 ]
+% [ ]
+% [ 0 ]
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
+\hline
+1&0&-\frac{65-40\varepsilon+80\varepsilon^2}{78+12\varepsilon+80\varepsilon^2}\\
+0&0&-\frac{26+12\varepsilon+80\varepsilon^2}{78+12\varepsilon+80\varepsilon^2}\\
+0&0&0\\
+\hline
+\end{tabular},
+\]
+woraus man die Lösung
+\[
+p
+=
+\begin{pmatrix}
+65-40\varepsilon+80\varepsilon^2\\
+26+12\varepsilon+80\varepsilon^2\\
+78+12\varepsilon+80\varepsilon^2\\
+\end{pmatrix}
+\]
+ablesen kann.
+Allerdings ist dies keine Wahrscheinlichkeitsverteilung,
+wir müssen dazu wieder normieren.
+Die Summe der Komponenten ist
+\[
+\|p\|_1
+=
+169 - 16 \varepsilon + 240 \varepsilon^2.
+\]
+Damit bekommen wir für die Lösung bis zur ersten Ordnung
+\[
+p_\varepsilon
+=
+\frac{1}{ 169 - 16 \varepsilon + 240 \varepsilon^2}
+\begin{pmatrix}
+65-40\varepsilon+80\varepsilon^2\\
+26+12\varepsilon+80\varepsilon^2\\
+78+12\varepsilon+80\varepsilon^2\\
+\end{pmatrix}
+=
+% [ 2 3 ]
+% [ 5 440 epsilon 34080 epsilon 17301120 epsilon ]
+% [ -- - ----------- - -------------- + ----------------- + . . . ]
+% [ 13 2197 371293 62748517 ]
+% [ ]
+% [ 2 3 ]
+%(%o19)/T/ [ 2 188 epsilon 97648 epsilon 6062912 epsilon ]
+% [ -- + ----------- + -------------- - ---------------- + . . . ]
+% [ 13 2197 371293 62748517 ]
+% [ ]
+% [ 2 3 ]
+% [ 6 252 epsilon 63568 epsilon 11238208 epsilon ]
+% [ -- + ----------- - -------------- - ----------------- + . . . ]
+% [ 13 2197 371293 62748517 ]
+\frac{1}{13}
+\begin{pmatrix} 5\\2\\6 \end{pmatrix}
++
+\frac{\varepsilon}{2197}
+\begin{pmatrix}
+-440\\188\\252
+\end{pmatrix}
++
+O(\varepsilon^2).
+\]
+Man beachte, dass der konstante Vektor der ursprüngliche Vektor $p$
+für das Spiel $B$ ist.
+Der lineare Term ist ein Vektor, dessen Komponenten sich zu $1$ summieren,
+in erster Ordnung ist also die $l^1$-Norm des Vektors wieder
+$\|p_\varepsilon\|_1=0+O(\varepsilon^2)$.
+
+Mit den bekannten Wahrscheinlichkeiten kann man jetzt die
+Gewinnerwartung in einem einzeln Spiel ausgehend von der Verteilung
+$p_{\varepsilon}$ berechnen.
+Dazu braucht man das Hadamard-Produkt
+\[
+G\odot \tilde{B}
+=
+\]
+Wie früher ist
+\begin{align*}
+E(Y)
+&=
+e^t (G\odot \tilde{B}) p
+\\
+&=
+\begin{pmatrix}
+\end{pmatrix}
+p
+=
+\end{align*}
+
+%
+% Die Kombination
+%
+\subsection{Kombination der Spiele
+\label{buch:subsection:kombination}}
+
+%
+% Gewinn-Erwartung
+%
+\subsection{Gewinnerwartung
+\label{buch:subsection:gewinnerwartung}}
+
+%
+% Gleichgewichtszustand
+%
+\subsection{Gleichgewichtszustand
+\label{buch:subsection:gleichgewichtszustand}}
+
+
+
+
diff --git a/buch/chapters/80-wahrscheinlichkeit/rechnungen/btilde.maxima b/buch/chapters/80-wahrscheinlichkeit/rechnungen/btilde.maxima
new file mode 100644
index 0000000..16be152
--- /dev/null
+++ b/buch/chapters/80-wahrscheinlichkeit/rechnungen/btilde.maxima
@@ -0,0 +1,46 @@
+Btilde: matrix(
+ [ -1 , 1/4 + epsilon, 3/4 - epsilon ],
+ [ 1/10 - epsilon, -1 , 1/4 + epsilon ],
+ [ 9/10 + epsilon, 3/4 - epsilon, -1 ]
+);
+
+r: expand(Btilde[1] / Btilde[1,1]);
+Btilde[1]: r;
+Btilde[2]: Btilde[2] - Btilde[2,1] * r;
+Btilde[3]: Btilde[3] - Btilde[3,1] * r;
+
+Btilde: expand(Btilde);
+
+r: Btilde[2] / Btilde[2,2];
+Btilde[2]: r;
+Btilde[3]: Btilde[3] - Btilde[3,2] * r;
+
+Btilde: ratsimp(expand(Btilde));
+
+Btilde[1]: Btilde[1] - Btilde[1,2] * Btilde[2];
+
+Btilde: ratsimp(expand(Btilde));
+
+l: 78 + 12 * epsilon + 80 * epsilon^2;
+
+D: ratsimp(expand(l*Btilde));
+n: ratsimp(expand(l -D[1,3] -D[2,3]));
+
+p: (1/n) * matrix(
+[ -Btilde[1,3]*l ],
+[ -Btilde[2,3]*l ],
+[ l ]
+);
+p: ratsimp(expand(p));
+
+taylor(p, epsilon, 0, 3);
+
+G: matrix(
+ [ 0, 1, -1 ],
+ [ -1, 0, 1 ],
+ [ 1, -1, 0 ]
+);
+
+e: matrix([1,1,1]);
+
+ratsimp(expand(e. (G*Btilde) . p));