aboutsummaryrefslogtreecommitdiffstats
path: root/buch
diff options
context:
space:
mode:
Diffstat (limited to '')
-rw-r--r--buch/papers/erdbeben/main.tex25
-rw-r--r--buch/papers/erdbeben/teil0.tex47
-rw-r--r--buch/papers/erdbeben/teil1.tex78
-rw-r--r--buch/papers/munkres/figures/Netzwerkdarstellung.pngbin0 -> 307876 bytes
-rw-r--r--buch/papers/munkres/figures/beispiel_munkres.pngbin0 -> 245951 bytes
-rw-r--r--buch/papers/munkres/figures/bipartiter_graph.pngbin0 -> 246867 bytes
-rw-r--r--buch/papers/munkres/main.tex26
-rw-r--r--buch/papers/munkres/teil0.tex27
-rw-r--r--buch/papers/munkres/teil1.tex62
-rw-r--r--buch/papers/munkres/teil2.tex110
-rw-r--r--buch/papers/munkres/teil3.tex124
-rw-r--r--buch/papers/munkres/teil4.tex36
-rw-r--r--buch/papers/munkres/teil5.tex14
13 files changed, 331 insertions, 218 deletions
diff --git a/buch/papers/erdbeben/main.tex b/buch/papers/erdbeben/main.tex
index 8f9c8d5..95f1f4b 100644
--- a/buch/papers/erdbeben/main.tex
+++ b/buch/papers/erdbeben/main.tex
@@ -3,30 +3,11 @@
%
% (c) 2020 Hochschule Rapperswil
%
-\chapter{Thema\label{chapter:erdbeben}}
+\chapter{Erdbebenmessung\label{chapter:erdbeben}}
\lhead{Thema}
\begin{refsection}
-\chapterauthor{Hans Muster}
-
-Ein paar Hinweise für die korrekte Formatierung des Textes
-\begin{itemize}
-\item
-Absätze werden gebildet, indem man eine Leerzeile einfügt.
-Die Verwendung von \verb+\\+ ist nur in Tabellen und Arrays gestattet.
-\item
-Die explizite Platzierung von Bildern ist nicht erlaubt, entsprechende
-Optionen werden gelöscht.
-Verwenden Sie Labels und Verweise, um auf Bilder hinzuweisen.
-\item
-Beginnen Sie jeden Satz auf einer neuen Zeile.
-Damit ermöglichen Sie dem Versionsverwaltungssysteme, Änderungen
-in verschiedenen Sätzen von verschiedenen Autoren ohne Konflikt
-anzuwenden.
-\item
-Bilden Sie auch für Formeln kurze Zeilen, einerseits der besseren
-Übersicht wegen, aber auch um GIT die Arbeit zu erleichtern.
-\end{itemize}
-
+\chapterauthor{Lukas Zogg und
+Fabio Veicelli}
\input{papers/erdbeben/teil0.tex}
\input{papers/erdbeben/teil1.tex}
%\input{papers/erdbeben/teil2.tex}
diff --git a/buch/papers/erdbeben/teil0.tex b/buch/papers/erdbeben/teil0.tex
index 8ac5d6d..8ce8ff2 100644
--- a/buch/papers/erdbeben/teil0.tex
+++ b/buch/papers/erdbeben/teil0.tex
@@ -3,19 +3,28 @@
%
% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil
%%
-\section{Teil 0\label{erdbeben:section:teil0}}
+\section{Was ist ein Erdbeben? \label{erdbeben:section:teil0}}
\rhead{Erdbeben}
-\section{Erdbebenmessung}
-\subsection{Was ist ein Erdbeben}
-Fabio
+Für das Verständnis möchten wir zuerst erklären, was ein Erdbeben genau ist.
+Das soll uns helfen, eine Verknüpfung zwischen dem Naturphänomen und der mathematischen Problemstellung herzustellen.
+
+Unter einem Erdbeben verstehen wir eine Erschütterung des Erdkörpers.
+Dabei reiben zwei tektonische Platten aneinander, welche sich durch die Gesteinsverzahnung gegenseitig blockieren.
+Diese Haftreibung durch die Steine wird so lange aufgebaut, bis sie nicht mehr gehalten werden kann.
+Wenn dies passiert, entlädt sich die aufgebaute Spannung und setzt enorme Energien frei, die wir als Erdbeben wahrnehmen.
+Ein Erdbeben breitet sich vom Erdbebenherd in allen Richtungen gleich aus.
+Vergleichbar ist, wenn man einen Stein in einen Teich wirft und die Wellen beobachten kann, die sich ausbreiten.
+
\subsection{Funktion eines Seismograph}
Um ein Erdbeben kenntlich zu machen, werden in der Regel Seismographen mit vielen Sensoren verwendet.
-Ein Seismograph besteht im Grunde aus einer federgelagerten Masse. Wirkt eine Bodenerregung auf das Gerät ein, bleibt die gekoppelte Masse stehen aber das Gehäuse schwingt mit.
+Ein Seismograph besteht im Grunde aus einer federgelagerten Masse. Wirkt eine Bodenerregung auf das Gerät ein, schwing das Gehäuse und dadurch auch die gekoppelte Masse.
+Stoppt das Erdbeben, schwingt das Gehäuse nicht mehr.
+Die Masse schwing jedoch in seiner Eigendynamik weiter.
Relativbewegung des Bodens kann damit als Auslenkung im Zeitverlauf gemessen werden.
In modernen Seismographen wird die Bodenbewegung in alle Richtungen gemessen, sowohl Horizontal als auch Vertikal.
-Wir konstruieren uns eine einfachere Version eines Seismographen mit eine Gehäuse, an dem zwei Federn und eine Masse befestigt ist.
+Wir konstruieren uns eine einfachere Version eines Seismographen mit eine Gehäuse, an dem zwei Federn und eine Masse befestigt sind.
Ein Sensor unter der Masse misst die Position, bzw. die Auslenkung der Feder und der Masse.
-Dies bedeutet unser Seismograph kann nur in eine Dimension Messwerte aufnehmen.
+Dies bedeutet, unser Seismograph kann nur in eine Dimension Messwerte aufnehmen.
\begin{figure}
\begin{center}
@@ -30,7 +39,7 @@ Wir wollen jedoch die Beschleunigung $a(t)$ des Boden bzw. die Kraft $f(t)$ welc
Anhand dieser Beschleunigung bzw. der Krafteinwirkung durch die Bodenbewegung wird später das Bauwerk bemessen.
Dies bedeutet, die für uns interessante Grösse $f(t)$ wird nicht durch einen Sensor erfasst.
Jedoch können wir durch zweifaches ableiten der Positionsmessung $s(t)$ die Beschleunigung der Masse berechnen.
-Das heisst: Die Messung ist zweifach Integriert die Kraft $f(t)$ + der Eigendynamik der Masse.
+Das heisst: Die Messung ist zweifach Integriert die Kraft $f(t)$ inklusive der Eigendynamik der Masse.
Um die Bewegung der Masse zu berechnen, müssen wir Gleichungen für unser System finden.
\subsection{Systemgleichung}
@@ -40,21 +49,21 @@ Diese lautet:
m\ddot s + 2k \dot s + Ds = f
\end{equation}
mit den Konstanten $m$ = Masse, $k$ = Dämpfungskonstante und $D$ = Federkonstante.
-Um diese nun in die Systemmatrix umzuwandeln, wird die Differentialgleichung zweiter Ordnung substituiert:
-\[ {x_1}=s \qquad
-{x_2}=\dot s, \qquad\]
-Somit entstehen die Gleichungenür die Position $s(t)$ der Masse :
-\[ \dot {x_1} = {x_2}\]
+Da die DGL linear ist, kann sie in die kompaktere und einfachere Matrix-Form umgewandelt werden. Dazu wird die Differentialgleichung zweiter Ordnung substituiert:
+\[ {s_1}=s \qquad
+{s_2}=\dot s, \qquad\]
+Somit entstehen die Gleichungen für die Position $s(t)$ der Masse :
+\[ \dot {s_1} = {s_2}\]
und
-\[ \dot x_2 = -\frac{D}{m} {x_1} -\frac{2k}{m} {x_2} + \frac{f} {m} \] für die Geschwindigkeit $v(t)$ der Masse.
+\[ \dot s_2 = -\frac{D}{m} {s_1} -\frac{2k}{m} {s_2} + \frac{f} {m} \] für die Beschleunigung $a(t)$ der Masse.
Diese können wir nun in der Form
-\[ {x_3}=-\frac{D}{m} {s_1} -\frac{2k}{m} {s_2} + \frac{f} {m} \]
+\[ {s_3}=-\frac{D}{m} {s_1} -\frac{2k}{m} {s_2} + \frac{f} {m} \]
auch als Matrix-Vektor-Gleichung darstellen.
Dafür wird die Gleichung in die Zustände aufgeteilt.
Die für uns relevanten Zustände sind die Position der Masse, die Geschwindigkeit der Masse und die äussere Beschleunigung des ganzen System.
Dabei muss unterschieden werden, um welche Beschleunigung es sich handelt.
-Das System beinhaltet sowohl eine Beschleunigung der Masse (innere Beschleunigung), als auch eine Beschleunigung der ganzen Apparatur (äussere Beschleunigung).
+Das System beinhaltet sowohl eine Beschleunigung der Masse, innere Beschleunigung, als auch eine Beschleunigung der ganzen Apparatur, äussere Beschleunigung.
In unserem Fall wird die äusseren Beschleunigung gesucht, da diese der Erdbebenanregung gleich kommt.
\begin{equation}
\frac{d}{dt} \left(\begin{array}{c} {s_1} \\ {s_2} \end{array}\right) = \left(
@@ -70,11 +79,13 @@ Durch Rücksubstituion ergibt sich:
\begin{array}{ccc}
0 & 1& 0 \\
- \frac{D}{m} &-\frac{2k}{m} & \frac{1} {m}\\
+0 & 0 & 0\\
\end{array}\right) \left(\begin{array}{c} s(t)\\ v(t)\\ f(t) \end{array}\right).
\end{equation}
Wir wissen nicht wie sich die Kraft verhält.
-Deshalb treffen wir die Annahme, das sich die Kraft über die Beobachtungszeit nicht verändert.
-Diese unzutreffende Annahme wird später durch einen grossen Systemfehler kompensiert.
+Deshalb treffen wir die Annahme, das sich die Kraft über die Beobachtungszeit nicht verändert.
+Diese Annahme ist nicht zulässig, jedoch ist dies das beste, was wir Annehmen können.
+Diese unzutreffende Annahme wird späteren Berechnungen berücksichtigen werden
Da die Kraft unbekannt ist, wird die letzte Zeile mit Nullen gefüllt, denn genau diese Werte wollen wir.
diff --git a/buch/papers/erdbeben/teil1.tex b/buch/papers/erdbeben/teil1.tex
index 52872f6..e07800f 100644
--- a/buch/papers/erdbeben/teil1.tex
+++ b/buch/papers/erdbeben/teil1.tex
@@ -15,7 +15,7 @@
\section{Kalman-Filter}
Da wir die äussere Kraft nicht direkt messen können, benötigen wir ein Werkzeug, welches aus der gemessenen Position, die Krafteinwirkung auf unsere System schätzt.
-Dies ist eine Typische Anwendung für den linearen Kalman-Filter.
+Dies ist eine typische Anwendung für das Kalman-Filter.
Unser Ziel ist es, anhand der Messung die eigentlich interessante Grösse $f$ zu bestimmen.
Dabei wird durch eine deterministische Vorhersage, in dem der Zustand * Eigendynamik des Systems gerechnet.
Die Idee dahinter ist, dass das Kalman-Filter die nicht-deterministische Grösse $f$ anhand der Messung und der Vorhersage zu bestimmen.
@@ -27,7 +27,9 @@ Für ein nicht-lineares System werden Extended Kalman-Filter benötigt, bei dene
Einfachheitshalber beschränken wir uns auf den linearen Fall, da dadurch die wesentlichen Punkte bereits aufgezeigt werden.
\subsection{Geschichte}
-Das Kalman-Filter wurde 1960 von Rudolf Emil Kalman entdeckt und direkt von der NASA für die Appollo Mission benutzt. Der Filter kommt mit wenig Rechenleistung aus und war somit dafür geeignet die Rakete bei der Navigation zu unterstützen. Das Filter schätzt den Zustand eines Systems anhand von Messungen und kann den nächsten Zustand errechnen. Eine typische Anwendungen des Kalman-Filters ist Glättung von verrauschten Daten und die Schätzung von Parametern. Dies kommt heutzutage in jedem Satellit, Navigationssystem, Smartphones und Videospielen vor.
+Das Kalman-Filter wurde 1960 von Rudolf Emil Kalman entdeckt und direkt von der NASA für die Appollo Mission benutzt.
+Das Filter kommt mit wenig Rechenleistung aus und war somit dafür geeignet die Rakete bei der Navigation zu unterstützen.
+Das Filter schätzt den Zustand eines Systems anhand von Messungen und kann den nächsten Zustand errechnen. Eine typische Anwendungen des Kalman-Filters ist Glättung von verrauschten Daten und die Schätzung von Parametern. Dies kommt heutzutage in jedem Satellit, Navigationssystem, Smartphones und Videospielen vor.
\subsection{Wahrscheinlichkeit}
Das Kalman-Filter schätzt den wahrscheinlichsten Wert zwischen Normalverteilungen.
@@ -80,7 +82,7 @@ Sie ist also gewichtet und die best mögliche Schätzung.
\end{figure}
-Was in 2 Dimensionen erklärt wurde, funktioniert auch in mehreren Dimensionen.
+Was in zwei Dimensionen erklärt wurde, funktioniert auch in mehreren Dimensionen.
Dieses Prinzip mach sich das Kalman Filter zu nutze, und wird von uns für die Erdbeben Berechnung genutzt.
\section{Filter-Matrizen}
@@ -105,7 +107,7 @@ Kovarianz: Cov(x, y) und Varianz: Var(x) = Cov(x, x)
In unserem Fall ist der Anfangszustand gut bekannt.
Wir gehen davon aus, dass das System in Ruhe und in Abwesenheit eines Erdbeben startet, somit kann die Matrix mit Nullen bestückt werden.
-Als Initialwert für die für die Kovarianzmatrix ergibt sich
+Als Initialwert für die Kovarianzmatrix ergibt sich
\[
{P_0 }=
@@ -127,7 +129,7 @@ Das Kalman-Filter benötigt für die Vorhersage des nächsten Zustandes eine Bes
Die Dynamikmatrix bildet den Kern des Filters. Diese wurde weiter oben bereits beschrieben.
Dabei wollen wird die äussere Kraft des Systems ermitteln.
Da nichts über die äussere Kraft bekannt ist, müssen wir annehmen das deren Ableitung 0 ist.
-Die System Vektor-Gleichung lautet daher:
+Die System-Matrix lautet daher:
\[
A = \left(
\begin{array}{ccc}
@@ -139,10 +141,12 @@ A = \left(
Dabei soll der Kalman-Filter in diskreten Zeitschritten $\Delta t$ arbeiten.
Die Übergangs-Matrix erhalten wir aus der Systemdynamikmatrix mittels Exponentialfunktion:
\[\Phi = \exp(A\Delta t). \]
+Die Matrix $\Phi$ beschreibt die Übergänge zwischen zeitlich aufeinanderfolgenden Zuständen $x_{k-1}$ und $x_{k}$
\subsubsection*{Prozessrauschkovarianzmatrix $Q$}
Die Prozessrauschmatrix teilt dem Filter mit, wie sich der Prozess verändert.
-Kalman-Filter berücksichtigen Unsicherheiten wie Messfehler und -rauschen.
+Kalman-Filter berücksichtigen sowohl Unsicherheiten wie Messfehler und -rauschen.
+In der Matrix $Q$ geht es jedoch im die Unsicherheit die der Prozess mit sich bringt.
Bei unserem Modell könnte das beispielsweise ein Windstoss an die Masse sein.
Für uns wäre dies:
\[
@@ -158,22 +162,23 @@ Die Standabweichungen müssten statistisch ermittelt werden, da der Fehler nicht
Das Bedeutet wiederum dass $Q$ die Unsicherheit des Prozesses beschreibt und nicht die der Messung.
\subsubsection*{Messmatrix $H$}
-Die Messmatrix gibt an, welche Parameter gemessen werden
+Die Messmatrix gibt an, welche Parameter gemessen werden.
+$H$ ist die Gleichung die für die Vorhersage der Messung.
In unserem Falle ist es die Position der Massen.
\[ H = (1, 0, 0) \]
\subsubsection*{Messrauschkovarianz $R$}
-Die Messrauschkovarianzmatrix beinhaltet, wie der Name es schon sagt, das Rauschen der Positionsmessung.
+Die Messrauschkovarianzmatrix beinhaltet, wie der Name schon sagt, das Rauschen der Messung.
In unserem Fall wird nur die Position der Masse gemessen. Da wir keine anderen Sensoren haben ist $R$ lediglich:
\[ R= ({\sigma_{sensor}}^2).
\]
Diese Messrauchen wird meistens vom Sensorhersteller angegeben.
-Für unsere Theoretische Apparatur wird hier ein kleiner Fehler eingesetzt da heutige Sensoren sehr genau messen können.
+Für unsere theoretische Apparatur wird hier ein kleiner Fehler eingesetzt da heutige Sensoren sehr genau messen können.
\subsection{Fiter-Agorithmus}
Nachdem alle Parameter aufgestellt sind, wird das Filter initialisiert.
-Zuerst wird der nächste Zustand der Feder vorhergesagt, danach wird die Messung präzisiert und laufend zu aktualisieren.
+Zuerst wird der nächste Zustand der Masse vorhergesagt, danach wird die Messung präzisiert und laufend aktualisiert.
Das Filter berechnet aufgrund der aktuellen Schätzung eine Vorhersage.
Diese wird, sobald verfügbar, mit der Messung verglichen.
Aus dieser Differenz und den Unsicherheiten des Prozesses ($Q$) und der Messung ($R$) wird der wahrscheinlichste, neue Zustand geschätzt.
@@ -182,14 +187,14 @@ Aus dieser Differenz und den Unsicherheiten des Prozesses ($Q$) und der Messung
Im Filterschritt Vorhersage wird der nächste Zustand anhand des Anfangszustand und der Systemmatrix berechnet.
Dies funktioniert mit dem Rechenschritt:
\[
-{x_{k|k-1}}=\Phi \cdot {x_{k-1|k-1}}= \exp(A\Delta t)\cdot{x_{k|k-1}}.
+{x_{k-1}}=\Phi \cdot {x_{k-1}}= \exp(A\Delta t)\cdot{x_{k-1}}.
\]
Die Kovarianz $P_{pred}$ wird ebenfalls neu berechnet. Da wir ein mehrdimensionales System haben, kommt noch die Prozessunsicherheit $Q$ dazu, so dass die Unsicherheit des Anfangsfehlers $P$ laufend verändert.
Dies funktioniert durch multiplizieren der Systemmatrix mit dem aktualisierten Anfangsfehler.
Dazu wird noch die Prozessunsicherheit addiert, somit entsteht die Gleichung
-\[ {P_{k|k-1}} = {\Phi_k} {P_{k-1|k-1}} {\Phi_k} ^T + {Q_{k-1}} .\]
-Es vergeht genau $dt$ Zeit, und dieser Vorgang wird wiederholt.
+\[ {P_{k-1}} = {\Phi_k} {P_{k-1}} {\Phi_k} ^T + {Q_{k-1}} .\]
+Es vergeht genau $t$ Zeit, und dieser Vorgang wird wiederholt.
Dabei wird in den späteren Schritten überprüft, wie genau die letzte Anpassung von $P$ zur Messung stimmt.
Ist der Unterschied klein, wird die Kovarianz $P$ kleiner, ist der Unterschied gross, wird auch die Kovarianz grösser.
Das Filter passt sich selber an und korrigiert sich bei grosser Abweichung.
@@ -199,10 +204,10 @@ Der Sensor wurde noch nicht benutz, doch genau der liefert Werte für das Filter
Die aktuellen Messwerte $z$ werden die Innovation $w$ mit dem Zustandsvektor $x$ und der Messmatrix $H$ zusammengerechnet.
Hier bei wird lediglich die Messung mit dem Fehler behaftet, und die Messmatrix $H$ mit der Vorhersage multipliziert
-\[{w_{k}}={z_{k}}-{H_{k}}\cdot{x_{k|k-1}}.\]
+\[{w_{k}}={z_{k}}-{H}\cdot{x_{k-1}}.\]
Die Innovation ist der Teil der Messung, die nicht durch die Systemdynamik erklärt werden kann.
-Die Hilfsgröße Innovation beschreibt, wie genau die Vorhersage den aktuellen Messwert mittels der Systemmatrix $\phi$ beschreiben kann.
+Die Hilfsgröße Innovation beschreibt, wie genau die Vorhersage den aktuellen Messwert mittels der Systemmatrix $\Phi$ beschreiben kann.
Für eine schlechte Vorhersage wird die dazugehörige Innovation gross, für eine genaue Vorhersage dagegen klein sein.
Entsprechende Korrekturen müssen dann gross bzw. nur gering ausfallen.
Innovation = Messung - Vorhersage. Dies ist intuitiv logisch, eine Innovation von 0 bedeutet, dass die Messung nichts Neues hervorbrachte.
@@ -210,34 +215,34 @@ Innovation = Messung - Vorhersage. Dies ist intuitiv logisch, eine Innovation vo
Im nächsten Schritt wir analysiert, mit welcher Kovarianz weiter gerechnet wird.
Hierbei wird die Unsicherheit $P$, die Messmatrix $H$ und die Messunsicherheit $R$ miteinander verrechnet.
\[
-{S_{k}}={H_{k}}{P_{k|k-1}}{H_{k}}^T+{R_{k}}
+{S_{k}}={H}{P_{k-1}}{H}^T+{R_{k}}
\]
\subsubsection*{Aktualisieren}
-Im nächsten Schritt kommt nun die Wahrscheinlichkeit nach Gauss dazu.
+Im nächsten Schritt kommt nun die Wahrscheinlichkeit dazu.
\[
-{K_{k}}= {{P_{k|k-1}} \cdot {H_{k}^T}}\cdot {S_{k}}^{-1}
+{K_{k}}= {{P_{k-1}} \cdot {H_{k}^T}}\cdot {S_{k}}^{-1}
\]
Dieser Vorgang wird Kalman-Gain genannt.
Er sagt aus, welcher Kurve mehr Vertraut werden soll, dem Messwert oder der Systemdynamik.
-Das Kalman-Gain wird geringer wen der Messwert dem vorhergesagten Systemzustand entspricht.
-Sind die Messwerte komplett anders als die Vorhersage, wo werden die Elemente in der Matrix $K$ grösser.
-Anhand der Informationen aus dem Kalman-Gain $K$ wird das System geupdated.
+Das Kalman-Gain wird geringer, wenn der Messwert dem vorhergesagten Systemzustand entspricht.
+Sind die Messwerte komplett anders als die Vorhersage, werden die Elemente in der Matrix $K$ grösser.
+Anhand der Informationen aus dem Kalman-Gain $K$ wird das System aktualisiert.
\[
-{x_{k|k}}={x_{k|k-1}}+({K_{k}}\cdot {w_{k}})
+{x_{k|k}}={x_{k-1}}+({K_{k}}\cdot {w_{k}})
\]
Dazu kommt eine neue Kovarianz für den nächste Vorhersageschritt:
\[
-{P_{k|k}}=(I-({K_{k}} \cdot {H_{k}})) \cdot {P_{k|k-1}}
+{P_{k}}=(I-({K_{k}} \cdot {H})) \cdot {P_{k-1}}
\]
-Der ganze Ablauf wird nun zum Algorithmus und beginnt wieder mit der Vorhersage
+Der ganze Algorithmus und beginnt wieder mit der Vorhersage
\[
-{x_{k|k-1}}=\Phi \cdot {x_{k-1|k-1}}= \exp(A\Delta t)\cdot{x_{k|k-1}}.
+{x_{k-1}}=\Phi \cdot {x_{k-1}}= \exp(A\Delta t)\cdot{x_{k-1}}.
\]
@@ -246,20 +251,25 @@ Zusammenfassend kann das Kalman-Filter in offizieller Typus dargestellt werden.
Dabei beginnt das Filter mit dem Anfangszustand für $k=0$
1. Nächster Zustand vorhersagen
-\[{x_{k|k-1}}=\Phi \cdot {x_{k-1|k-1}}= \exp(A\Delta t)\cdot{x_{k|k-1}}.\]
+\[{x_{k-1}}={\Phi} \cdot {x_{k-1}}= \exp(A\Delta t)\cdot{x_{k-1}}.\]
2. Nächste Fehlerkovarianz vorhersagen
-\[{P_{k|k-1}}={\Phi _{k}} {P_{k-1|k-1}} {\Phi _{k}}^T + {Q_{k-1}}.\]
+\[{P_{k-1}}={\Phi} {P_{k-1}} {\Phi _{k}}^T + {Q_{k-1}}.\]
-3. Das Kalman Filter anwenden
-\[{K_{k}}= {P_{k|k-1}} \cdot {H_{k}^T}\cdot {S_{k}^{-1}}\]
+3. Zustand wird gemessen
+\[{w_{k}}={z_{k}}-{H}\cdot{x_{k-1}}.\]
-4. Schätzung aktualisieren
-\[{x_{k|k}}={x_{k|k-1}}+({K_{k}}\cdot {w_{k}}) \]
+4. Innovation (= Messung - Vorhersage)
+\[ {S_{k}}={H}{P_{k-1}}{H}^T+{R_{k}}\]
-5. Fehlerkovarianz aktualisieren
-\[{P_{k|k}}=(I-({K_{k}}\cdot {H_{k}})) \cdot {P_{k|k-1}} \]
+5. Das Kalman Filter anwenden
+\[{K_{k}}= {P_{k-1}} \cdot {H^T}\cdot {S_{k}^{-1}}\]
+6. Schätzung aktualisieren
+\[{x_{k}}={x_{k-1}}+({K_{k}}\cdot {w_{k}}) \]
-6. Die Outputs von $k$ werden die Inputs für ${k-1}$ und werden wieder im Schritt 1 verwendet
+7. Fehlerkovarianz aktualisieren
+\[{P_{k}}=(I-({K_{k}}\cdot {H})) \cdot {P_{k-1}} \]
+
+8. Die Outputs von $k$ werden die Inputs für ${k-1}$ und werden wieder im Schritt 1 verwendet
diff --git a/buch/papers/munkres/figures/Netzwerkdarstellung.png b/buch/papers/munkres/figures/Netzwerkdarstellung.png
new file mode 100644
index 0000000..6c20bf4
--- /dev/null
+++ b/buch/papers/munkres/figures/Netzwerkdarstellung.png
Binary files differ
diff --git a/buch/papers/munkres/figures/beispiel_munkres.png b/buch/papers/munkres/figures/beispiel_munkres.png
new file mode 100644
index 0000000..2303708
--- /dev/null
+++ b/buch/papers/munkres/figures/beispiel_munkres.png
Binary files differ
diff --git a/buch/papers/munkres/figures/bipartiter_graph.png b/buch/papers/munkres/figures/bipartiter_graph.png
new file mode 100644
index 0000000..87c164c
--- /dev/null
+++ b/buch/papers/munkres/figures/bipartiter_graph.png
Binary files differ
diff --git a/buch/papers/munkres/main.tex b/buch/papers/munkres/main.tex
index 4dd20fa..8915a3d 100644
--- a/buch/papers/munkres/main.tex
+++ b/buch/papers/munkres/main.tex
@@ -3,34 +3,18 @@
%
% (c) 2020 Hochschule Rapperswil
%
-\chapter{Thema\label{chapter:munkres}}
-\lhead{Thema}
+\chapter{Munkres-Algorithmus\label{chapter:munkres}}
+\lhead{Munkres-Algorithmus}
\begin{refsection}
-\chapterauthor{Hans Muster}
+\chapterauthor{Marc Kühne}
-Ein paar Hinweise für die korrekte Formatierung des Textes
-\begin{itemize}
-\item
-Absätze werden gebildet, indem man eine Leerzeile einfügt.
-Die Verwendung von \verb+\\+ ist nur in Tabellen und Arrays gestattet.
-\item
-Die explizite Platzierung von Bildern ist nicht erlaubt, entsprechende
-Optionen werden gelöscht.
-Verwenden Sie Labels und Verweise, um auf Bilder hinzuweisen.
-\item
-Beginnen Sie jeden Satz auf einer neuen Zeile.
-Damit ermöglichen Sie dem Versionsverwaltungssysteme, Änderungen
-in verschiedenen Sätzen von verschiedenen Autoren ohne Konflikt
-anzuwenden.
-\item
-Bilden Sie auch für Formeln kurze Zeilen, einerseits der besseren
-Übersicht wegen, aber auch um GIT die Arbeit zu erleichtern.
-\end{itemize}
\input{papers/munkres/teil0.tex}
\input{papers/munkres/teil1.tex}
\input{papers/munkres/teil2.tex}
\input{papers/munkres/teil3.tex}
+\input{papers/munkres/teil4.tex}
+\input{papers/munkres/teil5.tex}
\printbibliography[heading=subbibliography]
\end{refsection}
diff --git a/buch/papers/munkres/teil0.tex b/buch/papers/munkres/teil0.tex
index de522c7..1ef0538 100644
--- a/buch/papers/munkres/teil0.tex
+++ b/buch/papers/munkres/teil0.tex
@@ -3,20 +3,19 @@
%
% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil
%
-\section{Teil 0\label{munkres:section:teil0}}
-\rhead{Teil 0}
-Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam
-nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam
-erat, sed diam voluptua \cite{munkres:bibtex}.
-At vero eos et accusam et justo duo dolores et ea rebum.
-Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum
-dolor sit amet.
+\section{Geschichte\label{munkres:section:teil0}}
+\rhead{Geschichte}
+Die Ungarische Methode wurde 1955 von Harold Kuhn entwickelt und veröffentlicht.
+Der Name ``Ungarische Methode'' ergab sich, weil der Algorithmus
+weitestgehend auf den früheren Arbeiten zweier ungarischer Mathematiker
+basierte: Dénes Kőnig und Jenő Egerváry.
+James Munkres überprüfte den Algorithmus im Jahr 1957 und stellte fest,
+dass der Algorithmus (stark) polynomiell ist.
+Seitdem ist der Algorithmus auch als Kuhn-Munkres oder
+Munkres-Zuordnungsalgorithmus bekannt.
+Die Zeitkomplexität des ursprünglichen Algorithmus war $O(n^4)$,
+später wurde zudem festgestellt, dass er modifiziert werden kann,
+um eine $O(n^3)$-Laufzeit zu erreichen.
-Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam
-nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam
-erat, sed diam voluptua.
-At vero eos et accusam et justo duo dolores et ea rebum. Stet clita
-kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit
-amet.
diff --git a/buch/papers/munkres/teil1.tex b/buch/papers/munkres/teil1.tex
index f4f5e39..7cbbbfd 100644
--- a/buch/papers/munkres/teil1.tex
+++ b/buch/papers/munkres/teil1.tex
@@ -3,53 +3,19 @@
%
% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil
%
-\section{Teil 1
+\section{Was ist die ungarische Methode?
\label{munkres:section:teil1}}
\rhead{Problemstellung}
-Sed ut perspiciatis unde omnis iste natus error sit voluptatem
-accusantium doloremque laudantium, totam rem aperiam, eaque ipsa
-quae ab illo inventore veritatis et quasi architecto beatae vitae
-dicta sunt explicabo.
-Nemo enim ipsam voluptatem quia voluptas sit aspernatur aut odit
-aut fugit, sed quia consequuntur magni dolores eos qui ratione
-voluptatem sequi nesciunt
-\begin{equation}
-\int_a^b x^2\, dx
-=
-\left[ \frac13 x^3 \right]_a^b
-=
-\frac{b^3-a^3}3.
-\label{munkres:equation1}
-\end{equation}
-Neque porro quisquam est, qui dolorem ipsum quia dolor sit amet,
-consectetur, adipisci velit, sed quia non numquam eius modi tempora
-incidunt ut labore et dolore magnam aliquam quaerat voluptatem.
-
-Ut enim ad minima veniam, quis nostrum exercitationem ullam corporis
-suscipit laboriosam, nisi ut aliquid ex ea commodi consequatur?
-Quis autem vel eum iure reprehenderit qui in ea voluptate velit
-esse quam nihil molestiae consequatur, vel illum qui dolorem eum
-fugiat quo voluptas nulla pariatur?
-
-\subsection{De finibus bonorum et malorum
-\label{munkres:subsection:finibus}}
-At vero eos et accusamus et iusto odio dignissimos ducimus qui
-blanditiis praesentium voluptatum deleniti atque corrupti quos
-dolores et quas molestias excepturi sint occaecati cupiditate non
-provident, similique sunt in culpa qui officia deserunt mollitia
-animi, id est laborum et dolorum fuga \eqref{000tempmlate:equation1}.
-
-Et harum quidem rerum facilis est et expedita distinctio
-\ref{munkres:section:loesung}.
-Nam libero tempore, cum soluta nobis est eligendi optio cumque nihil
-impedit quo minus id quod maxime placeat facere possimus, omnis
-voluptas assumenda est, omnis dolor repellendus
-\ref{munkres:section:folgerung}.
-Temporibus autem quibusdam et aut officiis debitis aut rerum
-necessitatibus saepe eveniet ut et voluptates repudiandae sint et
-molestiae non recusandae.
-Itaque earum rerum hic tenetur a sapiente delectus, ut aut reiciendis
-voluptatibus maiores alias consequatur aut perferendis doloribus
-asperiores repellat.
-
-
+Es ist ein kombinatorischer Optimierungsalgorithmus, der das Zuordnungsproblem
+in polynomieller Zeit löst.
+\begin{itemize}
+\item
+Polynom = vielgliedrig
+\end{itemize}
+Der Begriff polynomielle Laufzeit bedeutet, dass die Laufzeit des Programms
+wie $n^2$, $n^3$, $n^4$, etc.~wächst und vernünftig skaliert.
+Mit der ungarischen Methode können also lineare Optimierungsprobleme gelöst
+werden, die bei gewichteten Zuordnungen in bipartiten Graphen entstehen.
+Mit ihr kann die eindeutige Zuordnung von Objekten aus zwei Gruppen so
+optimiert werden, dass die Gesamtkosten minimiert werden bzw.~der
+Gesamtgewinn maximiert werden kann.
diff --git a/buch/papers/munkres/teil2.tex b/buch/papers/munkres/teil2.tex
index 23536b9..29db8d7 100644
--- a/buch/papers/munkres/teil2.tex
+++ b/buch/papers/munkres/teil2.tex
@@ -3,38 +3,86 @@
%
% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil
%
-\section{Teil 2
+\section{Das Zuordnungsproblem
\label{munkres:section:teil2}}
-\rhead{Teil 2}
-Sed ut perspiciatis unde omnis iste natus error sit voluptatem
-accusantium doloremque laudantium, totam rem aperiam, eaque ipsa
-quae ab illo inventore veritatis et quasi architecto beatae vitae
-dicta sunt explicabo. Nemo enim ipsam voluptatem quia voluptas sit
-aspernatur aut odit aut fugit, sed quia consequuntur magni dolores
-eos qui ratione voluptatem sequi nesciunt. Neque porro quisquam
-est, qui dolorem ipsum quia dolor sit amet, consectetur, adipisci
-velit, sed quia non numquam eius modi tempora incidunt ut labore
-et dolore magnam aliquam quaerat voluptatem. Ut enim ad minima
-veniam, quis nostrum exercitationem ullam corporis suscipit laboriosam,
-nisi ut aliquid ex ea commodi consequatur? Quis autem vel eum iure
-reprehenderit qui in ea voluptate velit esse quam nihil molestiae
-consequatur, vel illum qui dolorem eum fugiat quo voluptas nulla
-pariatur?
-
-\subsection{De finibus bonorum et malorum
+\rhead{Das Zuordnungsproblem}
+Das (lineare) Zuordnungsproblem ist ein diskretes Optimierungsproblem aus
+der Graphentheorie.
+Es handelt sich um einen Spezialfall eines maximalen Matchings
+minimalen Gewichtes in einem bipartiten, gewichteten Graphen
+
+Vereinfacht gesagt sind Zuordnungsprobleme spezielle Transportprobleme.
+Der Unterschied zu klassischen Transportproblemen liegen darin,
+dass hier nicht Mengen möglichst kostenminimal von einem zum anderen
+Ort transportiert werden sollen, sondern es geht um die kostenminimale
+Zuordnung von z.~B.~Personen, oder Bau-Materialien auf bestimmte
+Orte, Stellen oder Aufgaben.
+Dabei sind alle Angebots- und Bedarfsmenge gleich 1
+\begin{equation}
+a_{i}=b_{j}=1
+\end{equation}
+
+\subsection{Zuordnungsproblem in Netzwerkdarstellung
+\label{munkres:subsection:bonorum}}
+
+\begin{figure}
+\centering
+\includegraphics[width=5cm]{papers/munkres/figures/Netzwerkdarstellung}
+\caption{Typische Netzwerkdarstellung eines Zuordnungsproblems.}
+\label{munkres:Vr2}
+\end{figure}
+
+\subsection{Matrix Formulierung
+\label{munkres:subsection:bonorum}}
+In der Matrixformulierung ist eine nicht-negative $n\times n$-Matrix
+gegeben, wobei das Element in der $i$-ten Zeile und $j$-ten Spalte
+die Kosten für die Zuweisung des $j$-ten Jobs an den $i$-ten Arbeiter
+darstellt.
+Wir müssen eine Zuordnung der Jobs zu den Arbeitern finden, so dass
+jeder Job einem Arbeiter zugewiesen wird und jeder Arbeiter einen
+Job zugewiesen bekommt, so dass die Gesamtkosten der Zuordnung
+minimal sind.
+Dies kann als Permutation der Zeilen und Spalten einer Kostenmatrix
+$C$ ausgedrückt werden, um die Spur einer Matrix zu minimieren:
+\begin{equation}
+\min(L,R)Tr (LCR)
+\end{equation}
+wobei $L$ und $R$ Permutationsmatrizen sind.
+Wenn das Ziel ist, die Zuordnung zu finden, die die maximalen Kosten
+ergibt, kann das Problem durch Negieren der Kostenmatrix $C$ gelöst
+werden.
+
+\subsection{Suche der optimalen Lösung
+\label{munkres:subsection:bonorum}}
+Ist eine maximale Zuordnung (maximales Matching) gefunden, so steht
+in jeder Zeile und jeder Spalte der Matrix genau ein Element, das
+zur optimalen Lösung gehört, eine solche Gruppe von Positionen wird
+auch als Transversale der Matrix bezeichnet.
+Deshalb kann die Problemstellung auch anders formuliert werden: Man
+ordne die Zeilen- oder die Spaltenvektoren so um, dass die Summe
+der Elemente in der Hauptdiagonale maximal wird.
+Hieraus wird sofort ersichtlich, dass es in einer
+$n\times n$-Matrix genau so viele Möglichkeiten gibt, die Zeilen-
+bzw.~Spaltenvektoren zu ordnen, wie es Permutationen von $n$ Elementen
+gibt, also $n!$.
+Außer bei kleinen Matrizen ist es nahezu aussichtslos, die optimale
+Lösung durch Berechnung aller Möglichkeiten zu finden.
+Schon bei einer $10\times 10$-Matrix gibt es nahezu 3,63 Millionen (3.628.800)
+zu berücksichtigender Permutationen.
+
+\subsection{Formulierung Bipartiter Graph
\label{munkres:subsection:bonorum}}
-At vero eos et accusamus et iusto odio dignissimos ducimus qui
-blanditiis praesentium voluptatum deleniti atque corrupti quos
-dolores et quas molestias excepturi sint occaecati cupiditate non
-provident, similique sunt in culpa qui officia deserunt mollitia
-animi, id est laborum et dolorum fuga. Et harum quidem rerum facilis
-est et expedita distinctio. Nam libero tempore, cum soluta nobis
-est eligendi optio cumque nihil impedit quo minus id quod maxime
-placeat facere possimus, omnis voluptas assumenda est, omnis dolor
-repellendus. Temporibus autem quibusdam et aut officiis debitis aut
-rerum necessitatibus saepe eveniet ut et voluptates repudiandae
-sint et molestiae non recusandae. Itaque earum rerum hic tenetur a
-sapiente delectus, ut aut reiciendis voluptatibus maiores alias
-consequatur aut perferendis doloribus asperiores repellat.
+Der Algorithmus ist einfacher zu beschreiben, wenn wir das Problem
+anhand eines bipartiten Graphen formulieren.
+Wir haben einen vollständigen zweistufigen Graphen $G=(S,T;E)$ mit
+$n$ Arbeiter-Eckpunkten ($S$) und $n$ Job-Scheitelpunkte ($T$), und
+jede Kante hat einen nichtnegativen Preis $c(i,j)$.
+Wir wollen ein perfektes Matching mit minimalen Gesamtkosten finden.
+\begin{figure}
+\centering
+\includegraphics[width=5cm]{papers/munkres/figures/bipartiter_graph}
+\caption{$K_{3,3}$ vollständig bipartiter Graph mit 3 Knoten pro Teilmenge.}
+\label{munkres:Vr2}
+\end{figure}
diff --git a/buch/papers/munkres/teil3.tex b/buch/papers/munkres/teil3.tex
index b67ad74..806cd83 100644
--- a/buch/papers/munkres/teil3.tex
+++ b/buch/papers/munkres/teil3.tex
@@ -3,38 +3,102 @@
%
% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil
%
-\section{Teil 3
+\section{Der Algorithmus in Form von bipartiten Graphen
\label{munkres:section:teil3}}
-\rhead{Teil 3}
-Sed ut perspiciatis unde omnis iste natus error sit voluptatem
-accusantium doloremque laudantium, totam rem aperiam, eaque ipsa
-quae ab illo inventore veritatis et quasi architecto beatae vitae
-dicta sunt explicabo. Nemo enim ipsam voluptatem quia voluptas sit
-aspernatur aut odit aut fugit, sed quia consequuntur magni dolores
-eos qui ratione voluptatem sequi nesciunt. Neque porro quisquam
-est, qui dolorem ipsum quia dolor sit amet, consectetur, adipisci
-velit, sed quia non numquam eius modi tempora incidunt ut labore
-et dolore magnam aliquam quaerat voluptatem. Ut enim ad minima
-veniam, quis nostrum exercitationem ullam corporis suscipit laboriosam,
-nisi ut aliquid ex ea commodi consequatur? Quis autem vel eum iure
-reprehenderit qui in ea voluptate velit esse quam nihil molestiae
-consequatur, vel illum qui dolorem eum fugiat quo voluptas nulla
-pariatur?
+\rhead{Der Algorithmus in Form von bipartiten Graphen}
+Mit der ungarischen Methode können also lineare Optimierungsprobleme
+gelöst werden, die bei gewichteten Zuordnungen in bipartiten Graphen
+entstehen.
-\subsection{De finibus bonorum et malorum
+Mit ihr kann die eindeutige Zuordnung von Objekten aus zwei Gruppen
+so optimiert werden, dass die Gesamtkosten minimiert werden bzw.~der
+Gesamtgewinn maximiert werden kann.
+
+Ein bipartiter Graph ist ein mathematisches Modell für Beziehungen
+zwischen den Elementen zweier Mengen.
+Es eignet sich sehr gut zur Untersuchung von Zuordnungsproblemen»
+
+\subsection{Beweis, dass der Algorithmus Fortschritte macht
+\label{munkres:subsection:malorum}}
+Wir müssen zeigen, dass der Algorithmus, solange das Matching nicht
+die maximal mögliche Größe hat, immer in der Lage ist, Fortschritte
+zu machen --- das heißt, entweder die Anzahl der übereinstimmenden
+Kanten zu erhöhen oder mindestens eine Kante zu straffen.
+Es genügt zu zeigen, dass bei jedem Schritt mindestens eine der
+folgenden Bedingungen erfüllt ist:
+
+\begin{itemize}
+\item
+$M$ die maximal mögliche Größe.
+\item
+$Gy$ enthält einen Erweiterungspfad.
+\item
+$G$ enthält einen losen Pfad: einen Pfad von einem Knoten in $Rs$
+zu einem Knoten in $T$ / $Z$ die aus einer beliebigen Anzahl von
+festen Kanten, gefolgt von einer einzelnen losen Kante, besteht.
+Die freie Kante einer freien Bahn ist also $Z$ (beinhaltet $T$),
+so garantiert es, dass Delta gut definiert ist.
+\end{itemize}
+Wenn $M$ die maximal mögliche Größe hat, sind wir natürlich fertig.
+Andernfalls muss es nach Berges Lemma im zugrundeliegenden Graphen
+$G$ einen Augmentierungspfad $P$ in Bezug auf $M$ geben.
+Dieser Pfad darf jedoch nicht in $G_y$ existieren: Obwohl jede
+geradzahlige Kante in $P$ durch die Definition von $M$ fest ist,
+können ungeradzahlige Kanten lose sein und in $G_y$ fehlen.
+Ein Endpunkt von $P$ liegt in $R_{S}$, der andere in $R_T$; w.l.o.g.,
+nehmen Sie an, es beginnt in $R_{S}$.
+Wenn jede Kante von $P$ dicht ist, dann bleibt sie ein augmentierender
+Pfad in $G_y$ und wir sind fertig.
+Andernfalls sei $uv$ die erste lose Kante auf $P$.
+Wenn $v$ kein Element von $Z$ ist, dann haben wir einen losen Pfad
+gefunden und sind fertig.
+Andernfalls ist $v$ von irgendeinem anderen Pfad $Q$ aus festen
+Kanten von einem Knoten in $R_{S}$ erreichbar.
+Sei $P_{v}$ der Teilpfad von $P$, der bei $v$ beginnt und bis zum
+Ende reicht, und sei $P'$ der Pfad, der gebildet wird, indem man
+entlang $Q$ gebildet wird, bis ein Scheitelpunkt auf $P_{v}$ erreicht
+wird, und dann weiter bis zum Ende von $P_{v}$.
+Beachten Sie, dass $P'$ ein erweiternder Pfad in $G$ mit mindestens
+einer losen Kante weniger als $P$ ist.
+$P$ kann durch $P'$ ersetzt und dieser Argumentationsprozess iteriert
+werden (formal, unter Verwendung von Induktion auf die Anzahl der
+losen Kanten), bis entweder ein erweiternder Pfad in $G_y$ oder ein
+losender Pfad in $G$ gefunden wird.
+
+\subsection{Beweis, dass die Anpassung des Potentials $y$ $M$ unverändert lässt
\label{munkres:subsection:malorum}}
-At vero eos et accusamus et iusto odio dignissimos ducimus qui
-blanditiis praesentium voluptatum deleniti atque corrupti quos
-dolores et quas molestias excepturi sint occaecati cupiditate non
-provident, similique sunt in culpa qui officia deserunt mollitia
-animi, id est laborum et dolorum fuga. Et harum quidem rerum facilis
-est et expedita distinctio. Nam libero tempore, cum soluta nobis
-est eligendi optio cumque nihil impedit quo minus id quod maxime
-placeat facere possimus, omnis voluptas assumenda est, omnis dolor
-repellendus. Temporibus autem quibusdam et aut officiis debitis aut
-rerum necessitatibus saepe eveniet ut et voluptates repudiandae
-sint et molestiae non recusandae. Itaque earum rerum hic tenetur a
-sapiente delectus, ut aut reiciendis voluptatibus maiores alias
-consequatur aut perferendis doloribus asperiores repellat.
+Um zu zeigen, dass jede Kante in $M$ nach der Anpassung von $y$
+erhalten bleibt, genügt es zu zeigen, dass für eine beliebige Kante
+in $M$ entweder beide Endpunkte oder keiner von ihnen in $Z$ liegen.
+Zu diesem Zweck sei $vu$ eine Kante in $M$ von $T$ nach $S$.
+Es ist leicht zu sehen, dass wenn $v$ in $Z$ ist, dann muss auch
+$u$ in $Z$ sein, da jede Kante in $M$ dicht ist.
+Nehmen wir nun an, dass $u$ kein Element von $Z$ und auch $v$ kein
+Element von $Z$ ist.
+$u$ selbst kann nicht in $R_{S}$ sein, da es der Endpunkt einer
+angepassten Kante ist, also muss es einen gerichteten Pfad von engen
+Kanten von einem Knoten in $R_{S}$ zu $u$ geben.
+Dieser Pfad muss $v$ vermeiden, da es per Annahme nicht in $Z$ ist,
+also ist der Knoten, der $u$ in diesem Pfad unmittelbar vorausgeht,
+ein anderer Knoten $v$ (ein Element von $T$) und $v$ ein Element
+von $u$ ist eine enge Kante von $T$ nach $S$ und ist somit in $M$.
+Aber dann enthält $M$ zwei Kanten, die den Knoten $u$ teilen, was
+der Tatsache widerspricht, dass $M$ ein Matching ist.
+Jede Kante in $M$ hat also entweder beide Endpunkte oder keinen
+Endpunkt in $Z$.
+\subsection{Beweis, dass $y$ ein Potential bleibt
+\label{munkres:subsection:malorum}}
+Um zu zeigen, dass y nach der Anpassung ein Potenzial bleibt, genügt
+es zu zeigen, dass keine Kante ihr Gesamtpotenzial über ihre Kosten
+hinaus erhöht.
+Dies ist für Kanten in $M$ bereits durch den vorangegangenen Absatz
+bewiesen.
+Man betrachtet also eine beliebige Kante $uv$ von $S$ nach $T$.
+Wenn $y(u)$ erhöht wird um $\Delta$, dann wird entweder $v\in
+\mathbb{Z}_n$ in diesem Fall wird $y(v)$ verringert um $\Delta$,
+wobei das Gesamtpotenzial der Kante unverändert bleibt, oder $v\in
+T\setminus Z$, wobei die Definition von $\Delta$ garantiert, dass
+$y(u)+y(v)+\Delta \le c(u,v)$
+Also $y$ bleibt ein Potential.
diff --git a/buch/papers/munkres/teil4.tex b/buch/papers/munkres/teil4.tex
new file mode 100644
index 0000000..3d76743
--- /dev/null
+++ b/buch/papers/munkres/teil4.tex
@@ -0,0 +1,36 @@
+%
+% teil4.tex -- Beispiel-File für Teil 4
+%
+% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil
+%
+\section{Matrix-Interpretation
+\label{munkres:section:teil4}}
+\rhead{Matrix-Interpretation}
+Gegeben ist die quadratische Matrix $C=(c_{ij})$ der Grösse $n\times n$.
+Ohne Beschränkung der Allgemeinheit werden eine Zuordnung $j
+\rightarrow s_j$, $j = 1, \dots, n$ mit minimaler Gesamtsumme
+$\sum_{j=1}^{n}c_{s_j,j}$ gesucht, wobei die $s_j$ eine Permutation
+von $\{1,\ldots ,n\}$ sind.
+Soll die Summe maximiert werden, dann kann $C$ durch $-C$ ersetzt werden.
+Die Grundlage dieses Verfahrens ist, dass sich die optimale Zuordnung
+unter bestimmten Änderungen der Matrix nicht ändert, sondern nur
+der Optimalwert.
+Diese Änderungen sind durch Knotenpotentiale bzw.~duale Variablen
+\begin{equation}
+u_1 u_2,{\dots}, u_n
+\end{equation}
+
+für die Zeilen und
+
+\begin{equation}v_1,v_2,\dots,v_n \end{equation} fuer die Spalten angegeben.
+Die modifizierte Matrix hat dann die Komponenten $\tilde{c}_{i,j}
+= c_{ij} - u_j - v_j$.
+
+In der Summe über jede kantenmaximale Zuordnung kommt jedes
+Knotenpotential genau einmal vor, so dass die Änderung der Zielfunktion
+eine Konstante ist.
+Sind die Einträge von $C$ nichtnegativ, und sind alle Knotenpotentiale
+ebenfalls nichtnegativ, so nennt man die modifizierte Matrix \~{C}
+auch eine Reduktion.
+Ziel ist, in der reduzierten Matrix möglichst viele Komponenten auf
+den Wert Null zu bringen und unter diesen die Zuordnung zu konstruieren.
diff --git a/buch/papers/munkres/teil5.tex b/buch/papers/munkres/teil5.tex
new file mode 100644
index 0000000..f8138f4
--- /dev/null
+++ b/buch/papers/munkres/teil5.tex
@@ -0,0 +1,14 @@
+%
+% teil5.tex -- Beispiel-File für Teil 5
+%
+% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil
+%
+\section{Ungarische Methode anhand eines Beispiels
+\label{munkres:section:teil5}}
+\rhead{Ungarische Methode anhand eines Beispiels}
+\begin{figure}
+\centering
+\includegraphics[width=14cm]{papers/munkres/figures/beispiel_munkres}
+\caption{Händisches Beispiel des Munkres Algorithmus.}
+\label{munkres:Vr2}
+\end{figure}