aboutsummaryrefslogtreecommitdiffstats
diff options
context:
space:
mode:
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/chapter.tex5
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/google.tex14
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/markov.tex28
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/parrondo.tex10
-rw-r--r--buch/chapters/80-wahrscheinlichkeit/positiv.tex16
5 files changed, 38 insertions, 35 deletions
diff --git a/buch/chapters/80-wahrscheinlichkeit/chapter.tex b/buch/chapters/80-wahrscheinlichkeit/chapter.tex
index 826e022..764e961 100644
--- a/buch/chapters/80-wahrscheinlichkeit/chapter.tex
+++ b/buch/chapters/80-wahrscheinlichkeit/chapter.tex
@@ -14,10 +14,11 @@ die Zeitentwicklung eines vom Zufall beeinflussten Systems, welches sich
in mehreren verschiedenen Zuständen befinden kann, ebenfalls mit Hilfe
von Matrizen modellieren lässt.
Eine solche Beschreibung ermöglicht Verteilungen,
-Erwartungswerte und stationäre Zustände zu ermitteln.
+Erwartungswerte und stationäre Zustände mit Methoden der linearen
+Algebra zu ermitteln.
Im Abschnitt~\ref{buch:section:google-matrix} wird an Hand der Google
-Matrix bezeigt, wie ein anschauliches Beispiel in natürlicher Weise
+Matrix gezeigt, wie ein anschauliches Beispiel in natürlicher Weise
auf eine Matrix führt.
Abschnitt~\ref{buch:section:diskrete-markov-ketten} stellt dann die abstrakte
mathematische Theorie der Markov-Ketten dar und behandelt einige wichtige
diff --git a/buch/chapters/80-wahrscheinlichkeit/google.tex b/buch/chapters/80-wahrscheinlichkeit/google.tex
index c8d6379..314bea9 100644
--- a/buch/chapters/80-wahrscheinlichkeit/google.tex
+++ b/buch/chapters/80-wahrscheinlichkeit/google.tex
@@ -6,10 +6,10 @@
\section{Google-Matrix
\label{buch:section:google-matrix}}
\rhead{Google-Matrix}
-Das Internet besteht aus einer grossen Zahl von Websites, etwa 400~Millionen
+Das Internet besteht aus einer grossen Zahl von Websites, etwa 1.7~Milliarden
aktiven Websites, jede besteht aus vielen einzelnen Seiten.
\index{Internet}%
-Es ist daher angemessen von $N\approx 10^9$ verschiedenen Seiten auszugehen.
+Es ist daher angemessen von $N\approx 10^{10}$ verschiedenen Seiten auszugehen.
Eine natürliche Sprache umfasst dagegen nur einige 100000 bis Millionen
von Wörtern.
Ein durchschnittlicher Sprecher englischer Muttersprache verwendet nur etwa
@@ -30,7 +30,7 @@ Traditionelle Information-Retrieval-Systeme operieren auf einem relativ
kleinen Dokumentbestand und gehen davon aus, dass bereits wenige, spezifische
Wörter nur in einem kleinen Teil des Dokumentbestandes vorkommen und damit
eine übersichtliche Treffermenge ergeben.
-Die Einengung der Treffermenge dank der Suche nach einzelnen Wörtern
+Die Einengung der Treffermenge mit der Suche nach einzelnen Wörtern
bedeutet aber auch, dass nach Synonymen oder alternative Formen eines
Wortes separat gesucht werden muss, was die Übersichtlichkeit wieder
zerstört.
@@ -128,7 +128,7 @@ Falls es einen Link gibt, ist $P(S'_j\mid S_i)\ge 0$.
A priori wissen wir nicht, wie wahrscheinlich es ist, dass der Besucher
dem Link auf die Seite $j$ folgt, normalerweise werden nicht alle
Links mit gleicher Wahrscheinlichkeit verwendet.
-Darüber hben wir aber keine Detailinformation.
+Darüber haben wir aber keine Detailinformation.
Wir nehmen daher vereinfachend an, dass alle Links gleich wahrscheinlich
sind.
Enthält die Seite $i$ genau $n_i$ Links, dann ist die Wahrscheinlichkeit,
@@ -526,7 +526,7 @@ erhält man die Wahrscheinlichkeitsverteilung $p$.
\subsubsection{Potenzverfahren}
Die üblichen Algorithmen wie der von den meisten Softwarepaketen
-verwendete Francis-Algorithmus \cite{francis:watkins_paper,buch:watkins}
+verwendete Francis-Algorith\-mus \cite{francis:watkins_paper,buch:watkins}
\index{Francis-Algorithmus}%
zur Bestimmung von Eigenwerten
und Eigenvektoren ist für grosse Matrizen nicht praktikabel.
@@ -555,10 +555,10 @@ a_2\lambda_2^k v_2
+
\dots
+
-a_n\lambda_2^k v_n.
+a_n\lambda_n^k v_n.
\]
Da $\lambda_1$ der betragsmässig grösste Eigenwert ist, wird der Vektor
-$A^kv$ ungefähr mit der $k$-ten Potenz anwachsen.
+$A^kv$ ungefähr mit der $k$-ten Potenz von $\lambda_1$ anwachsen.
Indem man durch $\lambda_1^k$ teilt, erhält man
\[
\frac{1}{\lambda_1^k} A^k v
diff --git a/buch/chapters/80-wahrscheinlichkeit/markov.tex b/buch/chapters/80-wahrscheinlichkeit/markov.tex
index 226c3d3..3a61a77 100644
--- a/buch/chapters/80-wahrscheinlichkeit/markov.tex
+++ b/buch/chapters/80-wahrscheinlichkeit/markov.tex
@@ -70,7 +70,7 @@ sollten also die Ereignisse $\{X_{t_0}=x_0\}$ bis $\{X_{t_{n-1}}=x_{n-1}\}$
keinen Einfluss haben.
\begin{definition}
-Ein stochastischer Prozess erfüllt die Markov-Eigenschaft, wenn
+Ein stochastischer Prozess erfüllt die {\em Markov-Eigenschaft}, wenn
für jede Folge von früheren Zeitpunkten $t_0<t_1<\dots <t_n<t$ und Zuständen
$x_0,\dots,x_n,x\in \mathcal{S}$ die
Wahrscheinlichkeit~\eqref{buch:wahrscheinlichkeit:eqn:historybedingt}
@@ -152,12 +152,12 @@ p_{x_1y}(t_1,s)
\]
wird.
Jeder Summand auf der rechten Seite beschreibt einen Weg des Prozesses
-derart, dass er zu den Zwischenzeitpunkten bestimmte
-Zwischenzustände durchläuft.
+derart, dass zu den Zwischenzeitpunkten bestimmte
+Zwischenzustände durchlaufen werden.
\begin{definition}
Die Wahrscheinlichkeit, dass der stochastische Prozess zwischen Zeitpunkten
-$t_0$ und $t_n$ die Zwischenzustände $x_i$ zu Zeiten $t_i$ durchläuft ist
+$t_0$ und $t_n$ die Zwischenzustände $x_i$ zu Zeiten $t_i$ durchläuft, ist
das Produkt
\[
\sum_{x_1,\dots,x_n\in\mathcal{S}}
@@ -221,7 +221,7 @@ T(n+1,n)
\begin{pmatrix}
p_{11}(n+1,n) & \dots & p_{1s}(n+1,n)\\
\vdots & \ddots & \vdots \\
-p_{11}(n+1,n) & \dots & p_{1s}(n+1,n)
+p_{s1}(n+1,n) & \dots & p_{ss}(n+1,n)
\end{pmatrix},
\]
auch die $1$-Schritt-Übergangswahrscheinlichkeit genannt, kann man jetzt
@@ -267,14 +267,14 @@ Eine Permutationsmatrix beschreibt einen stochastischen Prozess, dessen
\end{beispiel}
\subsubsection{Zustandswahrscheinlichkeiten}
-Die Wahrscheinlichkeit, mit der sich der Prozess zum Zeitpunkt $n$
-im Zustand $i\in\mathcal{S}$ befindet, wird
+Die Wahrscheinlichkeiten, mit der sich der Prozess zum Zeitpunkt $n$
+in den Zuständen $i\in\mathcal{S}$ befindet, werden
\[
p_i(n)
=
P(X_i=n)
\]
-geschrieben, die auch in einem Vektor $p(n)$ mit den Komponten
+geschrieben, die auch in einem Vektor $p(n)$ mit den Komponenten
$p_i(n)$ zusammengefasst werden können.
Die Matrix der Übergangswahrscheinlichkeiten erlaubt, die Verteilung
$p(n+1)$ aus der Verteilung $p(n)$ zu berechnen.
@@ -331,7 +331,7 @@ ist singulär.
Dass $T-I$ singulär ist, garantiert aber noch nicht,
dass alle Einträge in einem Eigenvektor zum Eigenwert $1$
auch tatsächlich nichtnegativ gewählt werden können.
-Die Perron-Frobienus-Theorie von
+Die Perron-Frobenius-Theorie von
\index{Perron-Frobenius-Theorie}%
Abschnitt~\ref{buch:section:positive-vektoren-und-matrizen}
beweist, dass genau dies immer möglich ist.
@@ -384,7 +384,7 @@ Anzahl der Zyklen der Permutation $\sigma$.
\end{beispiel}
\subsubsection{Irreduzible Markov-Ketten}
-Die Zyklen-Zerlegung einer Permutation bilden voneinander isolierte
+Die Zyklen-Zerlegung einer Permutation bildet voneinander isolierte
Mengen von Zuständen, es gibt keine Möglichkeit eines Übergangs zu
einem anderen Zyklus.
Die Zyklen können daher unabhängig voneinander studiert werden.
@@ -682,7 +682,7 @@ Dies ist der Spezialfall der Frage~\ref{buch:wahrscheinlichkeit:frage1}
für die Verteilung $p_j(n-1) = \delta_{i\!j}$.
Der Erwartungswert ist die Summe der Spalte $j$ der Matrix $G\odot T$.
Man kann das Produkt $U^t(G\odot T)$ also auch als eine Zeilenvektor
-von Gewinnerwartungen unter der Vorbedingung $X_{n-1}=j$ betrachten.
+von Gewinnerwartungen unter der Vorbedingung $X_{n-1}=j$ betrachten:
\[
\begin{pmatrix}
E(Y\mid X_{n-1}=1)
@@ -795,7 +795,7 @@ dass der Prozess ausgehend vom Zustand $j$ im Schritt $k$ im
Zustand $i$ ankommt.
Wegen der angenommenen Irreduzibilität wird man
-früher oder später in einem absorbierenden Zustand landet,
+früher oder später in einem absorbierenden Zustand landen,
daher muss $\lim_{k\to\infty} Q^k=0$ sein.
Die Summe in der rechten oberen Teilmatrix kann man als geometrische
Reihe summieren, man erhält die Matrix
@@ -926,7 +926,7 @@ I&RF\\
\end{array}
\right).
\]
-Die Matrix $RF$ enthält enthält also in Zeile $i$ und Spalte $j$
+Die Matrix $RF$ enthält also in Zeile $i$ und Spalte $j$
die Wahrscheinlichkeit, dass der Prozess ausgehend vom Zustand $j$
irgendwann im Zustand $i$ absorbiert wird.
@@ -939,7 +939,7 @@ den Zustand $l$ hat?
Wir schreiben $l\overset{\smash{k}}{\twoheadrightarrow} i$ für das Ereignis, dass der Prozess
im $k$-ten Schritt über den letzten
Zustand $l$ in den Absorbtionszustand $i$ übergeht.
-Ist uns der Zeitpunkt dies Übergangs egal, lassen wir das $k$
+Ist uns der Zeitpunkt des Übergangs egal, lassen wir das $k$
weg und schreiben nur $l\twoheadrightarrow i$.
Damit $l\overset{\smash{k}}{\twoheadrightarrow} i$ eintritt, muss der Prozess im $(k-1)$-ten Schritt im
diff --git a/buch/chapters/80-wahrscheinlichkeit/parrondo.tex b/buch/chapters/80-wahrscheinlichkeit/parrondo.tex
index 5c96c09..f238d37 100644
--- a/buch/chapters/80-wahrscheinlichkeit/parrondo.tex
+++ b/buch/chapters/80-wahrscheinlichkeit/parrondo.tex
@@ -51,9 +51,9 @@ andernfalls ist sie $\frac34$.
Formell ist
\begin{equation}
\begin{aligned}
-P(Y=1\mid \text{$K$ durch $3$ teilbar}) &= \frac{1}{10}
+P(Y=1\mid \text{$K$ durch $3$ teilbar}) &= \frac{1}{10},
\\
-P(Y=1\mid \text{$K$ nicht durch $3$ teilbar}) &= \frac{3}{4}
+P(Y=1\mid \text{$K$ nicht durch $3$ teilbar}) &= \frac{3}{4}.
\end{aligned}
\label{buch:wahrscheinlichkeit:eqn:Bwahrscheinlichkeiten}
\end{equation}
@@ -247,7 +247,7 @@ für die verschiedenen Dreierreste des Kapitals in einem interierten
Spiels ausrechnen.
Das Spiel kennt die Dreierreste als die drei für das Spiel ausschlaggebenden
-Zuständen.
+Zustände.
Das Zustandsdiagramm~\ref{buch:wahrscheinlichkeit:fig:spielB} zeigt
die möglichen Übergänge und ihre Wahrscheinlichkeiten, die zugehörige
Übergangsmatrix ist
@@ -260,7 +260,7 @@ B
\frac9{10} &\frac34 &0
\end{pmatrix}.
\]
-Die Matrix $B$ ist nicht negativ und man kann nachrechnen, dass $B^2>0$ ist.
+Die Matrix $B$ ist nicht negativ aber man kann nachrechnen, dass $B^2>0$ ist.
Damit ist die Perron-Frobenius-Theorie von
Abschnitt~\ref{buch:section:positive-vektoren-und-matrizen}
anwendbar.
@@ -661,7 +661,7 @@ G=\begin{pmatrix}
0 &-\frac14-\varepsilon & \frac34-\varepsilon \\
\frac{1}{10}-\varepsilon & 0 &-\frac14-\varepsilon \\
-\frac{9}{10}-\varepsilon & \frac34-\varepsilon & 0
-\end{pmatrix}
+\end{pmatrix}.
\]
Wie früher ist der erwartete Gewinn
\begin{align*}
diff --git a/buch/chapters/80-wahrscheinlichkeit/positiv.tex b/buch/chapters/80-wahrscheinlichkeit/positiv.tex
index 4b86e00..056cfd6 100644
--- a/buch/chapters/80-wahrscheinlichkeit/positiv.tex
+++ b/buch/chapters/80-wahrscheinlichkeit/positiv.tex
@@ -160,8 +160,8 @@ besteht aus zwei $3\times 3$-Blöcken.
Die beiden Unterräume $V_1=\langle e_1,e_2,e_3\rangle$
und $V_2=\langle e_4,e_5,e_6\rangle$ sind invariante
Unterräume von $A$ und damit auch von $A^n$.
-Die Potenzen haben daher auch die gleich Blockstruktur.
-Insbesondere sind zwar die Blöcke von $A^n$ für $n>1$ positive
+Die Potenzen haben daher auch die gleiche Blockstruktur.
+Insbesondere sind zwar die diagonalen Blöcke von $A^n$ für $n>1$ positive
Teilmatrizen, aber die Matrix $A^n$ ist für alle $n$ nicht positiv.
\end{beispiel}
@@ -236,7 +236,7 @@ Der Satz besagt also, dass es eine Komponente $v_i\ne 0$ gibt
derart, dass $u_i = (1+\varepsilon)v_i$.
Diese Komponenten limitiert also, wie stark man $v$ strecken kann,
so dass er immer noch $\le u$ ist.
-Natürlich folgt aus den der Voraussetzung $u>v$ auch, dass $u$ ein
+Natürlich folgt aus der Voraussetzung $u>v$ auch, dass $u$ ein
positiver Vektor ist (Abbildung~\ref{buch:wahrscheinlichkeit:figure:trenn}).
\begin{figure}
@@ -305,12 +305,14 @@ nicht negativen Vektoren positive Vektoren.
\label{buch:subsection:verallgemeinerte-dreiecksungleichung}}
Die Dreiecksungleichung besagt, dass für beliebige Vektoren
$u,v\in\mathbb{R}^n$ gilt
-\[
+\begin{equation}
|u+v|\le |u|+|v|
-\]
+\label{buch:wahrscheinlichkeit:eqn:dreicksungleichung}
+\end{equation}
mit Gleichheit genau dann, wenn $u$ und $v$ linear abhängig sind.
-Wenn beide von $0$ verschieden sind, dann gibt es eine positive Zahl
-$t$ mit $u=tv$.
+Wenn beide Vektoren von $0$ verschieden sind, dann gibt es bei Gleichheit
+in~\eqref{buch:wahrscheinlichkeit:eqn:dreicksungleichung}
+eine positive Zahl $t$ mit $u=tv$.
Wir brauchen eine Verallgemeinerung für eine grössere Zahl von
Summanden.