diff options
Diffstat (limited to 'buch')
-rw-r--r-- | buch/chapters/80-wahrscheinlichkeit/chapter.tex | 5 | ||||
-rw-r--r-- | buch/chapters/80-wahrscheinlichkeit/google.tex | 14 | ||||
-rw-r--r-- | buch/chapters/80-wahrscheinlichkeit/markov.tex | 28 | ||||
-rw-r--r-- | buch/chapters/80-wahrscheinlichkeit/parrondo.tex | 10 | ||||
-rw-r--r-- | buch/chapters/80-wahrscheinlichkeit/positiv.tex | 16 |
5 files changed, 38 insertions, 35 deletions
diff --git a/buch/chapters/80-wahrscheinlichkeit/chapter.tex b/buch/chapters/80-wahrscheinlichkeit/chapter.tex index 826e022..764e961 100644 --- a/buch/chapters/80-wahrscheinlichkeit/chapter.tex +++ b/buch/chapters/80-wahrscheinlichkeit/chapter.tex @@ -14,10 +14,11 @@ die Zeitentwicklung eines vom Zufall beeinflussten Systems, welches sich in mehreren verschiedenen Zuständen befinden kann, ebenfalls mit Hilfe von Matrizen modellieren lässt. Eine solche Beschreibung ermöglicht Verteilungen, -Erwartungswerte und stationäre Zustände zu ermitteln. +Erwartungswerte und stationäre Zustände mit Methoden der linearen +Algebra zu ermitteln. Im Abschnitt~\ref{buch:section:google-matrix} wird an Hand der Google -Matrix bezeigt, wie ein anschauliches Beispiel in natürlicher Weise +Matrix gezeigt, wie ein anschauliches Beispiel in natürlicher Weise auf eine Matrix führt. Abschnitt~\ref{buch:section:diskrete-markov-ketten} stellt dann die abstrakte mathematische Theorie der Markov-Ketten dar und behandelt einige wichtige diff --git a/buch/chapters/80-wahrscheinlichkeit/google.tex b/buch/chapters/80-wahrscheinlichkeit/google.tex index c8d6379..314bea9 100644 --- a/buch/chapters/80-wahrscheinlichkeit/google.tex +++ b/buch/chapters/80-wahrscheinlichkeit/google.tex @@ -6,10 +6,10 @@ \section{Google-Matrix \label{buch:section:google-matrix}} \rhead{Google-Matrix} -Das Internet besteht aus einer grossen Zahl von Websites, etwa 400~Millionen +Das Internet besteht aus einer grossen Zahl von Websites, etwa 1.7~Milliarden aktiven Websites, jede besteht aus vielen einzelnen Seiten. \index{Internet}% -Es ist daher angemessen von $N\approx 10^9$ verschiedenen Seiten auszugehen. +Es ist daher angemessen von $N\approx 10^{10}$ verschiedenen Seiten auszugehen. Eine natürliche Sprache umfasst dagegen nur einige 100000 bis Millionen von Wörtern. Ein durchschnittlicher Sprecher englischer Muttersprache verwendet nur etwa @@ -30,7 +30,7 @@ Traditionelle Information-Retrieval-Systeme operieren auf einem relativ kleinen Dokumentbestand und gehen davon aus, dass bereits wenige, spezifische Wörter nur in einem kleinen Teil des Dokumentbestandes vorkommen und damit eine übersichtliche Treffermenge ergeben. -Die Einengung der Treffermenge dank der Suche nach einzelnen Wörtern +Die Einengung der Treffermenge mit der Suche nach einzelnen Wörtern bedeutet aber auch, dass nach Synonymen oder alternative Formen eines Wortes separat gesucht werden muss, was die Übersichtlichkeit wieder zerstört. @@ -128,7 +128,7 @@ Falls es einen Link gibt, ist $P(S'_j\mid S_i)\ge 0$. A priori wissen wir nicht, wie wahrscheinlich es ist, dass der Besucher dem Link auf die Seite $j$ folgt, normalerweise werden nicht alle Links mit gleicher Wahrscheinlichkeit verwendet. -Darüber hben wir aber keine Detailinformation. +Darüber haben wir aber keine Detailinformation. Wir nehmen daher vereinfachend an, dass alle Links gleich wahrscheinlich sind. Enthält die Seite $i$ genau $n_i$ Links, dann ist die Wahrscheinlichkeit, @@ -526,7 +526,7 @@ erhält man die Wahrscheinlichkeitsverteilung $p$. \subsubsection{Potenzverfahren} Die üblichen Algorithmen wie der von den meisten Softwarepaketen -verwendete Francis-Algorithmus \cite{francis:watkins_paper,buch:watkins} +verwendete Francis-Algorith\-mus \cite{francis:watkins_paper,buch:watkins} \index{Francis-Algorithmus}% zur Bestimmung von Eigenwerten und Eigenvektoren ist für grosse Matrizen nicht praktikabel. @@ -555,10 +555,10 @@ a_2\lambda_2^k v_2 + \dots + -a_n\lambda_2^k v_n. +a_n\lambda_n^k v_n. \] Da $\lambda_1$ der betragsmässig grösste Eigenwert ist, wird der Vektor -$A^kv$ ungefähr mit der $k$-ten Potenz anwachsen. +$A^kv$ ungefähr mit der $k$-ten Potenz von $\lambda_1$ anwachsen. Indem man durch $\lambda_1^k$ teilt, erhält man \[ \frac{1}{\lambda_1^k} A^k v diff --git a/buch/chapters/80-wahrscheinlichkeit/markov.tex b/buch/chapters/80-wahrscheinlichkeit/markov.tex index 226c3d3..3a61a77 100644 --- a/buch/chapters/80-wahrscheinlichkeit/markov.tex +++ b/buch/chapters/80-wahrscheinlichkeit/markov.tex @@ -70,7 +70,7 @@ sollten also die Ereignisse $\{X_{t_0}=x_0\}$ bis $\{X_{t_{n-1}}=x_{n-1}\}$ keinen Einfluss haben. \begin{definition} -Ein stochastischer Prozess erfüllt die Markov-Eigenschaft, wenn +Ein stochastischer Prozess erfüllt die {\em Markov-Eigenschaft}, wenn für jede Folge von früheren Zeitpunkten $t_0<t_1<\dots <t_n<t$ und Zuständen $x_0,\dots,x_n,x\in \mathcal{S}$ die Wahrscheinlichkeit~\eqref{buch:wahrscheinlichkeit:eqn:historybedingt} @@ -152,12 +152,12 @@ p_{x_1y}(t_1,s) \] wird. Jeder Summand auf der rechten Seite beschreibt einen Weg des Prozesses -derart, dass er zu den Zwischenzeitpunkten bestimmte -Zwischenzustände durchläuft. +derart, dass zu den Zwischenzeitpunkten bestimmte +Zwischenzustände durchlaufen werden. \begin{definition} Die Wahrscheinlichkeit, dass der stochastische Prozess zwischen Zeitpunkten -$t_0$ und $t_n$ die Zwischenzustände $x_i$ zu Zeiten $t_i$ durchläuft ist +$t_0$ und $t_n$ die Zwischenzustände $x_i$ zu Zeiten $t_i$ durchläuft, ist das Produkt \[ \sum_{x_1,\dots,x_n\in\mathcal{S}} @@ -221,7 +221,7 @@ T(n+1,n) \begin{pmatrix} p_{11}(n+1,n) & \dots & p_{1s}(n+1,n)\\ \vdots & \ddots & \vdots \\ -p_{11}(n+1,n) & \dots & p_{1s}(n+1,n) +p_{s1}(n+1,n) & \dots & p_{ss}(n+1,n) \end{pmatrix}, \] auch die $1$-Schritt-Übergangswahrscheinlichkeit genannt, kann man jetzt @@ -267,14 +267,14 @@ Eine Permutationsmatrix beschreibt einen stochastischen Prozess, dessen \end{beispiel} \subsubsection{Zustandswahrscheinlichkeiten} -Die Wahrscheinlichkeit, mit der sich der Prozess zum Zeitpunkt $n$ -im Zustand $i\in\mathcal{S}$ befindet, wird +Die Wahrscheinlichkeiten, mit der sich der Prozess zum Zeitpunkt $n$ +in den Zuständen $i\in\mathcal{S}$ befindet, werden \[ p_i(n) = P(X_i=n) \] -geschrieben, die auch in einem Vektor $p(n)$ mit den Komponten +geschrieben, die auch in einem Vektor $p(n)$ mit den Komponenten $p_i(n)$ zusammengefasst werden können. Die Matrix der Übergangswahrscheinlichkeiten erlaubt, die Verteilung $p(n+1)$ aus der Verteilung $p(n)$ zu berechnen. @@ -331,7 +331,7 @@ ist singulär. Dass $T-I$ singulär ist, garantiert aber noch nicht, dass alle Einträge in einem Eigenvektor zum Eigenwert $1$ auch tatsächlich nichtnegativ gewählt werden können. -Die Perron-Frobienus-Theorie von +Die Perron-Frobenius-Theorie von \index{Perron-Frobenius-Theorie}% Abschnitt~\ref{buch:section:positive-vektoren-und-matrizen} beweist, dass genau dies immer möglich ist. @@ -384,7 +384,7 @@ Anzahl der Zyklen der Permutation $\sigma$. \end{beispiel} \subsubsection{Irreduzible Markov-Ketten} -Die Zyklen-Zerlegung einer Permutation bilden voneinander isolierte +Die Zyklen-Zerlegung einer Permutation bildet voneinander isolierte Mengen von Zuständen, es gibt keine Möglichkeit eines Übergangs zu einem anderen Zyklus. Die Zyklen können daher unabhängig voneinander studiert werden. @@ -682,7 +682,7 @@ Dies ist der Spezialfall der Frage~\ref{buch:wahrscheinlichkeit:frage1} für die Verteilung $p_j(n-1) = \delta_{i\!j}$. Der Erwartungswert ist die Summe der Spalte $j$ der Matrix $G\odot T$. Man kann das Produkt $U^t(G\odot T)$ also auch als eine Zeilenvektor -von Gewinnerwartungen unter der Vorbedingung $X_{n-1}=j$ betrachten. +von Gewinnerwartungen unter der Vorbedingung $X_{n-1}=j$ betrachten: \[ \begin{pmatrix} E(Y\mid X_{n-1}=1) @@ -795,7 +795,7 @@ dass der Prozess ausgehend vom Zustand $j$ im Schritt $k$ im Zustand $i$ ankommt. Wegen der angenommenen Irreduzibilität wird man -früher oder später in einem absorbierenden Zustand landet, +früher oder später in einem absorbierenden Zustand landen, daher muss $\lim_{k\to\infty} Q^k=0$ sein. Die Summe in der rechten oberen Teilmatrix kann man als geometrische Reihe summieren, man erhält die Matrix @@ -926,7 +926,7 @@ I&RF\\ \end{array} \right). \] -Die Matrix $RF$ enthält enthält also in Zeile $i$ und Spalte $j$ +Die Matrix $RF$ enthält also in Zeile $i$ und Spalte $j$ die Wahrscheinlichkeit, dass der Prozess ausgehend vom Zustand $j$ irgendwann im Zustand $i$ absorbiert wird. @@ -939,7 +939,7 @@ den Zustand $l$ hat? Wir schreiben $l\overset{\smash{k}}{\twoheadrightarrow} i$ für das Ereignis, dass der Prozess im $k$-ten Schritt über den letzten Zustand $l$ in den Absorbtionszustand $i$ übergeht. -Ist uns der Zeitpunkt dies Übergangs egal, lassen wir das $k$ +Ist uns der Zeitpunkt des Übergangs egal, lassen wir das $k$ weg und schreiben nur $l\twoheadrightarrow i$. Damit $l\overset{\smash{k}}{\twoheadrightarrow} i$ eintritt, muss der Prozess im $(k-1)$-ten Schritt im diff --git a/buch/chapters/80-wahrscheinlichkeit/parrondo.tex b/buch/chapters/80-wahrscheinlichkeit/parrondo.tex index 5c96c09..f238d37 100644 --- a/buch/chapters/80-wahrscheinlichkeit/parrondo.tex +++ b/buch/chapters/80-wahrscheinlichkeit/parrondo.tex @@ -51,9 +51,9 @@ andernfalls ist sie $\frac34$. Formell ist \begin{equation} \begin{aligned} -P(Y=1\mid \text{$K$ durch $3$ teilbar}) &= \frac{1}{10} +P(Y=1\mid \text{$K$ durch $3$ teilbar}) &= \frac{1}{10}, \\ -P(Y=1\mid \text{$K$ nicht durch $3$ teilbar}) &= \frac{3}{4} +P(Y=1\mid \text{$K$ nicht durch $3$ teilbar}) &= \frac{3}{4}. \end{aligned} \label{buch:wahrscheinlichkeit:eqn:Bwahrscheinlichkeiten} \end{equation} @@ -247,7 +247,7 @@ für die verschiedenen Dreierreste des Kapitals in einem interierten Spiels ausrechnen. Das Spiel kennt die Dreierreste als die drei für das Spiel ausschlaggebenden -Zuständen. +Zustände. Das Zustandsdiagramm~\ref{buch:wahrscheinlichkeit:fig:spielB} zeigt die möglichen Übergänge und ihre Wahrscheinlichkeiten, die zugehörige Übergangsmatrix ist @@ -260,7 +260,7 @@ B \frac9{10} &\frac34 &0 \end{pmatrix}. \] -Die Matrix $B$ ist nicht negativ und man kann nachrechnen, dass $B^2>0$ ist. +Die Matrix $B$ ist nicht negativ aber man kann nachrechnen, dass $B^2>0$ ist. Damit ist die Perron-Frobenius-Theorie von Abschnitt~\ref{buch:section:positive-vektoren-und-matrizen} anwendbar. @@ -661,7 +661,7 @@ G=\begin{pmatrix} 0 &-\frac14-\varepsilon & \frac34-\varepsilon \\ \frac{1}{10}-\varepsilon & 0 &-\frac14-\varepsilon \\ -\frac{9}{10}-\varepsilon & \frac34-\varepsilon & 0 -\end{pmatrix} +\end{pmatrix}. \] Wie früher ist der erwartete Gewinn \begin{align*} diff --git a/buch/chapters/80-wahrscheinlichkeit/positiv.tex b/buch/chapters/80-wahrscheinlichkeit/positiv.tex index 4b86e00..056cfd6 100644 --- a/buch/chapters/80-wahrscheinlichkeit/positiv.tex +++ b/buch/chapters/80-wahrscheinlichkeit/positiv.tex @@ -160,8 +160,8 @@ besteht aus zwei $3\times 3$-Blöcken. Die beiden Unterräume $V_1=\langle e_1,e_2,e_3\rangle$ und $V_2=\langle e_4,e_5,e_6\rangle$ sind invariante Unterräume von $A$ und damit auch von $A^n$. -Die Potenzen haben daher auch die gleich Blockstruktur. -Insbesondere sind zwar die Blöcke von $A^n$ für $n>1$ positive +Die Potenzen haben daher auch die gleiche Blockstruktur. +Insbesondere sind zwar die diagonalen Blöcke von $A^n$ für $n>1$ positive Teilmatrizen, aber die Matrix $A^n$ ist für alle $n$ nicht positiv. \end{beispiel} @@ -236,7 +236,7 @@ Der Satz besagt also, dass es eine Komponente $v_i\ne 0$ gibt derart, dass $u_i = (1+\varepsilon)v_i$. Diese Komponenten limitiert also, wie stark man $v$ strecken kann, so dass er immer noch $\le u$ ist. -Natürlich folgt aus den der Voraussetzung $u>v$ auch, dass $u$ ein +Natürlich folgt aus der Voraussetzung $u>v$ auch, dass $u$ ein positiver Vektor ist (Abbildung~\ref{buch:wahrscheinlichkeit:figure:trenn}). \begin{figure} @@ -305,12 +305,14 @@ nicht negativen Vektoren positive Vektoren. \label{buch:subsection:verallgemeinerte-dreiecksungleichung}} Die Dreiecksungleichung besagt, dass für beliebige Vektoren $u,v\in\mathbb{R}^n$ gilt -\[ +\begin{equation} |u+v|\le |u|+|v| -\] +\label{buch:wahrscheinlichkeit:eqn:dreicksungleichung} +\end{equation} mit Gleichheit genau dann, wenn $u$ und $v$ linear abhängig sind. -Wenn beide von $0$ verschieden sind, dann gibt es eine positive Zahl -$t$ mit $u=tv$. +Wenn beide Vektoren von $0$ verschieden sind, dann gibt es bei Gleichheit +in~\eqref{buch:wahrscheinlichkeit:eqn:dreicksungleichung} +eine positive Zahl $t$ mit $u=tv$. Wir brauchen eine Verallgemeinerung für eine grössere Zahl von Summanden. |