From ee471f96dba6415c49e575a3a5d28874a1d2fe4b Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?Andreas=20M=C3=BCller?= Date: Tue, 19 Oct 2021 16:39:17 +0200 Subject: typos chapter 9 --- buch/chapters/80-wahrscheinlichkeit/chapter.tex | 5 +++-- buch/chapters/80-wahrscheinlichkeit/google.tex | 14 ++++++------ buch/chapters/80-wahrscheinlichkeit/markov.tex | 28 ++++++++++++------------ buch/chapters/80-wahrscheinlichkeit/parrondo.tex | 10 ++++----- buch/chapters/80-wahrscheinlichkeit/positiv.tex | 16 ++++++++------ 5 files changed, 38 insertions(+), 35 deletions(-) diff --git a/buch/chapters/80-wahrscheinlichkeit/chapter.tex b/buch/chapters/80-wahrscheinlichkeit/chapter.tex index 826e022..764e961 100644 --- a/buch/chapters/80-wahrscheinlichkeit/chapter.tex +++ b/buch/chapters/80-wahrscheinlichkeit/chapter.tex @@ -14,10 +14,11 @@ die Zeitentwicklung eines vom Zufall beeinflussten Systems, welches sich in mehreren verschiedenen Zuständen befinden kann, ebenfalls mit Hilfe von Matrizen modellieren lässt. Eine solche Beschreibung ermöglicht Verteilungen, -Erwartungswerte und stationäre Zustände zu ermitteln. +Erwartungswerte und stationäre Zustände mit Methoden der linearen +Algebra zu ermitteln. Im Abschnitt~\ref{buch:section:google-matrix} wird an Hand der Google -Matrix bezeigt, wie ein anschauliches Beispiel in natürlicher Weise +Matrix gezeigt, wie ein anschauliches Beispiel in natürlicher Weise auf eine Matrix führt. Abschnitt~\ref{buch:section:diskrete-markov-ketten} stellt dann die abstrakte mathematische Theorie der Markov-Ketten dar und behandelt einige wichtige diff --git a/buch/chapters/80-wahrscheinlichkeit/google.tex b/buch/chapters/80-wahrscheinlichkeit/google.tex index c8d6379..314bea9 100644 --- a/buch/chapters/80-wahrscheinlichkeit/google.tex +++ b/buch/chapters/80-wahrscheinlichkeit/google.tex @@ -6,10 +6,10 @@ \section{Google-Matrix \label{buch:section:google-matrix}} \rhead{Google-Matrix} -Das Internet besteht aus einer grossen Zahl von Websites, etwa 400~Millionen +Das Internet besteht aus einer grossen Zahl von Websites, etwa 1.7~Milliarden aktiven Websites, jede besteht aus vielen einzelnen Seiten. \index{Internet}% -Es ist daher angemessen von $N\approx 10^9$ verschiedenen Seiten auszugehen. +Es ist daher angemessen von $N\approx 10^{10}$ verschiedenen Seiten auszugehen. Eine natürliche Sprache umfasst dagegen nur einige 100000 bis Millionen von Wörtern. Ein durchschnittlicher Sprecher englischer Muttersprache verwendet nur etwa @@ -30,7 +30,7 @@ Traditionelle Information-Retrieval-Systeme operieren auf einem relativ kleinen Dokumentbestand und gehen davon aus, dass bereits wenige, spezifische Wörter nur in einem kleinen Teil des Dokumentbestandes vorkommen und damit eine übersichtliche Treffermenge ergeben. -Die Einengung der Treffermenge dank der Suche nach einzelnen Wörtern +Die Einengung der Treffermenge mit der Suche nach einzelnen Wörtern bedeutet aber auch, dass nach Synonymen oder alternative Formen eines Wortes separat gesucht werden muss, was die Übersichtlichkeit wieder zerstört. @@ -128,7 +128,7 @@ Falls es einen Link gibt, ist $P(S'_j\mid S_i)\ge 0$. A priori wissen wir nicht, wie wahrscheinlich es ist, dass der Besucher dem Link auf die Seite $j$ folgt, normalerweise werden nicht alle Links mit gleicher Wahrscheinlichkeit verwendet. -Darüber hben wir aber keine Detailinformation. +Darüber haben wir aber keine Detailinformation. Wir nehmen daher vereinfachend an, dass alle Links gleich wahrscheinlich sind. Enthält die Seite $i$ genau $n_i$ Links, dann ist die Wahrscheinlichkeit, @@ -526,7 +526,7 @@ erhält man die Wahrscheinlichkeitsverteilung $p$. \subsubsection{Potenzverfahren} Die üblichen Algorithmen wie der von den meisten Softwarepaketen -verwendete Francis-Algorithmus \cite{francis:watkins_paper,buch:watkins} +verwendete Francis-Algorith\-mus \cite{francis:watkins_paper,buch:watkins} \index{Francis-Algorithmus}% zur Bestimmung von Eigenwerten und Eigenvektoren ist für grosse Matrizen nicht praktikabel. @@ -555,10 +555,10 @@ a_2\lambda_2^k v_2 + \dots + -a_n\lambda_2^k v_n. +a_n\lambda_n^k v_n. \] Da $\lambda_1$ der betragsmässig grösste Eigenwert ist, wird der Vektor -$A^kv$ ungefähr mit der $k$-ten Potenz anwachsen. +$A^kv$ ungefähr mit der $k$-ten Potenz von $\lambda_1$ anwachsen. Indem man durch $\lambda_1^k$ teilt, erhält man \[ \frac{1}{\lambda_1^k} A^k v diff --git a/buch/chapters/80-wahrscheinlichkeit/markov.tex b/buch/chapters/80-wahrscheinlichkeit/markov.tex index 226c3d3..3a61a77 100644 --- a/buch/chapters/80-wahrscheinlichkeit/markov.tex +++ b/buch/chapters/80-wahrscheinlichkeit/markov.tex @@ -70,7 +70,7 @@ sollten also die Ereignisse $\{X_{t_0}=x_0\}$ bis $\{X_{t_{n-1}}=x_{n-1}\}$ keinen Einfluss haben. \begin{definition} -Ein stochastischer Prozess erfüllt die Markov-Eigenschaft, wenn +Ein stochastischer Prozess erfüllt die {\em Markov-Eigenschaft}, wenn für jede Folge von früheren Zeitpunkten $t_00$ ist. +Die Matrix $B$ ist nicht negativ aber man kann nachrechnen, dass $B^2>0$ ist. Damit ist die Perron-Frobenius-Theorie von Abschnitt~\ref{buch:section:positive-vektoren-und-matrizen} anwendbar. @@ -661,7 +661,7 @@ G=\begin{pmatrix} 0 &-\frac14-\varepsilon & \frac34-\varepsilon \\ \frac{1}{10}-\varepsilon & 0 &-\frac14-\varepsilon \\ -\frac{9}{10}-\varepsilon & \frac34-\varepsilon & 0 -\end{pmatrix} +\end{pmatrix}. \] Wie früher ist der erwartete Gewinn \begin{align*} diff --git a/buch/chapters/80-wahrscheinlichkeit/positiv.tex b/buch/chapters/80-wahrscheinlichkeit/positiv.tex index 4b86e00..056cfd6 100644 --- a/buch/chapters/80-wahrscheinlichkeit/positiv.tex +++ b/buch/chapters/80-wahrscheinlichkeit/positiv.tex @@ -160,8 +160,8 @@ besteht aus zwei $3\times 3$-Blöcken. Die beiden Unterräume $V_1=\langle e_1,e_2,e_3\rangle$ und $V_2=\langle e_4,e_5,e_6\rangle$ sind invariante Unterräume von $A$ und damit auch von $A^n$. -Die Potenzen haben daher auch die gleich Blockstruktur. -Insbesondere sind zwar die Blöcke von $A^n$ für $n>1$ positive +Die Potenzen haben daher auch die gleiche Blockstruktur. +Insbesondere sind zwar die diagonalen Blöcke von $A^n$ für $n>1$ positive Teilmatrizen, aber die Matrix $A^n$ ist für alle $n$ nicht positiv. \end{beispiel} @@ -236,7 +236,7 @@ Der Satz besagt also, dass es eine Komponente $v_i\ne 0$ gibt derart, dass $u_i = (1+\varepsilon)v_i$. Diese Komponenten limitiert also, wie stark man $v$ strecken kann, so dass er immer noch $\le u$ ist. -Natürlich folgt aus den der Voraussetzung $u>v$ auch, dass $u$ ein +Natürlich folgt aus der Voraussetzung $u>v$ auch, dass $u$ ein positiver Vektor ist (Abbildung~\ref{buch:wahrscheinlichkeit:figure:trenn}). \begin{figure} @@ -305,12 +305,14 @@ nicht negativen Vektoren positive Vektoren. \label{buch:subsection:verallgemeinerte-dreiecksungleichung}} Die Dreiecksungleichung besagt, dass für beliebige Vektoren $u,v\in\mathbb{R}^n$ gilt -\[ +\begin{equation} |u+v|\le |u|+|v| -\] +\label{buch:wahrscheinlichkeit:eqn:dreicksungleichung} +\end{equation} mit Gleichheit genau dann, wenn $u$ und $v$ linear abhängig sind. -Wenn beide von $0$ verschieden sind, dann gibt es eine positive Zahl -$t$ mit $u=tv$. +Wenn beide Vektoren von $0$ verschieden sind, dann gibt es bei Gleichheit +in~\eqref{buch:wahrscheinlichkeit:eqn:dreicksungleichung} +eine positive Zahl $t$ mit $u=tv$. Wir brauchen eine Verallgemeinerung für eine grössere Zahl von Summanden. -- cgit v1.2.1