% % markov.tex -- diskrete Markov-Ketten und Übergangsmatrizen % % (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil % \section{Diskrete Markov-Ketten und Wahrscheinlichkeitsmatrizen \label{buch:section:diskrete-markov-ketten}} \rhead{Diskrete Markov-Ketten} Die einführend im Abschnitt~\ref{buch:section:google-matrix} vorgestellte Google-Matrix ist nur ein Beispiel für ein Modell eines stochastischen Prozesses, der mit Hilfe von Matrizen modelliert werden kann. In diesem Abschnitt soll diese Art von Prozessen etwas formalisiert werden. % % Beschreibung der Markov-Eigenschaft % \subsection{Markov-Eigenschaft} Ein stochastischer Prozess ist eine Familie von Zufallsvariablen \index{stochastischer Prozess}% \index{Prozess, stochastisch}% \index{Zufallsvariable}% $X_t$ mit Werten in einer Menge $\mathcal{S}$ von Zuständen. Der Parameter $t$ wird üblicherweise als die Zeit interpretiert, er kann beliebige reelle oder diskrete Werte annehmen, im letzten Fall spricht man von einem Prozess mit diskreter Zeit. Das Ereignis $\{X_t=x\}$ wird gelesen als ``zur Zeit $t$ befindet sich der Prozess im Zustand $x$''. Mit $P(X_t = x)$ wir die Wahrscheinlichkeit bezeichnet, dass sich der Prozess zur Zeit $t$ im Zustand $x$ befindet. Die Funktion $t\mapsto X_t$ beschreibt also den zeitlichen Ablauf der vom Prozess durchlaufenen Zustände. Dies ermöglicht, Fragen nach dem Einfluss früherer Zustände, also des Eintretens eines Ereignisses $\{X_{t_0}=x\}$, auf das Eintreten eines Zustands $s\in\mathcal{S}$ zu einem späteren Zeitpunkt $t_1>t_0$ zu studieren. Das Ereignis $\{X_t = x\}$ kann man sich als abhängig von der Vorgeschichte vorstellen. \index{Vorgeschichte}% Die Vorgeschichte besteht dabei aus dem Eintreten gewisser Ereignisse \[ \{X_0=x_0\},\; \{X_1=x_1\},\; \{X_2=x_2\},\; \dots,\; \{X_n=x_n\} \] zu früheren Zeiten $t_0s$ bestimmen das zeitliche Verhalten der Wahrscheinlichkeiten vollständig. Wir schreiben daher auch \[ p_{xy}(t, s) = P(X_t = x\mid X_s=y) \] für die sogenannte {\em transiente Übergangswahrscheinlichkeit}. \index{transiente Übergangswahrscheinlichkeit}% Für eine endliche Menge von Zuständen, können die transienten Übergangswahrscheinlichkeiten auch als zeitabhängige quadratische Matrix $P(s,t)$ geschrieben werden, deren Einträge \[ (P(s,t))_{xy} = p_{xy}(t,s) \] mit den Zuständen $x,y\in\mathcal{S}$ indiziert sind. \subsubsection{Die Chapman-Kolmogorov-Gleichung} \index{Chapman-Kolmogorov-Gleichung}% Man beachte, dass in der Definition der Markov-Eigenschaft keine Voraussetzungen darüber gemacht werden, wie nahe am Zeitpunkt $t$ der letzte Zeitpunkt $t_n$ der Vorgeschichte liegt. Die transienten Übergangswahrscheinlichkeiten $p_{xy}(s,t)$ werden aber im allgemeinen davon abhängen, wie weit in der Vergangenheit der Zeitpunkt $s