1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
|
%
% positiv.tex
%
% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
%
\section{Positive Vektoren und Matrizen
\label{buch:section:positive-vektoren-und-matrizen}}
\rhead{Positive Vektoren und Matrizen}
Die Google-Matrix und die Matrizen, die wir in Markov-Ketten angetroffen
\index{Google-Matrix}%
haben, zeichnen sich dadurch aus, dass alle ihre Einträge positiv oder
mindestens nicht negativ sind.
Die Perron-Frobenius-Theorie, die in diesem Abschnitt entwickelt
\index{Perron-Frobenius-Theorie}%
werden soll, zeigt, dass Positivität einer Matrix nützliche
Konsequenzen für Eigenwerte und Eigenvektoren hat.
Das wichtigste Resultat ist die Tatsache, dass positive Matrizen immer
einen einzigen einfachen Eigenwert mit Betrag $\varrho(A)$ haben,
was zum Beispiel die Konvergenz des PageRank-Algorithmus garantiert.
Dies wird im Satz~\ref{buch:wahrscheinlichkeit:satz:perron-frobenius}
von Perron-Frobenius in
Abschnitt~\ref{buch:subsection:der-satz-von-perron-frobenius}
erklärt.
%
% Elementare Definitionen und Eigenschaften
%
\subsection{Elementare Eigenschaften
\label{buch:subsection:elementare-eigenschaften}}
In diesem Abschnitt betrachten wir ausschliesslich reelle Vektoren
und Matrizen.
Die Komponenten sind somit immer miteinander vergleichbar, daraus
lässt sich auch eine Vergleichsrelation zwischen Vektoren
ableiten.
\begin{definition}
Ein Vektor $v\in\mathbb{R}^n$ heisst {\em positiv}, geschrieben
$v>0$, wenn alle seine Komponenten positiv sind: $v_i>0\,\forall i$.
Ein Vektor $v\in\mathbb{R}^n$ heisst {\em nichtnegativ}, in Formeln
$v\ge 0$, wenn alle
seine Komponenten nicht negativ sind: $v_i\ge 0\,\forall i$.
\index{positiver Vektor}%
\index{nichtnegativer Vektor}%
\end{definition}
Geometrisch kann man sich die Menge der positven Vektoren in zwei Dimensionen
als die Punkte des ersten Quadranten oder in drei Dimensionen als die
\index{Quadrant}%
\index{Oktant}%
Vektoren im ersten Oktanten vorstellen.
Aus der Positivität eines Vektors lässt sich jetzt eine Vergleichsrelation
für beliebige Vektoren ableiten.
Mit der folgenden Definition wird erreicht, das mit Ungleichungen für Vektoren
auf die gleiche Art und Weise gerechnet werden kann, wie man sich
dies von Ungleichungen zwischen Zahlen gewohnt ist.
\begin{definition}
Für zwei Vektoren $u,v\in\mathbb{R}^n$ ist genau dann $u>v$, wenn
$u-v > 0$ ist.
Ebenso ist $u\ge v$ genau dann, wenn $u-v\ge 0$.
\end{definition}
Ungleichungen zwischen Vektoren kann man daher auch so interpretieren,
dass sie für jede Komponente einzeln gelten müssen.
Die Definition funktionieren analog auch für Matrizen:
\begin{definition}
Eine Matrix $A\in M_{m\times n}(\mathbb{R})$ heisst {\em positiv},
wenn alle ihre Einträge $a_{i\!j}$ positiv sind: $a_{i\!j}>0\,\forall i,j$.
Eine Matrix $A\in M_{m\times n}(\mathbb{R})$ heisst {\em nichtnegativ},
wenn alle ihre Einträge $a_{i\!j}$ nichtnegativ sind: $a_{i\!j}\ge 0\,\forall i,j$.
\index{positive Matrix}%
\index{nichtnegative Matrix}%
Man schreibt $A>B$ bzw.~$A\ge B$ wenn $A-B>0$ bzw.~$A-B\ge 0$.
\end{definition}
Die Permutationsmatrizen sind Beispiele von nichtnegativen Matrizen,
deren Produkte wieder nichtnegativ sind.
Dies ist aber ein sehr spezieller Fall, wie das folgende Beispiel
zeigt.
\begin{beispiel}
Wir betrachten die Matrix
\begin{equation}
A=
\begin{pmatrix}
0.9&0.1& & & & \\
0.1&0.8&0.1& & & \\
&0.1&0.8&0.1& & \\
& &0.1&0.8&0.1& \\
& & &0.1&0.8&0.1\\
& & & &0.1&0.9
\end{pmatrix}
\label{buch:wahrscheinlichkeit:eqn:diffusion}
\end{equation}
Die Multiplikation eines Vektors mit dieser Matrix bewirkt, dass die
Komponenten des Vektors auf benachbarte Komponenten ``verschmiert'' werden.
Wendet man $A$ wiederholt auf den ersten Standardbasisvektor $v_1=e_1$ an,
erhält man nacheinander die Vektoren $v_2=Av_1$, $v_n = Av_{n-1}$.
\begin{figure}
\centering
\includegraphics{chapters/80-wahrscheinlichkeit/images/diffusion.pdf}
\caption{Die sechs Komponenten für $k=1$ bis $k=6$ der Vektoren $A^{n-1}e_1$
für die Matrix $A$ in \eqref{buch:wahrscheinlichkeit:eqn:diffusion}
sind als Säulen dargestellt.
Sie zeigen, dass für genügend grosses $n$, alle Komponenten
des Vektors $A^{n-1}e_1$ positiv werden.
\label{buch:wahrscheinlichkeit:fig:diffusion}}
\end{figure}
In Abbildung~\ref{buch:wahrscheinlichkeit:fig:diffusion} sind die Komponenten
als Säulen dargestellt.
Man kann erkennen, dass für genügend grosse $n$ alle Komponenten
der Vektoren positiv werden.
Man kann auch direkt die Potenzen $A^n$ ausrechen und sehen, dass
\[
A^5
=
\begin{pmatrix}
0.65658& 0.27690& 0.05925& 0.00685& 0.00041& 0.00001\\
0.27690& 0.43893& 0.22450& 0.05281& 0.00645& 0.00041\\
0.05925& 0.22450& 0.43249& 0.22410& 0.05281& 0.00685\\
0.00685& 0.05281& 0.22410& 0.43249& 0.22450& 0.05925\\
0.00041& 0.00645& 0.05281& 0.22450& 0.43893& 0.27690\\
0.00001& 0.00041& 0.00685& 0.05925& 0.27690& 0.65658
\end{pmatrix}
>0
\]
und dass daher für alle $n\ge 5$ die Matrix $A^n$ positiv ist.
\end{beispiel}
Die Eigenschaft der Matrix $A$ von
\eqref{buch:wahrscheinlichkeit:eqn:diffusion}, dass $A^n>0$
für genügend grosses $n$ ist, ist bei Permutationsmatrizen nicht
vorhanden.
Die Zyklen-Zerlegung einer Permutationsmatrix zeigt, welche
Unterräume von $\mathbb{R}^n$ die iterierten Bilder eines
Standardbasisvektors aufspannen.
Diese sind invariante Unterräume der Matrix.
Das im Beispiel illustrierte Phänomen findet nur in invarianten
Unterräumen statt.
\begin{beispiel}
Die Matrix
\begin{equation}
A=\left(\begin{array}{ccc|ccc}
0.9&0.1& & & & \\
0.1&0.8&0.1& & & \\
&0.1&0.9& & & \\
\hline
& & &0.9&0.1& \\
& & &0.1&0.8&0.1\\
& & & &0.1&0.9
\end{array}
\right)
\label{buch:wahrscheinlichkeit:eqn:diffusionbloecke}
\end{equation}
besteht aus zwei $3\times 3$-Blöcken.
Die beiden Unterräume $V_1=\langle e_1,e_2,e_3\rangle$
und $V_2=\langle e_4,e_5,e_6\rangle$ sind invariante
Unterräume von $A$ und damit auch von $A^n$.
Die Potenzen haben daher auch die gleiche Blockstruktur.
Insbesondere sind zwar die diagonalen Blöcke von $A^n$ für $n>1$ positive
Teilmatrizen, aber die Matrix $A^n$ ist für alle $n$ nicht positiv.
\end{beispiel}
\begin{definition}
\label{buch:positiv:def:primitiv}
Eine nichtnegative Matrix mit der Eigenschaft, dass $A^n>0$ für
ein genügend grosses $n$, heisst {\em primitiv}.
\index{primitive Matrix}%
\end{definition}
Die Matrix $A$ von \eqref{buch:wahrscheinlichkeit:eqn:diffusion}
ist also primitiv, Permutationsmatrizen sind niemals primitiv.
Die Matrix $A$ von \eqref{buch:wahrscheinlichkeit:eqn:diffusionbloecke}
ist nicht primitiv, aber die einzelnen Blöcke sind primitiv.
Viele der Ausssagen über positive Matrizen lassen sich auf primitive
nichtnegative Matrizen verallgemeinern.
Das Beispiel zeigt auch, dass der Begriff der primitiven Matrix
eng mit der Idee verknüpft ist, die Problemstellung in invariante
Unterräume aufzuteilen, in denen eine primitive Matrix vorliegt.
Primitive Matrizen werden damit zu naheliegenden Bausteinen für
die Problemlösung für nicht primitive Matrizen.
Eine interessante Eigenschaft positiver Vektoren oder Matrizen
ist, dass die Positivität sich manchmal ``upgraden'' lässt,
wie im folgenden Satz.
Er zeigt, dass ein Vektor, der grösser ist als ein anderer, auch
um einen definierten Faktor $>1$ grösser ist.
Dies wird geometrisch in
Abbildung~\ref{buch:wahrscheinlichkeit:figure:trenn} illustriert.
\begin{figure}
\centering
\includegraphics{chapters/80-wahrscheinlichkeit/images/trenn.pdf}
\caption{Die Vektoren $w\le u$ liegen im grauen Rechteck.
Zwei nichtnegative Vektoren $u$ und $v$ mit $u>v$
haben keine gleichen Komponenten.
Daher kann man $v$ mit einer Zahl $\vartheta=1+\varepsilon > 1$
strecken, so dass der gestreckte Vektor $(1+\varepsilon)v$ gerade noch
im grauen Rechteck liegt: $u\ge (1+\varepsilon)v$.
Streckung mit einem grösseren Faktor führt dagegen aus dem Rechteck
hinaus.
\label{buch:wahrscheinlichkeit:figure:trenn}}
\end{figure}
\begin{satz}[Trenntrick]
\label{buch:wahrscheinlichkeit:satz:trenntrick}
\index{Trenntrick}%
Sind $u$ und $v$ nichtnegative Vektoren und $u>v$, dann gibt es eine
positive Zahl $\varepsilon>0$ derart, dass
$u\ge (1+\varepsilon)v$.
Ausserdem kann $\varepsilon$ so gewählt werden, dass $u\not\ge(1+\mu)v$
für $\mu>\varepsilon$.
\end{satz}
\begin{proof}[Beweis]
Wir betrachten die Zahl
\[
\vartheta
=
\max_{v_i\ne 0} \frac{u_i}{v_i}.
\]
Wegen $u>v$ sind die Quotienten auf der rechten Seite alle $>1$.
Da nur endlich viele Quotienten miteinander verglichen werden, ist
daher auch $\vartheta >1$.
Es folgt $u\ge \vartheta v$.
Wegen $\vartheta >1$ ist $\varepsilon = \vartheta -1 >0$ und
$u\ge (1+\varepsilon)v$.
\end{proof}
Der Satz besagt also, dass es eine Komponente $v_i\ne 0$ gibt
derart, dass $u_i = (1+\varepsilon)v_i$.
Diese Komponenten limitiert also, wie stark man $v$ strecken kann,
so dass er immer noch $\le u$ ist.
Natürlich folgt aus der Voraussetzung $u>v$ auch, dass $u$ ein
positiver Vektor ist (Abbildung~\ref{buch:wahrscheinlichkeit:figure:trenn}).
\begin{figure}
\centering
\includegraphics{chapters/80-wahrscheinlichkeit/images/vergleich.pdf}
\caption{Eine positive Matrix $A$ bildet nichtnegative Vektoren in
positive Vektoren ab
(Korollar~\ref{buch:wahrscheinlichkeit:satz:Au>0korollar}).
Zwei verschiedene Vektoren auf einer Seitenfläche erfüllen $u\ge v$,
aber nicht $u>v$, da sie sich in der Koordinaten $x_2$ nicht unterscheiden.
Die Bilder unter $A$ unterscheiden sich dann auch in $x_2$, es gilt
$Au>Av$ (siehe auch Satz~\ref{buch:wahrscheinlichkeit:satz:vergleichstrick})
\label{buch:wahrscheinlichkeit:fig:vergleich}}
\end{figure}
\begin{satz}[Vergleichstrick]
\label{buch:wahrscheinlichkeit:satz:vergleichstrick}
\index{Vergleichstrick}%
Sei $A$ eine positive Matrix und seinen $u$ und $v$ Vektoren
mit $u\ge v$ und $u\ne v$, dann ist $Au > Av$
(siehe auch Abbildung~\ref{buch:wahrscheinlichkeit:fig:vergleich}).
\end{satz}
\begin{proof}[Beweis]
Wir schreiben $d=u-v$, nach Voraussetzung ist $d\ne 0$.
Der Satz besagt dann, dass aus $d\ge 0$ folgt, dass $Ad>0$.
Dies müssen wir beweisen.
Die Ungleichung $Ad>0$ besagt, dass alle Komponenten von $Ad$
positiv sind.
Um dies nachzuweisen, berechnen wir
\begin{equation}
(Ad)_i
=
\sum_{j=1}^n
a_{i\!j}
d_j.
\label{buch:wahrscheinlichkeit:eqn:Adpositiv}
\end{equation}
Alle Koeffizienten $a_{i\!j}$ sind $>0$, weil $A$ positiv ist.
Mindestens eine der Komponenten $d_j$ ist $>0$, weil $d\ne 0$.
Insbesondere sind alle Terme der Summe $\ge 0$, woraus wir
bereits schliessen können, dass $(Ad)_i\ge 0$ sein muss.
Die Komponente $d_j>0$ liefert einen positiven Beitrag
$a_{i\!j}d_j>0$
zur Summe~\eqref{buch:wahrscheinlichkeit:eqn:Adpositiv},
also ist $(Ad)_i>0$.
\end{proof}
Der folgende Spezialfall folgt unmittelbar aus dem
Satz~\ref{buch:wahrscheinlichkeit:satz:vergleichstrick}.
\begin{korollar}
\label{buch:wahrscheinlichkeit:satz:Au>0korollar}
Ist $A$ eine positive Matrix und $u\ge 0$ mit $u\ne 0$, dann
ist $Au>0$.
\end{korollar}
Eine positive Matrix macht also aus nicht verschwindenden,
nicht negativen Vektoren positive Vektoren.
%
% Die verallgemeinerte Dreiecksungleichung
%
\subsection{Die verallgemeinerte Dreiecksungleichung
\label{buch:subsection:verallgemeinerte-dreiecksungleichung}}
Die Dreiecksungleichung besagt, dass für beliebige Vektoren
$u,v\in\mathbb{R}^n$ gilt
\begin{equation}
|u+v|\le |u|+|v|
\label{buch:wahrscheinlichkeit:eqn:dreicksungleichung}
\end{equation}
mit Gleichheit genau dann, wenn $u$ und $v$ linear abhängig sind.
Wenn beide Vektoren von $0$ verschieden sind, dann gibt es bei Gleichheit
in~\eqref{buch:wahrscheinlichkeit:eqn:dreicksungleichung}
eine positive Zahl $t$ mit $u=tv$.
Wir brauchen eine Verallgemeinerung für eine grössere Zahl von
Summanden.
\begin{figure}
\centering
\includegraphics{chapters/80-wahrscheinlichkeit/images/dreieck.pdf}
\caption{Die verallgemeinerte Dreiecksungleichung von
Satz~\ref{buch:wahrscheinlichkeit:satz:verallgemeinerte-dreiecksungleichung}
besagt, dass
die Länge einer Summe von Vektoren (blau) höchstens so gross ist wie die
Summe der Längen, mit Gleichheit genau dann, wenn alle Vektoren die
gleiche Richtung haben (rot).
Hier dargestellt am Beispiel von Zahlen in der komplexen Zahlenebene.
In dieser Form wird die verallgemeinerte Dreiecksungleichung in
Satz~\ref{buch:wahrscheinlichkeit:satz:verallgdreieckC}
angewendet.
\label{buch:wahrscheinlichkeit:fig:dreieck}}
\end{figure}
\begin{satz}[Verallgemeinerte Dreiecksungleichung]
\label{buch:wahrscheinlichkeit:satz:verallgemeinerte-dreiecksungleichung}
Für $n$ Vektoren $v_i\ne 0$ gilt
\[
|u_1+\dots+u_n| \le |u_1|+\dots+|u_n|
\]
mit Gleichheit genau dann, wenn alle Vektoren nichtnegative Vielfache
eines gemeinsamen Einheitsvektors $c$ sind: $u_i=|u_i|c$
(siehe auch Abbildung~\ref{buch:wahrscheinlichkeit:fig:dreieck}).
\end{satz}
\begin{proof}[Beweis]
Die Aussage kann mit vollständiger Induktion bewiesen werden.
Die Induktionsverankerung ist der Fall $n=2$, gegeben durch die
gewöhnliche Dreiecksungleichung.
Wir nehmen daher jetzt an, die Aussage sei für $n$ bereits bewiesen,
wir müssen sie für $n+1$ beweisen.
Die Summe von $n+1$ Vektoren kann man in $u=u_1+\dots+u_n$ und $v=u_{n+1}$
aufteilen.
Es gilt nach der gewöhnlichen Dreiecksungleichung, dass
\[
|u+v|
=
|u_1+\dots+u_n+u_{n+1}|
\le
|u_1+\dots+u_n|+|u_{n+1}|
\]
mit Gleichheit genau dann, wenn $u_1+\dots+u_n$ und $u_{n+1}$
linear abhängig sind.
Nach Induktionsannahme gilt ausserdem
\[
|u_1+\dots+u_n| \le |u_1|+\dots+|u_n|
\]
mit Gleichheit genau dann, wenn die Vektoren $u_1,\dots,u_n$
positive Vielfache eines Einheitsvektors $u$ sind, $u_i=|u_i|c$.
Es ist dann
\[
u=u_1+\dots+u_n
=
\biggl(\sum_{i=1}^n |u_i|c\biggr)
=
\biggl(\sum_{i=1}^n |u_i|\biggr)c.
\]
Da $|u+v|=|u|+|v|$ genau dann gilt, wenn $u$ und $v$ linear abhängig sind,
folgt jetzt, dass $v$ ebenfalls ein nichtnegatives Vielfaches von $c$ ist.
Damit ist der Induktionsschritt vollzogen.
\end{proof}
\begin{satz}
\label{buch:wahrscheinlichkeit:satz:verallgdreieckC}
Seien $a_1,\dots,a_n$ positive Zahlen und $u_i\in\mathbb C$ derart,
dass
\[
\biggl|
\sum_{i=1}^n a_i u_i
\biggr|
=
\sum_{i=1}^n a_i |u_i|,
\]
dann gibt es eine komplexe Zahl $c$ und einen nichtnegativen Vektor $v$
derart, dass $u=cv$.
\end{satz}
Der Satz besagt, dass die komplexen Komponenten $u_i$ alle das gleiche
Argument haben.
Die motiviert den nachstehenden geometrischen Beweis des Satzes.
\begin{proof}[Beweis]
Wer stellen uns die komplexen Zahlen $u_i$ als Vektoren in der
zweidimensionalen Gauss\-schen Ebene vor.
Dann ist die Aussage nichts anderes als ein Spezialfall von
Satz~\ref{buch:wahrscheinlichkeit:satz:verallgemeinerte-dreiecksungleichung}
für den zweidimensionalen reellen Vektorraum $\mathbb{C}$.
\end{proof}
%
% Der Satz von Perron-Frobenius
%
\subsection{Der Satz von Perron-Frobenius
\label{buch:subsection:der-satz-von-perron-frobenius}}
Wir sind an den Eigenwerten und Eigenvektoren einer positiven
oder primitiven Matrix interessiert.
Nach Definition des Spektralradius $\varrho(A)$ muss es einen Eigenvektor
zu einem Eigenwert $\lambda$ mit Betrag $|\lambda|=\varrho(A)$ geben,
aber a priori wissen wir nicht, ob es einen reellen Eigenvektor zum
Eigenwert $\varrho(A)$ gibt.
\begin{figure}
\centering
\includegraphics{chapters/80-wahrscheinlichkeit/images/positiv.pdf}
\caption{Die Iteration einer positiven Matrix bildet den positiven Oktanten
in immer enger werdende Kegel ab, die die Richtung des gesuchten Eigenvektors
gemeinsam haben.
\label{buch:wahrscheinlichkeit:figure:positiv}}
\end{figure}
In Abbildung~\ref{buch:wahrscheinlichkeit:fig:vergleich} kann man sehen,
dass eine positive Abbildung den positiven Oktanten in einen etwas engeren
Kegel hinein abbildet.
Iteriert man dies (Abbildung~\ref{buch:wahrscheinlichkeit:figure:positiv}),
wird die Bildmenge immer enger, bis sie nur ein
sehr enger Kegel um die Richtung des Eigenvektors ist.
Tatsächlich kann man aus dieser Idee auch einen topologischen
Beweis des untenstehenden Satzes von Perron-Frobenius konstruieren
(\cite{skript:pftopo} und
\cite{skript:hilbertmetric}).
Er beruht darauf, dass eine Abbildung, die Distanzen verkleinert,
einen Fixpunkt hat.
Die Konstruktion einer geeigneten Metrik ist allerdings eher
kompliziert, weshalb wir im Beweise der nachstehenden Aussagen
den konventionellen Weg wählen.
Wir beginnen damit zu zeigen, dass für positive Matrizen $A$
nichtnegative Eigenvektoren zu Eigenwerten $\lambda\ne 0$
automatisch positiv sind.
Ausserdem müssen die zugehörigen Eigenwerte sogar positiv sein.
\begin{satz}
Sei $A$ eine positive Matrix und $u$ ein nichtnegativer Eigenvektor zum
Eigenwert $\lambda\ne 0$.
Dann ist $u$ ein positiver Vektor und $\lambda > 0$.
\end{satz}
\begin{proof}[Beweis]
Nach dem Korollar~\ref{buch:wahrscheinlichkeit:satz:Au>0korollar}
folgt, dass $Au>0$ ein positiver Vektor ist, es sind
also alle Komponenten positiv.
Der Vektor $u$ ist aber auch ein Eigenvektor, es gilt also
$\lambda u = Au$.
Da alle Komponenten von $Au$ positiv sind, müssen auch
alle Komponenten von $\lambda u$ positiv sein.
Das ist nur möglich, wenn $\lambda > 0$.
\end{proof}
Wenn $v$ ein Eigenvektor von $A$ ist, dann ist auch jedes Vielfache
davon ein Eigenvektor, insbesondere können einzelne Komponenten
des Vektors $v$ auch negativ sein.
Der folgende Satz zeigt aber, dass der Vektor aus den Beträgen
der Komponenten von $v$ ebenfalls ein Eigenvektor zum
gleichen Eigenwert ist.
Insbesondere gibt es immer einen nichtnegativen Eigenvektor.
\begin{satz}
\label{buch:wahrscheinlichkeit:satz:positivereigenvektor}
Sei $A$ eine positive Matrix und $v$ ein Eigenvektor von $A$ zu einem
Eigenwert $\lambda$ mit Betrag $|\lambda|=\varrho(A)$,
dann ist der Vektor $u$ mit den Komponenten $u_i=|v_i|$ ein
positiver Eigenvektor zu Eigenwert $\varrho(A)$.
\end{satz}
\begin{proof}[Beweis]
Es gilt natürlich auch, dass
\[
(Au)_i
=
\sum_{j=1}^n a_{i\!j}u_j
=
\sum_{j=1}^n |a_{i\!j}v_j|
\ge
\biggl|
\sum_{j=1}^n a_{i\!j}v_j
\biggr|
=
|(Av)_i|
=
|\lambda v_i|
=
\varrho(A) |v_i|
=
\varrho(A) u_i,
\]
oder $Au \ge \varrho(A)u$.
Wir müssen zeigen, dass sogar $Au=\varrho(A)u$ gilt.
Wir nehmen daher an, dass $Au\ne \varrho(A)u$ ist, und führen dies zu
einem Widerspruch.
Da $\varrho(A)u$ ein nichtnegativer Vektor ist, können wir den Vergleichstrick
Satz~\ref{buch:wahrscheinlichkeit:satz:vergleichstrick}, auf die beiden
Vektoren $Au$ und $\varrho(A)u$ anwenden.
Wir schliessen $A^2u > \varrho(A)Au$.
Mit dem Trenntrick
Satz~\ref{buch:wahrscheinlichkeit:satz:trenntrick}
können wir jetzt eine Zahl $\vartheta>1$ finden derart, dass
\[
A^2 u \ge \vartheta \varrho(A) Au
\]
ist.
Durch wiederholte Anwendung von $A$ findet man
\begin{align}
A^3 u & \ge (\vartheta \varrho(A))^2 Au
\notag
\\
&\phantom{0}\vdots
\notag
\\
A^{k+1} u & \ge (\vartheta \varrho(A))^{k} Au
\label{buch:pf:eqn:ak+1}
\end{align}
Aus $|A^{k+1}u| \le \|A^k\|\,|Ak|$ und
\eqref{buch:pf:eqn:ak+1} kann man jetzt die Norm von $A^k$ abschätzen:
\[
\begin{aligned}
\| A^{k}\|\cdot |Au|
&\ge
| A^{k+1}u|
\ge
(\vartheta\varrho(A))^{k}\, |Au|
&&
\Rightarrow
&
\|A^k\| &\ge (\vartheta\varrho(A))^k
\\
&&&\Rightarrow&
\|A^k\|^{\frac{1}{k}} &\ge \vartheta\varrho(A)
\\
&&&\Rightarrow&
\lim_{k\to\infty}
\|A^k\|^{\frac{1}{k}} &\ge \vartheta\varrho(A)
\\
&&&&\|\phantom{00}&
\\
&&&%\Rightarrow&
&
\varrho(A)&\ge \vartheta\varrho(A).
\end{aligned}
\]
Wegen $\vartheta>1$ ist dies aber gar nicht möglich.
Dieser Widerspruch zeigt, dass $u=v$ sein muss, insbesondere ist
$v$ ein nichtnegativer Eigenvektor.
\end{proof}
Die Potenzmethode funktioniert nur, wenn kein anderer Eigenwert
den Betrag $\varrho(A)$ hat.
Der folgende Satz garantiert dies.
\begin{satz}
Sei $A$ eine positive Matrix und $v$ ein Eigenvektor zu einem
Eigenwert $\lambda$ mit Betrag $|\lambda|=\varrho(A)$.
Dann ist $\lambda=\varrho(A)$.
\end{satz}
\begin{proof}[Beweis]
Nach Satz~\ref{buch:wahrscheinlichkeit:satz:positivereigenvektor}
ist der Vektor $u$ mit den Komponenten $u_i=|v_i|$ ein positiver
Eigenvektor zum Eigenwert $\varrho(A)$.
Aus der Eigenvektorgleichung für $u$ folgt
\begin{equation}
Au = \varrho(A) u
\quad\Rightarrow\quad
\sum_{j=1}^n a_{i\!j}|v_j| = \varrho(A) |v_i|.
\label{buch:wahrscheinlichkeit:eqn:pev1}
\end{equation}
Anderseits ist $v$ ein Eigenvektor zum Eigenwert $\lambda$, also gilt
\[
\sum_{j=1}^n a_{i\!j}v_j = \lambda v_i.
\]
Der Betrag davon ist
\begin{equation}
\biggl|
\sum_{j=1}^n a_{i\!j}v_j
\biggr|
=
|\lambda v_i|
=
\varrho(A) |v_i|.
\label{buch:wahrscheinlichkeit:eqn:pev2}
\end{equation}
Die beiden Gleichungen
\eqref{buch:wahrscheinlichkeit:eqn:pev1}
und
\eqref{buch:wahrscheinlichkeit:eqn:pev2}
zusammen ergeben die Gleichung
\begin{equation}
\biggl|
\sum_{j=1}^n a_{i\!j}v_j
\biggr|
=
\sum_{j=1}^n a_{i\!j}|v_j|.
\label{buch:pf:eqn:gleich}
\end{equation}
Nach der verallgemeinerten Dreiecksungleichung
Satz~\ref{buch:subsection:verallgemeinerte-dreiecksungleichung}
folgt jetzt aus der Gleichheit in~\eqref{buch:pf:eqn:gleich},
dass es eine komplexe Zahl $c$ vom Betrag $1$ gibt derart,
dass $v_j = |v_j|c=u_jc$.
Insbesondere ist $v=cu$.
Damit kann man jetzt $\lambda$ berechnen, es ist
\[
\lambda v = Av = Acu = c Au = c\varrho(A) u = \varrho(A) v,
\]
woraus $\lambda=\varrho(A)$ folgt.
\end{proof}
In Anwendungen wollen wir schliessen, dass die Grenzverteilung
eindeutig ist, dazu ist notwendig, dass der Eigenraum des
Eigenwertes $\varrho(A)$ eindimensional ist.
\begin{satz}
\label{buch:wahrscheinlichkeit:satz:geometrischeinfach}
Der Eigenraum $E_{\varrho(A)}(A)$ einer positiven Matrix $A$
zum Eigenwert $\varrho(A)$ ist eindimensional.
\end{satz}
\begin{proof}[Beweis]
Sei $u$ der bereits gefundene Eigenvektor von $A$ zum Eigenwert $\varrho(A)$
und sei $v$ ein weiterer, linear unabhängiger Eigenvektor zum
gleichen Eigenwert.
Da $A$ und $\varrho(A)$ reell sind, sind auch die Vektoren $\Re v$ und $\Im v$
aus den Realteilen $\Re v_i$ oder den Imaginärteilen $\Im v_i$ Eigenvektoren.
Beide Vektoren sind reelle Vektoren und mindestens einer davon ist mit
$u$ linear unabhängig.
Wir dürfen daher annehmen, dass $v$ ein linear unabhängiger Eigenvektor
zum Eigenwert $\varrho(A)$ ist.
Weil wir wissen, dass $u$ ein positiver Vektor ist, gibt es einen
grösstmöglichen Faktor $c>0$ derart, dass $u\ge cv$ oder $u\ge cv$.
Insbesondere verschwindet mindestens eine Komponente von $u-cv$.
Da $u$ und $v$ Eigenvektoren zum Eigenwert $\varrho(A)$ sind,
ist
\[
A(u-cv)
=
\varrho(A)(u-cv).
\]
Der Vektor auf der rechten Seite hat mindestens eine verschwindende
Komponente.
Der Vektor auf der linken Seite ist nach dem Vergleichstrick
Satz~\ref{buch:wahrscheinlichkeit:satz:vergleichstrick}
\[
A(u-cv) > 0,
\]
alle seine Komponenten sind $>0$.
Dieser Widerspruch zeigt, dass die Annahme, es gäbe einen von $u$ linear
unabhängigen Eigenvektor zum Eigenwert $\varrho(A)$ nicht haltbar ist.
\end{proof}
Satz~\ref{buch:wahrscheinlichkeit:satz:geometrischeinfach} garantiert,
dass der Eigenwert einfach ist.
Es ist aber immer noch möglich, dass die algebraische Vielfachheit
von $\varrho(A) >1$ ist, dass also $\dim\mathcal{E}_{\varrho(A)}(A)>1$
ist.
Dies ist jedoch nicht der Fall.
\begin{satz}
\label{buch:wahrscheinlichkeit:satz:algebraischeinfach}
Sei $A$ eine positive Matrix und $p^t$ ein positiver Eigenvektor
der Matrix $A^t$ zum Eigenwert $\varrho(A^t)=\varrho(A)$.
Ist $u$ der Eigenvektor von $A$ zum Eigenwert $\varrho(A)$ nach
Satz~\ref{buch:wahrscheinlichkeit:satz:geometrischeinfach},
dann ist
\[
\mathbb{R}^n
=
\langle u\rangle
\oplus
\{ x\in\mathbb{R}^n \mid px=0\}
=
\langle u\rangle
\oplus
\ker p
\]
eine Zerlegung in invariante Unterräume von $A$.
Insbesondere ist der verallgemeinerte Eigenraum $\mathcal{E}_{\varrho(A)}(A)$
von $A$ eindimensional.
\end{satz}
\begin{proof}[Beweis]
Die beiden Vektoren $x$ und $p$ sind beide positiv, daher ist das
Produkt $pu\ne 0$.
Insbesondere ist $u\not\in\ker p$
Es ist klar, dass $A\langle u\rangle = \langle Au\rangle = \langle u\rangle$
ein invarianter Unterraum ist.
Für einen Vektor $x\in\mathbb{R}^n$ mit $px=0$, also $x\in\ker p$,
erfüllt das Bild $Ax$ die Gleichung
\[
p(Ax)=(pA)x=(A^tp^t)^tx=
\varrho(A)(p^t)^tx
=
\varrho(A)px = 0,
\]
somit ist $A\ker p \subset \ker p$.
Beide Räume sind also invariante Unteräume.
$\ker p$ ist $(n-1)$-dimensional, $\langle u\rangle$ ist eindimensional
und $u$ ist nicht in $\ker p$ enthalten.
Folglich spannen $\langle u\rangle$ und $\ker p$ den ganzen Raum auf.
Gäbe es einen weiteren linear unabhängigen Vektor im verallgemeinerten
Eigenraum $\mathcal{E}_{\varrho(A)}(A)$, dann müsste es auch einen
solchen Vektor in $\ker p$ geben.
Da $\ker p$ invariant ist, müsste es also auch einen weiteren Eigenvektor
$u_2$ zum Eigenwert $\varrho(A)$ in $\ker p$ geben.
Die beiden Vektoren $u$ und $u_1$ sind dann beide Eigenvektoren, was
nach Satz~\ref{buch:wahrscheinlichkeit:satz:geometrischeinfach}
nicht möglich ist.
\end{proof}
Die in den Sätzen
\ref{buch:wahrscheinlichkeit:satz:positivereigenvektor}
bis
\ref{buch:wahrscheinlichkeit:satz:algebraischeinfach}
gefundenen Resultate können wir folgt zusammengefasst werden:
\begin{satz}[Perron-Frobenius]
\label{buch:wahrscheinlichkeit:satz:perron-frobenius}
Sei $A$ eine positive Matrix mit Spektralradius $\varrho(A)$.
Dann gibt es einen positiven Eigenvektor zum Eigenwert $\varrho(A)$,
mit geometrischer und algebraischer Vielfachheit $1$.
\end{satz}
\begin{beispiel}
In der Google-Matrix mit freiem Willen
nach
\eqref{buch:wahrscheinlichkeit:eqn:google-matrix}
enthält den Term $((1-\alpha)/N)UU^t$.
Die Matrix $UU^t$ ist eine Matrix aus lauter Einsen, der Term
ist also für $\alpha < 1$ eine positive Matrix.
Die Google-Matrix ist daher eine positive Matrix.
Nach dem Satz von Perron-Frobenius ist die Grenzverteilung
eindeutig bestimmt.
\end{beispiel}
Der Satz~\ref{buch:wahrscheinlichkeit:satz:perron-frobenius}
von Perron-Frobenius kann auf primitive Matrizen verallgemeinert
werden.
\begin{satz}
\label{buch:wahrscheinlichkeit:satz:perron-frobenius2}
Sei $A$ ein primitive, nichtnegative Matrix.
Dann ist $\varrho(A)$ der einzige Eigenwert vom Betrag $\varrho(A)$
und er hat geometrische und algebraische Vielfachheit $1$.
\end{satz}
\begin{proof}[Beweisansatz]
Nach Voraussetzung gibt es ein $n$ derart, dass $A^n>0$.
Für $A^n$ gelten die Resultate von
Satz~\ref{buch:wahrscheinlichkeit:satz:perron-frobenius}.
Man kann zeigen, dass die Eigenvektoren von $A^n$ auch
Eigenvektoren von $A$ sind.
\end{proof}
|