diff options
Diffstat (limited to '')
-rw-r--r-- | buch/chapters/40-eigenwerte/chapter.tex | 101 | ||||
-rw-r--r-- | buch/chapters/40-eigenwerte/images/Makefile | 88 | ||||
-rw-r--r-- | buch/chapters/40-eigenwerte/images/minmax.tex | 268 | ||||
-rw-r--r-- | buch/chapters/40-eigenwerte/normalformen.tex | 254 | ||||
-rw-r--r-- | buch/chapters/40-eigenwerte/spektraltheorie.tex | 1604 | ||||
-rw-r--r-- | buch/chapters/40-eigenwerte/uebungsaufgaben/4006.maxima | 121 | ||||
-rw-r--r-- | buch/chapters/40-eigenwerte/uebungsaufgaben/4006.tex | 97 |
7 files changed, 1501 insertions, 1032 deletions
diff --git a/buch/chapters/40-eigenwerte/chapter.tex b/buch/chapters/40-eigenwerte/chapter.tex index 34c2444..24ea57d 100644 --- a/buch/chapters/40-eigenwerte/chapter.tex +++ b/buch/chapters/40-eigenwerte/chapter.tex @@ -1,50 +1,51 @@ -%
-% chapter.tex -- Kapitel über Eigenwerte und Eigenvektoren
-%
-% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
-%
-\chapter{Eigenwerte und Eigenvektoren
-\label{buch:chapter:eigenwerte-und-eigenvektoren}}
-\lhead{Eigenwerte und Eigenvektoren}
-\rhead{}
-Die algebraischen Eigenschaften einer Matrix $A$ sind eng mit der
-Frage nach linearen Beziehungen unter den Potenzen von $A^k$ verbunden.
-Im Allgemeinen ist die Berechnung dieser Potenzen eher unübersichtlich,
-es sei denn, die Matrix hat eine spezielle Form.
-Die Potenzen einer Diagonalmatrix erhält man, indem man die Diagonalelemente
-potenziert.
-Auch für Dreiecksmatrizen ist mindestens die Berechnung der Diagonalelemente
-von $A^k$ einfach.
-Die Theorie der Eigenwerte und Eigenvektoren ermöglicht, Matrizen in
-eine solche besonders einfache Form zu bringen.
-
-In Abschnitt~\ref{buch:section:grundlagen} werden die grundlegenden
-Definitionen der Eigenwerttheorie in Erinnerung gerufen.
-Damit kann dann in Abschnitt~\ref{buch:section:normalformen}
-gezeigt werden, wie Matrizen in besonders einfache Form gebracht
-werden können.
-Die Eigenwerte bestimmen auch die Eigenschaften von numerischen
-Algorithmen, wie in den Abschnitten~\ref{buch:section:spektralradius}
-und \ref{buch:section:numerisch} dargestellt wird.
-Für viele Funktionen kann man auch den Wert $f(A)$ berechnen, unter
-geeigneten Voraussetzungen an den Spektralradius.
-Dies wird in Abschnitt~\ref{buch:section:spektraltheorie} beschrieben.
-
-
-\input{chapters/40-eigenwerte/grundlagen.tex}
-\input{chapters/40-eigenwerte/normalformen.tex}
-\input{chapters/40-eigenwerte/spektralradius.tex}
-\input{chapters/40-eigenwerte/spektraltheorie.tex}
-%\input{chapters/40-eigenwerte/numerisch.tex}
-
-\section*{Übungsaufgaben}
-\rhead{Übungsaufgaben}
-\aufgabetoplevel{chapters/40-eigenwerte/uebungsaufgaben}
-\begin{uebungsaufgaben}
-\uebungsaufgabe{4001}
-\uebungsaufgabe{4002}
-\uebungsaufgabe{4003}
-\uebungsaufgabe{4004}
-\uebungsaufgabe{4005}
-\end{uebungsaufgaben}
-
+% +% chapter.tex -- Kapitel über Eigenwerte und Eigenvektoren +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\chapter{Eigenwerte und Eigenvektoren +\label{buch:chapter:eigenwerte-und-eigenvektoren}} +\lhead{Eigenwerte und Eigenvektoren} +\rhead{} +Die algebraischen Eigenschaften einer Matrix $A$ sind eng mit der +Frage nach linearen Beziehungen unter den Potenzen von $A^k$ verbunden. +Im Allgemeinen ist die Berechnung dieser Potenzen eher unübersichtlich, +es sei denn, die Matrix hat eine spezielle Form. +Die Potenzen einer Diagonalmatrix erhält man, indem man die Diagonalelemente +potenziert. +Auch für Dreiecksmatrizen ist mindestens die Berechnung der Diagonalelemente +von $A^k$ einfach. +Die Theorie der Eigenwerte und Eigenvektoren ermöglicht, Matrizen in +eine solche besonders einfache Form zu bringen. + +In Abschnitt~\ref{buch:section:grundlagen} werden die grundlegenden +Definitionen der Eigenwerttheorie in Erinnerung gerufen. +Damit kann dann in Abschnitt~\ref{buch:section:normalformen} +gezeigt werden, wie Matrizen in besonders einfache Form gebracht +werden können. +Die Eigenwerte bestimmen auch die Eigenschaften von numerischen +Algorithmen, wie in den Abschnitten~\ref{buch:section:spektralradius} +und \ref{buch:section:numerisch} dargestellt wird. +Für viele Funktionen kann man auch den Wert $f(A)$ berechnen, unter +geeigneten Voraussetzungen an den Spektralradius. +Dies wird in Abschnitt~\ref{buch:section:spektraltheorie} beschrieben. + + +\input{chapters/40-eigenwerte/grundlagen.tex} +\input{chapters/40-eigenwerte/normalformen.tex} +\input{chapters/40-eigenwerte/spektralradius.tex} +\input{chapters/40-eigenwerte/spektraltheorie.tex} +%\input{chapters/40-eigenwerte/numerisch.tex} + +\section*{Übungsaufgaben} +\rhead{Übungsaufgaben} +\aufgabetoplevel{chapters/40-eigenwerte/uebungsaufgaben} +\begin{uebungsaufgaben} +\uebungsaufgabe{4001} +\uebungsaufgabe{4002} +\uebungsaufgabe{4003} +\uebungsaufgabe{4004} +\uebungsaufgabe{4005} +\uebungsaufgabe{4006} +\end{uebungsaufgaben} + diff --git a/buch/chapters/40-eigenwerte/images/Makefile b/buch/chapters/40-eigenwerte/images/Makefile index 4d882f0..54b36d5 100644 --- a/buch/chapters/40-eigenwerte/images/Makefile +++ b/buch/chapters/40-eigenwerte/images/Makefile @@ -1,44 +1,44 @@ -#
-# Makefile
-#
-# (c) 2020 Prof Dr Andreas Müller, Hochschule Rappersil
-#
-all: sp.pdf nilpotent.pdf kernbild.pdf kombiniert.pdf \
- wurzelapprox.pdf wurzel.pdf dimjk.pdf jknilp.pdf \
- normalform.pdf minmax.pdf
-
-sp.pdf: sp.tex sppaths.tex
- pdflatex sp.tex
-
-sppaths.tex: spbeispiel.m
- octave spbeispiel.m
-
-nilpotent.pdf: nilpotent.tex
- pdflatex nilpotent.tex
-
-kernbild.pdf: kernbild.tex bild2.jpg kern2.jpg
- pdflatex kernbild.tex
-
-kombiniert.pdf: kombiniert.tex kombiniert.jpg
- pdflatex kombiniert.tex
-
-wurzelapprox.pdf: wurzelapprox.tex wa.tex
- pdflatex wurzelapprox.tex
-
-wa.tex: wa.m
- octave wa.m
-
-wurzel.pdf: wurzel.tex
- pdflatex wurzel.tex
-
-dimjk.pdf: dimjk.tex
- pdflatex dimjk.tex
-
-jknilp.pdf: jknilp.tex
- pdflatex jknilp.tex
-
-normalform.pdf: normalform.tex
- pdflatex normalform.tex
-
-minmax.pdf: minmax.tex
- pdflatex minmax.tex
+# +# Makefile +# +# (c) 2020 Prof Dr Andreas Müller, Hochschule Rappersil +# +all: sp.pdf nilpotent.pdf kernbild.pdf kombiniert.pdf \ + wurzelapprox.pdf wurzel.pdf dimjk.pdf jknilp.pdf \ + normalform.pdf minmax.pdf + +sp.pdf: sp.tex sppaths.tex + pdflatex sp.tex + +sppaths.tex: spbeispiel.m + octave spbeispiel.m + +nilpotent.pdf: nilpotent.tex + pdflatex nilpotent.tex + +kernbild.pdf: kernbild.tex bild2.jpg kern2.jpg + pdflatex kernbild.tex + +kombiniert.pdf: kombiniert.tex kombiniert.jpg + pdflatex kombiniert.tex + +wurzelapprox.pdf: wurzelapprox.tex wa.tex + pdflatex wurzelapprox.tex + +wa.tex: wa.m + octave wa.m + +wurzel.pdf: wurzel.tex + pdflatex wurzel.tex + +dimjk.pdf: dimjk.tex + pdflatex dimjk.tex + +jknilp.pdf: jknilp.tex + pdflatex jknilp.tex + +normalform.pdf: normalform.tex + pdflatex normalform.tex + +minmax.pdf: minmax.tex + pdflatex minmax.tex diff --git a/buch/chapters/40-eigenwerte/images/minmax.tex b/buch/chapters/40-eigenwerte/images/minmax.tex index cf81834..f661d5b 100644 --- a/buch/chapters/40-eigenwerte/images/minmax.tex +++ b/buch/chapters/40-eigenwerte/images/minmax.tex @@ -1,134 +1,134 @@ -%
-% minmax.tex -- minimum und maximum
-%
-% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
-%
-\documentclass[tikz]{standalone}
-\usepackage{amsmath}
-\usepackage{times}
-\usepackage{txfonts}
-\usepackage{pgfplots}
-\usepackage{csvsimple}
-\usetikzlibrary{arrows,intersections,math}
-\begin{document}
-\def\skala{1}
-\begin{tikzpicture}[>=latex,thick,scale=\skala]
-
-\definecolor{darkgreen}{rgb}{0,0.5,0}
-
-\def\mittellinie{
- plot[domain=0:6.2832,samples=400]
- ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159))})
-}
-
-\begin{scope}
- \fill[color=darkgreen!20]
- plot[domain=0:6.2832,samples=360]
- ({\x},{sin(180*\x/3.1415)})
- --
- plot[domain=6.2832:0,samples=360]
- ({\x},{cos(180*\x/3.1415)})
- -- cycle;
- \foreach \x in {0.5,1,...,6}{
- \draw[color=darkgreen]
- ({\x},{sin(180*\x/3.1415)})
- --
- ({\x},{cos(180*\x/3.1415)});
- }
-
- \node[color=darkgreen] at (2,-0.8) [left] {$|f(x)-g(x)|$};
- \draw[color=darkgreen,line width=0.3pt] (2,-0.8) -- (2.5,-0.7);
-
- \draw[color=blue,line width=1.4pt] plot[domain=0:6.29,samples=360]
- ({\x},{sin(180*\x/3.1415)});
- \draw[color=red,line width=1.4pt] plot[domain=0:6.29,samples=360]
- ({\x},{cos(180*\x/3.1415)});
- \draw[color=purple!50,line width=1.4pt] \mittellinie;
- \node[color=purple!50] at (6.2832,0.5) [right] {$\frac12(f(x)+g(x))$};
-
- \draw[->] (-0.1,0) -- (6.5,0) coordinate[label={below:$x$}];
- \draw[->] (0,-1.1) -- (0,1.3) coordinate[label={right:$y$}];
-
-
- \xdef\x{2}
- \node[color=blue] at (\x,{sin(180*\x/3.1415)}) [above right] {$f(x)$};
- \pgfmathparse{2.5*3.14159-\x}
- \xdef\x{\pgfmathresult}
- \node[color=red] at (\x,{cos(180*\x/3.1415)}) [above left] {$g(x)$};
-
-\end{scope}
-
-\draw[->,line width=4pt,color=gray!40] ({3.1415-1},-1.3) -- ({3.1415-2.3},-3);
-\draw[->,line width=4pt,color=gray!40] ({3.1415+1},-1.3) -- ({3.1415+2.3},-3);
-
-\node at ({3.1415-1.75},-2.15) [left] {$\frac12(f(x)+g(x))+\frac12|f(x)-g(x)|$};
-\node at ({3.1415+1.75},-2.15) [right] {$\frac12(f(x)+g(x))-\frac12|f(x)-g(x)|$};
-
-\def\s{(-0.1)}
-
-\begin{scope}[xshift=-3.4cm,yshift=-4.6cm]
- \fill[color=darkgreen!20]
- \mittellinie
- --
- plot[domain=6.2832:0,samples=400]
- ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159)+abs(sin(180*\x/3.14159)-cos(180*\x/3.14159)))})
- -- cycle;
- \foreach \x in {0.5,1,...,6}{
- \draw[color=darkgreen]
- ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159)+abs(sin(180*\x/3.14159)-cos(180*\x/3.14159)))})
- --
- ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159))});
- }
- \draw[color=darkgreen,line width=1.4pt]
- plot[domain=6.2832:0,samples=400]
- ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159)+abs(sin(180*\x/3.14159)-cos(180*\x/3.14159)))});
-
- \node[color=darkgreen] at (2,-0.3) [left] {$|f(x)-g(x)|$};
- \draw[color=darkgreen,line width=0.3pt] (2,-0.3) -- (2.5,0.2);
-
- \draw[color=purple!50,line width=1.4pt] \mittellinie;
- \pgfmathparse{0.75*3.1415+\s}
- \xdef\x{\pgfmathresult}
- \node[color=darkgreen] at (\x,{sin(180*\x/3.1415)}) [above right]
- {$\max(f(x),g(x))$};
- \node[color=purple!50] at ({1.25*3.1415},-0.7) [below]
- {$\frac12(f(x)+g(x))$};
- \draw[->] (-0.1,0) -- (6.5,0) coordinate[label={$x$}];
- \draw[->] (0,-1.1) -- (0,1.3) coordinate[label={right:$y$}];
-\end{scope}
-
-
-\begin{scope}[xshift=+3.4cm,yshift=-4.6cm]
- \fill[color=darkgreen!20]
- \mittellinie
- --
- plot[domain=6.2832:0,samples=400]
- ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159)-abs(sin(180*\x/3.14159)-cos(180*\x/3.14159)))})
- -- cycle;
- \foreach \x in {0.5,1,...,6}{
- \draw[color=darkgreen]
- ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159)-abs(sin(180*\x/3.14159)-cos(180*\x/3.14159)))})
- --
- ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159))});
- }
- \draw[color=darkgreen,line width=1.4pt]
- plot[domain=6.2832:0,samples=400]
- ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159)-abs(sin(180*\x/3.14159)-cos(180*\x/3.14159)))});
-
- \node[color=darkgreen] at (3,0.3) [right] {$|f(x)-g(x)|$};
- \draw[color=darkgreen,line width=0.3pt] (3,0.3) -- (2.5,-0.4);
-
- \draw[color=purple!50,line width=1.4pt] \mittellinie;
- \pgfmathparse{0.75*3.1415-\s}
- \xdef\x{\pgfmathresult}
- \node[color=darkgreen] at (\x,{cos(180*\x/3.1415)}) [below left]
- {$\min(f(x),g(x))$};
- \node[color=purple!50] at ({0.25*3.1415},0.7) [above right]
- {$\frac12(f(x)+g(x))$};
- \draw[->] (-0.1,0) -- (6.5,0) coordinate[label={$x$}];
- \draw[->] (0,-1.1) -- (0,1.3) coordinate[label={right:$y$}];
-\end{scope}
-
-\end{tikzpicture}
-\end{document}
-
+% +% minmax.tex -- minimum und maximum +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\documentclass[tikz]{standalone} +\usepackage{amsmath} +\usepackage{times} +\usepackage{txfonts} +\usepackage{pgfplots} +\usepackage{csvsimple} +\usetikzlibrary{arrows,intersections,math} +\begin{document} +\def\skala{1} +\begin{tikzpicture}[>=latex,thick,scale=\skala] + +\definecolor{darkgreen}{rgb}{0,0.5,0} + +\def\mittellinie{ + plot[domain=0:6.2832,samples=400] + ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159))}) +} + +\begin{scope} + \fill[color=darkgreen!20] + plot[domain=0:6.2832,samples=360] + ({\x},{sin(180*\x/3.1415)}) + -- + plot[domain=6.2832:0,samples=360] + ({\x},{cos(180*\x/3.1415)}) + -- cycle; + \foreach \x in {0.5,1,...,6}{ + \draw[color=darkgreen] + ({\x},{sin(180*\x/3.1415)}) + -- + ({\x},{cos(180*\x/3.1415)}); + } + + \node[color=darkgreen] at (2,-0.8) [left] {$|f(x)-g(x)|$}; + \draw[color=darkgreen,line width=0.3pt] (2,-0.8) -- (2.5,-0.7); + + \draw[color=blue,line width=1.4pt] plot[domain=0:6.29,samples=360] + ({\x},{sin(180*\x/3.1415)}); + \draw[color=red,line width=1.4pt] plot[domain=0:6.29,samples=360] + ({\x},{cos(180*\x/3.1415)}); + \draw[color=purple!50,line width=1.4pt] \mittellinie; + \node[color=purple!50] at (6.2832,0.5) [right] {$\frac12(f(x)+g(x))$}; + + \draw[->] (-0.1,0) -- (6.5,0) coordinate[label={below:$x$}]; + \draw[->] (0,-1.1) -- (0,1.3) coordinate[label={right:$y$}]; + + + \xdef\x{2} + \node[color=blue] at (\x,{sin(180*\x/3.1415)}) [above right] {$f(x)$}; + \pgfmathparse{2.5*3.14159-\x} + \xdef\x{\pgfmathresult} + \node[color=red] at (\x,{cos(180*\x/3.1415)}) [above left] {$g(x)$}; + +\end{scope} + +\draw[->,line width=4pt,color=gray!40] ({3.1415-1},-1.3) -- ({3.1415-2.3},-3); +\draw[->,line width=4pt,color=gray!40] ({3.1415+1},-1.3) -- ({3.1415+2.3},-3); + +\node at ({3.1415-1.75},-2.15) [left] {$\frac12(f(x)+g(x))+\frac12|f(x)-g(x)|$}; +\node at ({3.1415+1.75},-2.15) [right] {$\frac12(f(x)+g(x))-\frac12|f(x)-g(x)|$}; + +\def\s{(-0.1)} + +\begin{scope}[xshift=-3.4cm,yshift=-4.6cm] + \fill[color=darkgreen!20] + \mittellinie + -- + plot[domain=6.2832:0,samples=400] + ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159)+abs(sin(180*\x/3.14159)-cos(180*\x/3.14159)))}) + -- cycle; + \foreach \x in {0.5,1,...,6}{ + \draw[color=darkgreen] + ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159)+abs(sin(180*\x/3.14159)-cos(180*\x/3.14159)))}) + -- + ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159))}); + } + \draw[color=darkgreen,line width=1.4pt] + plot[domain=6.2832:0,samples=400] + ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159)+abs(sin(180*\x/3.14159)-cos(180*\x/3.14159)))}); + + \node[color=darkgreen] at (2,-0.3) [left] {$|f(x)-g(x)|$}; + \draw[color=darkgreen,line width=0.3pt] (2,-0.3) -- (2.5,0.2); + + \draw[color=purple!50,line width=1.4pt] \mittellinie; + \pgfmathparse{0.75*3.1415+\s} + \xdef\x{\pgfmathresult} + \node[color=darkgreen] at (\x,{sin(180*\x/3.1415)}) [above right] + {$\max(f(x),g(x))$}; + \node[color=purple!50] at ({1.25*3.1415},-0.7) [below] + {$\frac12(f(x)+g(x))$}; + \draw[->] (-0.1,0) -- (6.5,0) coordinate[label={$x$}]; + \draw[->] (0,-1.1) -- (0,1.3) coordinate[label={right:$y$}]; +\end{scope} + + +\begin{scope}[xshift=+3.4cm,yshift=-4.6cm] + \fill[color=darkgreen!20] + \mittellinie + -- + plot[domain=6.2832:0,samples=400] + ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159)-abs(sin(180*\x/3.14159)-cos(180*\x/3.14159)))}) + -- cycle; + \foreach \x in {0.5,1,...,6}{ + \draw[color=darkgreen] + ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159)-abs(sin(180*\x/3.14159)-cos(180*\x/3.14159)))}) + -- + ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159))}); + } + \draw[color=darkgreen,line width=1.4pt] + plot[domain=6.2832:0,samples=400] + ({\x},{0.5*(sin(180*\x/3.14159)+cos(180*\x/3.14159)-abs(sin(180*\x/3.14159)-cos(180*\x/3.14159)))}); + + \node[color=darkgreen] at (3,0.3) [right] {$|f(x)-g(x)|$}; + \draw[color=darkgreen,line width=0.3pt] (3,0.3) -- (2.5,-0.4); + + \draw[color=purple!50,line width=1.4pt] \mittellinie; + \pgfmathparse{0.75*3.1415-\s} + \xdef\x{\pgfmathresult} + \node[color=darkgreen] at (\x,{cos(180*\x/3.1415)}) [below left] + {$\min(f(x),g(x))$}; + \node[color=purple!50] at ({0.25*3.1415},0.7) [above right] + {$\frac12(f(x)+g(x))$}; + \draw[->] (-0.1,0) -- (6.5,0) coordinate[label={$x$}]; + \draw[->] (0,-1.1) -- (0,1.3) coordinate[label={right:$y$}]; +\end{scope} + +\end{tikzpicture} +\end{document} + diff --git a/buch/chapters/40-eigenwerte/normalformen.tex b/buch/chapters/40-eigenwerte/normalformen.tex index c21c403..9169f65 100644 --- a/buch/chapters/40-eigenwerte/normalformen.tex +++ b/buch/chapters/40-eigenwerte/normalformen.tex @@ -330,9 +330,259 @@ Es ist das Polynom geringsten Grades über $\Bbbk'$, welches $m(A)=0$ erfüllt. \subsection{Reelle Normalform \label{buch:subsection:reelle-normalform}} +Wenn eine reelle Matrix $A$ komplexe Eigenwerte hat, ist die Jordansche +Normalform zwar möglich, aber die zugehörigen Basisvektoren werden ebenfalls +komplexe Komponenten haben. +Für eine rein reelle Rechnung ist dies nachteilig, da der Speicheraufwand +dadurch verdoppelt und der Rechenaufwand für Multiplikationen vervierfacht +wird. -\subsection{Obere Hessenberg-Form -\label{buch:subsection:obere-hessenberg-form}} +Die nicht reellen Eigenwerte von $A$ treten in konjugiert komplexen Paaren +$\lambda_i$ und $\overline{\lambda}_i$ auf. +Wir betrachten im Folgenden nur ein einziges Paar $\lambda=a+ib$ und +$\overline{\lambda}=a-ib$ von konjugiert komplexen Eigenwerten mit +nur je einem einzigen $n\times n$-Jordan-Block $J$ und $\overline{J}$. +Ist $\mathcal{B}=\{b_1,\dots,b_n\}$ die Basis für den Jordan-Block $J$, +dann kann man die Vektoren +$\overline{\mathcal{B}}=\{\overline{b}_1,\dots,\overline{b}_n\}$ als Basis für +$\overline{J}$ verwenden. +Die vereinigte Basis +$\mathcal{C} = \mathcal{B}\cup\overline{\mathcal{B}} += \{b_1,\dots,b_n,\overline{b}_1,\dots,\overline{b}_n\}$ +erzeugen einen $2n$-dimensionalen Vektorraum, +der direkte Summe der beiden von $\mathcal{B}$ und $\overline{\mathcal{B}}$ +erzeugen Vektorräume $V=\langle\mathcal{B}\rangle$ und +$\overline{V}=\langle\overline{\mathcal{B}}\rangle$ ist. +Es ist also +\[ +U=\langle \mathcal{C}\rangle += +V\oplus \overline{V}. +\] +Wir bezeichnen die lineare Abbildung mit den Jordan-Blöcken +$J$ und $\overline{J}$ wieder mit $A$. + +Auf dem Vektorraum $U$ hat die lineare Abbildung in der Basis +$\mathcal{C}$ die Matrix +\[ +A= +\begin{pmatrix} +J&0\\ +0&\overline{J} +\end{pmatrix} += +\begin{pmatrix} +\lambda& 1 & & & &&&&&\\ + &\lambda& 1 & & &&&&&\\ + & &\lambda&\ddots& &&&&&\\ + & & &\ddots& 1 &&&&&\\ + & & & &\lambda&&&&&\\ +&&&& &\overline{\lambda}&1&& & \\ +&&&& &&\overline{\lambda}&1& & \\ +&&&& &&&\overline{\lambda} &\dots& \\ +&&&& &&& &\dots&1\\ +&&&& &&& &&\overline{\lambda}\\ +\end{pmatrix}. +\] + +Die Jordan-Normalform bedeutet, dass +\[ +\begin{aligned} +Ab_1&=\lambda b_1 & + A\overline{b}_1 &= \overline{\lambda} \overline{b}_1 \\ +Ab_2&=\lambda b_2 + b_1 & + A\overline{b}_2 &= \overline{\lambda} \overline{b}_2 +\overline{b_1}\\ +Ab_3&=\lambda b_3 + b_2 & + A\overline{b}_3 &= \overline{\lambda} \overline{b}_3 +\overline{b_2}\\ + &\;\vdots & + &\;\vdots \\ +Ab_n&=\lambda b_n + b_{n-1} & + A\overline{b}_n &= \overline{\lambda} \overline{b}_n +\overline{b_{n-1}} +\end{aligned} +\] +Für die Linearkombinationen +\begin{equation} +\begin{aligned} +c_i &= \frac{b_i+\overline{b}_i}{\sqrt{2}}, +& +d_i &= \frac{b_i-\overline{b}_i}{i\sqrt{2}} +\end{aligned} +\label{buch:eigenwerte:eqn:reellenormalformumrechnung} +\end{equation} +folgt dann für $k>1$ +\begin{align*} +Ac_k +&= +\frac{Ab_k+A\overline{b}_k}{2} +& +Ad_k +&= +\frac{Ab_k-A\overline{b}_k}{2i} +\\ +&= +\frac1{\sqrt{2}}(\lambda b_k + b_{k-1} ++ \overline{\lambda}\overline{b}_k + \overline{b}_{k-1}) +& +&= +\frac1{i\sqrt{2}}(\lambda b_k + b_{k-1} +- \overline{\lambda}\overline{b}_k - \overline{b}_{k-1}) +\\ +&= +\frac1{\sqrt{2}}(\alpha b_k + i\beta b_k + \alpha \overline{b}_k -i\beta \overline{b}_k) ++ +c_{k-1} +& +&= +\frac1{i\sqrt{2}}( +\alpha b_k + i\beta b_k - \alpha \overline{b}_k +i\beta \overline{b}_k) ++ +d_{k-1} +\\ +&= +\alpha +\frac{b_k+\overline{b}_k}{\sqrt{2}} ++ +i \beta \frac{b_k-\overline{b}_k}{\sqrt{2}} ++ +c_{k-1} +& +&= +\alpha +\frac{b_k-\overline{b}_k}{i\sqrt{2}} ++ +i \beta \frac{b_k+\overline{b}_k}{i\sqrt{2}} ++ +d_{k-1} +\\ +&= \alpha c_k -\beta d_k ++ +c_{k-1} +& +&= \alpha d_k + \beta c_k ++ +d_{k-1}. +\end{align*} +Für $k=1$ fallen die Terme $c_{k-1}$ und $d_{k-1}$ weg. +In der Basis $\mathcal{D}=\{c_1,d_1,\dots,c_n,d_n\}$ hat die Matrix +also die {\em reelle Normalform} +\begin{equation} +\def\temp#1{\multicolumn{1}{|c}{#1\mathstrut}} +\def\semp#1{\multicolumn{1}{c|}{#1\mathstrut}} +A_{\text{reell}} += +\left( +\begin{array}{cccccccccccc} +\cline{1-4} +\temp{\alpha}& \beta&\temp{ 1}& 0&\temp{} & & & & & &&\\ +\temp{-\beta}&\alpha&\temp{ 0}& 1&\temp{} & & & & & &&\\ +\cline{1-6} + & &\temp{\alpha}& \beta&\temp{ 1}& 0&\temp{} & & & &&\\ + & &\temp{-\beta}&\alpha&\temp{ 0}& 1&\temp{} & & & &&\\ +\cline{3-6} + & & & &\temp{\alpha}& \beta&\temp{} & & & &&\\ + & & & &\temp{-\beta}&\alpha&\temp{} & & & &&\\ +\cline{5-8} + & & & & & &\temp{\phantom{0}}&\phantom{0}&\temp{ }& &&\\ + & & & & & &\temp{\phantom{0}}&\phantom{0}&\temp{ }& &&\\ +\cline{7-12} + & & & & & & & &\temp{\alpha}& \beta&\temp{ 1}&\semp{ 0}\\ + & & & & & & & &\temp{-\beta}&\alpha&\temp{ 0}&\semp{ 1}\\ +\cline{9-12} + & & & & & & & & & &\temp{\alpha}&\semp{ \beta}\\ + & & & & & & & & & &\temp{-\beta}&\semp{\alpha}\\ +\cline{11-12} +\end{array}\right). +\label{buch:eigenwerte:eqn:reellenormalform} +\end{equation} + +Wir bestimmen noch die Transformationsmatrix, die $A$ in die reelle +Normalform bringt. +Dazu beachten wir, dass die Vektoren $c_k$ und $d_k$ in der Basis +$\mathcal{B}$ nur in den Komponenten $k$ und $n+k$ von $0$ verschiedene +Koordinaten haben, nämlich +\[ +c_k += +\frac1{\sqrt{2}} +\left( +\begin{array}{c} +\vdots\\ 1 \\ \vdots\\\hline \vdots\\ 1\\\vdots +\end{array}\right) +\qquad\text{und}\qquad +d_k += +\frac1{i\sqrt{2}} +\left(\begin{array}{c} +\vdots\\ 1 \\ \vdots\\\hline\vdots\\-1\\\vdots +\end{array}\right) += +\frac1{\sqrt{2}} +\left(\begin{array}{c} +\vdots\\-i \\ \vdots\\\hline \vdots\\ i\\\vdots +\end{array}\right) +\] +gemäss \eqref{buch:eigenwerte:eqn:reellenormalformumrechnung}. +Die Umrechnung der Koordinaten von der Basis $\mathcal{B}$ in die Basis +$\mathcal{D}$ +wird daher durch die Matrix +\[ +S += +\frac{1}{\sqrt{2}} +\left(\begin{array}{cccccccccc} +1&-i& & & & & & & & \\ + & &1&-i& & & & & & \\ + & & & &1&-i& & & & \\ + & & & & & &\dots&\dots& & \\ + & & & & & & & &1&-i\\ +\hline +1& i& & & & & & & & \\ + & &1& i& & & & & & \\ + & & & &1& i& & & & \\ + & & & & & &\dots&\dots& & \\ + & & & & & & & &1& i\\ +\end{array}\right) +\] +vermittelt. +Der Nenner $\sqrt{2}$ wurde so gewählt, dass die +Zeilenvektoren der Matrix $S$ als komplexe Vektoren orthonormiert sind, +die Matrix $S$ ist daher unitär und hat die Inverse +\[ +S^{-1} += +S^* += +\frac{1}{\sqrt{2}} +\left(\begin{array}{ccccc|ccccc} + 1& & & & & 1& & & & \\ + i& & & & &-i& & & & \\ + & 1& & & & & 1& & & \\ + & i& & & & &-i& & & \\ + & & 1& & & & & 1& & \\ + & & i& & & & &-i& & \\ + & & &\dots& & & & &\dots& \\ + & & &\dots& & & & &\dots& \\ + & & & & 1& & & & & 1\\ + & & & & i& & & & &-i\\ +\end{array}\right). +\] +Insbesondere folgt jetzt +\[ +A += +S^{-1}A_{\text{reell}}S += +S^*A_{\text{reell}}S +\qquad\text{und}\qquad +A_{\text{reell}} += +SAS^{-1} += +SAS^*. +\] + +%\subsection{Obere Hessenberg-Form +%\label{buch:subsection:obere-hessenberg-form}} diff --git a/buch/chapters/40-eigenwerte/spektraltheorie.tex b/buch/chapters/40-eigenwerte/spektraltheorie.tex index 367a4c9..466b99e 100644 --- a/buch/chapters/40-eigenwerte/spektraltheorie.tex +++ b/buch/chapters/40-eigenwerte/spektraltheorie.tex @@ -1,802 +1,802 @@ -%
-% spektraltheorie.tex
-%
-% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil
-%
-\section{Spektraltheorie
-\label{buch:section:spektraltheorie}}
-Aufgabe der Spektraltheorie ist, Bedingungen an eine Matrix $A$ und eine
-Funktion $f(z)$ zu finden, unter denen es möglich ist, $f(A)$ auf
-konsistente Art und Weise zu definieren.
-Weiter müssen Methoden entwickelt werden, mit denen $f(A)$ berechnet
-werden kann.
-Für ein Polynom $p(z)$ ist $p(A)$ durch einsetzen definiert.
-Für Funktionen, die sich nicht durch ein Polynom darstellen lassen,
-muss eine Approximation der Funktion durch Polynome verwendet werden.
-Sei also $p_n(z)$ eine Folge von Polynomen, die als Approximation der
-Funktion $f(z)$ verwendet werden soll.
-Das Ziel ist, $f(A)$ als den Grenzwert der Matrixfolge $p_n(A)$
-zu definieren.
-
-Zunächst ist nicht klar, wie eine solche Folge gewählt werden muss.
-Es muss eine Teilmenge von $K\subset\mathbb{C}$ spezifiziert werden,
-auf der die Funktionenfolge $p_n(z)$ konvergieren muss,
-damit auch die Konvergenz der Matrizenfolge $p_n(A)$ garantiert ist.
-Auch die Art der Konvergenz von $p_n(z)$ auf der Menge $K$ ist noch
-unklar.
-Da der Abstand zweier Matrizen $A$ und $B$ in der Operatornorm
-mit der grössten Abweichung $\|(A-B)v\|$ für Einheitsvektoren $v$
-gemessen wird, ist es einigermassen plausibel, dass
-die grösse Abweichung zwischen zwei Polynomen $|p(z) - q(z)|$ auf
-der Menge $K$ kleine sein muss, wenn $\|p(A)-q(A)\|$ klein
-sein soll.
-Da die Differenz $p(z)-q(z)$ für beliebige Polynome, die sich nicht
-nur um eine Konstante unterscheiden, mit $z$ über alle Grenzen wächst,
-muss $K$ beschränkt sein.
-Gesucht ist also eine kompakte Menge $K\subset\mathbb{C}$ und eine
-Folge $p_n(z)$ von Polynomen, die auf $K$ gleichmässig gegen $f(z)$
-konvergieren.
-Die Wahl von $K$ muss sicherstellen, dass für jede gleichmässig
-konvergente Folge von Polynomen $p_n(z)$ auch die Matrizenfolge
-$p_n(A)$ konvergiert.
-
-Es wird sich zeigen, dass die Menge $K$ das Spektrum von $A$ ist,
-also eine endliche Teilmenge von $\mathbb{C}$.
-Jede Funktion kann auf so einer Menge durch Polynome exakt wiedergegeben
-werden.
-Es gibt insbesondere Folgen von Polynomen, die eingeschränkt
-auf das Spektrum gleich sind, also $p_n(z)=p_m(z)$ für alle $z\in K$,
-die aber ausserhalb des Spektrums alle verschieden sind.
-Als Beispiel kann die Matrix
-\[
-N=\begin{pmatrix}0&1\\0&0\end{pmatrix}
-\]
-herangezogen werden.
-Ihr Spektrum ist $\operatorname{Sp}(N)=\{0\}\subset\mathbb{C}$.
-Zwei Polynome stimmen genau dann auf $\operatorname{Sp}(N)$ überein,
-wenn der konstante Koeffizient gleich ist.
-Die Polynome $p(z)=z$ und $q(z)=z^2$ stimmen daher auf dem Spektrum
-überein.
-Für die Matrizen gilt aber $p(N)=N$ und $q(N)=N^2=0$, die Matrizen
-stimmen also nicht überein.
-Es braucht also zusätzliche Bedingungen an die Matrix $A$, die
-sicherstellen, dass $p(A)=0$ ist, wann immer $p(z)=0$ für
-$z\in\operatorname{Sp}(A)$ gilt.
-
-In diesem Abschnitt sollen diese Fragen untersucht werden.
-In Abschnitt~\ref{buch:subsection:approximation-durch-polynome}
-wird gezeigt, wie sich Funktionen durch Polynome approximieren
-lassen, woraus sich dann Approximationen von $f(A)$ für diagonalisierbare
-Matrizen mit reellen Eigenwerten ergeben.
-
-Der Satz von Stone-Weierstrass, der in
-Abschnitt~\ref{buch:subsetion:stone-weierstrass} dargestellt wird,
-ist ein sehr allgemeines Approximationsresultat, welches nicht nur
-zeigt, dass die Approximation unter sehr natürlichen Voraussetzungen
-beliebig genau möglich ist, sondern uns im komplexen Fall auch
-weitere Einsicht dafür geben kann, welche Voraussetzungen an eine
-komplexe Matrix gestellt werden müssen, damit man damit rechnen kann,
-dass die Approximation zu einer konsistenten Definition von $f(A)$ führt.
-
-%
-% Approximation
-%
-\subsection{Approximation durch Polynome
-\label{buch:subsection:approximation-durch-polynome}}
-Die der Berechnung von $f(A)$ für eine beleibige stetige Funktion,
-die sich nicht als Potenzreihe schreiben lässt, verwendet Approximationen
-von Polynomen.
-Die numerische Mathematik hat eine grosse Menge von solchen
-Approximationsverfahren entwickelt, wovon zwei kurz (ohne Beweise)
-vorgestellt werden sollen.
-
-\subsubsection{Das Legendre-Interpolationspolynom}
-Zu vorgegebenen, verschiedenen Zahlen $z_i\in\mathbb{C}$, $0\le i\le n$,
-die auch die {\em Stützstellen} genannt werden,
-gibt es immer ein Polynom vom Grade $n$, welches in den $z_i$ vorgegebene
-Werte $f(z_i)$ annimmt.
-Ein solches Polynom lässt sich im Prinzip mit Hilfe eines linearen
-Gleichungssystems finden, man kann aber auch direkt eine Lösung
-konstruieren.
-Dazu bildet man erst die Polynome
-\begin{align*}
-l(z) &= (z-z_0)(z-z_1)\dots (z-z_n) \qquad\text{und}
-\\
-l_i(z) &= (z-z_0)\dots \widehat{(z-z_i)}\dots (z-z_n).
-\end{align*}
-Darin bedeutet der Hut, dass dieser Term weggelassen werden soll.
-Für $z\ne z_i$ ist $l_i(z)=l(z)/(z-z_i)$.
-Die Polynome
-\[
-k_i(z)
-=
-\frac{l_i(z)}{l_i(z_i)}
-=
-\frac{(z-z_0)\dots \widehat{(z-z_i)}\dots (z-z_n)}{(z_i-z_0)\dots \widehat{(z_i-z_i)}\dots (z_i-z_n)}
-\]
-haben die Eigenschaft
-$k_i(z_j)=\delta_{ij}$.
-Damit lässt sich jetzt ein Polynom
-\[
-p(z) = \sum_{j=0}^n f(z_j) \frac{l_j(z)}{l_j(z_j)}
-\]
-vom Grad $n$ konstruieren, welches die Werte
-\[
-p(z_i)
-=
-\sum_{j=0}^n f(z_j) \frac{l_j(z_i)}{l_j(z_j)}
-=
-\sum_{j=0}^n f(z_j) \delta_{ij}
-=
-f_(z_i)
-\]
-annimmt.
-Das Polynom $p(z)$ heisst das {\em Legendre-Interpolationspolynom}.
-
-Zwar lässt sich also für eine endliche Menge von komplexen Zahlen immer
-ein Polynom finden, welches vorgeschriebene Wert in allen diesen Zahlen
-annimmt, doch ist die Stabilität für grosse $n$ eher beschränkt.
-
-
-\subsubsection{Gleichmassige Approximation mit Bernstein-Polynomen}
-Das Legendre-Interpolationspolynom nimmt in den Stützstellen die
-verlangten Werte an, aber ausserhalb der Stützstellen ist nicht
-garantiert, dass man eine gute Approximation einer Funktion $f(z)$
-erhält.
-
-Für die Approximation auf einem reellen Interval $[a,b]$ hat
-Sergei Natanowitsch Bernstein ein
-Dazu werden zuerst die reellen Bernsteinpolynome vom Grad $n$
-durch
-\begin{align*}
-B_{i,n}(t) = \binom{n}{i} t^i(1-t)^{n-i}.
-\end{align*}
-definiert.
-Als Approximationspolynom für die auf dem Interval
-$[0,1]$ definierte, stetige Funktion $f(t)$ kann man dann
-\[
-B_n(f)(t)
-=
-\sum_{i=0}^n B_{i,n}(t) f\biggl(\frac{i}{n}\biggr)
-\]
-verwenden.
-Die Polynome $B_n(f)(t)$ konvergieren gleichmässig auf $[0,1]$
-gegen die Funktion $f(t)$.
-Über die Konvergenz ausserhalb des reellen Intervalls wird nichts
-ausgesagt.
-Die Approximation mit Bernstein-Polynomen ist daher nur sinnvoll,
-wenn man weiss, dass die Eigenwerte der Matrix reell sind, was im
-wesentlichen auf diagonalisierbare Matrizen führt.
-
-Für ein anderes Interval $[a,b]$ kann man ein Approximationspolynom
-erhalten, indem man die affine Transformation
-$s\mapsto (s-a)/(b-a)$
-von $[a,b]$ auf $[0,1]$
-verwendet.
-
-%
-% Der Satz von Stone-Weierstrass
-%
-\subsection{Der Satz von Stone-Weierstrasss
-\label{buch:subsetion:stone-weierstrass}}
-Der Satz von Stone-Weierstrass behandelt im Gegensatz zu den in
-Abschnitt~\ref{buch:subsection:approximation-durch-polynome}
-besprochenen Approximationsmethoden nicht nur Funktionen von
-reellen Variablen durch Polynome.
-Vielmehr kann das Definitionsgebiet irgend eine abgeschlossene
-und beschränkte Teilmenge eines reellen oder komplexen Vektorraumes
-sein und die Funktionen können Polynome aber auch viel allgemeinere
-Funktionen verwendet werden, wie zum Beispiel die Funktionen
-$x\mapsto \cos nx$ und $x\mapsto \sin nx$ definiert auf dem
-Intervall $[0,2\pi]$.
-In diesem Fall liefert der Satz von Stone-Weierstrass die Aussage,
-dass sich jede stetige periodische Funktion gleichmässig durch
-trigonometrische Polynome approximieren lässt.
-
-Die Aussage des Satz von Stone-Weierstrass über reelle Funktionen
-lässt sich nicht auf komplexe Funktionen erweitern.
-Von besonderem Interesse ist jedoch, dass der Beweis des Satz
-zeigt, warum solche Aussagen für komplexe Funktionen nicht mehr
-zutreffen.
-Im Falle der Approximation von komplexen Funktionen $f(z)$ durch Polynome
-zwecks Definition von $f(A)$ werden sich daraus Bedingungen an die
-Matrix ableiten lassen, die eine konsistente Definition überhaupt
-erst ermöglichen werden.
-
-\subsubsection{Punkte trennen}
-Aus den konstanten Funktionen lassen sich durch algebraische
-Operationen nur weitere konstante Funktionen erzeugen.
-Die konstanten Funktionen sind also nur dann eine genügend
-reichhaltige Menge, wenn die Menge $K$ nur einen einzigen Punkt
-enthält.
-Damit sich Funktionen approximieren lassen, die in zwei Punkten
-verschiedene Werte haben, muss es auch unter den zur Approximation
-zur Verfügung stehenden Funktionen solche haben, deren Werte sich
-in diesen Punkten unterscheiden.
-Diese Bedingung wird in der folgenden Definition formalisiert.
-
-\begin{definition}
-Sei $K$ eine beliebige Menge und $A$ eine Menge von Funktionen
-$K\to \mathbb{C}$.
-Man sagt, $A$ {\em trennt die Punkte von $K$}, wenn es für jedes Paar
-\index{Punkte trennen}%
-von Punkten $x,y\in K$ eine Funktion $f\in A$ gibt derart, dass
-$f(x)\ne f(y)$.
-\end{definition}
-
-Man kann sich die Funktionen $f$, die gemäss dieser Definition die Punkte
-von $K$ trennen, als eine Art Koordinaten der Punkte in $K$ vorstellen.
-Die Punkte der Teilmenge $K\subset \mathbb{R}^n$ werden zum Beispiel
-von den Koordinatenfunktionen $x\mapsto x_i$ getrennt.
-Wir schreiben für die $i$-Koordinate daher auch als Funktion $x_i(x)=x_i$.
-Zwei verschiedene Punkte $x,y\in K$ unterscheiden sich in mindestens
-einer Koordinate.
-Für diese Koordinate sind dann die Werte der zugehörigen
-Koordinatenfunktion $x_i=x_i(x)\ne x_i(y)=y_i$ verschieden, die
-Funktionen $x_1(x)$ bis $x_n(x)$ trennen also die Punkte.
-
-\begin{beispiel}
-Wir betrachten einen Kreis in der Ebene, also die Menge
-\[
-S^1
-=
-\{(x_1,x_2)\;|\; x_1^2 + x_2^2=1\}
-\]
-$S^1$ ist eine abgeschlossene und beschränkte Menge in $\mathbb{R}^2$.
-Die Funktion $x\mapsto x_1$ trennt die Punkte nicht, denn zu jedem
-Punkt $(x_1,x_2)\in S^2$ gibt es den an der ersten Achse
-gespiegelten Punkt $\sigma(x)=(x_1,-x_2)$, dessen erste Koordinate
-den gleichen Wert hat.
-Ebenso trennt die Koordinatenfunktion $x\mapsto x_2$ die Punkte nicht.
-Die Menge $A=\{ x_1(x), x_2(x)\}$ bestehend aus den beiden
-Koordinatenfunktionen trennt dagegen die Punkte von $S^1$, da die Punkte
-sich immer in mindestens einem Punkt unterscheiden.
-
-Man könnte auch versuchen, den Kreis in Polarkoordinaten zu beschreiben.
-Die Funktion $\varphi(x)$, die jedem Punkt $x\in S^1$ den Polarwinkel
-zuordnet, trennt sicher die Punkte des Kreises.
-Zwei verschiedene Punkte auf dem Kreis haben verschieden Polarwinkel.
-Die Menge $\{\varphi\}$ trennt also die Punkte von $S^1$.
-Allerdings ist die Funktion nicht stetig, was zwar der Definition
-nicht widerspricht aber ein Hindernis für spätere Anwendungen ist.
-\end{beispiel}
-
-
-\subsubsection{Der Satz von Stone-Weierstrass für reelle Funktionen}
-Die Beispiele von Abschnitt~\ref{buch:subsection:approximation-durch-polynome}
-haben bezeigt, dass sich reellwertige Funktionen einer reellen
-Variable durch Polynome beliebig genau approximieren lassen.
-Es wurde sogar eine Methode vorgestellt, die eine auf einem Intervall
-gleichmässig konvergente Polynomefolge produziert.
-Die Variable $x\in[a,b]$ trennt natürlich die Punkte, die Algebra der
-Polynome in der Variablen $x$ enthält also sicher Funktionen, die in
-verschiedenen Punkten des Intervalls auch verschiedene Werte annehmen.
-Nicht ganz so selbstverständlich ist aber, dass sich daraus bereits
-ergibt, dass jede beliebige Funktion sich als Polynome in $x$
-approximieren lässt.
-Dies ist der Inhalt des folgenden Satzes von Stone-Weierstrass.
-
-\begin{figure}
-\centering
-\includegraphics{chapters/40-eigenwerte/images/wurzel.pdf}
-\caption{Konstruktion einer monoton wachsenden Approximationsfolge für
-$\sqrt{a}$
-\label{buch:eigenwerte:fig:wurzelverfahren}}
-\end{figure}
-
-\begin{figure}
-\centering
-\includegraphics[width=\textwidth]{chapters/40-eigenwerte/images/wurzelapprox.pdf}
-\caption{Monoton wachsende Approximation der Funktion $t\mapsto\sqrt{t}$ mit
-Polynomen $u_n(t)$ nach
-\eqref{buch:eigenwerte:eqn:wurzelapproximation}
-(links) und der Fehler der Approximation
-(rechts).
-\label{buch:eigenwerte:fig:wurzelapproximation}}
-\end{figure}
-
-\begin{satz}[Stone-Weierstrass]
-\label{buch:satz:stone-weierstrass}
-Enthält eine $\mathbb{R}$-Algebra $A$ von stetigen, rellen Funktionen
-auf einer kompakten Menge $K$ die konstanten Funktionen und trennt sie
-Punkte, d.~h.~für zwei verschiedene Punkte $x,y\in K$ gibt es
-immer eine Funktion $f\in A$ mit $f(x)\ne f(y)$, dann ist jede stetige,
-reelle Funktion auf $K$ gleichmässig approximierbar durch Funktionen
-in $A$.
-\end{satz}
-
-Für den Beweis des Satzes wird ein Hilfsresultat benötigt, welches wir
-zunächst ableiten.
-Es besagt, dass sich die Wurzelfunktion $t\mapsto\sqrt{t}$
-auf dem Interval $[0,1]$ gleichmässig
-von unten durch Polynome approximieren lässt, die in
-Abbildung~\ref{buch:eigenwerte:fig:wurzelapproximation} dargestellt
-sind.
-
-\begin{satz}
-Die rekursiv definierte Folge von Polynomen
-\begin{equation}
-u_{n+1}(t)
-=
-u_n(t) + \frac12(t-u_n(t)^2),
-\qquad
-u_0(t)=0
-\label{buch:eigenwerte:eqn:wurzelapproximation}
-\end{equation}
-ist monoton wachsend und approximiert die Wurzelfunktion $t\mapsto\sqrt{t}$
-gleichmässig auf dem Intervall $[0,1]$.
-\end{satz}
-
-\begin{figure}
-\centering
-\includegraphics{chapters/40-eigenwerte/images/minmax.pdf}
-\caption{Graphische Erklärung der
-Identitäten~\eqref{buch:eigenwerte:eqn:minmax} für
-$\max(f(x),g(x))$ und $\min(f(x),g(x))$.
-Die purpurrote Kurve stellt den Mittelwert von $f(x)$ und $g(x)$ dar,
-die vertikalen grünen Linien haben die Länge der Differenz $|f(x)-g(x)|$.
-Das Maximum erhält man, indem man den halben Betrag der Differenz zum
-Mittelwert hinzuaddiert, das Minimum erhält man durch Subtraktion
-der selben Grösse.
-\label{buch:eigenwerte:fig:minmax}}
-\end{figure}
-
-\begin{proof}[Beweis]
-Wer konstruieren zunächst das in
-Abbildung~\ref{buch:eigenwerte:fig:wurzelverfahren}
-visualierte Verfahren, mit dem für jede Zahl $a\in[0,1]$
-die Wurzel $\sqrt{a}$ berechnet werden kann.
-Sei $u < \sqrt{a}$ eine Approximation der Wurzel.
-Die Approximation ist der exakte Wert der Lösung, wenn $a-u^2=0$.
-In jedem anderen Fall muss $u$ um einen Betrag $d$ vergrössert werden.
-Natürlich muss immer noch $u+d<\sqrt{a}$ sein.
-Man kann die maximal zulässige Korrektur $d$ geometrisch abschätzen,
-wie dies in Abbildung~\ref{buch:eigenwerte:fig:wurzelverfahren}
-skizziert ist.
-Die maximale Steigung des Graphen der Funktion $u\mapsto u^2$ ist $2$,
-daher darf man $u$ maximal um die Hälfte der Differenz $a-u^2$ (grün)
-vergrössern, also $d=\frac12(a-u^2)$.
-Die Rekursionsformel
-\[
-u_{n+1} = u_n + d = u_n + \frac12(a-u_n^2)
-\]
-mit dem Startwert $u_0=0$ liefert daher eine
-Folge, die gegen $\sqrt{a}$ konvergiert.
-\end{proof}
-
-\begin{proof}[Beweis des Satzes von Stone-Weierstrass]
-Da $A$ eine Algebra ist, ist mit jeder Funktion $f\in A$ für jedes Polynome
-$p\in\mathbb{R}[X]$ auch $p(f)$ eine Funktion in $A$.
-\begin{enumerate}
-\item Schritt: Für jede Funktion $f\in A$ lässt sich auch $|f|$ durch
-Funktionen in $A$ beliebig genau durch eine monoton wachsende Folge
-von Funktionen approximieren.
-
-Da $A$ eine Algebra ist, ist $f^2\in A$.
-Sei ausserdem $m^2=\sup \{f(x)^2\;|\;x\in K\}$, so dass $f^2/m^2$ eine Funktion
-mit Werten im Intervall $[0,1]$ ist.
-Die Funktionen $f_n(x)=mu_n(f(x)^2/m^2)$ sind ebenfalls in $A$ und
-approximieren gleichmässig $\sqrt{f(x)^2}=|f(x)|$.
-\item Schritt: Für zwei Funktionen $f,g\in A$ gibt es eine monoton wachsende
-Folge, die $\max(f,g)$ gleichmässig beliebig genau approximiert
-und eine monoton fallende Folge, die $\min(f,g)$ gleichmässig beliebig
-genau approximiert.
-
-
-Diese Folgen können aus der Approximationsfolge für den Betrag einer
-Funktion und den Identitäten
-\begin{equation}
-\begin{aligned}
-\max(f,g) &= \frac12(f+g+|f-g|) \\
-\min(f,g) &= \frac12(f+g-|f-g|)
-\end{aligned}
-\label{buch:eigenwerte:eqn:minmax}
-\end{equation}
-gefunden werden, die in Abbildung~\ref{buch:eigenwerte:fig:minmax}
-graphisch erklärt werden.
-\item Schritt: Zu zwei beliebigen Punkten $x,y\in K$ und Werten
-$\alpha,\beta\in\mathbb{R}$ gibt es immer eine Funktion in $A$,
-die in den Punkten $x,y$ die vorgegebenen Werte $\alpha$ bzw.~$\beta$
-annimmt.
-Da $A$ die Punkte trennt, gibt es eine Funktion $f_0$ mit $f_0(x)\ne f_0(y)$.
-Dann ist die Funktion
-\[
-f(t)
-=
-\beta + \frac{f_0(t)-f_0(y)}{f_0(x)-f_0(y)}(\alpha-\beta)
-\]
-wohldefiniert und nimmt die verlangten Werte an.
-\item Schritt: Zu jeder stetigen Funktion $f\colon K\to\mathbb{R}$, jedem
-Punkt $x\in K$ und jedem $\varepsilon>0$ gibt es eine Funktion $g\in A$ derart,
-dass $g(x)=f(x)$ und $g(y) \le f(y)+\varepsilon$ für alle $y\in K$.
-
-Zu jedem $z\in K$ gibt es eine Funktion in $A$ mit
-$h_z(x)=f(x)$ und $h_z(z) \le f(z)+\frac12\varepsilon$.
-Wegen der Stetigkeit von $h_z$ gibt es eine Umgebung $V_z$ von $z$, in der
-immer noch gilt $h_z(y)\le f(y)+\varepsilon$ für $y\in V_z$.
-Wegen der Kompaktheit von $K$ kann man endlich viele Punkte $z_i$ wählen
-derart, dass die $V_{z_i}$ immer noch $K$ überdecken.
-Dann erfüllt die Funktion
-\(
-g(z) = \inf h_{z_i}
-\)
-die Bedingungen $g(x) = f(x)$ und für $z\in V_{z_i}$
-\[
-g(z) = \inf_{j} h_{z_j}(z) \le h_{z_i}(z) \le f(z)+\varepsilon.
-\]
-Ausserdem ist $g(z)$ nach dem zweiten Schritt beliebig genau durch
-Funktionen in $A$ approximierbar.
-\item Schritt: Jede stetige Funktion $f\colon K\to\mathbb{R}$ kann
-beliebig genau durch Funktionen in $A$ approximiert werden.
-Sei $\varepsilon > 0$.
-
-Nach dem vierten Schritt gibt es für jedes $y\in K$ eine Funktion $g_y$
-derart, dass $g_y(y)=f(y)$ und $g_y(x) \le f(x) + \varepsilon$ für
-$x\in K$.
-Da $g_y$ stetig ist, gilt ausserdem $g_y(x) \ge f(x) -\varepsilon$ in
-einer Umgebung $U_y$ von $y$.
-Da $K$ kompakt ist, kann man endlich viele $y_i$ derart, dass die $U_{y_i}$
-immer noch ganz $K$ überdecken.
-Die Funktion $g=\sup g_{y_i}$ erfüllt dann überall $g(x) \le f(x)+\varepsilon$,
-weil jede der Funktionen $g_y$ diese Ungleichung erfüllt.
-Ausserdem gilt für $x\in V_{x_j}$
-\[
-g(x) = \sup_i g_{x_i}(x) \ge g_{x_j}(x) \ge f(x)-\varepsilon.
-\]
-Somit ist
-\[
-|f(x)-g(x)| \le \varepsilon.
-\]
-Damit ist $f(x)$ beliebig nahe an der Funktion $g(x)$, die sich
-beliebig genau durch Funktionen aus $A$ approximieren lässt.
-\qedhere
-\end{enumerate}
-\end{proof}
-
-Im ersten Schritt des Beweises ist ganz entscheidend, dass man die
-Betragsfunktion konstruieren kann.
-Daraus leiten sich dann alle folgenden Konstruktionen ab.
-
-\subsubsection{Anwendung auf symmetrische und hermitesche Matrizen}
-Für symmetrische und hermitesche Matrizen $A$ ist bekannt, dass die
-Eigenwerte reell sind, also das Spektrum $\operatorname{A}\subset\mathbb{R}$
-ist.
-Für eine Funktion $\mathbb{R}\to \mathbb{R}$ lässt sich nach dem
-Satz~\ref{buch:satz:stone-weierstrass} immer eine Folge $p_n$ von
-approximierenden Polynomen in $x$ finden, die auf $\operatorname{Sp}(A)$
-gleichmässig konvergiert.
-Die Matrix $f(A)$ kann dann definiert werden also der Grenzwert
-\[
-f(A) = \lim_{n\to\infty} p_n(A).
-\]
-Da diese Matrizen auch diagonalisierbar sind, kann man eine Basis
-aus Eigenvektoren verwenden.
-Die Wirkung von $p_n(A)$ auf einem Eigenvektor $v$ zum Eigenwert $\lambda$
-ist
-\[
-p_n(A)v
-=
-(a_kA^k + a_{k-1}A^{k-1}+\dots +a_2A^2+a_1A+a_0I)v
-=
-(a_k\lambda^k + a_{k-1}\lambda^{k-1}+\dots + a_2\lambda^2 + a_1\lambda + a_0)v
-=
-p_n(\lambda)v.
-\]
-Im Grenzwert wirkt $f(A)$ daher durch Multiplikation eines Eigenvektors
-mit $f(\lambda)$, die Matrix $f(A)$ hat in der genannten Basis die
-Diagonalform
-\[
-A=\begin{pmatrix}
-\lambda_1& & & \\
- &\lambda_2& & \\
- & &\ddots& \\
- & & &\lambda_n
-\end{pmatrix}
-\qquad\Rightarrow\qquad
-f(A)=\begin{pmatrix}
-f(\lambda_1)& & & \\
- &f(\lambda_2)& & \\
- & &\ddots& \\
- & & &f(\lambda_n)
-\end{pmatrix}.
-\]
-
-\begin{satz}
-\label{buch:eigenwerte:satz:spektralsatz}
-Ist $A$ symmetrische oder selbstadjungiert Matrix und $f$ eine Funktion
-auf dem Spektrum $\operatorname{Sp}(A)$ von $A$.
-Dann gibt es genau eine Matrix $f(A)$, die Grenzwert jeder beliebigen
-Folge $p_n(A)$ für Polynomfolgen, die $\operatorname{Sp}(A)$ gleichmässig
-gegen $f$ konvergieren.
-\end{satz}
-
-\subsubsection{Unmöglichkeit der Approximation von $z\mapsto \overline{z}$
-in $\mathbb{C}[z]$}
-Der Satz~\ref{buch:satz:stone-weierstrass} von Stone-Weierstrass für
-reelle Funktionen gilt nicht für komplexe Funktionen.
-In diesem Abschnitt zeigen wir, dass sich die Funktion $z\mapsto\overline{z}$
-auf der Einheitskreisscheibe $K=\{z\in\mathbb{C}\;|\; |z|\le 1\}$ nicht
-gleichmässig durch Polynome $p(z)$ mit komplexen Koeffizienten approximieren
-lässt.
-
-Wäre eine solche Approximation möglich, dann könnte man $\overline{z}$
-auch durch eine Potenzreihe
-\[
-\overline{z}
-=
-\sum_{k=0}^\infty a_kz^k
-\]
-darstellen.
-Das Wegintegral beider Seiten über den Pfad $\gamma(t) = e^{it}$
-in der komplexen Ebene ist
-\begin{align*}
-\oint_\gamma z^k\,dz
-&=
-\int_0^{2\pi} e^{ikt} ie^{it}\,dt
-=
-i\int_0^{2\pi} e^{it(k+1)}\,dt
-=
-i\biggl[ \frac{1}{i(k+1)} e^{it(k+1)}\biggr]_0^{2\pi}
-=
-0
-\\
-\oint_\gamma
-\sum_{k=0}^\infty a_kz^k
-\,dz
-&=
-\sum_{k=0}^\infty a_k \oint_\gamma z^k\,dz
-=
-\sum_{k=0}^\infty a_k\cdot 0
-=
-0
-\\
-\oint_\gamma \overline{z}\,dz
-&=
-\int_0^{2\pi} e^{it} ie^{it}\,dt
-=
-i\int_0^{2\pi} \,dt = 2\pi i,
-\end{align*}
-dabei wurde $\overline{\gamma}(t)=e^{-it}$ verwendet.
-Insbesondere widersprechen sich die beiden Integrale.
-Die ursprüngliche Annahmen, $\overline{z}$ lasse sich durch Polynome
-gleichmässig approximieren, muss daher verworfen werden.
-
-\subsubsection{Der Satz von Stone-Weierstrass für komplexe Funktionen}
-Der Satz von Stone-Weierstrass kann nach dem vorangegangene Abschnitt
-also nicht gelten.
-Um den Beweis des Satzes~\ref{buch:satz:stone-weierstrass}
-auf komplexe Zahlen zu übertragen, muss im ersten Schritt ein Weg
-gefunden werden, den Betrag einer Funktion zu approximieren.
-
-Im reellen Fall geschah dies, indem zunächst eine Polynom-Approximation
-für die Quadratwurzel konstruiert wurde, die dann auf das Quadrat einer
-Funktion angewendet wurde.
-Der Betrag einer komplexen Zahl $z$ ist aber nicht allein aus $z$
-berechenbar, man braucht in irgend einer Form Zugang zu Real-
-und Imaginärteil.
-Zum Beispiel kann man Real- und Imaginärteil als
-$\Re z= \frac12(z+\overline{z})$ und $\Im z = \frac12(z-\overline{z})$
-bestimmen.
-Kenntnis von Real- und Imaginärteil ist als gleichbedeutend mit
-der Kenntnis der komplex Konjugierten $\overline{z}$.
-Der Betrag lässt sich daraus als $|z|^2 = z\overline{z}$ finden.
-Beide Beispiele zeigen, dass man den im Beweis benötigten Betrag
-nur dann bestimmen kann, wenn mit jeder Funktion aus $A$ auch die
-komplex konjugierte Funktion zur Verfügung steht.
-
-\begin{satz}[Stone-Weierstrass]
-Enthält eine $\mathbb{C}$-Algebra $A$ von stetigen, komplexwertigen
-Funktionen auf einer kompakten Menge $K$ die konstanten Funktionen,
-trennt sie Punkte und ist ausserdem mit jeder Funktion $f\in A$ auch
-die komplex konjugiert Funktion $\overline{f}\in A$,
-dann lässt sich jede stetige, komplexwertige Funktion
-auf $K$ gleichmässig durch Funktionen aus $A$ approximieren.
-\end{satz}
-
-Mit Hilfe der konjugiert komplexen Funktion lässt sich immer eine
-Approximation für die Betragsfunktion finden, so dass sich der
-Beweis des reellen Satzes von Stone-Weierstrass übertragen lässt.
-
-%
-% Normale Matrizen
-%
-\subsection{Normale Matrizen
-\label{buch:subsection:normale-matrizen}}
-Aus dem Satz von Stone-Weierstrass für komplexe Matrizen kann man
-jetzt einen Spektralsätze für eine etwas grössere Klasse von Matrizen
-ableiten, als im Satz~\ref{buch:eigenwerte:satz:spektralsatz}
-möglich war.
-Der Satz besagt, dass für eine beliebige Funktion $f$ auf dem Spektrum
-$\operatorname{Sp}(A)$ eine Folge von auf $\operatorname{Sp}(A)$
-gleichmässig konvergenten, approximierenden Polynomen
-$p_n(z,\overline{z})$ gefunden werden kann.
-Doch wie soll jetzt aus dieser Polynomfolge ein Kandidat von $f(A)$
-gefunden werden?
-
-Zunächst stellt sich die Frage, was für die Variable $\overline{z}$
-eingesetzt werden soll.
-$1\times 1$-Matrizen sind notwendigerweise diagonal, also muss
-man in diesem Fall die Matrix $\overline{A}$ für die Variable
-$\overline{z}$ eingesetzt werden.
-Dies erklärt aber noch nicht, wie für $n\times n$-Matrizen
-vorzugehen ist, wenn $n>1$ ist.
-
-Die Notwendigkeit, die Variable $\overline{z}$ hinzuzunehmen
-ergab sich aus der Anforderung, dass der Betrag aus $|z|^2=z\overline{z}$
-konstruiert werden können muss.
-Insbesondere muss beim Einsetzen eine Matrix entstehen, die nur
-positive Eigenwerte hat.
-Für eine beliebige komplexe $n\times n$-Matrix $A$ ist aber
-$A\overline{A}$ nicht notwendigerweise positiv, wie das Beispiel
-\[
-A
-=
-\begin{pmatrix}0&i\\i&0\end{pmatrix}
-\qquad
-\Rightarrow
-\qquad
-A\overline{A}
-=
-\begin{pmatrix}0&i\\-i&0\end{pmatrix}
-\begin{pmatrix}0&-i\\i&0\end{pmatrix}
-=
-\begin{pmatrix}
--1&0\\
- 0&-1
-\end{pmatrix}
-=
--I
-\]
-zeigt.
-Eine positive Matrix entsteht dagegen immer, wenn man statt
-$A$ die Adjungierte $A^*=\overline{A}^t$ verwendet.
-
-Die Substitution von $A$ für $z$ und $A^*$ für $\overline{z}$
-in einem Polynom $p(z,\overline{z})$ ist nicht unbedingt eindeutig.
-Schon das Polynom $p(z,\overline{z})=z\overline{z}$ kann man auch
-als $\overline{z}z$ schreiben.
-Damit die Substition eindeutig wird, muss man also fordern, dass
-$AA^* = A^*A$ ist.
-
-\begin{definition}
-Eine Matrix $A\in M_n(\mathbb{C})$ heisst {\em normal}, wenn $AA^*=A^*A$ gilt.
-\end{definition}
-
-\subsubsection{Beispiele normaler Matrizen}
-
-\begin{enumerate}
-\item
-Hermitesche und Antihermitesche Matrizen sind normal, denn solche
-Matrizen erfüllen $A^*=\pm A$ und damit
-\(
-AA^* = \pm A^2 = A^*A.
-\)
-\item
-Symmetrische und antisymmetrische Matrizen sind normal,
-denn aus $A=A^t$ folgt $A^*=\overline{A}^t$ und damit
-\begin{align*}
-AA^* &= A\overline{A}^t =
-\\
-A^*A &=
-\end{align*}
-\item
-Unitäre Matrizen $U$ sind normal, das $UU^*=I=U^*U$ gilt.
-\item
-Orthogonale Matrizen sind normal wegen $O(n) = U(n) \cap M_n(\mathbb{R})$.
-\end{enumerate}
-
-Jede Matrix lässt sich durch Wahl einer geeigneten Basis in Jordansche
-Normalform bringen.
-Allerdings sind Jordan-Blöcke keine normalen Matrizen, wie der folgende
-Satz zeigt.
-
-\begin{satz}
-Eine Dreiecksmatrix ist genau dann normal, wenn sie diagonal ist.
-\end{satz}
-
-\begin{proof}[Beweis]
-Sei $A$ eine obere Dreiecksmatrix, das Argument für eine untere Dreiecksmatrix
-funktioniert gleich.
-Wir berechnen ein Diagonalelement für beide Produkte $AA^*$ und $A^*A$.
-Dazu brauchen wir die Matrixelemente von $A$ und $A^*$.
-Bezeichnen wir die Matrixelemente von $A$ mit $a_{ij}$, dann hat $A^*$
-die Matrixelemente $(A^*)_{ij}=\overline{a}_{ji}$.
-Damit kann man die Diagonalelemente der Produkte als
-\begin{align*}
-(AA^*)_{ii}
-&=
-\sum_{j=1}^n a_{ij}\overline{a}_{ij}
-=
-\sum_{j=i}^n |a_{ij}|^2
-\\
-(A^*A)_{ii}
-&=
-\sum_{j=1}^n \overline{a}_{ji}a_{ji}
-=
-\sum_{j=1}^i |a_{ji}|^2
-\end{align*}
-ausrechnen.
-Der obere Ausdruck ist die quadrierte Länge der Zeile $i$ der Matrix $A$,
-der untere ist die quadrierte Länge der Spalte $i$.
-Da die Matrix eine obere Dreiecksmatrix ist, hat die erste Spalte höchstens
-ein einziges von $0$ verschiedenes Element.
-Daher kann auch die erste Zeile höchstens dieses eine Elemente haben.
-Die Matrix hat daher Blockstruktur mit einem $1\times 1$-Block in der
-linken obere Ecke und einem $n-1$-dimensionalen Block für den Rest.
-Durch Wiederholen des Arguments für den $(n-1)\times (n-1)$-Block
-kann man so schrittweise schliessen, dass die Matrix $A$ diagonal sein muss.
-\end{proof}
-
-
-\begin{satz}
-Sind $A$ und $B$ normale Matrizen und $AB^*=B^*A$, dann sind auch $A+B$
-und $AB$ normal.
-\end{satz}
-
-\begin{proof}[Beweis]
-Zunächst folgt aus $AB^*=B^*A$ auch
-$A^*B = (B^*A)^* = (AB^*)^* = BA^*$.
-Der Beweis erfolgt durch Nachrechnen:
-\begin{align*}
-(A+B)(A+B)^*
-&=
-AA^* + AB^* + BA^*+BB^*
-\\
-(A+B)^*(A+B)
-&=
-A^*A + A^*B + B^*A + B^*B
-\end{align*}
-Die ersten und letzten Terme auf der rechten Seite stimmen überein, weil
-$A$ und $B$ normal sind.
-Die gemischten Terme stimmen überein wegen der Vertauschbarkeit von
-$A$ und $B^*$.
-
-Für das Produkt rechnet man
-\begin{align*}
-(AB)(AB)^*
-&= ABB^*A^* = AB^*BA^*
-= B^*AA^*B
-=
-B^*A^*AB
-=
-(AB)^*(AB),
-\end{align*}
-was zeigt, dass auch $AB$ normal ist.
-\end{proof}
-
-\subsubsection{Äquivalente Bedingungen}
-Es gibt eine grosse Zahl äquivalenter Eigenschaften für normale Matrizen.
-Die folgenden Eigenschaften sind äquivalent:
-\begin{enumerate}
-\item
-Die Matrix $A$ ist mit einer unitären Matrix diagonalisierbar
-\item
-Es gibt eine orthonormale Basis von Eigenvektoren von $A$ für $\mathbb{C}^n$
-\item
-Für jeden Vektor $x\in\mathbb{C}^n$ gilt $\|Ax\|=\|A^*x\|$
-\item
-Die Forbenius-Norm der Matrix $A$ kann mit den Eigenwerten $\lambda_i$
-von $A$ berechnet werden:
-$\operatorname{Spur}(A^*A) = \sum_{i=1}^n |\lambda_i|^2$
-\item
-Der hermitesche Teil $\frac12(A+A^*)$ und der antihermitesche Teil
-$\frac12(A-A^*)$ von $A$ vertauschen.
-\item
-$A^*$ ist ein Polynom vom Grad $n-1$ in $A$.
-\item
-Es gibt eine unitäre Matrix $U$ derart, dass $A^*=AU$
-\item
-Es gibt eine Polarzerlegugn $A=UP$ mit einer unitären Matrix $U$ und
-einer postiv semidefiniten Matrix $P$, die untereinander vertauschen.
-\item
-Es gibt eine Matrix $N$ mit verschiedenen Eigenwerten, mit denen $A$
-vertauscht.
-\item
-Wenn $A$ die (absteigend geordneten) singulärwerte $\sigma_i$ und
-die absteigend geordneten Eigenwerte $\lambda_i$ hat,
-dann it $\sigma_i=|\lambda_i|$.
-\end{enumerate}
-
-
-
-
+% +% spektraltheorie.tex +% +% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil +% +\section{Spektraltheorie +\label{buch:section:spektraltheorie}} +Aufgabe der Spektraltheorie ist, Bedingungen an eine Matrix $A$ und eine +Funktion $f(z)$ zu finden, unter denen es möglich ist, $f(A)$ auf +konsistente Art und Weise zu definieren. +Weiter müssen Methoden entwickelt werden, mit denen $f(A)$ berechnet +werden kann. +Für ein Polynom $p(z)$ ist $p(A)$ durch einsetzen definiert. +Für Funktionen, die sich nicht durch ein Polynom darstellen lassen, +muss eine Approximation der Funktion durch Polynome verwendet werden. +Sei also $p_n(z)$ eine Folge von Polynomen, die als Approximation der +Funktion $f(z)$ verwendet werden soll. +Das Ziel ist, $f(A)$ als den Grenzwert der Matrixfolge $p_n(A)$ +zu definieren. + +Zunächst ist nicht klar, wie eine solche Folge gewählt werden muss. +Es muss eine Teilmenge von $K\subset\mathbb{C}$ spezifiziert werden, +auf der die Funktionenfolge $p_n(z)$ konvergieren muss, +damit auch die Konvergenz der Matrizenfolge $p_n(A)$ garantiert ist. +Auch die Art der Konvergenz von $p_n(z)$ auf der Menge $K$ ist noch +unklar. +Da der Abstand zweier Matrizen $A$ und $B$ in der Operatornorm +mit der grössten Abweichung $\|(A-B)v\|$ für Einheitsvektoren $v$ +gemessen wird, ist es einigermassen plausibel, dass +die grösse Abweichung zwischen zwei Polynomen $|p(z) - q(z)|$ auf +der Menge $K$ kleine sein muss, wenn $\|p(A)-q(A)\|$ klein +sein soll. +Da die Differenz $p(z)-q(z)$ für beliebige Polynome, die sich nicht +nur um eine Konstante unterscheiden, mit $z$ über alle Grenzen wächst, +muss $K$ beschränkt sein. +Gesucht ist also eine kompakte Menge $K\subset\mathbb{C}$ und eine +Folge $p_n(z)$ von Polynomen, die auf $K$ gleichmässig gegen $f(z)$ +konvergieren. +Die Wahl von $K$ muss sicherstellen, dass für jede gleichmässig +konvergente Folge von Polynomen $p_n(z)$ auch die Matrizenfolge +$p_n(A)$ konvergiert. + +Es wird sich zeigen, dass die Menge $K$ das Spektrum von $A$ ist, +also eine endliche Teilmenge von $\mathbb{C}$. +Jede Funktion kann auf so einer Menge durch Polynome exakt wiedergegeben +werden. +Es gibt insbesondere Folgen von Polynomen, die eingeschränkt +auf das Spektrum gleich sind, also $p_n(z)=p_m(z)$ für alle $z\in K$, +die aber ausserhalb des Spektrums alle verschieden sind. +Als Beispiel kann die Matrix +\[ +N=\begin{pmatrix}0&1\\0&0\end{pmatrix} +\] +herangezogen werden. +Ihr Spektrum ist $\operatorname{Sp}(N)=\{0\}\subset\mathbb{C}$. +Zwei Polynome stimmen genau dann auf $\operatorname{Sp}(N)$ überein, +wenn der konstante Koeffizient gleich ist. +Die Polynome $p(z)=z$ und $q(z)=z^2$ stimmen daher auf dem Spektrum +überein. +Für die Matrizen gilt aber $p(N)=N$ und $q(N)=N^2=0$, die Matrizen +stimmen also nicht überein. +Es braucht also zusätzliche Bedingungen an die Matrix $A$, die +sicherstellen, dass $p(A)=0$ ist, wann immer $p(z)=0$ für +$z\in\operatorname{Sp}(A)$ gilt. + +In diesem Abschnitt sollen diese Fragen untersucht werden. +In Abschnitt~\ref{buch:subsection:approximation-durch-polynome} +wird gezeigt, wie sich Funktionen durch Polynome approximieren +lassen, woraus sich dann Approximationen von $f(A)$ für diagonalisierbare +Matrizen mit reellen Eigenwerten ergeben. + +Der Satz von Stone-Weierstrass, der in +Abschnitt~\ref{buch:subsetion:stone-weierstrass} dargestellt wird, +ist ein sehr allgemeines Approximationsresultat, welches nicht nur +zeigt, dass die Approximation unter sehr natürlichen Voraussetzungen +beliebig genau möglich ist, sondern uns im komplexen Fall auch +weitere Einsicht dafür geben kann, welche Voraussetzungen an eine +komplexe Matrix gestellt werden müssen, damit man damit rechnen kann, +dass die Approximation zu einer konsistenten Definition von $f(A)$ führt. + +% +% Approximation +% +\subsection{Approximation durch Polynome +\label{buch:subsection:approximation-durch-polynome}} +Die der Berechnung von $f(A)$ für eine beleibige stetige Funktion, +die sich nicht als Potenzreihe schreiben lässt, verwendet Approximationen +von Polynomen. +Die numerische Mathematik hat eine grosse Menge von solchen +Approximationsverfahren entwickelt, wovon zwei kurz (ohne Beweise) +vorgestellt werden sollen. + +\subsubsection{Das Legendre-Interpolationspolynom} +Zu vorgegebenen, verschiedenen Zahlen $z_i\in\mathbb{C}$, $0\le i\le n$, +die auch die {\em Stützstellen} genannt werden, +gibt es immer ein Polynom vom Grade $n$, welches in den $z_i$ vorgegebene +Werte $f(z_i)$ annimmt. +Ein solches Polynom lässt sich im Prinzip mit Hilfe eines linearen +Gleichungssystems finden, man kann aber auch direkt eine Lösung +konstruieren. +Dazu bildet man erst die Polynome +\begin{align*} +l(z) &= (z-z_0)(z-z_1)\dots (z-z_n) \qquad\text{und} +\\ +l_i(z) &= (z-z_0)\dots \widehat{(z-z_i)}\dots (z-z_n). +\end{align*} +Darin bedeutet der Hut, dass dieser Term weggelassen werden soll. +Für $z\ne z_i$ ist $l_i(z)=l(z)/(z-z_i)$. +Die Polynome +\[ +k_i(z) += +\frac{l_i(z)}{l_i(z_i)} += +\frac{(z-z_0)\dots \widehat{(z-z_i)}\dots (z-z_n)}{(z_i-z_0)\dots \widehat{(z_i-z_i)}\dots (z_i-z_n)} +\] +haben die Eigenschaft +$k_i(z_j)=\delta_{ij}$. +Damit lässt sich jetzt ein Polynom +\[ +p(z) = \sum_{j=0}^n f(z_j) \frac{l_j(z)}{l_j(z_j)} +\] +vom Grad $n$ konstruieren, welches die Werte +\[ +p(z_i) += +\sum_{j=0}^n f(z_j) \frac{l_j(z_i)}{l_j(z_j)} += +\sum_{j=0}^n f(z_j) \delta_{ij} += +f_(z_i) +\] +annimmt. +Das Polynom $p(z)$ heisst das {\em Legendre-Interpolationspolynom}. + +Zwar lässt sich also für eine endliche Menge von komplexen Zahlen immer +ein Polynom finden, welches vorgeschriebene Wert in allen diesen Zahlen +annimmt, doch ist die Stabilität für grosse $n$ eher beschränkt. + + +\subsubsection{Gleichmassige Approximation mit Bernstein-Polynomen} +Das Legendre-Interpolationspolynom nimmt in den Stützstellen die +verlangten Werte an, aber ausserhalb der Stützstellen ist nicht +garantiert, dass man eine gute Approximation einer Funktion $f(z)$ +erhält. + +Für die Approximation auf einem reellen Interval $[a,b]$ hat +Sergei Natanowitsch Bernstein ein +Dazu werden zuerst die reellen Bernsteinpolynome vom Grad $n$ +durch +\begin{align*} +B_{i,n}(t) = \binom{n}{i} t^i(1-t)^{n-i}. +\end{align*} +definiert. +Als Approximationspolynom für die auf dem Interval +$[0,1]$ definierte, stetige Funktion $f(t)$ kann man dann +\[ +B_n(f)(t) += +\sum_{i=0}^n B_{i,n}(t) f\biggl(\frac{i}{n}\biggr) +\] +verwenden. +Die Polynome $B_n(f)(t)$ konvergieren gleichmässig auf $[0,1]$ +gegen die Funktion $f(t)$. +Über die Konvergenz ausserhalb des reellen Intervalls wird nichts +ausgesagt. +Die Approximation mit Bernstein-Polynomen ist daher nur sinnvoll, +wenn man weiss, dass die Eigenwerte der Matrix reell sind, was im +wesentlichen auf diagonalisierbare Matrizen führt. + +Für ein anderes Interval $[a,b]$ kann man ein Approximationspolynom +erhalten, indem man die affine Transformation +$s\mapsto (s-a)/(b-a)$ +von $[a,b]$ auf $[0,1]$ +verwendet. + +% +% Der Satz von Stone-Weierstrass +% +\subsection{Der Satz von Stone-Weierstrasss +\label{buch:subsetion:stone-weierstrass}} +Der Satz von Stone-Weierstrass behandelt im Gegensatz zu den in +Abschnitt~\ref{buch:subsection:approximation-durch-polynome} +besprochenen Approximationsmethoden nicht nur Funktionen von +reellen Variablen durch Polynome. +Vielmehr kann das Definitionsgebiet irgend eine abgeschlossene +und beschränkte Teilmenge eines reellen oder komplexen Vektorraumes +sein und die Funktionen können Polynome aber auch viel allgemeinere +Funktionen verwendet werden, wie zum Beispiel die Funktionen +$x\mapsto \cos nx$ und $x\mapsto \sin nx$ definiert auf dem +Intervall $[0,2\pi]$. +In diesem Fall liefert der Satz von Stone-Weierstrass die Aussage, +dass sich jede stetige periodische Funktion gleichmässig durch +trigonometrische Polynome approximieren lässt. + +Die Aussage des Satz von Stone-Weierstrass über reelle Funktionen +lässt sich nicht auf komplexe Funktionen erweitern. +Von besonderem Interesse ist jedoch, dass der Beweis des Satz +zeigt, warum solche Aussagen für komplexe Funktionen nicht mehr +zutreffen. +Im Falle der Approximation von komplexen Funktionen $f(z)$ durch Polynome +zwecks Definition von $f(A)$ werden sich daraus Bedingungen an die +Matrix ableiten lassen, die eine konsistente Definition überhaupt +erst ermöglichen werden. + +\subsubsection{Punkte trennen} +Aus den konstanten Funktionen lassen sich durch algebraische +Operationen nur weitere konstante Funktionen erzeugen. +Die konstanten Funktionen sind also nur dann eine genügend +reichhaltige Menge, wenn die Menge $K$ nur einen einzigen Punkt +enthält. +Damit sich Funktionen approximieren lassen, die in zwei Punkten +verschiedene Werte haben, muss es auch unter den zur Approximation +zur Verfügung stehenden Funktionen solche haben, deren Werte sich +in diesen Punkten unterscheiden. +Diese Bedingung wird in der folgenden Definition formalisiert. + +\begin{definition} +Sei $K$ eine beliebige Menge und $A$ eine Menge von Funktionen +$K\to \mathbb{C}$. +Man sagt, $A$ {\em trennt die Punkte von $K$}, wenn es für jedes Paar +\index{Punkte trennen}% +von Punkten $x,y\in K$ eine Funktion $f\in A$ gibt derart, dass +$f(x)\ne f(y)$. +\end{definition} + +Man kann sich die Funktionen $f$, die gemäss dieser Definition die Punkte +von $K$ trennen, als eine Art Koordinaten der Punkte in $K$ vorstellen. +Die Punkte der Teilmenge $K\subset \mathbb{R}^n$ werden zum Beispiel +von den Koordinatenfunktionen $x\mapsto x_i$ getrennt. +Wir schreiben für die $i$-Koordinate daher auch als Funktion $x_i(x)=x_i$. +Zwei verschiedene Punkte $x,y\in K$ unterscheiden sich in mindestens +einer Koordinate. +Für diese Koordinate sind dann die Werte der zugehörigen +Koordinatenfunktion $x_i=x_i(x)\ne x_i(y)=y_i$ verschieden, die +Funktionen $x_1(x)$ bis $x_n(x)$ trennen also die Punkte. + +\begin{beispiel} +Wir betrachten einen Kreis in der Ebene, also die Menge +\[ +S^1 += +\{(x_1,x_2)\;|\; x_1^2 + x_2^2=1\} +\] +$S^1$ ist eine abgeschlossene und beschränkte Menge in $\mathbb{R}^2$. +Die Funktion $x\mapsto x_1$ trennt die Punkte nicht, denn zu jedem +Punkt $(x_1,x_2)\in S^2$ gibt es den an der ersten Achse +gespiegelten Punkt $\sigma(x)=(x_1,-x_2)$, dessen erste Koordinate +den gleichen Wert hat. +Ebenso trennt die Koordinatenfunktion $x\mapsto x_2$ die Punkte nicht. +Die Menge $A=\{ x_1(x), x_2(x)\}$ bestehend aus den beiden +Koordinatenfunktionen trennt dagegen die Punkte von $S^1$, da die Punkte +sich immer in mindestens einem Punkt unterscheiden. + +Man könnte auch versuchen, den Kreis in Polarkoordinaten zu beschreiben. +Die Funktion $\varphi(x)$, die jedem Punkt $x\in S^1$ den Polarwinkel +zuordnet, trennt sicher die Punkte des Kreises. +Zwei verschiedene Punkte auf dem Kreis haben verschieden Polarwinkel. +Die Menge $\{\varphi\}$ trennt also die Punkte von $S^1$. +Allerdings ist die Funktion nicht stetig, was zwar der Definition +nicht widerspricht aber ein Hindernis für spätere Anwendungen ist. +\end{beispiel} + + +\subsubsection{Der Satz von Stone-Weierstrass für reelle Funktionen} +Die Beispiele von Abschnitt~\ref{buch:subsection:approximation-durch-polynome} +haben bezeigt, dass sich reellwertige Funktionen einer reellen +Variable durch Polynome beliebig genau approximieren lassen. +Es wurde sogar eine Methode vorgestellt, die eine auf einem Intervall +gleichmässig konvergente Polynomefolge produziert. +Die Variable $x\in[a,b]$ trennt natürlich die Punkte, die Algebra der +Polynome in der Variablen $x$ enthält also sicher Funktionen, die in +verschiedenen Punkten des Intervalls auch verschiedene Werte annehmen. +Nicht ganz so selbstverständlich ist aber, dass sich daraus bereits +ergibt, dass jede beliebige Funktion sich als Polynome in $x$ +approximieren lässt. +Dies ist der Inhalt des folgenden Satzes von Stone-Weierstrass. + +\begin{figure} +\centering +\includegraphics{chapters/40-eigenwerte/images/wurzel.pdf} +\caption{Konstruktion einer monoton wachsenden Approximationsfolge für +$\sqrt{a}$ +\label{buch:eigenwerte:fig:wurzelverfahren}} +\end{figure} + +\begin{figure} +\centering +\includegraphics[width=\textwidth]{chapters/40-eigenwerte/images/wurzelapprox.pdf} +\caption{Monoton wachsende Approximation der Funktion $t\mapsto\sqrt{t}$ mit +Polynomen $u_n(t)$ nach +\eqref{buch:eigenwerte:eqn:wurzelapproximation} +(links) und der Fehler der Approximation +(rechts). +\label{buch:eigenwerte:fig:wurzelapproximation}} +\end{figure} + +\begin{satz}[Stone-Weierstrass] +\label{buch:satz:stone-weierstrass} +Enthält eine $\mathbb{R}$-Algebra $A$ von stetigen, rellen Funktionen +auf einer kompakten Menge $K$ die konstanten Funktionen und trennt sie +Punkte, d.~h.~für zwei verschiedene Punkte $x,y\in K$ gibt es +immer eine Funktion $f\in A$ mit $f(x)\ne f(y)$, dann ist jede stetige, +reelle Funktion auf $K$ gleichmässig approximierbar durch Funktionen +in $A$. +\end{satz} + +Für den Beweis des Satzes wird ein Hilfsresultat benötigt, welches wir +zunächst ableiten. +Es besagt, dass sich die Wurzelfunktion $t\mapsto\sqrt{t}$ +auf dem Interval $[0,1]$ gleichmässig +von unten durch Polynome approximieren lässt, die in +Abbildung~\ref{buch:eigenwerte:fig:wurzelapproximation} dargestellt +sind. + +\begin{satz} +Die rekursiv definierte Folge von Polynomen +\begin{equation} +u_{n+1}(t) += +u_n(t) + \frac12(t-u_n(t)^2), +\qquad +u_0(t)=0 +\label{buch:eigenwerte:eqn:wurzelapproximation} +\end{equation} +ist monoton wachsend und approximiert die Wurzelfunktion $t\mapsto\sqrt{t}$ +gleichmässig auf dem Intervall $[0,1]$. +\end{satz} + +\begin{figure} +\centering +\includegraphics{chapters/40-eigenwerte/images/minmax.pdf} +\caption{Graphische Erklärung der +Identitäten~\eqref{buch:eigenwerte:eqn:minmax} für +$\max(f(x),g(x))$ und $\min(f(x),g(x))$. +Die purpurrote Kurve stellt den Mittelwert von $f(x)$ und $g(x)$ dar, +die vertikalen grünen Linien haben die Länge der Differenz $|f(x)-g(x)|$. +Das Maximum erhält man, indem man den halben Betrag der Differenz zum +Mittelwert hinzuaddiert, das Minimum erhält man durch Subtraktion +der selben Grösse. +\label{buch:eigenwerte:fig:minmax}} +\end{figure} + +\begin{proof}[Beweis] +Wer konstruieren zunächst das in +Abbildung~\ref{buch:eigenwerte:fig:wurzelverfahren} +visualierte Verfahren, mit dem für jede Zahl $a\in[0,1]$ +die Wurzel $\sqrt{a}$ berechnet werden kann. +Sei $u < \sqrt{a}$ eine Approximation der Wurzel. +Die Approximation ist der exakte Wert der Lösung, wenn $a-u^2=0$. +In jedem anderen Fall muss $u$ um einen Betrag $d$ vergrössert werden. +Natürlich muss immer noch $u+d<\sqrt{a}$ sein. +Man kann die maximal zulässige Korrektur $d$ geometrisch abschätzen, +wie dies in Abbildung~\ref{buch:eigenwerte:fig:wurzelverfahren} +skizziert ist. +Die maximale Steigung des Graphen der Funktion $u\mapsto u^2$ ist $2$, +daher darf man $u$ maximal um die Hälfte der Differenz $a-u^2$ (grün) +vergrössern, also $d=\frac12(a-u^2)$. +Die Rekursionsformel +\[ +u_{n+1} = u_n + d = u_n + \frac12(a-u_n^2) +\] +mit dem Startwert $u_0=0$ liefert daher eine +Folge, die gegen $\sqrt{a}$ konvergiert. +\end{proof} + +\begin{proof}[Beweis des Satzes von Stone-Weierstrass] +Da $A$ eine Algebra ist, ist mit jeder Funktion $f\in A$ für jedes Polynome +$p\in\mathbb{R}[X]$ auch $p(f)$ eine Funktion in $A$. +\begin{enumerate} +\item Schritt: Für jede Funktion $f\in A$ lässt sich auch $|f|$ durch +Funktionen in $A$ beliebig genau durch eine monoton wachsende Folge +von Funktionen approximieren. + +Da $A$ eine Algebra ist, ist $f^2\in A$. +Sei ausserdem $m^2=\sup \{f(x)^2\;|\;x\in K\}$, so dass $f^2/m^2$ eine Funktion +mit Werten im Intervall $[0,1]$ ist. +Die Funktionen $f_n(x)=mu_n(f(x)^2/m^2)$ sind ebenfalls in $A$ und +approximieren gleichmässig $\sqrt{f(x)^2}=|f(x)|$. +\item Schritt: Für zwei Funktionen $f,g\in A$ gibt es eine monoton wachsende +Folge, die $\max(f,g)$ gleichmässig beliebig genau approximiert +und eine monoton fallende Folge, die $\min(f,g)$ gleichmässig beliebig +genau approximiert. + + +Diese Folgen können aus der Approximationsfolge für den Betrag einer +Funktion und den Identitäten +\begin{equation} +\begin{aligned} +\max(f,g) &= \frac12(f+g+|f-g|) \\ +\min(f,g) &= \frac12(f+g-|f-g|) +\end{aligned} +\label{buch:eigenwerte:eqn:minmax} +\end{equation} +gefunden werden, die in Abbildung~\ref{buch:eigenwerte:fig:minmax} +graphisch erklärt werden. +\item Schritt: Zu zwei beliebigen Punkten $x,y\in K$ und Werten +$\alpha,\beta\in\mathbb{R}$ gibt es immer eine Funktion in $A$, +die in den Punkten $x,y$ die vorgegebenen Werte $\alpha$ bzw.~$\beta$ +annimmt. +Da $A$ die Punkte trennt, gibt es eine Funktion $f_0$ mit $f_0(x)\ne f_0(y)$. +Dann ist die Funktion +\[ +f(t) += +\beta + \frac{f_0(t)-f_0(y)}{f_0(x)-f_0(y)}(\alpha-\beta) +\] +wohldefiniert und nimmt die verlangten Werte an. +\item Schritt: Zu jeder stetigen Funktion $f\colon K\to\mathbb{R}$, jedem +Punkt $x\in K$ und jedem $\varepsilon>0$ gibt es eine Funktion $g\in A$ derart, +dass $g(x)=f(x)$ und $g(y) \le f(y)+\varepsilon$ für alle $y\in K$. + +Zu jedem $z\in K$ gibt es eine Funktion in $A$ mit +$h_z(x)=f(x)$ und $h_z(z) \le f(z)+\frac12\varepsilon$. +Wegen der Stetigkeit von $h_z$ gibt es eine Umgebung $V_z$ von $z$, in der +immer noch gilt $h_z(y)\le f(y)+\varepsilon$ für $y\in V_z$. +Wegen der Kompaktheit von $K$ kann man endlich viele Punkte $z_i$ wählen +derart, dass die $V_{z_i}$ immer noch $K$ überdecken. +Dann erfüllt die Funktion +\( +g(z) = \inf h_{z_i} +\) +die Bedingungen $g(x) = f(x)$ und für $z\in V_{z_i}$ +\[ +g(z) = \inf_{j} h_{z_j}(z) \le h_{z_i}(z) \le f(z)+\varepsilon. +\] +Ausserdem ist $g(z)$ nach dem zweiten Schritt beliebig genau durch +Funktionen in $A$ approximierbar. +\item Schritt: Jede stetige Funktion $f\colon K\to\mathbb{R}$ kann +beliebig genau durch Funktionen in $A$ approximiert werden. +Sei $\varepsilon > 0$. + +Nach dem vierten Schritt gibt es für jedes $y\in K$ eine Funktion $g_y$ +derart, dass $g_y(y)=f(y)$ und $g_y(x) \le f(x) + \varepsilon$ für +$x\in K$. +Da $g_y$ stetig ist, gilt ausserdem $g_y(x) \ge f(x) -\varepsilon$ in +einer Umgebung $U_y$ von $y$. +Da $K$ kompakt ist, kann man endlich viele $y_i$ derart, dass die $U_{y_i}$ +immer noch ganz $K$ überdecken. +Die Funktion $g=\sup g_{y_i}$ erfüllt dann überall $g(x) \le f(x)+\varepsilon$, +weil jede der Funktionen $g_y$ diese Ungleichung erfüllt. +Ausserdem gilt für $x\in V_{x_j}$ +\[ +g(x) = \sup_i g_{x_i}(x) \ge g_{x_j}(x) \ge f(x)-\varepsilon. +\] +Somit ist +\[ +|f(x)-g(x)| \le \varepsilon. +\] +Damit ist $f(x)$ beliebig nahe an der Funktion $g(x)$, die sich +beliebig genau durch Funktionen aus $A$ approximieren lässt. +\qedhere +\end{enumerate} +\end{proof} + +Im ersten Schritt des Beweises ist ganz entscheidend, dass man die +Betragsfunktion konstruieren kann. +Daraus leiten sich dann alle folgenden Konstruktionen ab. + +\subsubsection{Anwendung auf symmetrische und hermitesche Matrizen} +Für symmetrische und hermitesche Matrizen $A$ ist bekannt, dass die +Eigenwerte reell sind, also das Spektrum $\operatorname{A}\subset\mathbb{R}$ +ist. +Für eine Funktion $\mathbb{R}\to \mathbb{R}$ lässt sich nach dem +Satz~\ref{buch:satz:stone-weierstrass} immer eine Folge $p_n$ von +approximierenden Polynomen in $x$ finden, die auf $\operatorname{Sp}(A)$ +gleichmässig konvergiert. +Die Matrix $f(A)$ kann dann definiert werden also der Grenzwert +\[ +f(A) = \lim_{n\to\infty} p_n(A). +\] +Da diese Matrizen auch diagonalisierbar sind, kann man eine Basis +aus Eigenvektoren verwenden. +Die Wirkung von $p_n(A)$ auf einem Eigenvektor $v$ zum Eigenwert $\lambda$ +ist +\[ +p_n(A)v += +(a_kA^k + a_{k-1}A^{k-1}+\dots +a_2A^2+a_1A+a_0I)v += +(a_k\lambda^k + a_{k-1}\lambda^{k-1}+\dots + a_2\lambda^2 + a_1\lambda + a_0)v += +p_n(\lambda)v. +\] +Im Grenzwert wirkt $f(A)$ daher durch Multiplikation eines Eigenvektors +mit $f(\lambda)$, die Matrix $f(A)$ hat in der genannten Basis die +Diagonalform +\[ +A=\begin{pmatrix} +\lambda_1& & & \\ + &\lambda_2& & \\ + & &\ddots& \\ + & & &\lambda_n +\end{pmatrix} +\qquad\Rightarrow\qquad +f(A)=\begin{pmatrix} +f(\lambda_1)& & & \\ + &f(\lambda_2)& & \\ + & &\ddots& \\ + & & &f(\lambda_n) +\end{pmatrix}. +\] + +\begin{satz} +\label{buch:eigenwerte:satz:spektralsatz} +Ist $A$ symmetrische oder selbstadjungiert Matrix und $f$ eine Funktion +auf dem Spektrum $\operatorname{Sp}(A)$ von $A$. +Dann gibt es genau eine Matrix $f(A)$, die Grenzwert jeder beliebigen +Folge $p_n(A)$ für Polynomfolgen, die $\operatorname{Sp}(A)$ gleichmässig +gegen $f$ konvergieren. +\end{satz} + +\subsubsection{Unmöglichkeit der Approximation von $z\mapsto \overline{z}$ +in $\mathbb{C}[z]$} +Der Satz~\ref{buch:satz:stone-weierstrass} von Stone-Weierstrass für +reelle Funktionen gilt nicht für komplexe Funktionen. +In diesem Abschnitt zeigen wir, dass sich die Funktion $z\mapsto\overline{z}$ +auf der Einheitskreisscheibe $K=\{z\in\mathbb{C}\;|\; |z|\le 1\}$ nicht +gleichmässig durch Polynome $p(z)$ mit komplexen Koeffizienten approximieren +lässt. + +Wäre eine solche Approximation möglich, dann könnte man $\overline{z}$ +auch durch eine Potenzreihe +\[ +\overline{z} += +\sum_{k=0}^\infty a_kz^k +\] +darstellen. +Das Wegintegral beider Seiten über den Pfad $\gamma(t) = e^{it}$ +in der komplexen Ebene ist +\begin{align*} +\oint_\gamma z^k\,dz +&= +\int_0^{2\pi} e^{ikt} ie^{it}\,dt += +i\int_0^{2\pi} e^{it(k+1)}\,dt += +i\biggl[ \frac{1}{i(k+1)} e^{it(k+1)}\biggr]_0^{2\pi} += +0 +\\ +\oint_\gamma +\sum_{k=0}^\infty a_kz^k +\,dz +&= +\sum_{k=0}^\infty a_k \oint_\gamma z^k\,dz += +\sum_{k=0}^\infty a_k\cdot 0 += +0 +\\ +\oint_\gamma \overline{z}\,dz +&= +\int_0^{2\pi} e^{it} ie^{it}\,dt += +i\int_0^{2\pi} \,dt = 2\pi i, +\end{align*} +dabei wurde $\overline{\gamma}(t)=e^{-it}$ verwendet. +Insbesondere widersprechen sich die beiden Integrale. +Die ursprüngliche Annahmen, $\overline{z}$ lasse sich durch Polynome +gleichmässig approximieren, muss daher verworfen werden. + +\subsubsection{Der Satz von Stone-Weierstrass für komplexe Funktionen} +Der Satz von Stone-Weierstrass kann nach dem vorangegangene Abschnitt +also nicht gelten. +Um den Beweis des Satzes~\ref{buch:satz:stone-weierstrass} +auf komplexe Zahlen zu übertragen, muss im ersten Schritt ein Weg +gefunden werden, den Betrag einer Funktion zu approximieren. + +Im reellen Fall geschah dies, indem zunächst eine Polynom-Approximation +für die Quadratwurzel konstruiert wurde, die dann auf das Quadrat einer +Funktion angewendet wurde. +Der Betrag einer komplexen Zahl $z$ ist aber nicht allein aus $z$ +berechenbar, man braucht in irgend einer Form Zugang zu Real- +und Imaginärteil. +Zum Beispiel kann man Real- und Imaginärteil als +$\Re z= \frac12(z+\overline{z})$ und $\Im z = \frac12(z-\overline{z})$ +bestimmen. +Kenntnis von Real- und Imaginärteil ist als gleichbedeutend mit +der Kenntnis der komplex Konjugierten $\overline{z}$. +Der Betrag lässt sich daraus als $|z|^2 = z\overline{z}$ finden. +Beide Beispiele zeigen, dass man den im Beweis benötigten Betrag +nur dann bestimmen kann, wenn mit jeder Funktion aus $A$ auch die +komplex konjugierte Funktion zur Verfügung steht. + +\begin{satz}[Stone-Weierstrass] +Enthält eine $\mathbb{C}$-Algebra $A$ von stetigen, komplexwertigen +Funktionen auf einer kompakten Menge $K$ die konstanten Funktionen, +trennt sie Punkte und ist ausserdem mit jeder Funktion $f\in A$ auch +die komplex konjugiert Funktion $\overline{f}\in A$, +dann lässt sich jede stetige, komplexwertige Funktion +auf $K$ gleichmässig durch Funktionen aus $A$ approximieren. +\end{satz} + +Mit Hilfe der konjugiert komplexen Funktion lässt sich immer eine +Approximation für die Betragsfunktion finden, so dass sich der +Beweis des reellen Satzes von Stone-Weierstrass übertragen lässt. + +% +% Normale Matrizen +% +\subsection{Normale Matrizen +\label{buch:subsection:normale-matrizen}} +Aus dem Satz von Stone-Weierstrass für komplexe Matrizen kann man +jetzt einen Spektralsätze für eine etwas grössere Klasse von Matrizen +ableiten, als im Satz~\ref{buch:eigenwerte:satz:spektralsatz} +möglich war. +Der Satz besagt, dass für eine beliebige Funktion $f$ auf dem Spektrum +$\operatorname{Sp}(A)$ eine Folge von auf $\operatorname{Sp}(A)$ +gleichmässig konvergenten, approximierenden Polynomen +$p_n(z,\overline{z})$ gefunden werden kann. +Doch wie soll jetzt aus dieser Polynomfolge ein Kandidat von $f(A)$ +gefunden werden? + +Zunächst stellt sich die Frage, was für die Variable $\overline{z}$ +eingesetzt werden soll. +$1\times 1$-Matrizen sind notwendigerweise diagonal, also muss +man in diesem Fall die Matrix $\overline{A}$ für die Variable +$\overline{z}$ eingesetzt werden. +Dies erklärt aber noch nicht, wie für $n\times n$-Matrizen +vorzugehen ist, wenn $n>1$ ist. + +Die Notwendigkeit, die Variable $\overline{z}$ hinzuzunehmen +ergab sich aus der Anforderung, dass der Betrag aus $|z|^2=z\overline{z}$ +konstruiert werden können muss. +Insbesondere muss beim Einsetzen eine Matrix entstehen, die nur +positive Eigenwerte hat. +Für eine beliebige komplexe $n\times n$-Matrix $A$ ist aber +$A\overline{A}$ nicht notwendigerweise positiv, wie das Beispiel +\[ +A += +\begin{pmatrix}0&i\\i&0\end{pmatrix} +\qquad +\Rightarrow +\qquad +A\overline{A} += +\begin{pmatrix}0&i\\-i&0\end{pmatrix} +\begin{pmatrix}0&-i\\i&0\end{pmatrix} += +\begin{pmatrix} +-1&0\\ + 0&-1 +\end{pmatrix} += +-I +\] +zeigt. +Eine positive Matrix entsteht dagegen immer, wenn man statt +$A$ die Adjungierte $A^*=\overline{A}^t$ verwendet. + +Die Substitution von $A$ für $z$ und $A^*$ für $\overline{z}$ +in einem Polynom $p(z,\overline{z})$ ist nicht unbedingt eindeutig. +Schon das Polynom $p(z,\overline{z})=z\overline{z}$ kann man auch +als $\overline{z}z$ schreiben. +Damit die Substition eindeutig wird, muss man also fordern, dass +$AA^* = A^*A$ ist. + +\begin{definition} +Eine Matrix $A\in M_n(\mathbb{C})$ heisst {\em normal}, wenn $AA^*=A^*A$ gilt. +\end{definition} + +\subsubsection{Beispiele normaler Matrizen} + +\begin{enumerate} +\item +Hermitesche und Antihermitesche Matrizen sind normal, denn solche +Matrizen erfüllen $A^*=\pm A$ und damit +\( +AA^* = \pm A^2 = A^*A. +\) +\item +Symmetrische und antisymmetrische Matrizen sind normal, +denn aus $A=A^t$ folgt $A^*=\overline{A}^t$ und damit +\begin{align*} +AA^* &= A\overline{A}^t = +\\ +A^*A &= +\end{align*} +\item +Unitäre Matrizen $U$ sind normal, das $UU^*=I=U^*U$ gilt. +\item +Orthogonale Matrizen sind normal wegen $O(n) = U(n) \cap M_n(\mathbb{R})$. +\end{enumerate} + +Jede Matrix lässt sich durch Wahl einer geeigneten Basis in Jordansche +Normalform bringen. +Allerdings sind Jordan-Blöcke keine normalen Matrizen, wie der folgende +Satz zeigt. + +\begin{satz} +Eine Dreiecksmatrix ist genau dann normal, wenn sie diagonal ist. +\end{satz} + +\begin{proof}[Beweis] +Sei $A$ eine obere Dreiecksmatrix, das Argument für eine untere Dreiecksmatrix +funktioniert gleich. +Wir berechnen ein Diagonalelement für beide Produkte $AA^*$ und $A^*A$. +Dazu brauchen wir die Matrixelemente von $A$ und $A^*$. +Bezeichnen wir die Matrixelemente von $A$ mit $a_{ij}$, dann hat $A^*$ +die Matrixelemente $(A^*)_{ij}=\overline{a}_{ji}$. +Damit kann man die Diagonalelemente der Produkte als +\begin{align*} +(AA^*)_{ii} +&= +\sum_{j=1}^n a_{ij}\overline{a}_{ij} += +\sum_{j=i}^n |a_{ij}|^2 +\\ +(A^*A)_{ii} +&= +\sum_{j=1}^n \overline{a}_{ji}a_{ji} += +\sum_{j=1}^i |a_{ji}|^2 +\end{align*} +ausrechnen. +Der obere Ausdruck ist die quadrierte Länge der Zeile $i$ der Matrix $A$, +der untere ist die quadrierte Länge der Spalte $i$. +Da die Matrix eine obere Dreiecksmatrix ist, hat die erste Spalte höchstens +ein einziges von $0$ verschiedenes Element. +Daher kann auch die erste Zeile höchstens dieses eine Elemente haben. +Die Matrix hat daher Blockstruktur mit einem $1\times 1$-Block in der +linken obere Ecke und einem $n-1$-dimensionalen Block für den Rest. +Durch Wiederholen des Arguments für den $(n-1)\times (n-1)$-Block +kann man so schrittweise schliessen, dass die Matrix $A$ diagonal sein muss. +\end{proof} + + +\begin{satz} +Sind $A$ und $B$ normale Matrizen und $AB^*=B^*A$, dann sind auch $A+B$ +und $AB$ normal. +\end{satz} + +\begin{proof}[Beweis] +Zunächst folgt aus $AB^*=B^*A$ auch +$A^*B = (B^*A)^* = (AB^*)^* = BA^*$. +Der Beweis erfolgt durch Nachrechnen: +\begin{align*} +(A+B)(A+B)^* +&= +AA^* + AB^* + BA^*+BB^* +\\ +(A+B)^*(A+B) +&= +A^*A + A^*B + B^*A + B^*B +\end{align*} +Die ersten und letzten Terme auf der rechten Seite stimmen überein, weil +$A$ und $B$ normal sind. +Die gemischten Terme stimmen überein wegen der Vertauschbarkeit von +$A$ und $B^*$. + +Für das Produkt rechnet man +\begin{align*} +(AB)(AB)^* +&= ABB^*A^* = AB^*BA^* += B^*AA^*B += +B^*A^*AB += +(AB)^*(AB), +\end{align*} +was zeigt, dass auch $AB$ normal ist. +\end{proof} + +\subsubsection{Äquivalente Bedingungen} +Es gibt eine grosse Zahl äquivalenter Eigenschaften für normale Matrizen. +Die folgenden Eigenschaften sind äquivalent: +\begin{enumerate} +\item +Die Matrix $A$ ist mit einer unitären Matrix diagonalisierbar +\item +Es gibt eine orthonormale Basis von Eigenvektoren von $A$ für $\mathbb{C}^n$ +\item +Für jeden Vektor $x\in\mathbb{C}^n$ gilt $\|Ax\|=\|A^*x\|$ +\item +Die Forbenius-Norm der Matrix $A$ kann mit den Eigenwerten $\lambda_i$ +von $A$ berechnet werden: +$\operatorname{Spur}(A^*A) = \sum_{i=1}^n |\lambda_i|^2$ +\item +Der hermitesche Teil $\frac12(A+A^*)$ und der antihermitesche Teil +$\frac12(A-A^*)$ von $A$ vertauschen. +\item +$A^*$ ist ein Polynom vom Grad $n-1$ in $A$. +\item +Es gibt eine unitäre Matrix $U$ derart, dass $A^*=AU$ +\item +Es gibt eine Polarzerlegugn $A=UP$ mit einer unitären Matrix $U$ und +einer postiv semidefiniten Matrix $P$, die untereinander vertauschen. +\item +Es gibt eine Matrix $N$ mit verschiedenen Eigenwerten, mit denen $A$ +vertauscht. +\item +Wenn $A$ die (absteigend geordneten) singulärwerte $\sigma_i$ und +die absteigend geordneten Eigenwerte $\lambda_i$ hat, +dann it $\sigma_i=|\lambda_i|$. +\end{enumerate} + + + + diff --git a/buch/chapters/40-eigenwerte/uebungsaufgaben/4006.maxima b/buch/chapters/40-eigenwerte/uebungsaufgaben/4006.maxima new file mode 100644 index 0000000..9c97a2b --- /dev/null +++ b/buch/chapters/40-eigenwerte/uebungsaufgaben/4006.maxima @@ -0,0 +1,121 @@ +/* + * 4006.maxima + * + * (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule + */ + +A: matrix([ a+b*%i, 1, 0, 0 ], + [ 0, a+b*%i, 0, 0 ], + [ 0, 0, a-b*%i, 1 ], + [ 0, 0, 0, a-b*%i ]); + +expand(charpoly(A, x)); + +S: (1/sqrt(2)) * matrix([ 1, -%i, 0, 0 ], + [ 0, 0, 1, -%i ], + [ 1, %i, 0, 0 ], + [ 0, 0, 1, %i ]); + +B: expand(invert(S).A.S); + + +C: subst(2, a, B); +C: subst(3, b, C); +A: subst(2, a, A); +A: subst(3, b, A); + +U: matrix([ 1, 0, 1, 0 ], + [ 0, 1, 1, 2 ], + [ 0, 0, 1, 0 ], + [ 0, 0, 0, 1 ]); +V: matrix([ 1, 0, 0, 0 ], + [ 0, 1, 0, 0 ], + [ 0, 1, 1, 0 ], + [ 1, 0, 0, 1 ]); +T: U.V; +invert(T); + +D: T.C.invert(T); + +p: expand(charpoly(D, x)); + +factor(p); + +lambda: 2+3*%i; + +Dlambda: ratsimp(expand(D - lambda * identfor(D))); +rank(Dlambda); +/* D2: expand(Dlambda.Dlambda); */ +/* rank(D2); */ + +load(functs); + +/* +E: Dlambda; +E[1]: (rational(1/E[1,1]))*E[1]$ +E[2]: E[2] - E[2,1] * E[1]$ +E[3]: E[3] - E[3,1] * E[1]$ +E[4]: E[4] - E[4,1] * E[1]$ +E: ratsimp(E)$ + +E[2]: (rational(1/E[2,2])) * E[2]$ +E[3]: E[3] - E[3,2] * E[2]$ +E[4]: E[4] - E[4,2] * E[2]$ +E: ratsimp(E)$ + +E[3]: (rational(1/E[3,3])) * E[3]$ +E[4]: E[4] - E[4,3] * E[3]$ +E: ratsimp(E)$ + +E[2]: E[2] - E[2,3] * E[3]$ +E[1]: E[1] - E[1,3] * E[3]$ +E: ratsimp(E)$ + +E[1]: E[1] - E[1,2] * E[2]$ +E: ratsimp(E)$ + +E; +*/ + +b1: matrix([1+%i],[2+2*%i],[%i],[1]); +ratsimp(D.b1 - lambda*b1); + +G: Dlambda; +G: addcol(G, b1); +G[1]: (rational(1/G[1,1]))*G[1]$ +G[2]: G[2] - G[2,1] * G[1]$ +G[3]: G[3] - G[3,1] * G[1]$ +G[4]: G[4] - G[4,1] * G[1]$ +G: ratsimp(G)$ + +G[2]: (rational(1/G[2,2])) * G[2]$ +G[3]: G[3] - G[3,2] * G[2]$ +G[4]: G[4] - G[4,2] * G[2]$ +G: ratsimp(G)$ + +G[3]: (rational(1/G[3,3])) * G[3]$ +G[4]: G[4] - G[4,3] * G[3]$ +G: ratsimp(G)$ + +G[2]: G[2] - G[2,3] * G[3]$ +G[1]: G[1] - G[1,3] * G[3]$ +G: ratsimp(G)$ + +G[1]: G[1] - G[1,2] * G[2]$ +G: ratsimp(G)$ + +G; + +b2: matrix([ G[1,5] ], [ G[2,5] ], [ G[3,5] ], [ G[4,5] ]); + +expand(D.b2 - lambda * b2 - b1); + +c1: 2 * realpart(b1); +d1: 2 * imagpart(b1); +c2: 2 * realpart(b2); +d2: 2 * imagpart(b2); + +D.c1 - 2 * c1 + 3 * d1; +D.d1 - 3 * c1 - 2 * d1; +D.c2 - 2 * c2 + 3 * d2 - c1; +D.d2 - 3 * c2 - 2 * d2 - d1; diff --git a/buch/chapters/40-eigenwerte/uebungsaufgaben/4006.tex b/buch/chapters/40-eigenwerte/uebungsaufgaben/4006.tex new file mode 100644 index 0000000..7ccc065 --- /dev/null +++ b/buch/chapters/40-eigenwerte/uebungsaufgaben/4006.tex @@ -0,0 +1,97 @@ +Man findet eine Basis, in der die Matrix +\[ +A=\begin{pmatrix*}[r] + -5& 2& 6& 0\\ +-11& 12& -3& -15\\ + -7& 0& 9& 4\\ + 0& 5& -7& -8 +\end{pmatrix*} +\] +die relle Normalform bekommt. + +\begin{loesung} +Das charakteristische Polynom der Matrix ist +\[ +\chi_{A}(\lambda) += +\lambda^4-8\lambda^3+42\lambda^2-104\lambda+169 += +(\lambda^2-4\lambda+13)^2. +\] +Es hat die doppelten Nullstellen +\[ +\lambda_\pm += +2\pm \sqrt{4-13} += +2\pm \sqrt{-9} += +2\pm 3i. +\] +Zur Bestimmung der Basis muss man jetzt zunächst den Kern von +$A_+=A-\lambda_+I$ bestimmen, zum Beispiel mit Hilfe des Gauss-Algorithmus, +man findet +\[ +b_1 += +\begin{pmatrix} +1+i\\ +2+2i\\ +i\\ +1 +\end{pmatrix}. +\] +Als nächstes braucht man einen Vektor $b_1\in \ker A_+^2$, der +$b_1$ auf $b_1+\lambda_+b_2$ abbildet. +Durch Lösen des Gleichungssystems $Ab_2-\lambda_+ b_2=b_1$ findet man +\[ +b_2 += +\begin{pmatrix} +2-i\\3\\2\\0 +\end{pmatrix} +\qquad\text{und damit weiter}\qquad +\overline{b}_1 += +\begin{pmatrix} +1-i\\ +2-2i\\ +-i\\ +1 +\end{pmatrix},\quad +\overline{b}_2 += +\begin{pmatrix} +2+i\\3\\2\\0 +\end{pmatrix}. +\] +Als Basis für die reelle Normalform von $A$ kann man jetzt die Vektoren +\begin{align*} +c_1 +&= +b_1+\overline{b}_1 = \begin{pmatrix}2\\4\\0\\2\end{pmatrix},& +d_1 +&= +\frac{1}{i}(b_1-\overline{b}_1) = \begin{pmatrix}2\\4\\2\\0\end{pmatrix},& +c_2 +&= +b_2+\overline{b}_2 = \begin{pmatrix}4\\6\\4\\0\end{pmatrix},& +d_2 +&= +\frac{1}{i}(b_2-\overline{b}_2) = \begin{pmatrix}-2\\0\\0\\0\end{pmatrix} +\end{align*} +verwenden. +In dieser Basis hat $A$ die Matrix +\[ +A' += +\begin{pmatrix*}[r] + 2& 3& 1& 0\\ +-3& 2& 0& 1\\ + 0& 0& 2& 3\\ + 0& 0&-3& 2 +\end{pmatrix*}, +\] +wie man einfach nachrechnen kann. +\end{loesung} + |