diff options
54 files changed, 2778 insertions, 52 deletions
diff --git a/buch/chapters/30-endlichekoerper/uebungsaufgaben/3003.tex b/buch/chapters/30-endlichekoerper/uebungsaufgaben/3003.tex index 8a83256..5dea881 100644 --- a/buch/chapters/30-endlichekoerper/uebungsaufgaben/3003.tex +++ b/buch/chapters/30-endlichekoerper/uebungsaufgaben/3003.tex @@ -46,7 +46,7 @@ Q(2)Q(1)Q(3)Q(4) \begin{pmatrix} 4&-17\\ -11&47 \end{pmatrix}. \end{align*} Daraus kann man ablesen, dass $s=4$ und $t=-17$, tatsächlich ist -$4\cdot 47-47\cdot 11=188-187=1$. +$4\cdot 47-17\cdot 11=188-187=1$. Wir schliessen daraus, dass $-17=30\in\mathbb{F}_{47}$ die multiplikative Inverse von $b=11$ ist. Die Rechnung $11\cdot 30 = 330 = 7\cdot 47 + 1$ zeigt, dass dies diff --git a/buch/chapters/30-endlichekoerper/uebungsaufgaben/3004.tex b/buch/chapters/30-endlichekoerper/uebungsaufgaben/3004.tex index 046ac94..deb15dc 100644 --- a/buch/chapters/30-endlichekoerper/uebungsaufgaben/3004.tex +++ b/buch/chapters/30-endlichekoerper/uebungsaufgaben/3004.tex @@ -65,19 +65,19 @@ Die Gauss-Tableaux sind \begin{align*} \begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|} \hline - 1 & 1 & 0 & 0 & 1\\ - 0 & 1 & 1 & 1 & 0\\ - 1 & 1 & 1 & 1 & 0\\ - 0 & 1 & 1 & 0 & 1\\ + 1 & 1 & 0 & 0 & 0\\ + 0 & 1 & 1 & 1 & 1\\ + 1 & 1 & 1 & 1 & 1\\ + 0 & 1 & 1 & 0 & 0\\ \hline \end{tabular} &\to \begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|} \hline - 1 & 1 & 0 & 0 & 1\\ - 0 & 1 & 1 & 1 & 0\\ + 1 & 1 & 0 & 0 & 0\\ + 0 & 1 & 1 & 1 & 1\\ 0 & 0 & 1 & 1 & 1\\ - 0 & 1 & 1 & 0 & 1\\ + 0 & 1 & 1 & 0 & 0\\ \hline \end{tabular} %\\ @@ -85,8 +85,8 @@ Die Gauss-Tableaux sind \to \begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|} \hline - 1 & 1 & 0 & 0 & 1\\ - 0 & 1 & 1 & 1 & 0\\ + 1 & 1 & 0 & 0 & 0\\ + 0 & 1 & 1 & 1 & 1\\ 0 & 0 & 1 & 1 & 1\\ 0 & 0 & 0 & 1 & 1\\ \hline @@ -95,8 +95,8 @@ Die Gauss-Tableaux sind \to \begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|} \hline - 1 & 1 & 0 & 0 & 1\\ - 0 & 1 & 1 & 0 & 1\\ + 1 & 1 & 0 & 0 & 0\\ + 0 & 1 & 1 & 0 & 0\\ 0 & 0 & 1 & 0 & 0\\ 0 & 0 & 0 & 1 & 1\\ \hline @@ -106,8 +106,8 @@ Die Gauss-Tableaux sind \to \begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|} \hline - 1 & 1 & 0 & 0 & 1\\ - 0 & 1 & 0 & 0 & 1\\ + 1 & 1 & 0 & 0 & 0\\ + 0 & 1 & 0 & 0 & 0\\ 0 & 0 & 1 & 0 & 0\\ 0 & 0 & 0 & 1 & 1\\ \hline @@ -118,7 +118,7 @@ Die Gauss-Tableaux sind \begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|} \hline 1 & 0 & 0 & 0 & 0\\ - 0 & 1 & 0 & 0 & 1\\ + 0 & 1 & 0 & 0 & 0\\ 0 & 0 & 1 & 0 & 0\\ 0 & 0 & 0 & 1 & 1\\ \hline @@ -128,7 +128,7 @@ In der ersten Zeile stehen die Schritt der Vorwärtsreduktion, in der zweiten die Schritte des Rückwärtseinsetzens. Als Lösung liest man ab \[ -x=\begin{pmatrix}0\\1\\0\\1 \end{pmatrix}, +x=\begin{pmatrix}0\\0\\0\\1 \end{pmatrix}, \] die Korrektheit kann man leicht durch Einsetzen überprüfen. \item diff --git a/buch/chapters/40-eigenwerte/Makefile.inc b/buch/chapters/40-eigenwerte/Makefile.inc index b15f476..5f30ab5 100644 --- a/buch/chapters/40-eigenwerte/Makefile.inc +++ b/buch/chapters/40-eigenwerte/Makefile.inc @@ -12,4 +12,7 @@ CHAPTERFILES = $(CHAPTERFILES) \ chapters/40-eigenwerte/spektraltheorie.tex \ chapters/40-eigenwerte/uebungsaufgaben/4001.tex \ chapters/40-eigenwerte/uebungsaufgaben/4002.tex \ + chapters/40-eigenwerte/uebungsaufgaben/4003.tex \ + chapters/40-eigenwerte/uebungsaufgaben/4004.tex \ + chapters/40-eigenwerte/uebungsaufgaben/4005.tex \ chapters/40-eigenwerte/chapter.tex diff --git a/buch/chapters/40-eigenwerte/chapter.tex b/buch/chapters/40-eigenwerte/chapter.tex index e769b38..5f8cb83 100644 --- a/buch/chapters/40-eigenwerte/chapter.tex +++ b/buch/chapters/40-eigenwerte/chapter.tex @@ -34,8 +34,8 @@ Dies wird in Abschnitt~\ref{buch:section:spektraltheorie} beschrieben. \input{chapters/40-eigenwerte/grundlagen.tex} \input{chapters/40-eigenwerte/normalformen.tex} \input{chapters/40-eigenwerte/spektralradius.tex} -\input{chapters/40-eigenwerte/numerisch.tex} \input{chapters/40-eigenwerte/spektraltheorie.tex} +\input{chapters/40-eigenwerte/numerisch.tex} \section*{Übungsaufgaben} \rhead{Übungsaufgaben} @@ -44,5 +44,7 @@ Dies wird in Abschnitt~\ref{buch:section:spektraltheorie} beschrieben. \uebungsaufgabe{4001} \uebungsaufgabe{4002} \uebungsaufgabe{4003} +\uebungsaufgabe{4004} +\uebungsaufgabe{4005} \end{uebungsaufgaben} diff --git a/buch/chapters/40-eigenwerte/grundlagen.tex b/buch/chapters/40-eigenwerte/grundlagen.tex index d984452..ffc452b 100644 --- a/buch/chapters/40-eigenwerte/grundlagen.tex +++ b/buch/chapters/40-eigenwerte/grundlagen.tex @@ -16,6 +16,36 @@ gestreckt werden. Gelingt es, eine Basis aus solchen sogenanten {\em Eigenvektoren} zu finden, dann kann man die Matrix $A$ durch Basiswechsel in diese Form bringen. +\begin{figure} +\centering +\includegraphics[width=\textwidth]{chapters/40-eigenwerte/images/kernbild.pdf} +\caption{Iterierte Kerne und Bilder einer $3\times 3$-Matrix mit Rang~2. +Die abnehmend geschachtelten iterierten Bilder +$\mathcal{J}^1(A) \subset \mathcal{J}^2(A)$ +sind links dargestellt, die zunehmen geschachtelten iterierten Kerne +$\mathcal{K}^1(A) \subset \mathcal{K}^2(A)$ rechts. +\label{buch:eigenwerte:img:kernbild}} +\end{figure} + +\begin{figure} +\centering +\includegraphics[width=\textwidth]{chapters/40-eigenwerte/images/kombiniert.pdf} +\caption{Iterierte Kerne und Bilder einer $3\times 3$-Matrix mit Rang~2. +Da $\dim\mathcal{J}^2(A)=1$ und $\dim\mathcal{J}^1(A)=2$ ist, muss es +einen Vektor in $\mathcal{J}^1(A)$ geben, der von $A$ auf $0$ abgebildet +wird, der also auch im Kern $\mathcal{K}^1(A)$ liegt. +Daher ist $\mathcal{K}^1(A)$ die Schnittgerade von $\mathcal{J}^1(A)$ und +$\mathcal{K}^2(A)$. +Man kann auch gut erkennen, dass +$\mathbb{R}^3 += +\mathcal{K}^1(A)\oplus \mathcal{J}^1(A) += +\mathcal{K}^2(A) \oplus \mathcal{J}^2(A)$ +ist. +\label{buch:eigenwerte:img:kombiniert}} +\end{figure} + % % Kern und Bild von Matrixpotenzen % diff --git a/buch/chapters/40-eigenwerte/images/Makefile b/buch/chapters/40-eigenwerte/images/Makefile index db00dac..753153d 100644 --- a/buch/chapters/40-eigenwerte/images/Makefile +++ b/buch/chapters/40-eigenwerte/images/Makefile @@ -3,7 +3,7 @@ # # (c) 2020 Prof Dr Andreas Müller, Hochschule Rappersil # -all: sp.pdf nilpotent.pdf +all: sp.pdf nilpotent.pdf kernbild.pdf kombiniert.pdf sp.pdf: sp.tex sppaths.tex pdflatex sp.tex @@ -14,3 +14,8 @@ sppaths.tex: spbeispiel.m nilpotent.pdf: nilpotent.tex pdflatex nilpotent.tex +kernbild.pdf: kernbild.tex bild2.jpg kern2.jpg + pdflatex kernbild.tex + +kombiniert.pdf: kombiniert.tex kombiniert.jpg + pdflatex kombiniert.tex diff --git a/buch/chapters/40-eigenwerte/images/bild1.jpg b/buch/chapters/40-eigenwerte/images/bild1.jpg Binary files differnew file mode 100644 index 0000000..879fae8 --- /dev/null +++ b/buch/chapters/40-eigenwerte/images/bild1.jpg diff --git a/buch/chapters/40-eigenwerte/images/bild2.jpg b/buch/chapters/40-eigenwerte/images/bild2.jpg Binary files differnew file mode 100644 index 0000000..2597c95 --- /dev/null +++ b/buch/chapters/40-eigenwerte/images/bild2.jpg diff --git a/buch/chapters/40-eigenwerte/images/drei.jpg b/buch/chapters/40-eigenwerte/images/drei.jpg Binary files differnew file mode 100644 index 0000000..35f9034 --- /dev/null +++ b/buch/chapters/40-eigenwerte/images/drei.jpg diff --git a/buch/chapters/40-eigenwerte/images/kern1.jpg b/buch/chapters/40-eigenwerte/images/kern1.jpg Binary files differnew file mode 100644 index 0000000..5c99664 --- /dev/null +++ b/buch/chapters/40-eigenwerte/images/kern1.jpg diff --git a/buch/chapters/40-eigenwerte/images/kern2.jpg b/buch/chapters/40-eigenwerte/images/kern2.jpg Binary files differnew file mode 100644 index 0000000..87d18ac --- /dev/null +++ b/buch/chapters/40-eigenwerte/images/kern2.jpg diff --git a/buch/chapters/40-eigenwerte/images/kernbild.pdf b/buch/chapters/40-eigenwerte/images/kernbild.pdf Binary files differnew file mode 100644 index 0000000..2a321b2 --- /dev/null +++ b/buch/chapters/40-eigenwerte/images/kernbild.pdf diff --git a/buch/chapters/40-eigenwerte/images/kernbild.tex b/buch/chapters/40-eigenwerte/images/kernbild.tex new file mode 100644 index 0000000..4eced84 --- /dev/null +++ b/buch/chapters/40-eigenwerte/images/kernbild.tex @@ -0,0 +1,40 @@ +% +% kernbild.tex -- Kern und Bild einer Matrix +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\documentclass[tikz]{standalone} +\usepackage{amsmath} +\usepackage{times} +\usepackage{txfonts} +\usepackage{pgfplots} +\usepackage{csvsimple} +\usetikzlibrary{arrows,intersections,math} +\begin{document} +\def\skala{1} +\definecolor{darkgreen}{rgb}{0,0.4,0} +\definecolor{turqoise}{rgb}{0,0.3,0.6} +\begin{tikzpicture}[>=latex,thick,scale=\skala] + +\begin{scope}[xshift=-3.5cm] +\node at (0,0) {\includegraphics[width=6.8cm]{bild2.jpg}}; + +\fill[color=white,opacity=0.8] (-3,-2.75) rectangle (-2,-2.3); +\node[color=orange] at (-2.5,-2.5) {$\mathcal{J}^1(A)$}; +\node at (3.3,0) {$x_1$}; +\node at (0.3,3.2) {$x_3$}; +\node[color=purple] at (2.3,0.6) [rotate=8] {$\mathcal{J}^2(A)$}; +\end{scope} + +\begin{scope}[xshift=3.5cm] +\node at (0,0) {\includegraphics[width=6.8cm]{kern2.jpg}}; +\node[color=darkgreen] at (1.8,2.2) [rotate=58] {$\mathcal{K}^1(A)$}; +\fill[color=white,opacity=0.8] (-1.5,0.8) rectangle (-0.5,1.2); +\node[color=turqoise] at (-1,1) {$\mathcal{K}^2(A)$}; +\node at (3.3,0) {$x_1$}; +\node at (0.3,3.2) {$x_3$}; +\end{scope} + +\end{tikzpicture} +\end{document} + diff --git a/buch/chapters/40-eigenwerte/images/kernbild1.jpg b/buch/chapters/40-eigenwerte/images/kernbild1.jpg Binary files differnew file mode 100644 index 0000000..87e874e --- /dev/null +++ b/buch/chapters/40-eigenwerte/images/kernbild1.jpg diff --git a/buch/chapters/40-eigenwerte/images/kernbild2.jpg b/buch/chapters/40-eigenwerte/images/kernbild2.jpg Binary files differnew file mode 100644 index 0000000..1160b31 --- /dev/null +++ b/buch/chapters/40-eigenwerte/images/kernbild2.jpg diff --git a/buch/chapters/40-eigenwerte/images/kombiniert.jpg b/buch/chapters/40-eigenwerte/images/kombiniert.jpg Binary files differnew file mode 100644 index 0000000..bebc36f --- /dev/null +++ b/buch/chapters/40-eigenwerte/images/kombiniert.jpg diff --git a/buch/chapters/40-eigenwerte/images/kombiniert.pdf b/buch/chapters/40-eigenwerte/images/kombiniert.pdf Binary files differnew file mode 100644 index 0000000..91cee0b --- /dev/null +++ b/buch/chapters/40-eigenwerte/images/kombiniert.pdf diff --git a/buch/chapters/40-eigenwerte/images/kombiniert.tex b/buch/chapters/40-eigenwerte/images/kombiniert.tex new file mode 100644 index 0000000..d850c64 --- /dev/null +++ b/buch/chapters/40-eigenwerte/images/kombiniert.tex @@ -0,0 +1,48 @@ +% +% kombiniert.tex -- Iterierte Kerne und Bilder +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\documentclass[tikz]{standalone} +\usepackage{amsmath} +\usepackage{times} +\usepackage{txfonts} +\usepackage{pgfplots} +\usepackage{csvsimple} +\usetikzlibrary{arrows,intersections,math} +\begin{document} +\definecolor{darkgreen}{rgb}{0,0.4,0} +\definecolor{turqoise}{rgb}{0,0.3,0.6} +\def\skala{1} +\newboolean{showgrid} +\setboolean{showgrid}{false} +\def\breite{7} +\def\hoehe{7} +\begin{tikzpicture}[>=latex,thick,scale=\skala] + +\node at (0,0) {\includegraphics[width=13.8cm]{kombiniert.jpg}}; + +\node at (6.6,-0.1) {$x_1$}; +\node at (0.3,6.7) {$x_3$}; + +\node[color=purple] at (4.8,1) [rotate=8] {$\mathcal{J}^2(A)$}; +\node[color=darkgreen] at (3.5,4.6) [rotate=58] {$\mathcal{K}^1(A)$}; + +\fill[color=white,opacity=0.8] (-2.3,3.8) rectangle (-1.3,4.2); +\node[color=turqoise] at (-1.8,4) {$\mathcal{K}^2(A)$}; + +\fill[color=white,opacity=0.8] (2.5,-5.75) rectangle (3.5,-5.3); +\node[color=orange] at (3,-5.5) {$\mathcal{J}^1(A)$}; + +%\node at G +% Gitter +\ifthenelse{\boolean{showgrid}}{ +\draw[step=0.1,line width=0.1pt] (-\breite,-\hoehe) grid (\breite, \hoehe); +\draw[step=0.5,line width=0.4pt] (-\breite,-\hoehe) grid (\breite, \hoehe); +\draw (-\breite,-\hoehe) grid (\breite, \hoehe); +\fill (0,0) circle[radius=0.05]; +}{} + +\end{tikzpicture} +\end{document} + diff --git a/buch/chapters/40-eigenwerte/spektralradius.tex b/buch/chapters/40-eigenwerte/spektralradius.tex index bdc725f..a36dc33 100644 --- a/buch/chapters/40-eigenwerte/spektralradius.tex +++ b/buch/chapters/40-eigenwerte/spektralradius.tex @@ -3,9 +3,9 @@ % % (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswi % -\section{Funktionen einer Matrix -\label{buch:section:funktionen-einer-matrix}} -\rhead{Funktionen einer Matrix} +\section{Analytische Funktionen einer Matrix +\label{buch:section:analytische-funktionen-einer-matrix}} +\rhead{Analytische Funktionen einer Matrix} Eine zentrale Motivation in der Entwicklung der Eigenwerttheorie war das Bestreben, Potenzen $A^k$ auch für grosse $k$ effizient zu berechnen. diff --git a/buch/chapters/40-eigenwerte/spektraltheorie.tex b/buch/chapters/40-eigenwerte/spektraltheorie.tex index 4146505..a3f86ba 100644 --- a/buch/chapters/40-eigenwerte/spektraltheorie.tex +++ b/buch/chapters/40-eigenwerte/spektraltheorie.tex @@ -5,7 +5,582 @@ % \section{Spektraltheorie \label{buch:section:spektraltheorie}} -% Matrix-Exponentialfunktion -% Wurzel einer Matrix -% Beliebige Funktion f(A) für normale Matrizen +Aufgabe der Spektraltheorie ist, Bedingungen an eine Matrix $A$ und eine +Funktion $f(z)$ zu finden, unter denen es möglich ist, $f(A)$ auf +konsistente Art und Weise zu definieren. +Weiter müssen Methoden entwickelt werden, mit denen $f(A)$ berechnet +werden kann. +Für ein Polynom $p(z)$ ist $p(A)$ durch einsetzen definiert. +Für Funktionen, die sich nicht durch ein Polynom darstellen lassen, +muss eine Approximation der Funktion durch Polynome verwendet werden. +Sei also $p_n(z)$ eine Folge von Polynomen, die als Approximation der +Funktion $f(z)$ verwendet werden soll. +Das Ziel ist, $f(A)$ als den Grenzwert der Matrixfolge $p_n(A)$ +zu definieren. + +Zunächst ist nicht klar, wie eine solche Folge gewählt werden muss. +Es muss eine Teilmenge von $K\subset\mathbb{C}$ spezifiziert werden, +auf der die Funktionenfolge $p_n(z)$ konvergieren muss, +damit auch die Konvergenz der Matrizenfolge $p_n(A)$ garantiert ist. +Auch die Art der Konvergenz von $p_n(z)$ auf der Menge $K$ ist noch +unklar. +Da der Abstand zweier Matrizen $A$ und $B$ in der Operatornorm +mit der grössten Abweichung $\|(A-B)v\|$ für Einheitsvektoren $v$ +gemessen wird, ist es einigermassen plausibel, dass +die grösse Abweichung zwischen zwei Polynomen $|p(z) - q(z)|$ auf +der Menge $K$ kleine sein muss, wenn $\|p(A)-q(A)\|$ klein +sein soll. +Da die Differenz $p(z)-q(z)$ für beliebige Polynome, die sich nicht +nur um eine Konstante unterscheiden, mit $z$ über alle Grenzen wächst, +muss $K$ beschränkt sein. +Gesucht ist also eine kompakte Menge $K\subset\mathbb{C}$ und eine +Folge $p_n(z)$ von Polynomen, die auf $K$ gleichmässig gegen $f(z)$ +konvergieren. +Die Wahl von $K$ muss sicherstellen, dass für jede gleichmässig +konvergente Folge von Polynomen $p_n(z)$ auch die Matrizenfolge +$p_n(A)$ konvergiert. + +Es wird sich zeigen, dass die Menge $K$ das Spektrum von $A$ ist, +also eine endliche Teilmenge von $\mathbb{C}$. +Jede Funktion kann auf so einer Menge durch Polynome exakt wiedergegeben +werden. +Es gibt insbesondere Folgen von Polynomen, die eingeschränkt +auf das Spektrum gleich sind, also $p_n(z)=p_m(z)$ für alle $z\in K$, +die aber ausserhalb des Spektrums alle verschieden sind. +Als Beispiel kann die Matrix +\[ +N=\begin{pmatrix}0&1\\0&0\end{pmatrix} +\] +herangezogen werden. +Ihr Spektrum ist $\operatorname{Sp}(N)=\{0\}\subset\mathbb{C}$. +Zwei Polynome stimmen genau dann auf $\operatorname{Sp}(N)$ überein, +wenn der konstante Koeffizient gleich ist. +Die Polynome $p(z)=z$ und $q(z)=z^2$ stimmen daher auf dem Spektrum +überein. +Für die Matrizen gilt aber $p(N)=N$ und $q(N)=N^2=0$, die Matrizen +stimmen also nicht überein. +Es braucht also zusätzliche Bedingungen an die Matrix $A$, die +sicherstellen, dass $p(A)=0$ ist, wann immer $p(z)=0$ für +$z\in\operatorname{Sp}(A)$ gilt. + +In diesem Abschnitt sollen diese Fragen untersucht werden. +In Abschnitt~\ref{buch:subsection:approximation-durch-polynome} +wird gezeigt, wie sich Funktionen durch Polynome approximieren +lassen, woraus sich dann Approximationen von $f(A)$ für diagonalisierbare +Matrizen mit reellen Eigenwerten ergeben. + +Der Satz von Stone-Weierstrass, der in +Abschnitt~\ref{buch:subsetion:stone-weierstrass} dargestellt wird, +ist ein sehr allgemeines Approximationsresultat, welches nicht nur +zeigt, dass die Approximation unter sehr natürlichen Voraussetzungen +beliebig genau möglich ist, sondern uns im komplexen Fall auch +weitere Einsicht dafür geben kann, welche Voraussetzungen an eine +komplexe Matrix gestellt werden müssen, damit man damit rechnen kann, +dass die Approximation zu einer konsistenten Definition von $f(A)$ führt. + +% +% Approximation +% +\subsection{Approximation durch Polynome +\label{buch:subsection:approximation-durch-polynome}} +Die der Berechnung von $f(A)$ für eine beleibige stetige Funktion, +die sich nicht als Potenzreihe schreiben lässt, verwendet Approximationen +von Polynomen. +Die numerische Mathematik hat eine grosse Menge von solchen +Approximationsverfahren entwickelt, wovon zwei kurz (ohne Beweise) +vorgestellt werden sollen. + +\subsubsection{Das Legendre-Interpolationspolynom} +Zu vorgegebenen, verschiedenen Zahlen $z_i\in\mathbb{C}$, $0\le i\le n$, +die auch die {\em Stützstellen} genannt werden, +gibt es immer ein Polynom vom Grade $n$, welches in den $z_i$ vorgegebene +Werte $f(z_i)$ annimmt. +Ein solches Polynom lässt sich im Prinzip mit Hilfe eines linearen +Gleichungssystems finden, man kann aber auch direkt eine Lösung +konstruieren. +Dazu bildet man erst die Polynome +\begin{align*} +l(z) &= (z-z_0)(z-z_1)\dots (z-z_n) \qquad\text{und} +\\ +l_i(z) &= (z-z_0)\dots \widehat{(z-z_i)}\dots (z-z_n). +\end{align*} +Darin bedeutet der Hut, dass dieser Term weggelassen werden soll. +Für $z\ne z_i$ ist $l_i(z)=l(z)/(z-z_i)$. +Die Polynome +\[ +k_i(z) += +\frac{l_i(z)}{l_i(z_i)} += +\frac{(z-z_0)\dots \widehat{(z-z_i)}\dots (z-z_n)}{(z_i-z_0)\dots \widehat{(z_i-z_i)}\dots (z_i-z_n)} +\] +haben die Eigenschaft +$k_i(z_j)=\delta_{ij}$. +Damit lässt sich jetzt ein Polynom +\[ +p(z) = \sum_{j=0}^n f(z_j) \frac{l_j(z)}{l_j(z_j)} +\] +vom Grad $n$ konstruieren, welches die Werte +\[ +p(z_i) += +\sum_{j=0}^n f(z_j) \frac{l_j(z_i)}{l_j(z_j)} += +\sum_{j=0}^n f(z_j) \delta_{ij} += +f_(z_i) +\] +annimmt. +Das Polynom $p(z)$ heisst das {\em Legendre-Interpolationspolynom}. + +Zwar lässt sich also für eine endliche Menge von komplexen Zahlen immer +ein Polynom finden, welches vorgeschriebene Wert in allen diesen Zahlen +annimmt, doch ist die Stabilität für grosse $n$ eher beschränkt. + + +\subsubsection{Gleichmassige Approximation mit Bernstein-Polynomen} +Das Legendre-Interpolationspolynom nimmt in den Stützstellen die +verlangten Werte an, aber ausserhalb der Stützstellen ist nicht +garantiert, dass man eine gute Approximation einer Funktion $f(z)$ +erhält. + +Für die Approximation auf einem reellen Interval $[a,b]$ hat +Sergei Natanowitsch Bernstein ein +Dazu werden zuerst die reellen Bernsteinpolynome vom Grad $n$ +durch +\begin{align*} +B_{i,n}(t) = \binom{n}{i} t^i(1-t)^{n-i}. +\end{align*} +definiert. +Als Approximationspolynom für die auf dem Interval +$[0,1]$ definierte, stetige Funktion $f(t)$ kann man dann +\[ +B_n(f)(t) += +\sum_{i=0}^n B_{i,n}(t) f\biggl(\frac{i}{n}\biggr) +\] +verwenden. +Die Polynome $B_n(f)(t)$ konvergieren gleichmässig auf $[0,1]$ +gegen die Funktion $f(t)$. +Über die Konvergenz ausserhalb des reellen Intervalls wird nichts +ausgesagt. +Die Approximation mit Bernstein-Polynomen ist daher nur sinnvoll, +wenn man weiss, dass die Eigenwerte der Matrix reell sind, was im +wesentlichen auf diagonalisierbare Matrizen führt. + +Für ein anderes Interval $[a,b]$ kann man ein Approximationspolynom +erhalten, indem man die affine Transformation +$s\mapsto (s-a)/(b-a)$ +von $[a,b]$ auf $[0,1]$ +verwendet. + +% +% Der Satz von Stone-Weierstrass +% +\subsection{Der Satz von Stone-Weierstrasss +\label{buch:subsetion:stone-weierstrass}} +Der Satz von Stone-Weierstrass behandelt im Gegensatz zu den in +Abschnitt~\ref{buch:subsection:approximation-durch-polynome} +besprochenen Approximationsmethoden nicht nur Funktionen von +reellen Variablen durch Polynome. +Vielmehr kann das Definitionsgebiet irgend eine abgeschlossene +und beschränkte Teilmenge eines reellen oder komplexen Vektorraumes +sein und die Funktionen können Polynome aber auch viel allgemeinere +Funktionen verwendet werden, wie zum Beispiel die Funktionen +$x\mapsto \cos nx$ und $x\mapsto \sin nx$ definiert auf dem +Intervall $[0,2\pi]$. +In diesem Fall liefert der Satz von Stone-Weierstrass die Aussage, +dass sich jede stetige periodische Funktion gleichmässig durch +trigonometrische Polynome approximieren lässt. + +Die Aussage des Satz von Stone-Weierstrass über reelle Funktionen +lässt sich nicht auf komplexe Funktionen erweitern. +Von besonderem Interesse ist jedoch, dass der Beweis des Satz +zeigt, warum solche Aussagen für komplexe Funktionen nicht mehr +zutreffen. +Im Falle der Approximation von komplexen Funktionen $f(z)$ durch Polynome +zwecks Definition von $f(A)$ werden sich daraus Bedingungen an die +Matrix ableiten lassen, die eine konsistente Definition überhaupt +erst ermöglichen werden. + +\subsubsection{Punkte trennen} +Aus den konstanten Funktionen lassen sich durch algebraische +Operationen nur weitere konstante Funktionen erzeugen. +Die konstanten Funktionen sind also nur dann eine genügend +reichhaltige Menge, wenn die Menge $K$ nur einen einzigen Punkt +enthält. +Damit sich Funktionen approximieren lassen, die in zwei Punkten +verschiedene Werte haben, muss es auch unter den zur Approximation +zur Verfügung stehenden Funktionen solche haben, deren Werte sich +in diesen Punkten unterscheiden. +Diese Bedingung wird in der folgenden Definition formalisiert. + +\begin{definition} +Sei $K$ eine beliebige Menge und $A$ eine Menge von Funktionen +$K\to \mathbb{C}$. +Man sagt, $A$ {\em trennt die Punkte von $K$}, wenn es für jedes Paar +\index{Punkte trennen}% +von Punkten $x,y\in K$ eine Funktion $f\in A$ gibt derart, dass +$f(x)\ne f(y)$. +\end{definition} + +Man kann sich die Funktionen $f$, die gemäss dieser Definition die Punkte +von $K$ trennen, als eine Art Koordinaten der Punkte in $K$ vorstellen. +Die Punkte der Teilmenge $K\subset \mathbb{R}^n$ werden zum Beispiel +von den Koordinatenfunktionen $x\mapsto x_i$ getrennt. +Wir schreiben für die $i$-Koordinate daher auch als Funktion $x_i(x)=x_i$. +Zwei verschiedene Punkte $x,y\in K$ unterscheiden sich in mindestens +einer Koordinate. +Für diese Koordinate sind dann die Werte der zugehörigen +Koordinatenfunktion $x_i=x_i(x)\ne x_i(y)=y_i$ verschieden, die +Funktionen $x_1(x)$ bis $x_n(x)$ trennen also die Punkte. + +\begin{beispiel} +Wir betrachten einen Kreis in der Ebene, also die Menge +\[ +S^1 += +\{(x_1,x_2)\;|\; x_1^2 + x_2^2=1\} +\] +$S^1$ ist eine abgeschlossene und beschränkte Menge in $\mathbb{R}^2$. +Die Funktion $x\mapsto x_1$ trennt die Punkte nicht, denn zu jedem +Punkt $(x_1,x_2)\in S^2$ gibt es den an der ersten Achse +gespiegelten Punkt $\sigma(x)=(x_1,-x_2)$, dessen erste Koordinate +den gleichen Wert hat. +Ebenso trennt die Koordinatenfunktion $x\mapsto x_2$ die Punkte nicht. +Die Menge $A=\{ x_1(x), x_2(x)\}$ bestehend aus den beiden +Koordinatenfunktionen trennt dagegen die Punkte von $S^1$, da die Punkte +sich immer in mindestens einem Punkt unterscheiden. + +Man könnte auch versuchen, den Kreis in Polarkoordinaten zu beschreiben. +Die Funktion $\varphi(x)$, die jedem Punkt $x\in S^1$ den Polarwinkel +zuordnet, trennt sicher die Punkte des Kreises. +Zwei verschiedene Punkte auf dem Kreis haben verschieden Polarwinkel. +Die Menge $\{\varphi\}$ trennt also die Punkte von $S^1$. +Allerdings ist die Funktion nicht stetig, was zwar der Definition +nicht widerspricht aber ein Hindernis für spätere Anwendungen ist. +\end{beispiel} + + +\subsubsection{Der Satz von Stone-Weierstrass für reelle Funktionen} +Die Beispiele von Abschnitt~\ref{buch:subsection:approximation-durch-polynome} +haben bezeigt, dass sich reellwertige Funktionen einer reellen +Variable durch Polynome beliebig genau approximieren lassen. +Es wurde sogar eine Methode vorgestellt, die eine auf einem Intervall +gleichmässig konvergente Polynomefolge produziert. +Die Variable $x\in[a,b]$ trennt natürlich die Punkte, die Algebra der +Polynome in der Variablen $x$ enthält also sicher Funktionen, die in +verschiedenen Punkten des Intervalls auch verschiedene Werte annehmen. +Nicht ganz so selbstverständlich ist aber, dass sich daraus bereits +ergibt, dass jede beliebige Funktion sich als Polynome in $x$ +approximieren lässt. +Dies ist der Inhalt des folgenden Satzes von Stone-Weierstrass. + +\begin{satz}[Stone-Weierstrass] +\label{buch:satz:stone-weierstrass} +Enthält eine $\mathbb{R}$-Algebra $A$ von stetigen, rellen Funktionen +auf einer kompakten Menge $K$ die konstanten Funktionen und trennt sie +Punkte, d.~h.~für zwei verschiedene Punkte $x,y\in K$ gibt es +immer eine Funktion $f\in A$ mit $f(x)\ne f(y)$, dann ist jede stetige, +reelle Funktion auf $K$ gleichmässig approximierbar durch Funktionen +in $A$. +\end{satz} + +\begin{proof}[Beweis] +XXX TODO +\end{proof} + +Der entscheidende Schritt des Beweises ist, dass man die Betragsfunktion +konstruieren kann. +Daraus leiten sich dann alle folgenden Konstruktionen ab. + +\subsubsection{Anwendung auf symmetrische und hermitesche Matrizen} +Für symmetrische und hermitesche Matrizen $A$ ist bekannt, dass die +Eigenwerte reell sind, also das Spektrum $\operatorname{A}\subset\mathbb{R}$ +ist. +Für eine Funktion $\mathbb{R}\to \mathbb{R}$ lässt sich nach dem +Satz~\ref{buch:satz:stone-weierstrass} immer eine Folge $p_n$ von +approximierenden Polynomen in $x$ finden, die auf $\operatorname{Sp}(A)$ +gleichmässig konvergiert. +Die Matrix $f(A)$ kann dann definiert werden also der Grenzwert +\[ +f(A) = \lim_{n\to\infty} p_n(A). +\] +Da diese Matrizen auch diagonalisierbar sind, kann man eine Basis +aus Eigenvektoren verwenden. +Die Wirkung von $p_n(A)$ auf einem Eigenvektor $v$ zum Eigenwert $\lambda$ +ist +\[ +p_n(A)v += +(a_kA^k + a_{k-1}A^{k-1}+\dots +a_2A^2+a_1A+a_0I)v += +(a_k\lambda^k + a_{k-1}\lambda^{k-1}+\dots + a_2\lambda^2 + a_1\lambda + a_0)v += +p_n(\lambda)v. +\] +Im Grenzwert wirkt $f(A)$ daher durch Multiplikation eines Eigenvektors +mit $f(\lambda)$, die Matrix $f(A)$ hat in der genannten Basis die +Diagonalform +\[ +A=\begin{pmatrix} +\lambda_1& & & \\ + &\lambda_2& & \\ + & &\ddots& \\ + & & &\lambda_n +\end{pmatrix} +\qquad\Rightarrow\qquad +f(A)=\begin{pmatrix} +f(\lambda_1)& & & \\ + &f(\lambda_2)& & \\ + & &\ddots& \\ + & & &f(\lambda_n) +\end{pmatrix}. +\] + +\begin{satz} +\label{buch:eigenwerte:satz:spektralsatz} +Ist $A$ symmetrische oder selbstadjungiert Matrix und $f$ eine Funktion +auf dem Spektrum $\operatorname{Sp}(A)$ von $A$. +Dann gibt es genau eine Matrix $f(A)$, die Grenzwert jeder beliebigen +Folge $p_n(A)$ für Polynomfolgen, die $\operatorname{Sp}(A)$ gleichmässig +gegen $f$ konvergieren. +\end{satz} + +\subsubsection{Der Satz von Stone-Weierstrass für komplexe Funktionen} +Der Satz~\ref{buch:satz:stone-weierstrass} von Stone-Weierstrass für +reelle Funktionen gilt nicht für komplexe Funktionen. +Der Grund ist, dass im Beweis benötigt wird, dass man den Betrag +einer Funktion approximieren können muss. +Dies geschah, indem zunächst eine Polynom-Approximation für die +Quadratwurzel konstruiert wurde, die dann auf das Quadrat einer +Funktion angewendet wurde. +Der Betrag einer komplexen Zahl $z$ ist aber nicht allein aus $z$ +berechenbar, man braucht in irgend einer Form Zugang zu Real- +und Imaginärteil. +Zum Beispiel kann man Real- und Imaginärteil als +$\Re z= \frac12(z+\overline{z})$ und $\Im z = \frac12(z-\overline{z})$ +bestimmen. +Kenntnis von Real- und Imaginärteil ist als gleichbedeutend mit +der Kenntnis der komplex Konjugierten $\overline{z}$. +Der Betrag lässt sich daraus als $|z|^2 = z\overline{z}$ finden. +Beide Beispiele zeigen, dass man den im Beweis benötigten Betrag +nur dann bestimmen kann, wenn mit jeder Funktion aus $A$ auch die +komplex konjugierte Funktion zur Verfügung steht. + +\begin{satz}[Stone-Weierstrass] +Enthält eine $\mathbb{C}$-Algebra $A$ von stetigen, komplexwertigen +Funktionen auf einer kompakten Menge $K$ die konstanten Funktionen, +trennt sie Punkte und ist ausserdem mit jeder Funktion $f\in A$ auch +die komplex konjugiert Funktion $\overline{f}\in A$, +dann lässt sich jede stetige, komplexwertige Funktion +auf $K$ gleichmässig durch Funktionen aus $A$ approximieren. +\end{satz} + +Mit Hilfe der konjugiert komplexen Funktion lässt sich immer eine +Approximation für die Betragsfunktion finden, so dass sich der +Beweis des reellen Satzes von Stone-Weierstrass übertragen lässt. + +% +% Normale Matrizen +% +\subsection{Normale Matrizen +\label{buch:subsection:normale-matrizen}} +Aus dem Satz von Stone-Weierstrass für komplexe Matrizen kann man +jetzt einen Spektralsätze für eine etwas grössere Klasse von Matrizen +ableiten, als im Satz~\ref{buch:eigenwerte:satz:spektralsatz} +möglich war. +Der Satz besagt, dass für eine beliebige Funktion $f$ auf dem Spektrum +$\operatorname{Sp}(A)$ eine Folge von auf $\operatorname{Sp}(A)$ +gleichmässig konvergenten, approximierenden Polynomen +$p_n(z,\overline{z})$ gefunden werden kann. +Doch wie soll jetzt aus dieser Polynomfolge ein Kandidat von $f(A)$ +gefunden werden? + +Zunächst stellt sich die Frage, was für die Variable $\overline{z}$ +eingesetzt werden soll. +$1\times 1$-Matrizen sind notwendigerweise diagonal, also muss +man in diesem Fall die Matrix $\overline{A}$ für die Variable +$\overline{z}$ eingesetzt werden. +Dies erklärt aber noch nicht, wie für $n\times n$-Matrizen +vorzugehen ist, wenn $n>1$ ist. + +Die Notwendigkeit, die Variable $\overline{z}$ hinzuzunehmen +ergab sich aus der Anforderung, dass der Betrag aus $|z|^2=z\overline{z}$ +konstruiert werden können muss. +Insbesondere muss beim Einsetzen eine Matrix entstehen, die nur +positive Eigenwerte hat. +Für eine beliebige komplexe $n\times n$-Matrix $A$ ist aber +$A\overline{A}$ nicht notwendigerweise positiv, wie das Beispiel +\[ +A += +\begin{pmatrix}0&i\\i&0\end{pmatrix} +\qquad +\Rightarrow +\qquad +A\overline{A} += +\begin{pmatrix}0&i\\-i&0\end{pmatrix} +\begin{pmatrix}0&-i\\i&0\end{pmatrix} += +\begin{pmatrix} +-1&0\\ + 0&-1 +\end{pmatrix} += +-I +\] +zeigt. +Eine positive Matrix entsteht dagegen immer, wenn man statt +$A$ die Adjungierte $A^*=\overline{A}^t$ verwendet. + +Die Substitution von $A$ für $z$ und $A^*$ für $\overline{z}$ +in einem Polynom $p(z,\overline{z})$ ist nicht unbedingt eindeutig. +Schon das Polynom $p(z,\overline{z})=z\overline{z}$ kann man auch +als $\overline{z}z$ schreiben. +Damit die Substition eindeutig wird, muss man also fordern, dass +$AA^* = A^*A$ ist. + +\begin{definition} +Eine Matrix $A\in M_n(\mathbb{C})$ heisst {\em normal}, wenn $AA^*=A^*A$ gilt. +\end{definition} + +\subsubsection{Beispiele normaler Matrizen} + +\begin{enumerate} +\item +Hermitesche und Antihermitesche Matrizen sind normal, denn solche +Matrizen erfüllen $A^*=\pm A$ und damit +\( +AA^* = \pm A^2 = A^*A. +\) +\item +Symmetrische und antisymmetrische Matrizen sind normal, +denn aus $A=A^t$ folgt $A^*=\overline{A}^t$ und damit +\begin{align*} +AA^* &= A\overline{A}^t = +\\ +A^*A &= +\end{align*} +\item +Unitäre Matrizen $U$ sind normal, das $UU^*=I=U^*U$ gilt. +\item +Orthogonale Matrizen sind normal wegen $O(n) = U(n) \cap M_n(\mathbb{R})$. +\end{enumerate} + +Jede Matrix lässt sich durch Wahl einer geeigneten Basis in Jordansche +Normalform bringen. +Allerdings sind Jordan-Blöcke keine normalen Matrizen, wie der folgende +Satz zeigt. + +\begin{satz} +Eine Dreiecksmatrix ist genau dann normal, wenn sie diagonal ist. +\end{satz} + +\begin{proof}[Beweis] +Sei $A$ eine obere Dreiecksmatrix, das Argument für eine untere Dreiecksmatrix +funktioniert gleich. +Wir berechnen ein Diagonalelement für beide Produkte $AA^*$ und $A^*A$. +Dazu brauchen wir die Matrixelemente von $A$ und $A^*$. +Bezeichnen wir die Matrixelemente von $A$ mit $a_{ij}$, dann hat $A^*$ +die Matrixelemente $(A^*)_{ij}=\overline{a}_{ji}$. +Damit kann man die Diagonalelemente der Produkte als +\begin{align*} +(AA^*)_{ii} +&= +\sum_{j=1}^n a_{ij}\overline{a}_{ij} += +\sum_{j=i}^n |a_{ij}|^2 +\\ +(A^*A)_{ii} +&= +\sum_{j=1}^n \overline{a}_{ji}a_{ji} += +\sum_{j=1}^i |a_{ji}|^2 +\end{align*} +ausrechnen. +Der obere Ausdruck ist die quadrierte Länge der Zeile $i$ der Matrix $A$, +der untere ist die quadrierte Länge der Spalte $i$. +Da die Matrix eine obere Dreiecksmatrix ist, hat die erste Spalte höchstens +ein einziges von $0$ verschiedenes Element. +Daher kann auch die erste Zeile höchstens dieses eine Elemente haben. +Die Matrix hat daher Blockstruktur mit einem $1\times 1$-Block in der +linken obere Ecke und einem $n-1$-dimensionalen Block für den Rest. +Durch Wiederholen des Arguments für den $(n-1)\times (n-1)$-Block +kann man so schrittweise schliessen, dass die Matrix $A$ diagonal sein muss. +\end{proof} + + +\begin{satz} +Sind $A$ und $B$ normale Matrizen und $AB^*=B^*A$, dann sind auch $A+B$ +und $AB$ normal. +\end{satz} + +\begin{proof}[Beweis] +Zunächst folgt aus $AB^*=B^*A$ auch +$A^*B = (B^*A)^* = (AB^*)^* = BA^*$. +Der Beweis erfolgt durch Nachrechnen: +\begin{align*} +(A+B)(A+B)^* +&= +AA^* + AB^* + BA^*+BB^* +\\ +(A+B)^*(A+B) +&= +A^*A + A^*B + B^*A + B^*B +\end{align*} +Die ersten und letzten Terme auf der rechten Seite stimmen überein, weil +$A$ und $B$ normal sind. +Die gemischten Terme stimmen überein wegen der Vertauschbarkeit von +$A$ und $B^*$. + +Für das Produkt rechnet man +\begin{align*} +(AB)(AB)^* +&= ABB^*A^* = AB^*BA^* += B^*AA^*B += +B^*A^*AB += +(AB)^*(AB), +\end{align*} +was zeigt, dass auch $AB$ normal ist. +\end{proof} + +\subsubsection{Äquivalente Bedingungen} +Es gibt eine grosse Zahl äquivalenter Eigenschaften für normale Matrizen. +Die folgenden Eigenschaften sind äquivalent: +\begin{enumerate} +\item +Die Matrix $A$ ist mit einer unitären Matrix diagonalisierbar +\item +Es gibt eine orthonormale Basis von Eigenvektoren von $A$ für $\mathbb{C}^n$ +\item +Für jeden Vektor $x\in\mathbb{C}^n$ gilt $\|Ax\|=\|A^*x\|$ +\item +Die Forbenius-Norm der Matrix $A$ kann mit den Eigenwerten $\lambda_i$ +von $A$ berechnet werden: +$\operatorname{Spur}(A^*A) = \sum_{i=1}^n |\lambda_i|^2$ +\item +Der hermitesche Teil $\frac12(A+A^*)$ und der antihermitesche Teil +$\frac12(A-A^*)$ von $A$ vertauschen. +\item +$A^*$ ist ein Polynom vom Grad $n-1$ in $A$. +\item +Es gibt eine unitäre Matrix $U$ derart, dass $A^*=AU$ +\item +Es gibt eine Polarzerlegugn $A=UP$ mit einer unitären Matrix $U$ und +einer postiv semidefiniten Matrix $P$, die untereinander vertauschen. +\item +Es gibt eine Matrix $N$ mit verschiedenen Eigenwerten, mit denen $A$ +vertauscht. +\item +Wenn $A$ die (absteigend geordneten) singulärwerte $\sigma_i$ und +die absteigend geordneten Eigenwerte $\lambda_i$ hat, +dann it $\sigma_i=|\lambda_i|$. +\end{enumerate} + + + diff --git a/buch/chapters/40-eigenwerte/uebungsaufgaben/4004.tex b/buch/chapters/40-eigenwerte/uebungsaufgaben/4004.tex new file mode 100644 index 0000000..5940b46 --- /dev/null +++ b/buch/chapters/40-eigenwerte/uebungsaufgaben/4004.tex @@ -0,0 +1,72 @@ +Berechnen Sie $\sin At$ für die Matrix +\[ +A=\begin{pmatrix} +\omega& 1 \\ + 0 &\omega +\end{pmatrix}. +\] +Kontrollieren Sie Ihr Resultat, indem Sie den Fall $\omega = 0$ gesondert +ausrechnen. +\begin{hinweis} +Schreiben Sie $A=\omega I + N$ mit einer nilpotenten Matrix. +\end{hinweis} + +\begin{loesung} +Man muss $At$ in die Potenzreihe +\[ +\sin z = z - \frac{z^3}{3!} + \frac{z^5}{5!} - \frac{z^7}{7!} + \dots +\] +für die Sinus-Funktion einsetzen. +Mit der Schreibweise $A=\omega I + N$, wobei $N^2=0$ können die Potenzen etwas +leichter berechnet werden: +\begin{align*} +A^0 &= I +\\ +A^1 &= \omega I + N +\\ +A^2 &= \omega^2 I + 2\omega N +\\ +A^3 &= \omega^3 I + 3\omega^2 N +\\ +A^4 &= \omega^4 I + 4\omega^3 N +\\ +&\phantom{a}\vdots +\\ +A^k &= \omega^k I + k\omega^{k-1} N +\end{align*} +Damit kann man jetzt $\sin At$ berechnen: +\begin{align} +\sin At +&= +At - \frac{A^3t^3}{3!} + \frac{A^5t^5}{5!} - \frac{A^7t^7}{7!} +\dots +\notag +\\ +&= +\biggl( +\omega t - \frac{\omega^3t^3}{3!} + \frac{\omega^5t^5}{5!} - \frac{\omega^7t^7}{7!} ++\dots +\biggr)I ++ +\biggl( +t -\frac{3\omega^2t^3}{3!} + \frac{5\omega^4t^5}{5!} - \frac{7\omega^6t^7}{7!}+\dots +\biggr)N +\notag +\\ +&= +I\sin\omega t ++tN\biggl(1-\frac{\omega^2t^2}{2!} +\frac{\omega^4t^4}{4!} +- \frac{\omega^6t^6}{6!} ++\dots\biggr) +\notag +\\ +&=I\sin\omega t + tN\cos\omega t. +\label{4004:resultat} +\end{align} +Im Fall $\omega=0$ ist $A=N$ und $A^2=0$, so dass +\[ +\sin At = tN, +\] +dies stimmt mit \eqref{4004:resultat} für $\omega=0$ überein, da +$\cos\omega t = \cos 0=1$ in diesem Fall. +\end{loesung} diff --git a/buch/chapters/40-eigenwerte/uebungsaufgaben/4005.tex b/buch/chapters/40-eigenwerte/uebungsaufgaben/4005.tex new file mode 100644 index 0000000..ec76c34 --- /dev/null +++ b/buch/chapters/40-eigenwerte/uebungsaufgaben/4005.tex @@ -0,0 +1,151 @@ +Rechnen Sie nach, dass die Matrix +\[ +A += +\begin{pmatrix} +2&1&0\\ +0&2&1\\ +1&0&2 +\end{pmatrix} +\] +normal ist. +\begin{teilaufgaben} +\item +Berechnen Sie die Eigenwerte, indem Sie das charakteristische Polynom +von $A$ und seine Nullstellen bestimmen. +\item +Das Polynom +\[ +p(z,\overline{z}) += +\frac{(3-\sqrt{3})z\overline{z}-9(1-\sqrt{3})}{6} +\] +hat die Eigenschaft, dass +\begin{align*} +p(\lambda,\lambda) &= |\lambda| +\end{align*} +für alle drei Eigenwerte von $A$. +Verwenden Sie dieses Polynom, um $B=|A|$ zu berechen. +\item +Überprüfen Sie Ihr Resultat, indem Sie mit einem Computeralgebra-Programm +die Eigenwerte von $B$ bestimmen. +\end{teilaufgaben} + +\begin{loesung} +Die Matrix $A$ ist von der Form $2I+O$ mit $O\in\operatorname{SO}(3)$, +für solche Matrizen wurde gezeigt, dass sie normal sind. +Man kann aber auch direkt nachrechnen: +\begin{align*} +AA^t +&= +\begin{pmatrix} +2&1&0\\ +0&2&1\\ +1&0&2 +\end{pmatrix} +\begin{pmatrix} +2&0&1\\ +1&2&0\\ +0&1&2 +\end{pmatrix} += +\begin{pmatrix} +5&2&2\\ +2&5&2\\ +2&2&5 +\end{pmatrix} +\\ +A^tA +&= +\begin{pmatrix} +2&0&1\\ +1&2&0\\ +0&1&2 +\end{pmatrix} +\begin{pmatrix} +2&1&0\\ +0&2&1\\ +1&0&2 +\end{pmatrix} += +\begin{pmatrix} +5&2&2\\ +2&5&2\\ +2&2&5 +\end{pmatrix} +\end{align*} +Es gilt also $AA^t=A^tA$, die Matrix ist also normal. +\begin{teilaufgaben} +\item Das charakteristische Polynom ist +\begin{align} +\chi_A(\lambda) +&=\left| +\begin{matrix} +2-\lambda & 1 & 0 \\ + 0 & 2-\lambda & 1 \\ + 1 & 0 & 2-\lambda +\end{matrix} +\right| += +(2-\lambda)^3+1 +\label{4005:charpoly} +\\ +&=-\lambda^3 -6\lambda^2 + 12\lambda +9. +\notag +\end{align} +Mit einem Taschenrechner kann man die Nullstellen finden, +aber man kann das auch die Form \eqref{4005:charpoly} +des charakteristischen Polynoms direkt faktorisieren: +\begin{align*} +\chi_A(\lambda) +&= +(2-\lambda)^3+1 +\\ +&= +((2-\lambda)+1) +((2-\lambda)^2 -(2-\lambda)+1) +\\ +&= +(3-\lambda) +(\lambda^2-3\lambda +4-2+\lambda +1) +\\ +&= +(3-\lambda) +(\lambda^2-2\lambda +3) +\end{align*} +Daraus kann man bereits einen Eigenwert $\lambda=3$ ablesen, +die weiteren Eigenwerte sind die Nullstellen des zweiten Faktors, die +man mit der Lösungsformel für quadratische Gleichungen finden kann: +\begin{align*} +\lambda_{\pm} +&= +\frac{3\pm\sqrt{9-12}}{2} += +\frac{3}{2} \pm\frac{\sqrt{-3}}{2} += +\frac{3}{2} \pm i\frac{\sqrt{3}}{2} +\end{align*} +\item +Wir müssen $z=A$ und $\overline{z}=A^t$ im Polynom $p(z,\overline{z})$ +substituieren und erhalten +\begin{align*} +B +&= +\frac{3-\sqrt{3}}6 \begin{pmatrix}5&2&2\\2&5&2\\2&2&5\end{pmatrix} ++\frac{\sqrt{3}-1}{2}I +\\ +&= +\begin{pmatrix} + 2.1547005& 0.42264973& 0.42264973 \\ + 0.4226497& 2.15470053& 0.42264973 \\ + 0.4226497& 0.42264973& 2.15470053 +\end{pmatrix} +\end{align*} +\item +Tatsächlich gibt die Berechnung der Eigenwerte +den einfachen Eigenwert $\mu_0=3=|\lambda_0|$ +und +den doppelten Eigenwert $\mu_{\pm} = \sqrt{3}=1.7320508=|\lambda_{\pm}|$. +\qedhere +\end{teilaufgaben} +\end{loesung} diff --git a/buch/chapters/60-gruppen/chapter.tex b/buch/chapters/60-gruppen/chapter.tex index d07db3f..c2aa68d 100644 --- a/buch/chapters/60-gruppen/chapter.tex +++ b/buch/chapters/60-gruppen/chapter.tex @@ -7,6 +7,30 @@ \label{buch:chapter:matrizengruppen}} \lhead{Matrizengruppen} \rhead{} +Matrizen können dazu verwendet werden, Symmetrien von geometrischen oder +physikalischen Systemen zu beschreiben. +Neben diskreten Symmetrien wie zum Beispiel Spiegelungen gehören dazu +auch kontinuierliche Symmetrien wie Translationen oder Invarianz einer +phyisikalischen Grösse über die Zeit. +Solche Symmetrien müssen durch Matrizen beschrieben werden können, +die auf stetige oder sogar differenzierbare Art von der Zeit abhängen. +Die Menge der Matrizen, die zur Beschreibung solcher Symmetrien benutzt +werden, muss also eine zusätzliche Struktur haben, die ermöglicht, +sinnvoll über Stetigkeit und Differenzierbarkeit bei Matrizen +zu sprechen. + +Die Menge der Matrizen bilden zunächst eine Gruppe, +die zusätzliche differenziarbare Struktur macht daraus +eine sogenannte Lie-Gruppe. +Die Ableitungen nach einem Parameter liegen in der sogenannten +Lie-Algebra, einer Matrizen-Algebra mit dem antisymmetrischen +Lie-Klammer-Produkt $[A,B]=AB-BA$, auch Kommutator genannt. +Lie-Gruppe und Lie-Algebra sind eng miteinander verknüpft, +so eng, dass sich die meisten Eigenschaften der Gruppe aus den Eigenschaften +der Lie-Gruppe aus der Lie-Algebra ableiten lassen. +Die Verbindung wird hergestellt durch die Exponentialabbildung. +Ziel dieses Kapitels ist, die Grundzüge dieses interessanten +Zusammenhangs darzustellen. \input{chapters/60-gruppen/symmetrien.tex} \input{chapters/60-gruppen/lie-gruppen.tex} diff --git a/buch/chapters/60-gruppen/images/castle.jpeg b/buch/chapters/60-gruppen/images/castle.jpeg Binary files differnew file mode 100644 index 0000000..bf90a36 --- /dev/null +++ b/buch/chapters/60-gruppen/images/castle.jpeg diff --git a/buch/chapters/60-gruppen/lie-algebren.tex b/buch/chapters/60-gruppen/lie-algebren.tex index 69d4b1d..6c6b74b 100644 --- a/buch/chapters/60-gruppen/lie-algebren.tex +++ b/buch/chapters/60-gruppen/lie-algebren.tex @@ -6,3 +6,258 @@ \section{Lie-Algebren \label{buch:section:lie-algebren}} \rhead{Lie-Algebren} +Im vorangegangenen Abschnitt wurde gezeigt, dass alle beschriebenen +Matrizengruppen als Untermannigfaltigkeiten im $n^2$-dimensionalen +Vektorraum $M_n(\mathbb{R}9$ betrachtet werden können. +Die Gruppen haben damit nicht nur die algebraische Struktur einer +Matrixgruppe, sie haben auch die geometrische Struktur einer +Mannigfaltigkeit. +Insbesondere ist es sinnvoll, von Ableitungen zu sprechen. + +Eindimensionale Untergruppen einer Gruppe können auch als Kurven +innerhalb der Gruppe angesehen werden. +In diesem Abschnitt soll gezeigt werden, wie man zu jeder eindimensionalen +Untergruppe einen Vektor in $M_n(\mathbb{R})$ finden kann derart, dass +der Vektor als Tangentialvektor an diese Kurve gelten kann. +Aus einer Abbildung zwischen der Gruppe und diesen Tagentialvektoren +erhält man dann auch eine algebraische Struktur auf diesen Tangentialvektoren, +die sogenannte Lie-Algebra. +Sie ist charakteristisch für die Gruppe. +Insbesondere werden wir sehen, wie die Gruppen $\operatorname{SO}(3)$ +und $\operatorname{SU}(2)$ die gleich Lie-Algebra haben und dass die +Lie-Algebra von $\operatorname{SO}(3)$ mit dem Vektorprodukt in $\mathbb{R}^3$ +übereinstimmt. + +% +% Tangentialvektoren und SO(2) +% +\subsection{Tangentialvektoren und $\operatorname{SO}(2)$} +Die Drehungen in der Ebene können reell als Matrizen der Form +\[ +D_{\alpha} += +\begin{pmatrix} +\cos\alpha&-\sin\alpha\\ +\sin\alpha& \cos\alpha +\end{pmatrix} +\] +als eidimensionale Kurve innerhalb von $M_2(\mathbb{R})$ beschrieben +werden. +Alternativ können Drehungen um den Winkel $\alpha$ als mit Hilfe von +der Abbildung +$ +\alpha\mapsto e^{i\alpha} +$ +als komplexe Zahlen vom Betrag $1$ beschrieben werden. +Dies sind zwei verschiedene Parametrisierungen der gleichen +geometrischen Transformation. + +Die Ableitung nach $\alpha$ ist $ie^{i\alpha}$, der Tangentialvektor +im Punkt $e^{i\alpha}$ ist also $ie^{i\alpha}$. +Die Multiplikation mit $i$ ist die Drehung um $90^\circ$, der Tangentialvektor +ist also der um $90^\circ$ gedrehte Ortsvektor zum Punkt auf der Kurve. + +In der Darstelllung als $2\times 2$-Matrix ist die Ableitung +\[ +\frac{d}{d\alpha}D_\alpha += +\frac{d}{d\alpha} +\begin{pmatrix} +\cos\alpha& -\sin\alpha\\ +\sin\alpha& \cos\alpha +\end{pmatrix} += +\begin{pmatrix} +-\sin\alpha & -\cos\alpha \\ + \cos\alpha & -\sin\alpha +\end{pmatrix}. +\] +Die rechte Seite kann wieder mit der Drehmatrix $D_\alpha$ geschrieben +werden, es ist nämlich +\[ +\frac{d}{d\alpha}D_\alpha += +\begin{pmatrix} +-\sin\alpha & -\cos\alpha \\ + \cos\alpha & -\sin\alpha +\end{pmatrix} += +\begin{pmatrix} +\cos\alpha & -\sin\alpha\\ +\sin\alpha & \cos\alpha +\end{pmatrix} +\begin{pmatrix} +0&-1\\ +1& 0 +\end{pmatrix} += +D_\alpha J. +\] +Der Tangentialvektor an die Kurve $\alpha\mapsto D_\alpha$ innerhalb +$M_2(\mathbb{R})$ im Punkt $D_\alpha$ ist also die Matrix +$JD_\alpha$. +Die Matrix $J$ ist die Drehung um $90^\circ$, denn $J=D_{\frac{\pi}2}$. +Der Zusammenhang zwischen dem Punkt $D_\alpha$ und dem Tangentialvektor +ist also analog zur Beschreibug mit komplexen Zahlen. + +Im Komplexen vermittelt die Exponentialfunktion den Zusammenhang zwischen +dem Winkel $\alpha$ und dre Drehung $e^{i\alpha}$. +Der Grund dafür ist natürlich die Differentialgleichung +\[ +\frac{d}{d\alpha} z(\alpha) = iz(\alpha). +\] +Die analoge Differentialgleichung +\[ +\frac{d}{d\alpha} D_\alpha = J D_\alpha +\] +führt auf die Matrix-Exponentialreihe +\begin{align*} +D_\alpha += +\exp (J\alpha) +&= +\sum_{k=0}^\infty \frac{(J\alpha)^k}{k!} += +\biggl( +1-\frac{\alpha^2}{2!} + \frac{\alpha^4}{4!} -\frac{\alpha^6}{6!}+\dots +\biggr) ++ +J\biggl( +\alpha - \frac{\alpha^3}{3!} ++ \frac{\alpha^5}{5!} +- \frac{\alpha^7}{7!}+\dots +\biggr) +\\ +&= +I\cos\alpha ++ +J\sin\alpha, +\end{align*} +welche der Eulerschen Formel $e^{i\alpha} = \cos\alpha + i \sin\alpha$ +analog ist. + +In diesem Beispiel gibt es nur eine Tangentialrichtung und alle in Frage +kommenden Matrizen vertauschen miteinander. +Es ist daher nicht damit zu rechnen, dass sich eine interessante +Algebrastruktur für die Ableitungen konstruieren lässt. + +% +% Die Lie-Algebra einer Matrizengruppe +% +\subsection{Lie-Algebra einer Matrizengruppe} +Das eindimensionale Beispiel $\operatorname{SO}(2)$ hat gezeigt, dass +die Tangentialvektoren in einem beliebigen Punkt $D_\alpha$ aus dem +Tangentialvektor im Punkt $I$ durch Anwendung der Drehung hervorgehen, +die $I$ in $D_\alpha$ abbildet. +Die Drehungen einer eindimensionalen Untergruppe transportieren daher +den Tangentialvektor in $I$ entlang der Kurve auf jeden beliebigen +anderen Punkt. +Zu jedem Tangentialvektor im Punkt $I$ dürfte es daher genau eine +eindimensionale Untergruppe geben. + +Sei die Abbildung $\varrho\colon\mathbb{R}\to G$ eine Einparameter-Untergruppe +von $G\subset M_n(\mathbb{R})$. +Durch Ableitung der Gleichung $\varrho(t+x) = \varrho(t)\varrho(x)$ nach +$x$ folgt die Differentialgleichung +\[ +\varrho'(t) += +\frac{d}{dx}\varrho(t+x)\bigg|_{x=0} += +\varrho(t) \frac{d}{dx}\varrho(0)\bigg|_{x=0} += +\varrho(t) \varrho'(0). +\] +Der Tangentialvektor in $\varrho'(t)$ in $\varrho(t)$ ist daher +der Tangentialvektor $\varrho'(0)$ in $I$ transportiert in den Punkt +$\varrho(t)$ mit Hilfe der Matrix $\varrho(t)$. + +Aus der Differentialgleichung folgt auch, dass +\[ +\varrho(t) = \exp (t\varrho'(0)). +\] +Zu einem Tangentialvektor in $I$ kann man also immer die +Einparameter-Untergruppe mit Hilfe der Differentialgleichung +oder der expliziten Exponentialreihe rekonstruieren. + +Die eindimensionale Gruppe $\operatorname{SO}(2)$ ist abelsch und +hat einen eindimensionalen Tangentialraum, man kann also nicht mit +einer interessanten Algebrastruktur rechnen. +Für eine höherdimensionale, nichtabelsche Gruppe sollte sich aus +der Tatsache, dass es verschiedene eindimensionale Untergruppen gibt, +deren Elemente nicht mit den Elemente einer anderen solchen Gruppe +vertauschen, eine interessante Algebra konstruieren lassen, deren +Struktur die Nichtvertauschbarkeit wiederspiegelt. + +Seien also $A$ und $B$ Tangentialvektoren einer Matrizengruppe $G$, +die zu den Einparameter-Untergruppen $\varphi(t)=\exp At$ und +$\varrho(t)=\exp Bt$ gehören. +Insbesondere gilt $\varphi'(0)=A$ und $\varrho'(0)=B$. +Das Produkt $\pi(t)=\varphi(t)\varrho(t)$ ist allerdings nicht notwendigerweise +eine Einparametergruppe, denn dazu müsste gelten +\begin{align*} +\pi(t+s) +&= +\varphi(t+s)\varrho(t+s) += +\varphi(t)\varphi(s)\varrho(t)\varrho(s) +\\ += +\pi(t)\pi(s) +&= +\varphi(t)\varrho(t)\varphi(s)\varrho(s) +\end{align*} +Durch Multiplikation von links mit $\varphi(t)^{-1}$ und +mit $\varrho(s)^{-1}$ von rechts folgt, dass dies genau dann gilt, +wenn +\[ +\varphi(s)\varrho(t)=\varrho(t)\varphi(s). +\] +Die beiden Seiten dieser Gleichung sind erneut verschiedene Punkte +in $G$. +Durch Multiplikation mit $\varrho(t)^{-1}$ von links und mit +$\varphi(s)^{-1}$ von rechts erhält man die äquivaliente +Bedingung +\begin{equation} +\varrho(-t)\varphi(s)\varrho(t)\varphi(-s)=I. +\label{buch:lie:konjugation} +\end{equation} +Ist die Gruppe $G$ nicht kommutativ, kann man nicht +annehmen, dass diese Bedingung erfüllt ist. + +Aus \eqref{buch:lie:konjugation} erhält man jetzt eine Kurve +\[ +t \mapsto \gamma(t,s) = \varrho(-t)\varphi(s)\varrho(t)\varphi(-s) \in G +\] +in der Gruppe, die für $t=0$ durch $I$ geht. +Ihren Tangentialvektor kann man durch Ableitung bekommen: +\begin{align*} +\frac{d}{dt}\gamma(t,s) +&= +-\varrho'(-t)\varphi(s)\varrho(t)\varphi(-s) ++\varrho(-t)\varphi(s)\varrho'(t)\varphi(-t) +\\ +\frac{d}{dt}\gamma(t)\bigg|_{t=0} +&= +-B\varphi(s) + \varphi(-s)B +\end{align*} +Durch erneute Ableitung nach $s$ erhält man dann +\begin{align*} +\frac{d}{ds} \frac{d}{dt}\gamma(t,s)\bigg|_{t=0} +&= +-B\varphi'(s) - \varphi(-s)B +\end{align*} + +% +% Die Lie-Algebra von SO(3) +% +\subsection{Die Lie-Algebra von $\operatorname{SO}(3)$} + +% +% Die Lie-Algebra von SU(2) +% +\subsection{Die Lie-Algebra von $\operatorname{SU}(2)$} + + + + diff --git a/buch/chapters/60-gruppen/lie-gruppen.tex b/buch/chapters/60-gruppen/lie-gruppen.tex index cb1ca84..1268ce2 100644 --- a/buch/chapters/60-gruppen/lie-gruppen.tex +++ b/buch/chapters/60-gruppen/lie-gruppen.tex @@ -6,3 +6,321 @@ \section{Lie-Gruppen \label{buch:section:lie-gruppen}} \rhead{Lie-Gruppen} + +\subsection{Drehungen in der Ebene +\label{buch:gruppen:drehungen2d}} +Drehungen der Ebene können in einer orthonormierten Basis durch +Matrizen der Form +\[ +D_{\alpha} += +\begin{pmatrix} +\cos\alpha&-\sin\alpha\\ +\sin\alpha& \cos\alpha +\end{pmatrix} +\] +dargestellt werden. +Wir bezeichnen die Menge der Drehmatrizen in der Ebene mit +$\operatorname{SO}(2)\subset\operatorname{GL}_2(\mathbb{R})$. +Die Abbildung +\[ +D_{\bullet} +\colon +\mathbb{R}\to \operatorname{SO}(2) +: +\alpha \mapsto D_{\alpha} +\] +hat die Eigenschaften +\begin{align*} +D_{\alpha+\beta}&= D_{\alpha}D_{\beta} +\\ +D_0&=I +\\ +D_{2k\pi}&=I\qquad \forall k\in\mathbb{Z}. +\end{align*} +Daraus folgt zum Beispiel, dass $D_{\bullet}$ eine $2\pi$-periodische +Funktion ist. +$D_{\bullet}$ bildet die Menge der Winkel $[0,2\pi)$ bijektiv auf +die Menge der Drehmatrizen in der Ebene ab. + +Ein alternatives Bild für die Drehungen der Ebene kann man in der komplexen +Ebene $\mathbb{C}$ erhalten. +Die Multiplikation mit der komplexen Zahl $e^{i\alpha}$ beschreibt eine +Drehung der komplexen Ebene um den Winkel $\alpha$. +Die Zahlen der Form $e^{i\alpha}$ haben den Betrag $1$ und die Abbildung +\[ +f\colon \mathbb{R}\to \mathbb{C}:\alpha \mapsto e^{i\alpha} +\] +hat die Eigenschaften +\begin{align*} +f(\alpha+\beta) &= f(\alpha)f(\beta) +\\ +f(0)&=1 +\\ +f(2\pi k)&=1\qquad\forall k\in\mathbb{Z}, +\end{align*} +die zu den Eigenschaften der Abbildung $\alpha\mapsto D_{\alpha}$ +analog sind. + +Jede komplexe Zahl $z$ vom Betrag $1$ kann geschrieben werden in der Form +$z=e^{i\alpha}$, die Abbildung $f$ ist also eine Parametrisierung des +Einheitskreises in der Ebene. +Wir bezeichen $S^1=\{z\in\mathbb{C}\;|\; |z|=1\}$ die komplexen Zahlen vom +Betrag $1$. +$S^1$ ist eine Gruppe bezüglich der Multiplikation, da für jede Zahl +$z,w\in S^1$ gilt +$|z^{-1}|=1$ und $|zw|=1$ und damit $z^{-1}\in S^1$ und $zw\in S^1$. + +Zu einer komplexen Zahl $z\in S^1$ gibt es einen bis auf Vielfache +von $2\pi$ eindeutigen Winkel $\alpha(z)$ derart, dass $e^{i\alpha(z)}=z$. +Damit kann man jetzt die Abbildung +\[ +\varphi +\colon +S^1\to \operatorname{SO}(2) +: +z\mapsto D_{\alpha(z)} +\] +konstruieren. +Da $D_{\alpha}$ $2\pi$-periodisch ist, geben um Vielfache +von $2\pi$ verschiedene Wahlen von $\alpha(z)$ die gleiche +Matrix $D_{\alpha(z)}$, die Abbildung $\varphi$ ist daher +wohldefiniert. +$\varphi$ erfüllt ausserdem die Bedingungen +\begin{align*} +\varphi(z_1z_2) +&= +D_{\alpha(z_1z_2)} += +D_{\alpha(z_1)+\alpha(z_2)} += +D_{\alpha(z_1)}D_{\alpha(z_2)} += +\varphi(z_1)\varphi(z_2) +\\ +\varphi(1) +&= +D_{\alpha(1)} += +D_0 += +I +\end{align*} +Die Abbildung $\varphi$ ist ein Homomorphismus der Gruppe $S^1$ +in die Gruppe $\operatorname{SO}(2)$. +Die Menge der Drehmatrizen in der Ebene kann also mit dem Einheitskreis +in der komplexen Ebene identifiziert werden. + +% +% Isometrien von R^n +% +\subsection{Isometrien von $\mathbb{R}^n$ +\label{buch:gruppen:isometrien}} +Lineare Abbildungen der Ebene $\mathbb{R}^n$ mit dem üblichen Skalarprodukt +können durch $n\times n$-Matrizen beschrieben werden. +Die Matrizen, die das Skalarprodukt erhalten, bilden eine Gruppe, +die in diesem Abschnitt genauer untersucht werden soll. +Eine Matrix $A\in M_{2}(\mathbb{R})$ ändert das Skalarprodukt nicht, wenn +für jedes beliebige Paar $x,y$ von Vektoren gilt +$\langle Ax,Ay\rangle = \langle x,y\rangle$. +Das Standardskalarprodukt kann mit dem Matrixprodukt ausgedrückt werden: +\[ +\langle Ax,Ay\rangle += +(Ax)^tAy += +x^tA^tAy += +x^ty += +\langle x,y\rangle +\] +für jedes Paar von Vektoren $x,y\in\mathbb{R}$. + +Mit dem Skalarprodukt kann man auch die Matrixelemente einer Matrix +einer Abbildung $f$ in der Standardbasis bestimmen. +Das Skalarprodukt $\langle e_i, v\rangle$ ist die Länge der Projektion +des Vektors $v$ auf die Richtung $e_i$. +Die Komponenten von $Ae_j$ sind daher $a_{ij}=\langle e_i,f(e_j)\rangle$. +Die Matrix $A$ der Abbildung $f$ hat also die Matrixelemente +$a_{ij}=e_i^tAe_j$. + +\subsubsection{Die orthogonale Gruppe $\operatorname{O}(n)$} +Die Matrixelemente von $A^tA$ sind +$\langle A^tAe_i, e_j\rangle =\langle e_i,e_j\rangle = \delta_{ij}$ +sind diejenigen der Einheitsmatrix, +die Matrix $A$ erfüllt $AA^t=I$ oder $A^{-1}=A^t$. +Dies sind die {\em orthogonalen} Matrizen. +Die Menge $\operatorname{O}(n)$ der isometrischen Abbildungen besteht +daher aus den Matrizen +\[ +\operatorname{O}(n) += +\{ A\in M_n(\mathbb{R})\;|\; AA^t=I\}. +\] +Die Matrixgleichung $AA^t=I$ liefert $n(n+1)/2$ unabhängige Bedingungen, +die die orthogonalen Matrizen innerhalb der $n^2$-dimensionalen +Menge $M_n(\mathbb{R})$ auszeichnen. +Die Menge $\operatorname{O}(n)$ der orthogonalen Matrizen hat daher +die Dimension +\[ +n^2 - \frac{n(n+1)}{2} += +\frac{2n^2-n^2-n}{2} += +\frac{n(n-1)}2. +\] +Im Spezialfall $n=2$ ist die Gruppe $O(2)$ eindimensional. + +\subsubsection{Die Gruppe $\operatorname{SO}(n)$} +Die Gruppe $\operatorname{O}(n)$ enhält auch Isometrien, die +die Orientierung des Raumes umkehren, wie zum Beispiel Spiegelungen. +Wegen $\det (AA^t)=\det A\det A^t = (\det A)^2=1$ kann die Determinante +einer orthogonalen Matrix nur $\pm 1$ sein. +Orientierungserhaltende Isometrien haben Determinante $1$. + +Die Gruppe +\[ +\operatorname{SO}(n) += +\{A\in\operatorname{O}(n)\;|\; \det A=1\} +\] +heisst die {\em spezielle orthogonale Gruppe}. +Die Dimension der Gruppe $\operatorname{O}(n)$ ist $n(n-1)/2$. + +\subsubsection{Die Gruppe $\operatorname{SO}(3)$} +Die Gruppe $\operatorname{SO}(3)$ der Drehungen des dreidimensionalen +Raumes hat die Dimension $3(3-1)/2=3$. +Eine Drehung wird festgelegt durch die Richtung der Drehachse und den +Drehwinkel. +Die Richtung der Drehachse ist ein Einheitsvektor, also ein Punkt +auf der zweidimensionalen Kugel. +Der Drehwinkel ist der dritte Parameter. + +Drehungen mit kleinen Drehwinkeln können zusammengesetzt werden +aus den Matrizen +\[ +D_{x,\alpha} += +\begin{pmatrix} +1&0&0\\ +0&\cos\alpha&-\sin\alpha\\ +0&\sin\alpha& \cos\alpha +\end{pmatrix}, +\qquad +D_{y,\beta} += +\begin{pmatrix} + \cos\beta&0&\sin\beta\\ + 0 &1& 0 \\ +-\sin\beta&0&\cos\beta +\end{pmatrix}, +\qquad +D_{z,\gamma} += +\begin{pmatrix} +\cos\gamma&-\sin\gamma&0\\ +\sin\gamma& \cos\gamma&0\\ + 0 & 0 &1 +\end{pmatrix}, +\] +die Drehungen um die Koordinatenachsen um den Winkel $\alpha$ +beschreiben. +Auch die Winkel $\alpha$, $\beta$ und $\gamma$ können als die +drei Koordinaten der Mannigkfaltigkeit $\operatorname{SO}(3)$ +angesehen werden. + +% +% Die Gruppe SU(2) +% +\subsection{Die Gruppe $\operatorname{SU}(2)$ +\label{buch:gruppen:su2}} +Die Menge der Matrizen +\[ +\operatorname{SU}(2) += +\left\{ +\left. +A=\begin{pmatrix} a&b\\c&d\end{pmatrix} +\;\right|\; +a,b,c,d\in\mathbb{C},\det(A)=1, AA^*=I +\right\} +\] +heisst die {\em spezielle unitäre Gruppe}. +Wegen $\det(AB)=\det(A)\det(B)=1$ und $(AB)^*AB=B^*A^*AB=B^*B=I$ ist +$\operatorname{SU}(2)$ eine Untergruppe von $\operatorname{GL}_2(\mathbb{C})$. +Die Bedingungen $\det A=1$ und $AA^*=I$ schränken die möglichen Werte +von $a$ und $b$ weiter ein. +Aus +\[ +A^* += +\begin{pmatrix} +\overline{a}&\overline{c}\\ +\overline{b}&\overline{d} +\end{pmatrix} +\] +und den Bedingungen führen die Gleichungen +\[ +\begin{aligned} +a\overline{a}+b\overline{b}&=1 +&&\Rightarrow&|a|^2+|b|^2&=1 +\\ +a\overline{c}+b\overline{d}&=0 +&&\Rightarrow& +\frac{a}{b}&=-\frac{\overline{d}}{\overline{c}} +\\ +c\overline{a}+d\overline{b}&=0 +&&\Rightarrow& +\frac{c}{d}&=-\frac{\overline{b}}{\overline{a}} +\\ +c\overline{c}+d\overline{d}&=1&&\Rightarrow&|c|^2+|d|^2&=1 +\\ +ad-bc&=1 +\end{aligned} +\] +Aus der zweiten Gleichung kann man ableiten, dass es eine Zahl $t\in\mathbb{C}$ +gibt derart, dass $c=-t\overline{b}$ und $d=t\overline{a}$. +Damit wird die Bedingung an die Determinante zu +\[ +1 += +ad-bc = at\overline{a} - b(-t\overline{b}) += +t(|a|^2+|b|^2) += +t, +\] +also muss die Matrix $A$ die Form haben +\[ +A += +\begin{pmatrix} +a&b\\ +-\overline{b}&\overline{a} +\end{pmatrix} +\qquad\text{mit}\quad |a|^2+|b|^2=1. +\] +Schreibt man $a=a_1+ia_2$ und $b=b_1+ib_2$ mit rellen $a_i$ und $b_i$, +dann besteht $SU(2)$ aus den Matrizen der Form +\[ +A= +\begin{pmatrix} + a_1+ia_2&b_1+ib_2\\ +-b_1+ib_2&a_1-ia_2 +\end{pmatrix} +\] +mit der zusätzlichen Bedingung +\[ +|a|^2+|b|^2 += +a_1^2 + a_2^2 + b_1^2 + b_2^2 = 1. +\] +Die Matrizen von $\operatorname{SU}(2)$ stehen daher in einer +eins-zu-eins-Beziehung zu den Vektoren $(a_1,a_2,b_1,b_2)\in\mathbb{R}^4$ +eines vierdimensionalen reellen Vektorraums mit Länge $1$. +Geometrisch betrachtet ist also $\operatorname{SU}(2)$ eine dreidmensionalen +Kugel, die in einem vierdimensionalen Raum eingebettet ist. + + + diff --git a/buch/chapters/60-gruppen/symmetrien.tex b/buch/chapters/60-gruppen/symmetrien.tex index 8d5c0e0..cb07475 100644 --- a/buch/chapters/60-gruppen/symmetrien.tex +++ b/buch/chapters/60-gruppen/symmetrien.tex @@ -7,4 +7,102 @@ \section{Symmetrien \label{buch:section:symmetrien}} \rhead{Symmetrien} +Der geometrische Begriff der Symmetrie meint die Eigenschaft eines +geometrischen Objektes, dass es bei einer Bewegung auf sich selbst +abgebildet wird. +Das Wort stammt aus dem altgriechischen, wo es {\em Gleichmass} +bedeutet. +Spiegelsymmetrische Objekte zeichnen sich zum Beispiel dadurch aus, +dass Messungen von Strecken die gleichen Werte ergeben wie die Messungen +der entsprechenden gespiegelten Strecken (siehe auch +Abbildung~\ref{buch:lie:bild:castlehoward}, was die Herkunft des +Begriffs verständlich macht. +\begin{figure} +\centering +\includegraphics[width=\textwidth]{chapters/60-gruppen/images/castle.jpeg} +\caption{Das Castle Howard in Yorkshire war in dieser ausgeprägt symmetrischen +Form geplant, wurde dann aber in modifizeirter Form gebaut. +Messungen zwischen Punkten in der rechten Hälfte des Bildes +ergeben die gleichen Werte wie Messungen entsprechenden Strecken +in der linken Hälfte, was den Begriff Symmetrie rechtfertigt. +\label{buch:lie:bild:castlehoward}} +\end{figure} +In der Physik wird dem Begriff der Symmetrie daher auch eine erweiterte +Bedeutung gegeben. +Jede Transformation eines Systems, welche bestimmte Grössen nicht +verändert, wird als Symmetrie bezeichnet. +Die Gesetze der Physik sind typischerweise unabhängig davon, wo man den +den Nullpunkt der Zeit oder das räumlichen Koordinatensystems ansetzt, +eine Transformation des Zeitnullpunktes oder des Ursprungs des +Koordinatensystems ändert daher die Bewegungsgleichungen nicht, sie ist +eine Symmetrie des Systems. + +Umgekehrt kann man fragen, welche Symmetrien ein System hat. +Da sich Symmetrien zusammensetzen und umkehren lassen, kann man in davon +ausgehen, dass die Symmetrietransformationen eine Gruppe bilden. +Besonders interessant ist dies im Falle von Transformationen, die +durch Matrizen beschrieben weren. +Eine unter der Symmetrie erhaltene Eigenschaft definiert so eine +Untergruppe der Gruppe $\operatorname{GL}_n(\mathbb{R})$ der +invertierbaren Matrizen. +Die erhaltenen Eigenschaften definieren eine Menge von Gleichungen, +denen die Elemente der Untergruppe genügen müssen. +Als Lösungsmenge einer Gleichung erhält die Untergruppe damit eine +zusätzliche geometrische Struktur, man nennt sie eine differenzierbare +Mannigfaltigkeit. +Dieser Begriff wird im Abschnitt~\ref{buch:subsection:mannigfaltigkeit} +eingeführt. +Es wird sich zum Beispiel zeigen, dass die Menge der Drehungen der +Ebene mit den Punkten eines Kreises parametrisieren lassen, +die Lösungen der Gleichung $x^2+y^2=1$ sind. + +Eine Lie-Gruppe ist eine Gruppe, die gleichzeitig eine differenzierbare +Mannigfaltigkeit ist. +Die Existenz von geometrischen Konzepten wie Tangentialvektoren +ermöglicht zusätzliche Werkzeuge, mit denen diese Gruppe untersucht +und verstanden werden können. +Ziel dieses Abschnitts ist, die Grundlagen für diese Untersuchung zu +schaffen, die dann im Abschnitt~\ref{buch:section:lie-algebren} +durchgeführt werden soll. + +\subsection{Algebraische Symmetrien +\label{buch:subsection:algebraische-symmetrien}} +Mit Matrizen lassen sich Symmetrien in einem geometrischen Problem +oder in einem physikalischen System beschreiben. +Man denkt dabei gerne zuerst an geometrische Symmetrien wie die +Symmetrie unter Punktspiegelung oder die Spiegelung an der $x_1$-$x_2$-Ebene, +wie sie zum Beispiel durch die Abbildungen +\[ +\mathbb{R}^3\to\mathbb{R}^3 : x\mapsto -x +\qquad\text{oder}\qquad +\mathbb{R}^3\to\mathbb{R}^3 : +\begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix} +\mapsto +\begin{pmatrix}-x_1\\x_2\\x_3\end{pmatrix} +\] +dargestellt werden. +Beide haben zunächst die Eigenschaft, dass Längen und Winkel und damit +das Skalarprodukt erhalten sind. +Diese Eigenschaft allein erlaubt aber noch nicht, die beiden Transformationen +zu unterscheiden. +Die Punktspiegelung zeichnet sich dadurch aus, das alle Geraden und alle +Ebenen durch den Ursprung auf sich selbst abgebildet werden. +Dies funktioniert für die Ebenenspiegelung nicht, dort bleibt nur die +Spiegelungsebene (die $x_1$-$x_2$-Ebene im vorliegenden Fall) und +ihre Normale erhalten. +Die folgenden Beispiele sollen zeigen, wie solche Symmetriedefinitionen +auf algebraische Bedingungen an die Matrixelemente führen. + + +\subsection{Manningfaltigkeiten +\label{buch:subsection:mannigfaltigkeit}} + +\subsection{Der Satz von Noether +\label{buch:subsection:noether}} + + + + + + diff --git a/buch/common/teilnehmer.tex b/buch/common/teilnehmer.tex index aeaddd5..4d57f84 100644 --- a/buch/common/teilnehmer.tex +++ b/buch/common/teilnehmer.tex @@ -7,21 +7,21 @@ Joshua Baer, % E Marius Baumann, % E Reto Fritsche, % E -Ahmet Güzel%, % E +%Ahmet Güzel%, % E +Alain Keller%, % E \\ -%Pascal Honegger, % I -Alain Keller, % E +Marc Kühne, % B Robine Luchsinger, % B -Jan Marbach%, % E -\\ -Andrea Mozzin Vellen, % E Naoki Pross, % E -Michael Schmid%, % MSE +Thomas Reichlin%, % B \\ +Michael Schmid, % MSE Pascal Andreas Schmid, % B -Thierry Schwaller, % E -Michael Steiner%, % E +Adrian Schuler%, % B \\ +Thierry Schwaller, % E +Michael Steiner, % E Tim Tönz, % E -Fabio Viecelli, % B +Fabio Viecelli%, % B +\\ Lukas Zogg%, % B diff --git a/cover/buchcover.tex b/cover/buchcover.tex index de0c7d8..834eec4 100644 --- a/cover/buchcover.tex +++ b/cover/buchcover.tex @@ -72,27 +72,27 @@ Joshua Baer, % E Marius Baumann, % E Reto Fritsche, % E (2) - Ahmet Güzel%, % E + Alain Keller%, % E +% Ahmet Güzel%, % E }}; \node at ({\einschlag+2*\gelenk+\ruecken+1.5*\breite},17.75) [color=white,scale=1] {\hbox to\hsize{\hfill% \sf \fontsize{13}{5}\selectfont - %Pascal Honegger, % I - Alain Keller, % E + Marc Kühne, Robine Luchsinger, % B - Jan Marbach, % E - Andreas Mozzini Vellen%, % E + Naoki Pross, % E + Thomas Reichlin%, % B }}; \node at ({\einschlag+2*\gelenk+\ruecken+1.5*\breite},17.1) [color=white,scale=1] {\hbox to\hsize{\hfill% \sf \fontsize{13}{5}\selectfont - Naoki Pross, % E Michael Schmid, % MSE - Pascal Andreas Schmid%, % B + Pascal Andreas Schmid, % B + Adrian Schuler%, }}; \node at ({\einschlag+2*\gelenk+\ruecken+1.5*\breite},16.45) diff --git a/vorlesungen/05_mseendlichekoerper/Makefile b/vorlesungen/05_mseendlichekoerper/Makefile new file mode 100644 index 0000000..4dd01f2 --- /dev/null +++ b/vorlesungen/05_mseendlichekoerper/Makefile @@ -0,0 +1,33 @@ +# +# Makefile -- endlichekoerper +# +# (c) 2017 Prof Dr Andreas Müller, Hochschule Rapperswil +# +all: endlichekoerper-handout.pdf MathSemMSE-05-endlichekoerper.pdf + +include ../slides/Makefile.inc + +SOURCES = common.tex slides.tex $(slides) + +MathSemMSE-05-endlichekoerper.pdf: MathSemMSE-05-endlichekoerper.tex $(SOURCES) + pdflatex MathSemMSE-05-endlichekoerper.tex + +endlichekoerper-handout.pdf: endlichekoerper-handout.tex $(SOURCES) + pdflatex endlichekoerper-handout.tex + +thumbnail: thumbnail.jpg # fix1.jpg + +thumbnail.pdf: MathSemMSE-05-endlichekoerper.pdf + pdfjam --outfile thumbnail.pdf --papersize '{16cm,9cm}' \ + MathSemMSE-05-endlichekoerper.pdf 1 +thumbnail.jpg: thumbnail.pdf + convert -density 300 thumbnail.pdf \ + -resize 1920x1080 -units PixelsPerInch thumbnail.jpg + +fix1.pdf: MathSemMSE-05-endlichekoerper.pdf + pdfjam --outfile fix1.pdf --papersize '{16cm,9cm}' \ + MathSemMSE-05-endlichekoerper.pdf 1 +fix1.jpg: fix1.pdf + convert -density 300 fix1.pdf \ + -resize 1920x1080 -units PixelsPerInch fix1.jpg + diff --git a/vorlesungen/05_mseendlichekoerper/MathSemMSE-05-endlichekoerper.tex b/vorlesungen/05_mseendlichekoerper/MathSemMSE-05-endlichekoerper.tex new file mode 100644 index 0000000..d03fa99 --- /dev/null +++ b/vorlesungen/05_mseendlichekoerper/MathSemMSE-05-endlichekoerper.tex @@ -0,0 +1,14 @@ +% +% MathSem-05-mseendlichekoerper.tex -- Präsentation +% +% (c) 2017 Prof Dr Andreas Müller, Hochschule Rapperswil +% +\documentclass[aspectratio=169]{beamer} +\input{common.tex} +\setboolean{presentation}{true} +\begin{document} +\begin{frame} +\titlepage +\end{frame} +\input{slides.tex} +\end{document} diff --git a/vorlesungen/05_mseendlichekoerper/common.tex b/vorlesungen/05_mseendlichekoerper/common.tex new file mode 100644 index 0000000..7bd6c65 --- /dev/null +++ b/vorlesungen/05_mseendlichekoerper/common.tex @@ -0,0 +1,16 @@ +% +% common.tex -- gemeinsame definition +% +% (c) 2017 Prof Dr Andreas Müller, Hochschule Rapperswil +% +\input{../common/packages.tex} +\input{../common/common.tex} +\mode<beamer>{% +\usetheme[hideothersubsections,hidetitle]{Hannover} +} +\beamertemplatenavigationsymbolsempty +\title[Endliche Körper]{Endliche Körper} +\author[A.~Müller]{Prof. Dr. Andreas Müller} +\date[]{} +\newboolean{presentation} + diff --git a/vorlesungen/05_mseendlichekoerper/endlichekoerper-handout.tex b/vorlesungen/05_mseendlichekoerper/endlichekoerper-handout.tex new file mode 100644 index 0000000..cdb077b --- /dev/null +++ b/vorlesungen/05_mseendlichekoerper/endlichekoerper-handout.tex @@ -0,0 +1,11 @@ +% +% mseendlichekoerper-handout.tex -- Handout XXX +% +% (c) 2017 Prof Dr Andreas Müller, Hochschule Rapperswil +% +\documentclass[handout,aspectratio=169]{beamer} +\input{common.tex} +\setboolean{presentation}{false} +\begin{document} +\input{slides.tex} +\end{document} diff --git a/vorlesungen/05_mseendlichekoerper/slides.tex b/vorlesungen/05_mseendlichekoerper/slides.tex new file mode 100644 index 0000000..2a3df88 --- /dev/null +++ b/vorlesungen/05_mseendlichekoerper/slides.tex @@ -0,0 +1,30 @@ +% +% slides.tex -- +% +% (c) 2017 Prof Dr Andreas Müller, Hochschule Rapperswil +% +\section{Euklidischer Algorithmus} +\folie{4/ggt.tex} +\folie{4/euklidmatrix.tex} +\folie{4/euklidbeispiel.tex} +\folie{4/euklidtabelle.tex} + +\section{Endlicher Körper} +\folie{4/fp.tex} +\folie{4/division.tex} +\folie{4/gauss.tex} +\folie{4/dh.tex} + +\section{Charakteristik} +\folie{4/charakteristik.tex} +\folie{4/char2.tex} +\folie{4/frobenius.tex} +\folie{4/qundr.tex} + +\section{Körpererweiterung} +\folie{4/divisionpoly.tex} +\folie{4/euklidpoly.tex} +\folie{4/polynomefp.tex} +\folie{4/alpha.tex} +\folie{4/schieberegister.tex} + diff --git a/vorlesungen/06_spektral2/slides.tex b/vorlesungen/06_spektral2/slides.tex index b049f2f..905c47d 100644 --- a/vorlesungen/06_spektral2/slides.tex +++ b/vorlesungen/06_spektral2/slides.tex @@ -3,20 +3,28 @@ % % (c) 2017 Prof Dr Andreas Müller, Hochschule Rapperswil % +\section{Plan} +\folie{5/plan.tex} +\folie{5/planbeispiele.tex} + \section{Normen} \folie{2/norm.tex} -\folie{2/skalarprodukt.tex} +%\folie{2/skalarprodukt.tex} \folie{2/operatornorm.tex} -\section{Matrix-Analysis} +\section{Potenzreihen} \folie{5/konvergenzradius.tex} \folie{5/krbeispiele.tex} +\folie{5/spektrum.tex} \folie{5/spektralgelfand.tex} \folie{5/Aiteration.tex} \folie{5/satzvongelfand.tex} -% XXX stone weierstrass incomplete + +\section{Polynomapproximation} +\folie{5/normal.tex} +\folie{5/normalbeispiel.tex} +\folie{5/normalbeispiel34.tex} \folie{5/stoneweierstrass.tex} -\folie{5/spektrum.tex} +\folie{5/swbeweis.tex} % XXX polynome auf dem spektrum % XXX Motiviation für *-Operation -\folie{5/normal.tex} diff --git a/vorlesungen/slides/4/Makefile.inc b/vorlesungen/slides/4/Makefile.inc index ad1081e..6616f56 100644 --- a/vorlesungen/slides/4/Makefile.inc +++ b/vorlesungen/slides/4/Makefile.inc @@ -17,6 +17,10 @@ chapter4 = \ ../slides/4/euklidpoly.tex \ ../slides/4/polynomefp.tex \ ../slides/4/schieberegister.tex \ + ../slides/4/charakteristik.tex \ + ../slides/4/char2.tex \ + ../slides/4/frobenius.tex \ + ../slides/4/qundr.tex \ ../slides/4/alpha.tex \ ../slides/4/chapter.tex diff --git a/vorlesungen/slides/4/chapter.tex b/vorlesungen/slides/4/chapter.tex index a10712a..6872018 100644 --- a/vorlesungen/slides/4/chapter.tex +++ b/vorlesungen/slides/4/chapter.tex @@ -16,3 +16,7 @@ \folie{4/polynomefp.tex} \folie{4/alpha.tex} \folie{4/schieberegister.tex} +\folie{4/charakteristik.tex} +\folie{4/char2.tex} +\folie{4/frobenius.tex} +\folie{4/qundr.tex} diff --git a/vorlesungen/slides/4/char2.tex b/vorlesungen/slides/4/char2.tex new file mode 100644 index 0000000..2b5709a --- /dev/null +++ b/vorlesungen/slides/4/char2.tex @@ -0,0 +1,48 @@ +% +% char2.tex +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\begin{frame}[t] +\setlength{\abovedisplayskip}{5pt} +\setlength{\belowdisplayskip}{5pt} +\frametitle{Charakteristik 2} +\vspace{-15pt} +\begin{columns}[t,onlytextwidth] +\begin{column}{0.48\textwidth} +\begin{block}{Plus und Minus} +\[ +x+x = 2x = 0 +\uncover<2->{\Rightarrow +-x=x} +\] +\end{block} +\uncover<3->{% +\begin{block}{Quadrieren} +In $\mathbb{F}_2$ ist $2=0$, d.h +\[ +(x+y)^2 += +x^2 + 2xy + y^2 +\uncover<4->{= +x^2 + y^2} +\] +für alle $x,y\in\Bbbk$ +\end{block}} +\uncover<6->{% +\begin{block}{Frobenius-Automorphismus} +\[ +(x+y)^{2^n} = x^{2^n}+y^{2^n} +\] +\end{block}} +\end{column} +\begin{column}{0.48\textwidth} +\uncover<5->{% +\begin{block}{Pascal-Dreieck} +\begin{center} +\includegraphics[width=\textwidth]{../../buch/chapters/30-endlichekoerper/images/binomial2.pdf} +\end{center} +\end{block}} +\end{column} +\end{columns} +\end{frame} diff --git a/vorlesungen/slides/4/charakteristik.tex b/vorlesungen/slides/4/charakteristik.tex new file mode 100644 index 0000000..a0d6d3e --- /dev/null +++ b/vorlesungen/slides/4/charakteristik.tex @@ -0,0 +1,71 @@ +% +% charakteristisk.tex +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\begin{frame}[t] +\setlength{\abovedisplayskip}{5pt} +\setlength{\belowdisplayskip}{5pt} +\frametitle{Primkörper und Charakteristik} +\vspace{-20pt} +\begin{columns}[t,onlytextwidth] +\begin{column}{0.48\textwidth} +\begin{block}{Primkörper} +$1\in\Bbbk$ +\begin{enumerate} +\item<2-> +$n\cdot 1\ne 0\;\forall n\in\mathbb{N}$\uncover<3->{: +$\Rightarrow$ +$\mathbb{Z}\subset \Bbbk$} +\uncover<4->{% +$\Rightarrow$ +$\mathbb{Q}\subset \Bbbk$} +\item<5-> +$\{n\mathbb{Z}\;|\; +\text{$n\cdot 1 = 0$ in $\Bbbk$}\} += +p\mathbb{Z}$ +\uncover<6->{ +$\Rightarrow$ +$\mathbb{F}_p\subset \Bbbk$} +\end{enumerate} +\end{block} +\uncover<7->{% +\begin{block}{Primkörper} +Der Primkörper $\operatorname{Prim}(\Bbbk)$ +eines Körpers $\Bbbk$ ist der kleinste in $\Bbbk$ +enthaltene Körper +\end{block}} +\end{column} +\begin{column}{0.48\textwidth} +\uncover<8->{% +\begin{block}{Charakteristik} +\vspace{-10pt} +\[ +\operatorname{char}(\Bbbk) += +\begin{cases} +\uncover<9->{p&\qquad \operatorname{Prim}(\Bbbk) = \mathbb{F}_p}\\ +\uncover<10->{0&\qquad \operatorname{Prim}(\Bbbk) = \mathbb{Q}} +\end{cases} +\] +\vspace{-10pt} +\end{block}} +\uncover<11->{% +\begin{block}{Vektorraum} +$\Bbbk$ ist ein Vektorraum über $\operatorname{Prim}(\Bbbk)$ +durch Einschränkung der Multiplikation auf $\operatorname{Prim}(\Bbbk)$ +(Körperstruktur vergessen) +\end{block}} +\uncover<12->{% +\begin{block}{Endliche Körper} +\begin{itemize} +\item<13-> +Endliche Körper haben immer Charakteristik $p\ne 0$ +\item<14-> +$\Bbbk$ ist eine endlichdimensionaler $\mathbb{F}_p$-Vektorraum +\end{itemize} +\end{block}} +\end{column} +\end{columns} +\end{frame} diff --git a/vorlesungen/slides/4/euklidmatrix.tex b/vorlesungen/slides/4/euklidmatrix.tex index be5b3ca..c63afec 100644 --- a/vorlesungen/slides/4/euklidmatrix.tex +++ b/vorlesungen/slides/4/euklidmatrix.tex @@ -18,7 +18,7 @@ a_k = b_kq_k + r_k \;\Rightarrow\; \left\{ \begin{aligned} -a_{k+1} &= b_k = \phantom{a_k-q_k}\llap{$-\mathstrut$}b_k \\ +a_{k+1} &= b_k = \phantom{a_k-q_k}b_k \\ b_{k+1} &= \phantom{b_k}\llap{$r_k$} = a_k - q_kb_k \end{aligned} \right.} diff --git a/vorlesungen/slides/4/frobenius.tex b/vorlesungen/slides/4/frobenius.tex new file mode 100644 index 0000000..56fd78f --- /dev/null +++ b/vorlesungen/slides/4/frobenius.tex @@ -0,0 +1,54 @@ +% +% frobenius.tex +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\begin{frame}[t] +\setlength{\abovedisplayskip}{5pt} +\setlength{\belowdisplayskip}{5pt} +\frametitle{Frobenius-Automorphismus} +\vspace{-20pt} +\begin{columns}[t,onlytextwidth] +\begin{column}{0.48\textwidth} +$\operatorname{Prim}(\Bbbk) = \mathbb{F}_p$ +\uncover<2->{% +\begin{block}{Binomial-Koeffizienten} +\vspace{-10pt} +\begin{align*} +\binom{p}{k} +&= +\frac{ +{\color{red}p}\cdot(p-1)\cdot(p-2)\cdot\dots\cdot (p-k+1) +}{ +1\cdot2\cdot3\cdot\dots\cdot k +} +\intertext{{\color{red}$p$} wird nicht gekürzt wegen} +\uncover<3->{1&\not\equiv 0 \mod p}\\ +\uncover<3->{2&\not\equiv 0 \mod p}\\ +\uncover<3->{ &\phantom{a}\vdots}\\ +\uncover<3->{k&\not\equiv 0 \mod p} +\end{align*} +\vspace{-10pt} +\end{block}} +\vspace{-5pt} +\uncover<4->{% +\begin{block}{Frobenius-Authomorphismus} +\vspace{-10pt} +\begin{align*} +\uncover<5->{(x+y)^{p\phantom{\mathstrut^n}} +&= +x^{p\phantom{\mathstrut}^n}+y^{p\phantom{mathstrut^n}}} +\\ +\uncover<6->{(x+y)^{p^n} &= x^{p^n}+y^{p^n}} +\end{align*} +\end{block}} +\end{column} +\begin{column}{0.48\textwidth} +\begin{block}{Pascal-Dreieck} +\begin{center} +\includegraphics[width=\textwidth]{../../buch/chapters/30-endlichekoerper/images/binomial5.pdf} +\end{center} +\end{block} +\end{column} +\end{columns} +\end{frame} diff --git a/vorlesungen/slides/4/qundr.tex b/vorlesungen/slides/4/qundr.tex new file mode 100644 index 0000000..a6f89bd --- /dev/null +++ b/vorlesungen/slides/4/qundr.tex @@ -0,0 +1,138 @@ +% +% qundr.tex +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\bgroup +\definecolor{darkgreen}{rgb}{0,0.6,0} +\definecolor{darkred}{rgb}{0.8,0,0} +\definecolor{darkblue}{rgb}{0,0,0.8} +\begin{frame}[t] +\setlength{\abovedisplayskip}{5pt} +\setlength{\belowdisplayskip}{5pt} +\begin{center} +\begin{tikzpicture}[>=latex,thick] +\coordinate (ll) at (-6,-3.6); +\coordinate (lr) at (6,-3.6); +\coordinate (ur) at (6,3.6); +\coordinate (ul) at (-6,3.6); + +\def\d{0.6} +\def\D{0.5} + +\coordinate (q) at (0,{-2.25+\d}); +\coordinate (r) at (-1.5,{\d+\D}); +\coordinate (a) at (1.5,{\d-\D}); +\coordinate (c) at (0,{2.25+\d}); + +\coordinate (m1) at ($0.5*(q)+0.5*(r)$); +\coordinate (m2) at ($0.5*(q)+0.5*(a)$); +\coordinate (m3) at ($0.5*(c)+0.5*(r)$); +\coordinate (m4) at ($0.5*(c)+0.5*(a)$); + +\def\t{1.5} +\coordinate (M1) at ($(m1)+\t*(m1)-\t*(m4)$); +\coordinate (M2) at ($(m2)+\t*(m2)-\t*(m3)$); +\coordinate (M4) at ($(m4)+\t*(m4)-\t*(m1)$); +\coordinate (M3) at ($(m3)+\t*(m3)-\t*(m2)$); + +\begin{scope} +\clip (ll) rectangle (ur); + +\uncover<3->{ + \fill[color=blue!30] + ($0.9*(m1)+0.1*(M1)+(-6,0)$) -- ($0.9*(m1)+0.1*(M1)$) + -- (M4) -- (ul) -- cycle; +} + +\uncover<4->{ + \fill[color=red!60,opacity=0.5] + ($0.9*(m2)+0.1*(M2)$) -- ($0.9*(m2)+0.1*(M2)+(6,0)$) + -- (ur) -- (M3) -- cycle; +} + +\uncover<2->{ + \fill[color=darkgreen!60,opacity=0.5] + ($1.09*(m3)-0.09*(M3)$) -- ($1.09*(m3)-0.09*(M3)+(-6,0)$) + -- (ll) -- (M2) -- cycle; +} + +\uncover<6->{ + \fill[color=gray,opacity=0.5] + ({6-0.1},{\d+0.22}) rectangle ({6-2.4},{\d+0.62}); + \node[color=yellow] at (6,\d) [above left] {überabzählbar\strut}; + + \fill[color=gray,opacity=0.5] + ({-6+0.1},{\d-0.15}) rectangle ({-6+1.75},{\d-0.55}); + \node[color=yellow] at (-6,\d) [below right] {abzählbar\strut}; + + \draw[color=yellow,line width=2pt] (-7,\d) -- (7,\d); +} + +\end{scope} + +\node at (q) {$\mathbb{Q}$\strut}; +\node at ($(q)+(0,-0.2)$) [below] {Primkörper}; + +\uncover<3->{ + \node at (r) {$\mathbb{R}$\strut}; + \node at (r) [left] {$\text{reelle Zahlen}=\mathstrut$}; + \draw[->,shorten >= 0.3cm,shorten <= 0.3cm] (q) -- (r); + \node at ($0.5*(q)+0.5*(r)$) + [below,rotate={atan((-2.25-\D)/1.5)}] {index $\infty$}; + \node[color=blue] at (ul) + [above right] {topologische Vervollständigung}; +} + +\uncover<4->{ + \node at (a) {$\mathbb{A}$\strut}; + \node at (a) [right] {$\mathstrut = \text{algebraische Zahlen}$}; + \draw[->,shorten >= 0.3cm,shorten <= 0.3cm] (q) -- (a); + \node at ($0.5*(q)+0.5*(a)$) + [below,rotate={atan((2.25-\D)/1.5)}] {index $\infty$}; + \node[color=red] at (ur) + [above left] {algebraische Vervollständigung}; +} + +\uncover<5->{ + \node at (c) {$\mathbb{C}$\strut}; + \draw[->,shorten >= 0.3cm,shorten <= 0.3cm] (r) -- (c); + \draw[->,shorten >= 0.3cm,shorten <= 0.3cm] (a) -- (c); + \node at ($(c)+(0,0.2)$) [above] {komplexe Zahlen}; + \node at ($0.5*(r)+0.5*(c)$) + [above,rotate={atan((2.25-\D)/1.5)}] {index 2}; + \node at ($0.5*(a)+0.5*(c)$) + [above,rotate={atan((-2.25-\D)/1.5)}] {index $\infty$}; +} + +\uncover<3->{ + \node[color=darkblue] at (ul) [below right] + {\begin{minipage}{0.3\textwidth}\raggedright + Grenzwerte von Cauchy-Folgen in $\mathbb{Q}$ hinzufügen + \end{minipage}}; +} + +\uncover<4->{ + \node[color=darkred] at (ur) [below left] + {\begin{minipage}{0.3\textwidth}\raggedleft + Nullstellen von Polynomen in $\mathbb{Q}[X]$ hinzufügen + \end{minipage}}; +} + +\uncover<2->{ + \node[color=darkgreen] at (ll) [above right] + {\begin{minipage}{0.4\textwidth}\raggedright + \begin{block}{Archimedische Eigenschaft} + Für $a>b >0$ gibt es $n\in\mathbb{N}$ mit + $n\cdot b > a$ + \end{block} + \end{minipage}}; + + \node[color=darkgreen] at (ll) [below right] + {geordneter Körper, nötig für die Definition von Cauchy-Folgen}; +} + +\end{tikzpicture} +\end{center} +\end{frame} +\egroup diff --git a/vorlesungen/slides/5/Makefile.inc b/vorlesungen/slides/5/Makefile.inc index 4ca3de4..5b849ec 100644 --- a/vorlesungen/slides/5/Makefile.inc +++ b/vorlesungen/slides/5/Makefile.inc @@ -5,6 +5,8 @@ # (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule # chapter5 = \ + ../slides/5/plan.tex \ + ../slides/5/planbeispiele.tex \ ../slides/5/verzerrung.tex \ ../slides/5/motivation.tex \ ../slides/5/charpoly.tex \ @@ -27,6 +29,8 @@ chapter5 = \ \ ../slides/5/spektrum.tex \ ../slides/5/normal.tex \ + ../slides/5/normalbeispiel.tex \ + ../slides/5/normalbeispiel34.tex \ ../slides/5/unitaer.tex \ \ ../slides/5/konvergenzradius.tex \ @@ -36,9 +40,12 @@ chapter5 = \ ../slides/5/satzvongelfand.tex \ \ ../slides/5/stoneweierstrass.tex \ + ../slides/5/swbeweis.tex \ ../slides/5/potenzreihenmethode.tex \ ../slides/5/logarithmusreihe.tex \ ../slides/5/exponentialfunktion.tex \ ../slides/5/hyperbolisch.tex \ + \ + ../slides/5/approximation.tex \ ../slides/5/chapter.tex diff --git a/vorlesungen/slides/5/approximation.tex b/vorlesungen/slides/5/approximation.tex new file mode 100644 index 0000000..a35bae7 --- /dev/null +++ b/vorlesungen/slides/5/approximation.tex @@ -0,0 +1,56 @@ +% +% approximation.tex +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% + +\begin{frame}[t] +\frametitle{Approximation einer reellen Funktion} +\vspace{-18pt} +\begin{columns}[t,onlytextwidth] +\begin{column}{0.5\textwidth} +\begin{block}{Gegeben} +Eine stetige Funktion $f\colon[a,b]\to\mathbb{R}$ +\end{block} +\end{column} +\begin{column}{0.5\textwidth} +\uncover<2->{% +\begin{block}{Gesucht} +Approximationspolynome $p_n\to f$ gleichmässig auf $[a,b]$ +\end{block}} +\end{column} +\end{columns} +\uncover<3->{% +\begin{block}{Lösungsmöglichkeiten} +\vspace{-3pt} +\begin{center} +\renewcommand{\arraystretch}{1.3} +\begin{tabular}{|p{4.2cm}|l|} +\hline +Familie&Approximationspolynom für $[a,b]=[0,1]$ +\\ +\hline +\uncover<4->{% +\raggedright +Lagrange-Interpolationspolynom} +&\uncover<5->{% +$\displaystyle\begin{aligned} +l(x)&=(x-x_0)(x-x_1)\dots(x-x_n),\quad x_k = \frac{k}{n} +\\ +p_n(x)&= \sum_{k=0}^n f(x_k)\frac{l(x)}{x-x_k} +\end{aligned}$} +\\ +\hline\uncover<6->{% +\raggedright +Approximation mit Bernstein-Polynomen} +&\uncover<7->{$\displaystyle \begin{aligned} +B_{k,n}(t) &= \frac{1}{(b-a)^n}\binom{n}{k}(t-a)^k(b-t)^{n-k} +\\ +B_n(f)(t) &= \sum_{k=0}^n B_{k,n}(t) \cdot f\biggl(\frac{k}{n}\biggr) +\end{aligned}$} +\\ +\hline +\end{tabular} +\end{center} +\end{block}} +\end{frame} diff --git a/vorlesungen/slides/5/beispiele/kombiniert.jpg b/vorlesungen/slides/5/beispiele/kombiniert.jpg Binary files differindex 9cb789c..bebc36f 100644 --- a/vorlesungen/slides/5/beispiele/kombiniert.jpg +++ b/vorlesungen/slides/5/beispiele/kombiniert.jpg diff --git a/vorlesungen/slides/5/beispiele/kombiniert.pov b/vorlesungen/slides/5/beispiele/kombiniert.pov index c187d08..d17adb7 100644 --- a/vorlesungen/slides/5/beispiele/kombiniert.pov +++ b/vorlesungen/slides/5/beispiele/kombiniert.pov @@ -18,5 +18,6 @@ ebene(k21, k22, gruen2) arrow(O, j11, at, orange1) arrow(O, j12, at, orange1) arrow(O, k11, at, gruen1) +gerade(k11, gruen1) ebene(j11, j12, orange1) diff --git a/vorlesungen/slides/5/chapter.tex b/vorlesungen/slides/5/chapter.tex index 96eea29..cdf2ea5 100644 --- a/vorlesungen/slides/5/chapter.tex +++ b/vorlesungen/slides/5/chapter.tex @@ -3,6 +3,8 @@ % % (c) 2021 Prof Dr Andreas Müller, Hochschule Rapperswi % +\folie{5/plan.tex} +\folie{5/planbeispiele.tex} \folie{5/verzerrung.tex} \folie{5/motivation.tex} \folie{5/charpoly.tex} @@ -28,9 +30,13 @@ \folie{5/Aiteration.tex} \folie{5/satzvongelfand.tex} \folie{5/stoneweierstrass.tex} +\folie{5/swbeweis.tex} \folie{5/potenzreihenmethode.tex} \folie{5/logarithmusreihe.tex} \folie{5/exponentialfunktion.tex} \folie{5/hyperbolisch.tex} \folie{5/spektrum.tex} \folie{5/normal.tex} +\folie{5/normalbeispiel.tex} +\folie{5/normalbeispiel34.tex} +\folie{5/approximation.tex} diff --git a/vorlesungen/slides/5/normalbeispiel.tex b/vorlesungen/slides/5/normalbeispiel.tex new file mode 100644 index 0000000..e130c15 --- /dev/null +++ b/vorlesungen/slides/5/normalbeispiel.tex @@ -0,0 +1,108 @@ +% +% normalbeispiel.tex +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\bgroup +\definecolor{darkred}{rgb}{0.8,0,0} +\definecolor{darkgreen}{rgb}{0,0.6,0} +\begin{frame}[t] +\setlength{\abovedisplayskip}{5pt} +\setlength{\belowdisplayskip}{5pt} +\frametitle{Beispiele für normale Matrizen} +\vspace{-15pt} +\begin{columns}[t,onlytextwidth] +\begin{column}{0.49\textwidth} +\uncover<3->{% +\begin{block}{Symmetrisch und Antisymmetrisch} +$A\in M_n(\mathbb{C})$ +\begin{align*} +A&=\pm A^t &&\Rightarrow &AA^* &=A\overline{A^t} =\pm A\overline{A} +\\ + & && & &=\pm\overline{A}A =\overline{A^t}A +\\ + & && & &=A^*A +\end{align*} +\end{block}} +\end{column} +\begin{column}{0.49\textwidth} +\uncover<4->{% +\begin{block}{Orthogonal} +$A\in M_n(\mathbb{R})\;\Rightarrow\; A^*=A^t$ +\begin{align*} +AA^t&=I &&\Rightarrow& AA^*&=AA^t=I\\ + & && & &=A^tA=A^*A +\end{align*} +\end{block}} +\end{column} +\end{columns} +\vspace{-15pt} +\begin{columns}[t,onlytextwidth] +\begin{column}{0.49\textwidth} +\uncover<1->{% +\begin{block}{Hermitesch und Antihermitesch} +$A\in M_n(\mathbb{C})$ +\begin{align*} +A&=\pm A^* &&\Rightarrow &AA^* &=\pm A^2=A^*A +\end{align*} +\end{block}} +\end{column} +\begin{column}{0.49\textwidth} +\uncover<2->{% +\begin{block}{Unitär} +$A\in M_n(\mathbb{C})$ +\begin{align*} +AA^*&=I &&\Rightarrow& AA^*=I=A^*A +\end{align*} +\end{block}} +\end{column} +\end{columns} +%\uncover<5->{% +%\begin{block}{Weitere} +%$N\in M_n(\mathbb{C})$ nilpotent, $N^k=0$\uncover<11->{ +%$\Rightarrow$ +%normal für $l=k-l\Rightarrow l=\frac{k}{2}$} +%\uncover<6->{% +%\[ +%\left. +%\begin{aligned} +%A &=N^l+(N^t)^{k-l} +%\\ +%A^t&=(N^t)^l+N^{k-1} +%\end{aligned} +%\right\} +%\uncover<7->{% +%\Rightarrow +%\left\{ +%\begin{aligned} +%\mathstrut +%A^t A +%&\only<8>{= +%((N^t)^l+N^{k-l}) (N^l+(N^t)^{k-l})} +%\uncover<9->{= +%{\color<10>{darkgreen}(N^t)^lN^l} +%\only<9>{+ +%{\color{orange}(N^t)^k}} +%+ +%{\color<10>{darkred}N^{k-l}(N^t)^{k-l}} +%\only<9>{+ +%{\color{orange}N^k}}} +%\\ +%\mathstrut +%A A^t +%&\only<8>{= +%(N^l+(N^t)^{k-l})((N^t)^l+N^{k-l})} +%\uncover<9->{= +%{\color<10>{darkred}N^l(N^t)^l} +%+ +%\only<9>{{\color{orange}N^k} +%+ +%{\color{orange}(N^t)^k} +%+} +%{\color<10>{darkgreen}(N^t)^{k-l}N^{k-l}}} +%\end{aligned} +%\right.} +%\hspace{20cm} +%\]} +%\end{block}} +\end{frame} diff --git a/vorlesungen/slides/5/normalbeispiel34.tex b/vorlesungen/slides/5/normalbeispiel34.tex new file mode 100644 index 0000000..f2647b0 --- /dev/null +++ b/vorlesungen/slides/5/normalbeispiel34.tex @@ -0,0 +1,80 @@ +% +% normalbeispiel34.tex +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\bgroup +\definecolor{darkgreen}{rgb}{0,0.6,0} +\definecolor{darkred}{rgb}{0.8,0,0} +\begin{frame}[t] +\frametitle{Beispiele normaler Matrizen für $n=3$} +\vspace{-20pt} +\begin{columns}[t,onlytextwidth] +\begin{column}{0.49\textwidth} +\begin{align*} +A +&= +\begin{pmatrix} +\alpha&\beta & 0 \\ + 0 &\alpha&\beta \\ +\beta & 0 &\alpha +\end{pmatrix}, +\; +A^t= +\begin{pmatrix} +\alpha& 0 &\beta \\ +\beta &\alpha& 0 \\ + 0 &\beta &\alpha +\end{pmatrix} +& +\uncover<2->{% +&\Rightarrow\left\{ +\begin{aligned} +AA^t&=\begin{pmatrix} +\alpha^2+\beta^2 & \alpha\beta & \alpha\beta \\ +\alpha\beta & \alpha^2+\beta^2 & \alpha\beta \\ +\alpha\beta & \alpha\beta & \alpha^2+\beta^2 +\end{pmatrix} +\\ +&\phantom{ooooooooooooooo}\| +\\ +A^tA&=\begin{pmatrix} +\alpha^2+\beta^2 & \alpha\beta & \alpha\beta \\ +\alpha\beta & \alpha^2+\beta^2 & \alpha\beta \\ +\alpha\beta & \alpha\beta & \alpha^2+\beta^2 +\end{pmatrix} +\end{aligned}\right.} +\\ +\uncover<3->{ +A&=\alpha I + \beta O}\uncover<4->{, O=\begin{pmatrix}0&1&0\\0&0&1\\1&0&0\end{pmatrix}\in \operatorname{O}(3)} +& +\uncover<5->{ +&\Rightarrow +\left\{ +\begin{aligned} +AA^*&= \alpha^2I^2 + \beta^2 +\ifthenelse{\boolean{presentation}}{ \only<6->{I} }{} \only<-5>{OO^*} ++ \alpha\beta(O+O^*)\\ +A^*A&= \alpha^2I^2 + \beta^2 +\ifthenelse{\boolean{presentation}}{ \only<6->{I} }{} \only<-5>{O^*O} ++ \alpha\beta(O^*+O) +\end{aligned} +\right.} +\\ +\uncover<7->{A&=U+V^*,\text{normal}}\uncover<10->{\text{, } +{\color{darkgreen}UV}={\color{darkgreen}VU}} +& +&\uncover<8->{\Rightarrow +\left\{ +\begin{aligned} +AA^* &= UU^* + {\color<9->{darkgreen}UV} + {\color<9->{darkred}V^*U^*} + V^*V +\\ +A^*A &= U^*U + {\color<9->{darkred}U^*V^*} + {\color<9->{darkgreen}VU} + VV^* +\end{aligned} +\right.} +\end{align*} +\end{column} +\begin{column}{0.49\textwidth} +\end{column} +\end{columns} +\end{frame} diff --git a/vorlesungen/slides/5/plan.tex b/vorlesungen/slides/5/plan.tex new file mode 100644 index 0000000..23b1b93 --- /dev/null +++ b/vorlesungen/slides/5/plan.tex @@ -0,0 +1,198 @@ +% +% plan.tex +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\bgroup +\definecolor{darkgreen}{rgb}{0,0.5,0} +\definecolor{darkred}{rgb}{0.8,0.0,0} +\begin{frame}[t] +\frametitle{Was ist $f(A)$?} +\vspace{-5pt} +\begin{center} +\begin{tikzpicture}[>=latex,thick] + +\uncover<7->{ + \fill[color=blue!20] (-1.5,0.7) rectangle (11.5,3.8); +} + +\uncover<4->{ + \fill[color=darkgreen!20] (-1.5,-0.7) rectangle (11.5,0.7); +} + +\uncover<12->{ + \fill[color=darkred!20] (-1.5,-0.7) rectangle (11.5,-3.8); +} + +\begin{scope}[xshift=-1cm] +\node at (0,0) [left] {$A$}; +\end{scope} + +%\foreach \x in {1,...,20}{ +% \only<\x>{ \node at (-1,3) {\x}}; +%} + +% +% Blauer Ast +% + +\uncover<2->{ + \draw[->,color=blue,shorten <= 0.3cm, shorten >= 0.0cm] + (-1.2,0) -- (0,1.3); + + \begin{scope}[xshift=0cm,yshift=1.5cm] + \fill[color=white,opacity=0.7] (0,-0.6) rectangle (3.4,0.6); + \draw[color=blue] (0,-0.6) rectangle (3.4,0.6); + \node at (0,0) [right] {$\begin{aligned} + f&=p\in\mathbb{R}[X]\\ + f(A)&=p(A) + \end{aligned} + $}; + \end{scope} +} + +\uncover<7->{ + \draw[->,color=blue] (1.8,2.1) -- (3.6,3); + + \begin{scope}[xshift=3.6cm,yshift=3cm] + \fill[color=white,opacity=0.7] (0,-0.6) rectangle (3.7,0.6); + \draw[color=blue] (0,-0.6) rectangle (3.7,0.6); + \node at (0,0) [right] {\begin{minipage}{3cm}\raggedright + $f$ durch $p_n\in\mathbb{R}[X]$\\ + approximieren + \end{minipage}}; + \end{scope} +} + +\uncover<8->{ + \draw[->,color=blue] (7.3,3) -- (9.5,1.9); + + \begin{scope}[xshift=7.6cm,yshift=1.5cm] + \fill[color=white,opacity=0.7] (0,-0.35) rectangle (3.8,0.4); + \draw[color=blue] (0,-0.35) rectangle (3.8,0.4); + \node at (0,0) [right] {$\displaystyle f(A) = \lim_{n\to\infty}p_n(A)$}; + \end{scope} +} + +\uncover<9->{ + \node[color=blue] at (3.6,1.6) [right] {\begin{minipage}{4cm} + \raggedright + Konvergenz $p_n\to f$\\ + auf Spektrum $\operatorname{Sp}(A)\subset\mathbb{R}$ + \end{minipage}}; +} + +\uncover<11->{ + \node[color=blue] at (-1.5,3.8) [below right] + {$A$ symmetrisch: $A=A^*$}; +} +\uncover<10->{ + \node[color=blue] at (11.5,3.8) [below left] {$A$ diagonalisierbar}; +} + +% +% Roter Ast +% + +\uncover<12->{ + \draw[->,color=darkred,shorten <= 0.3cm, shorten >= 0.0cm] (-1.2,0) -- (0,-1.3); + + \begin{scope}[xshift=0cm,yshift=-1.5cm] + \fill[color=white,opacity=0.7] (0,-0.6) rectangle (3.4,0.6); + \draw[color=darkred] (0,-0.6) rectangle (3.4,0.6); + \node at (0,0) [right] {$\begin{aligned} + f&=p\in\mathbb{C}[Z,\overline{Z}]\\ + f(A)&=p(A,A^*) + \end{aligned}$}; + \end{scope} +} + +\uncover<13->{ + \node[color=darkred] at (1.7,-2.1) [below left] + {Für $|Z|^2 = Z\overline{Z}$}; +} + +\uncover<14->{ + \draw[->,color=darkred] (1.8,-2.1) -- (3.6,-3); + + \begin{scope}[xshift=3.6cm,yshift=-3cm] + \fill[color=white,opacity=0.7] (0,-0.6) rectangle (3.7,0.6); + \draw[color=darkred] (0,-0.6) rectangle (3.7,0.6); + \node at (0,0) [right] {\begin{minipage}{3.5cm}\raggedright + $f$ durch $q_n\in\mathbb{C}[Z,\overline{Z}]$\\ + approximieren + \end{minipage}}; + \end{scope} +} + +\uncover<15->{ + \draw[->,color=darkred] (7.3,-3) -- (9.5,-1.85); + + \begin{scope}[xshift=7.6cm,yshift=-1.5cm] + \fill[color=white,opacity=0.7] (0,-0.35) rectangle (3.8,0.4); + \draw[color=darkred] (0,-0.35) rectangle (3.8,0.4); + \node at (0,0) [right] + {$\displaystyle f(A) = \lim_{n\to\infty}q_n(A,A^*)$}; + \end{scope} +} + +\uncover<16->{ + \node[color=darkred] at (3.6,-1.8) [right] {\begin{minipage}{4cm} + \raggedright + Konvergenz $p_n\to f$\\ + auf $\operatorname{Sp}(A)\cup\operatorname{Sp}(A^*)$ + \end{minipage}}; +} + +\uncover<17->{ + \node[color=darkred] at (11.5,-3.8) [above left] {% + \begin{minipage}{3.5cm}\raggedleft + nur sinnvoll definiert wenn + $AA^*=A^*A$ + \end{minipage}}; +} + +\uncover<18->{ + \node[color=darkred] at (-1.5,-3.8) [above right] + {$A$ normal: $AA^*=A^*A$}; +} + +% +% Grüner Ast +% + +\uncover<3->{ + \draw[->,color=darkgreen,shorten <= 0.0cm, shorten >= 0.0cm] + (-1,0) -- (0,0); + + \begin{scope}[xshift=0cm,yshift=0cm] + \fill[color=white,opacity=0.7] (0,-0.6) rectangle (2.9,0.6); + \draw[color=darkgreen] (0,-0.6) rectangle (2.9,0.6); + \node at (0,0) [right] {$\displaystyle + f(z)=\sum_{k=0}^\infty a_kz^k$}; + \end{scope} +} + +\uncover<5->{ + \node[color=darkgreen] at (5.9,0) [above] {$f(z)$ analytisch!}; +} +\uncover<6->{ + \node[color=darkgreen] at (5.9,0) [below] + {$\varrho(A)<\text{Konvergenzradius}$}; +} + +\uncover<4->{ + \draw[->,color=darkgreen] (2.9,0) -- (8.5,0); + + \begin{scope}[xshift=8.5cm] + \fill[color=white,opacity=0.7] (0,-0.6) rectangle (2.9,0.6); + \draw[color=darkgreen] (0,-0.6) rectangle (2.9,0.6); + \node at (0,0) [right] {$\displaystyle + f(A)=\sum_{k=0}^\infty a_kA^k$}; + \end{scope} +} + +\end{tikzpicture} +\end{center} +\end{frame} +\egroup diff --git a/vorlesungen/slides/5/planbeispiele.tex b/vorlesungen/slides/5/planbeispiele.tex new file mode 100644 index 0000000..7b98a95 --- /dev/null +++ b/vorlesungen/slides/5/planbeispiele.tex @@ -0,0 +1,103 @@ +% +% planbeispiele.tex +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\bgroup +\definecolor{darkgreen}{rgb}{0,0.6,0} +\definecolor{darkred}{rgb}{0.8,0,0} +\setlength{\abovedisplayskip}{5pt} +\setlength{\belowdisplayskip}{5pt} +\begin{frame}[t] +\frametitle{Beispiele} +\vspace{-15pt} +\begin{columns}[t] +\begin{column}{0.33\textwidth} +\setbeamercolor{block body}{bg=blue!20} +\setbeamercolor{block title}{bg=blue!20} +\uncover<2->{% +\begin{block}{$A$ diagonal, $\operatorname{Sp}(A)\subset\mathbb{R}$\strut} +Beispiele: +\begin{align*} +f(x) +&= +x^k, +\\ +f(x)&= +\sqrt{x}, +\sqrt[k]{x} +\\ +f(x)&=|x| +\end{align*} +\vspace{43pt} +\end{block}} +\end{column} +\begin{column}{0.33\textwidth} +\setbeamercolor{block body}{bg=darkgreen!20} +\setbeamercolor{block title}{bg=darkgreen!20} +\uncover<1->{% +\begin{block}{$f(z)$ analytisch\strut} +Beispiele: +\begin{align*} +e^z +&= +\sum_{k=0}^\infty \frac{z^k}{k!} +\\ +\cos z +&= +\sum_{k=0}^\infty (-1)^k\frac{z^{2k}}{2k!} +\\ +\sin z +&= +\sum_{k=0}^\infty (-1)^k\frac{z^{2k+1}}{(2k+1)!} +\end{align*} +\end{block}} +\end{column} +\begin{column}{0.33\textwidth} +\setbeamercolor{block body}{bg=darkred!20} +\setbeamercolor{block title}{bg=darkred!20} +\uncover<3->{% +\begin{block}{$A$ normal, $AA^*=A^*A$\strut} +Beispiele: +\begin{align*} +f(z)&=\sqrt{z\overline{z}}=|z| +\end{align*} +\vspace{76pt} +\end{block}} +\end{column} +\end{columns} +\vspace{-10pt} +\begin{columns}[t] +\begin{column}{0.33\textwidth} +\setbeamercolor{block body}{bg=blue!20} +\setbeamercolor{block title}{bg=blue!20} +\uncover<5->{% +\begin{block}{} +\vspace{-6pt} +$f(A)$ wohldefiniert für {\color{blue}diagonalisierbare} +Matrizen $A\in M_n(\mathbb{R})$ +\end{block}} +\end{column} +\begin{column}{0.33\textwidth} +\setbeamercolor{block body}{bg=darkgreen!20} +\setbeamercolor{block title}{bg=darkgreen!20} +\uncover<4->{% +\begin{block}{} +\vspace{-6pt} +$f(A)$ wohldefiniert für {\color{darkgreen}jedes} $A\in M_n(\mathbb{C})$ +\vspace{14pt} +\end{block}} +\end{column} +\begin{column}{0.33\textwidth} +\setbeamercolor{block body}{bg=darkred!20} +\setbeamercolor{block title}{bg=darkred!20} +\uncover<6->{% +\begin{block}{} +\vspace{-6pt} +$f(A)$ wohldefiniert für {\color{darkred}normale} +Matrizen $A\in M_n(\mathbb{C})$ +\end{block}} +\end{column} +\end{columns} +\end{frame} +\egroup diff --git a/vorlesungen/slides/5/stoneweierstrass.tex b/vorlesungen/slides/5/stoneweierstrass.tex index 3f9cab5..e2e9e30 100644 --- a/vorlesungen/slides/5/stoneweierstrass.tex +++ b/vorlesungen/slides/5/stoneweierstrass.tex @@ -3,9 +3,64 @@ % % (c) 2021 Prof Dr Andreas Müller, Hochschule Rapperswil % +\bgroup +\definecolor{darkgreen}{rgb}{0,0.6,0} \begin{frame}[t] -\frametitle{Stone-Weierstrass} - -TODO XXX - +\frametitle{Allgemeiner Approximationssatz} +\vspace{-20pt} +\begin{columns}[t] +\begin{column}{0.5\textwidth} +\begin{theorem}[Stone-Weierstrass, $\mathbb{R}$] +$A$ eine {\color{darkgreen}$\mathbb{R}$}-Algebra +von stetigen Funktionen auf einem +%abgeschlossenen und beschränkten +kompakten +Definitionsgebiet $D\subset {\color{darkgreen}\mathbb{R}}$, +\begin{itemize} +\item<2-> konstante Funktion $c\in A$, +\item<3-> für $d_1,d_2\in D$ gibt es ein $s\in A$ mit +$s(d_1)\ne s(d_2)$. +\end{itemize} +\uncover<4->{% +Dann lässt sich jede stetige Funktion durch Funktionen aus $A$ +approximieren} +\end{theorem} +\uncover<5->{ +\begin{block}{Anwendung} +\uncover<6->{$A={\color{darkgreen}\mathbb{R}}[X]$}\uncover<7->{, +$s(X)=X$}\uncover<8->{, +jede stetige Funktion kann durch +Polynome in $X$ approximiert werden} +\end{block}} +\end{column} +\begin{column}{0.5\textwidth} +\uncover<9->{% +\begin{theorem}[Stone-Weierstrass, $\mathbb{C}$] +$A$ eine {\color<10->{red}$\mathbb{C}$}-Algebra von stetigen Funktionen +auf einem +%abgeschlossenen und beschränkten +kompakten +Definitionsgebiet $D\subset {\color<10->{red}\mathbb{C}}$, +\begin{itemize} +\item konstante Funktion $c\in A$, +\item für $d_1,d_2\in D$ gibt es ein $s\in A$ mit +$s(d_1)\ne s(d_2)$. +\only<11->{ +\item {\color{red}$f\in A\Rightarrow \overline{f}\in A$} +} +\end{itemize} +Dann lässt sich jede stetige Funktion durch Funktionen aus $A$ +approximieren +\end{theorem}} +\vspace{-5pt} +\uncover<12->{% +\begin{block}{Anwendung} +$A={\color{red}\mathbb{C}}[Z,\overline{Z}]$\uncover<13->{, +$s(Z{\color{red},\overline{Z}})=Z$}\uncover<14->{, +jede stetige Funktion +lässt sich durch Polynome in $Z{\color{red},\overline{Z}}$ approximieren} +\end{block}} +\end{column} +\end{columns} \end{frame} +\egroup diff --git a/vorlesungen/slides/5/swbeweis.tex b/vorlesungen/slides/5/swbeweis.tex new file mode 100644 index 0000000..927322b --- /dev/null +++ b/vorlesungen/slides/5/swbeweis.tex @@ -0,0 +1,56 @@ +% +% swbeweis.tex +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\bgroup +\definecolor{darkgreen}{rgb}{0,0.6,0} +\begin{frame}[t] +\setlength{\abovedisplayskip}{5pt} +\setlength{\belowdisplayskip}{5pt} +\frametitle{Beweisidee Stone-Weierstrass} +\vspace{-15pt} +\begin{columns}[t] +\begin{column}{0.5\textwidth} +\begin{enumerate} +\item<1-> +$\exists$ eine monoton wachsende Folge von Polynomen $u_n(t)\to \sqrt{t}$ +gleichmässig auf $[0,1]\subset{\color{darkgreen}\mathbb{R}}$ +\item<2-> +$f\in A$, dann kann man $|f| = \sqrt{f^2}$ beliebig genau approximieren +durch Funktionen +in $A$ +\item<3-> +$f,g\in A$, dann kann +\begin{align*} +\max(a,b)&={\textstyle\frac12}(f+g+|f-g|)\\ +\min(a,b)&={\textstyle\frac12}(f+g-|f-g|) +\end{align*} +in $A$ beliebig genau approximiert werden. +\end{enumerate} +\end{column} +\begin{column}{0.5\textwidth} +\begin{enumerate} +\setcounter{enumi}{3} +\item<4-> +Für $x,y\in D$ und $\alpha,\beta\in\mathbb{R}$ gibt es $f\in A$ mit +$f(x)=\alpha$ und $f(y)=\beta$ +\item<5-> +Zu +$f\colon D\to\mathbb{R}$ stetig und $x\in D$ gibt es $g\in A$ mit $g(x)=f(x)$ +und $g(y) \le f(y)+\varepsilon$ für $y\ne x$ +\item<6-> +Für $f$ gibt es endlich viele Approximationen $g_i$ mit Punkten $x_i$ +wie in Schritt~4. +Dann ist $\max_i g_i$ eine Approximation von $f$, die beliebig genau in +$A$ approximiert werden kann. +\end{enumerate} +\end{column} +\end{columns} + +\vspace{10pt} +\uncover<7->{% +Schritt~2 braucht in {\color{red}$\mathbb{C}$} die komplex Konjugierte: +$|f|^2=f\overline{f}$} +\end{frame} +\egroup diff --git a/vorlesungen/slides/test.tex b/vorlesungen/slides/test.tex index e4b9ad7..d079a05 100644 --- a/vorlesungen/slides/test.tex +++ b/vorlesungen/slides/test.tex @@ -4,14 +4,18 @@ % (c) 2019 Prof Dr Andreas Müller, Hochschule Rapperswil % %\folie{5/verzerrung.tex} +%\folie{5/plan.tex} +%\folie{5/planbeispiele.tex} +%\folie{5/approximation.tex} % XXX Visualisierung Cayley-Hamilton-Produkte % XXX \folie{5/chvisual.tex} % XXX stone weierstrass incomplete %\folie{5/stoneweierstrass.tex} +%\folie{5/swbeweis.tex} % XXX polynome auf dem spektrum % XXX Motiviation für *-Operation %\folie{5/normal.tex} - +\folie{5/normalbeispiel34.tex} |