diff options
Diffstat (limited to '')
-rw-r--r-- | buch/chapters/00-einleitung/chapter.tex | 12 | ||||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/images/Makefile | 5 | ||||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/images/rref.pdf | bin | 0 -> 15112 bytes | |||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/images/rref.tex | 253 | ||||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/images/strukturen.pdf | bin | 45336 -> 45339 bytes | |||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/images/strukturen.tex | 8 | ||||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/linear.tex | 297 | ||||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/skalarprodukt.tex | 784 | ||||
-rw-r--r-- | buch/chapters/20-polynome/definitionen.tex | 89 |
9 files changed, 1410 insertions, 38 deletions
diff --git a/buch/chapters/00-einleitung/chapter.tex b/buch/chapters/00-einleitung/chapter.tex index 8433572..f673aa4 100644 --- a/buch/chapters/00-einleitung/chapter.tex +++ b/buch/chapters/00-einleitung/chapter.tex @@ -136,14 +136,14 @@ definiert, kann man neue Objekte mit zum Teil bekannten, zum Teil aber auch ungewohnten algebraischen Eigenschaften bekommen. Die Matrizen der Form \[ -A_a +aI = \begin{pmatrix} a&0\\0&a \end{pmatrix}, \quad a\in\mathbb{Q} \] zum Beispiel erfüllen alle Regeln für das Rechnen mit rationalen Zahlen. -$\mathbb{Q}$ kann man also als Teilmenge des neuen Systems ansehen. +$\mathbb{Q}$ kann man also als Teilmenge des neuen ``Zahlensystems'' ansehen. Aber die Matrix \[ J @@ -158,7 +158,7 @@ J^2 = = \begin{pmatrix} -1&0\\0&-1\end{pmatrix} = --E = -A_1. +-I. \] Das neue Objekt $J$ ist ein explizit konstruiertes Objekt, welches genau die rechnerischen Eigenschaften der imaginären Einheit $i$ hat. @@ -169,11 +169,11 @@ Zum Beispiel erfüllt die Matrix \[ W=\begin{pmatrix} 0&2\\1&0 \end{pmatrix} \qquad\text{die Gleichung}\qquad -W^2 = \begin{pmatrix} 2&0\\0&2\end{pmatrix} = A_2, +W^2 = \begin{pmatrix} 2&0\\0&2\end{pmatrix} = 2I, \] die Menge der Matrizen \[ -\mathbb{Q}(\sqrt{2}) +\mathbb{Q}(\!\sqrt{2}) = \left\{\left. \begin{pmatrix} a&2b\\ b&a\end{pmatrix} @@ -182,7 +182,7 @@ a,b\in\mathbb{Q} \right\} \] verhält sich daher genau so wie die Menge der rationalen Zahlen, denen -man ein ``imaginäres'' neues Objekt $\sqrt{2}$ hinzugefügt hat. +man ein ``imaginäres'' neues Objekt $\!\sqrt{2}$ hinzugefügt hat. Matrizen sind also ein Werkzeug, mit dem sich ein algebraisches Systeme mit fast beliebigen Eigenschaften konstruieren lässt. diff --git a/buch/chapters/10-vektorenmatrizen/images/Makefile b/buch/chapters/10-vektorenmatrizen/images/Makefile index 664dff5..2c94e8a 100644 --- a/buch/chapters/10-vektorenmatrizen/images/Makefile +++ b/buch/chapters/10-vektorenmatrizen/images/Makefile @@ -3,7 +3,7 @@ # # (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule # -all: ideale.pdf gausszahlen.pdf strukturen.pdf +all: ideale.pdf gausszahlen.pdf strukturen.pdf rref.pdf ideale.pdf: ideale.tex pdflatex ideale.tex @@ -13,3 +13,6 @@ gausszahlen.pdf: gausszahlen.tex strukturen.pdf: strukturen.tex pdflatex strukturen.tex + +rref.pdf: rref.tex + pdflatex rref.tex diff --git a/buch/chapters/10-vektorenmatrizen/images/rref.pdf b/buch/chapters/10-vektorenmatrizen/images/rref.pdf Binary files differnew file mode 100644 index 0000000..56fbfee --- /dev/null +++ b/buch/chapters/10-vektorenmatrizen/images/rref.pdf diff --git a/buch/chapters/10-vektorenmatrizen/images/rref.tex b/buch/chapters/10-vektorenmatrizen/images/rref.tex new file mode 100644 index 0000000..9b2bf50 --- /dev/null +++ b/buch/chapters/10-vektorenmatrizen/images/rref.tex @@ -0,0 +1,253 @@ +% +% rref.tex -- Visualisierung des Gauss-Algorithmus +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\documentclass[tikz]{standalone} +\usepackage{amsmath} +\usepackage{times} +\usepackage{txfonts} +\usepackage{pgfplots} +\usepackage{csvsimple} +\usetikzlibrary{arrows,intersections,math,calc} +\begin{document} +\def\skala{0.21} +\def\r{0.4} +\definecolor{darkgreen}{rgb}{0,0.6,0} +\begin{tikzpicture}[>=latex,thick,scale=\skala] + +\def\pivot#1#2{ + \fill[color=red!20] ({#1-0.5},{-#2+0.5}) circle[radius=\r]; + \draw[color=red] ({#1-0.5},{-#2+0.5}) circle[radius=\r]; +} + +\def\spalteoben#1#2#3{ + \fill[color=blue!20] ({(#1)-0.5+\r},{-(#3)}) + -- ({(#1)-0.5+\r},{-(#2)+0.5}) arc (0:180:\r) + -- ({(#1)-0.5-\r},{-(#3)}) -- cycle; + \draw[color=blue] ({(#1)-0.5+\r},{-(#3)}) + -- ({(#1)-0.5+\r},{-(#2)+0.5}) arc (0:180:\r) + -- ({(#1)-0.5-\r},{-(#3)}); +} + +\def\spalteunten#1#2#3{ + \fill[color=blue!20] ({(#1)-0.5-\r},{-(#2)+1}) + -- ({(#1)-0.5-\r},{-(#3)+0.5}) arc (-180:0:\r) + -- ({(#1)-0.5+\r},{-(#2)+1}); + \draw[color=blue] ({(#1)-0.5-\r},{-(#2)+1}) + -- ({(#1)-0.5-\r},{-(#3)+0.5}) arc (-180:0:\r) + -- ({(#1)-0.5+\r},{-(#2)+1}); +} + +\def\fuellung{ + \fill[color=gray!50] (0,0) rectangle (8,-6); +} +\def\rahmen{ + \draw (0,0) rectangle (8,-6); + \draw (7,0) -- (7,-6); +} + +\def\eins#1#2{ + \fill[color=gray] ({#1-1},{-#2}) rectangle ({#1},{-#2+1}); +} + +\def\null#1#2#3{ + \fill[color=white] ({#1-1-0.01},{-#3-0.01}) + rectangle ({#1+0.01},{-#2+1+0.01}); +} + +\fill[color=darkgreen!20] (-1.0,-10.81) rectangle (67.0,5); +\fill[color=orange!20] (-1.0,-27) rectangle (67.0,-11.94); + +\node at (33,2) [above] {Vorwärtsreduktion}; +\node at (33,-24) [below] {Rückwärtseinsetzen}; + +\draw[->] (9,-3.375)--(11,-3.375); +\draw[->] (21,-3.375)--(23,-3.375); +\draw[->] (33,-3.375)--(35,-3.375); +\draw[->] (45,-3.375)--(47,-3.375); + +\draw[->] (57,-3.375) .. controls (62,-3.375) .. (62,-7.5); +\draw[->] (62,-15.375) .. controls (62,-19.375) .. (57,-19.375); + +\draw[<-] (9,-19.375)--(11,-19.375); +\draw[<-] (21,-19.375)--(23,-19.375); +\draw[<-] (33,-19.375)--(35,-19.375); +\draw[<-] (45,-19.375)--(47,-19.375); + +\begin{scope}[xshift=-0.5cm,scale=1.125] +\fuellung +\pivot{1}{1} +\spalteoben{1}{2}{6} +\rahmen +\end{scope} + +\begin{scope}[xshift=11.5cm,scale=1.125] +\fuellung +\eins{1}{1} +\null{1}{2}{6} +\pivot{2}{2} +\spalteoben{2}{3}{6} +\rahmen +\end{scope} + +\begin{scope}[xshift=23.54cm,scale=1.125] +\fuellung +\eins{1}{1} +\null{1}{2}{6} +\eins{2}{2} +\null{2}{3}{6} +\pivot{3}{3} +\spalteoben{3}{4}{6} +\rahmen +\end{scope} + +\begin{scope}[xshift=35.5cm,scale=1.125] +\fuellung +\eins{1}{1} +\null{1}{2}{6} +\eins{2}{2} +\null{2}{3}{6} +\eins{3}{3} +\null{3}{4}{6} +\null{4}{4}{6} +\pivot{5}{4} +\spalteoben{5}{5}{6} +\rahmen +\end{scope} + +\begin{scope}[xshift=47.5cm,scale=1.125] +\fuellung +\eins{1}{1} +\null{1}{2}{6} +\eins{2}{2} +\null{2}{3}{6} +\eins{3}{3} +\null{3}{4}{6} +\eins{5}{4} +\null{5}{5}{6} +\null{6}{5}{6} +\pivot{7}{5} +\spalteoben{7}{6}{6} +\rahmen +\end{scope} + +\begin{scope}[xshift=57.5cm,yshift=-8cm,scale=1.125] +\fuellung +\eins{1}{1} +\null{1}{2}{6} +\eins{2}{2} +\null{2}{3}{6} +\eins{3}{3} +\null{3}{4}{6} +\null{4}{4}{6} +\eins{5}{4} +\null{5}{5}{6} +\null{6}{5}{6} +\eins{7}{5} +\null{7}{6}{6} +\rahmen +\end{scope} + +\begin{scope}[xshift=47.5cm,yshift=-16cm,scale=1.125] +\fuellung +\eins{1}{1} +\null{1}{2}{6} +\eins{2}{2} +\null{2}{3}{6} +\eins{3}{3} +\null{3}{4}{6} +\null{4}{4}{6} +\eins{5}{4} +\null{5}{5}{6} +\null{6}{5}{6} +\eins{7}{5} +\null{7}{6}{6} +\spalteunten{7}{1}{4} +\rahmen +\end{scope} + +\begin{scope}[xshift=35.5cm,yshift=-16cm,scale=1.125] +\fuellung +\eins{1}{1} +\null{1}{2}{6} +\eins{2}{2} +\null{2}{3}{6} +\eins{3}{3} +\null{3}{4}{6} +\null{4}{4}{6} +\eins{5}{4} +\null{5}{5}{6} +\null{6}{5}{6} +\eins{7}{5} +\null{7}{6}{6} +\null{7}{1}{4} +\spalteunten{5}{1}{3} +\rahmen +\end{scope} + +\begin{scope}[xshift=23.5cm,yshift=-16cm,scale=1.125] +\fuellung +\eins{1}{1} +\null{1}{2}{6} +\eins{2}{2} +\null{2}{3}{6} +\eins{3}{3} +\null{3}{4}{6} +\null{4}{4}{6} +\eins{5}{4} +\null{5}{5}{6} +\null{6}{5}{6} +\eins{7}{5} +\null{7}{6}{6} +\null{7}{1}{4} +\null{5}{1}{3} +\spalteunten{3}{1}{2} +\rahmen +\end{scope} + +\begin{scope}[xshift=11.5cm,yshift=-16cm,scale=1.125] +\fuellung +\eins{1}{1} +\null{1}{2}{6} +\eins{2}{2} +\null{2}{3}{6} +\eins{3}{3} +\null{3}{4}{6} +\null{4}{4}{6} +\eins{5}{4} +\null{5}{5}{6} +\null{6}{5}{6} +\eins{7}{5} +\null{7}{6}{6} +\null{7}{1}{4} +\null{5}{1}{3} +\null{3}{1}{2} +\spalteunten{2}{1}{1} +\rahmen +\end{scope} + +\begin{scope}[xshift=-0.5cm,yshift=-16cm,scale=1.125] +\fuellung +\eins{1}{1} +\null{1}{2}{6} +\eins{2}{2} +\null{2}{3}{6} +\eins{3}{3} +\null{3}{4}{6} +\null{4}{4}{6} +\eins{5}{4} +\null{5}{5}{6} +\null{6}{5}{6} +\eins{7}{5} +\null{7}{6}{6} +\null{7}{1}{4} +\null{5}{1}{3} +\null{3}{1}{2} +\null{2}{1}{1} +\rahmen +\end{scope} + +\end{tikzpicture} +\end{document} + diff --git a/buch/chapters/10-vektorenmatrizen/images/strukturen.pdf b/buch/chapters/10-vektorenmatrizen/images/strukturen.pdf Binary files differindex c2d545e..14f7e59 100644 --- a/buch/chapters/10-vektorenmatrizen/images/strukturen.pdf +++ b/buch/chapters/10-vektorenmatrizen/images/strukturen.pdf diff --git a/buch/chapters/10-vektorenmatrizen/images/strukturen.tex b/buch/chapters/10-vektorenmatrizen/images/strukturen.tex index 0006699..02ca71d 100644 --- a/buch/chapters/10-vektorenmatrizen/images/strukturen.tex +++ b/buch/chapters/10-vektorenmatrizen/images/strukturen.tex @@ -52,7 +52,7 @@ \end{scope} \fill[rounded corners=0.5cm,color=white] (-2,-10.5) rectangle (6,-0.5); -\fill[rounded corners=0.5cm,color=blue!20] (-6,-10.0) rectangle (2,0); +\fill[rounded corners=0.5cm,color=blue!20] (-6,-10.1) rectangle (2,0); %\draw[rounded corners=0.5cm] (-6,-10.0) rectangle (2,0); % Vektorraum @@ -94,7 +94,7 @@ \draw[rounded corners=0.3cm] (-1.8,-10.3) rectangle (5.8,-4.5); % boundary of blue area -\draw[rounded corners=0.5cm] (-6,-10.0) rectangle (2,0); +\draw[rounded corners=0.5cm] (-6,-10.1) rectangle (2,0); \begin{scope}[yshift=-5cm] \node at (5.6,0) [left] {{\bf Ring mit Eins}:}; @@ -108,8 +108,8 @@ \end{scope} \fill[rounded corners=0.1cm,color=darkgreen!20] - (-1.6,-9.8) rectangle (1.6,-6.9); -\draw[rounded corners=0.1cm] (-1.6,-9.8) rectangle (1.6,-6.9); + (-1.6,-9.9) rectangle (1.6,-6.9); +\draw[rounded corners=0.1cm] (-1.6,-9.9) rectangle (1.6,-6.9); \begin{scope}[yshift=-7cm] \node at (0,-0.3) {{\bf Körper}:\strut}; diff --git a/buch/chapters/10-vektorenmatrizen/linear.tex b/buch/chapters/10-vektorenmatrizen/linear.tex index e868463..cdd1693 100644 --- a/buch/chapters/10-vektorenmatrizen/linear.tex +++ b/buch/chapters/10-vektorenmatrizen/linear.tex @@ -450,10 +450,10 @@ besagt also, dass das Element $c_{ij}$ entsteht als das Produkt der Zeile $i$ von $A$ mit der Spalte $j$ von $C$. \subsubsection{Einheitsmatrix} -Welche $m\times m$-Matrix $E\in M_{m}(\Bbbk)$ hat die Eigenschaft, dass -$EA=A$ für jede beliebige Matrix $A\in M_{m\times n}(\Bbbk)$. -Wir bezeichnen die Koeffizienten von $E$ mit $\delta_{ij}$. -Die Bedingung $EA=A$ bedeutet +Welche $m\times m$-Matrix $I\in M_{m}(\Bbbk)$ hat die Eigenschaft, dass +$IA=A$ für jede beliebige Matrix $A\in M_{m\times n}(\Bbbk)$. +Wir bezeichnen die Einträge von $I$ mit $\delta_{ij}$. +Die Bedingung $IA=A$ bedeutet \[ a_{ij} = \delta_{i1}a_{1j} + \dots + \delta_{im}a_{mj}, \] @@ -473,15 +473,15 @@ Die Zahlen $\delta_{ij}$ heissen auch das {\em Kronecker-Symbol} oder {\em Kronecker-Delta}. \index{Kronecker-$\delta$}% \index{Kronecker-Symbol}% -Die Matrix $E$ hat die Einträge $\delta_{ij}$ und heisst die +Die Matrix $I$ hat die Einträge $\delta_{ij}$ und heisst die {\em Einheitsmatrix} \index{Einheitsmatrix}% \[ -E +I = \begin{pmatrix} 1 &0 &\dots &0 \\ -0 &1 &\dots &0 \\ +0 &1 &\dots &0 \\[-2pt] \vdots&\vdots&\ddots&\vdots\\ 0 &0 &\dots &1 \end{pmatrix}. @@ -504,13 +504,14 @@ Mit Hilfe der Vektorform eines linearen Gleichungssystems wurde gezeigt, dass die Lösung genau dann eindeutig ist, wenn die Spaltenvektoren der Koeffizientenmatrix linear unabhängig sind. Dies bedeutet, dass das Gleichungssystem -\[ +\begin{equation} \begin{linsys}{3} a_{11}x_1 &+& \dots &+& a_{1n}x_n &=& 0 \\ \vdots & & \ddots& & \vdots & & \vdots \\ a_{m1}x_1 &+& \dots &+& a_{mn}x_n &=& 0 \end{linsys} -\] +\label{buch:grundlagen:eqn:homogenessystem} +\end{equation} eine nichttriviale Lösung haben muss. Das Gleichungssystem $Ax=b$ ist also genau dann eindeutig lösbar, wenn das homogene Gleichungssystem $Ax=0$ nur die Nulllösung hat. @@ -531,7 +532,235 @@ eindeutig, wenn das zugehörige homogene Gleichungssystem eine nichttriviale Lösung hat. \subsubsection{Gauss-Algorithmus} - +Der Gauss-Algorithmus oder genauer Gausssche Eliminations-Algorithmus +löst ein lineare Gleichungssystem der +Form~\eqref{buch:vektoren-und-matrizen:eqn:vektorform}. +Die Koeffizienten werden dazu in das Tableau +\[ +\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|} +\hline +a_{11}&\dots &a_{1n}&b_1 \\[-2pt] +\vdots&\ddots&\vdots&\vdots\\ +a_{m1}&\dots &a_{mn}&b_m \\ +\hline +\end{tabular} +\] +geschrieben. +Die vertikale Linie erinnert an die Position des Gleichheitszeichens. +Es beinhaltet alle Informationen zur Durchführung des Algorithmus. +Der Algorithmus is so gestaltet, dass er nicht mehr Speicher als +das Tableau benötigt, alle Schritte operieren direkt auf den Daten +des Tableaus. + +In jedem Schritt des Algorithmus wird zunächst eine Zeile $i$ und +Spalte $j$ ausgewählt, das Elemente $a_{ij}$ heisst das Pivotelement. +\index{Pivotelement}% +Die {\em Pivotdivision} +\[ +\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|} +\hline +a_{11}&\dots &a_{1j}&\dots &a_{1n}&b_1 \\[-2pt] +\vdots& &\vdots&\ddots&\vdots&\vdots\\ +a_{i1}&\dots &{\color{red}a_{ij}}&\dots &a_{in}&b_i \\[-2pt] +\vdots& &\vdots&\ddots&\vdots&\vdots\\ +a_{m1}&\dots &a_{mj}&\dots &a_{mn}&b_m \\ +\hline +\end{tabular} +\rightarrow +\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|} +\hline +a_{11}&\dots &a_{1j}&\dots &a_{1n}&b_1 \\[-2pt] +\vdots& &\vdots&\ddots&\vdots&\vdots\\ +{\color{red}\frac{a_{i1}}{a_{ij}}}&\dots &{\color{red}1}&\dots &{\color{red}\frac{a_{in}}{a_{ij}}}&{\color{red}\frac{b_i}{a_{ij}}}\\[-2pt] +\vdots& &\vdots&\ddots&\vdots&\vdots\\ +a_{m1}&\dots &a_{mj}&\dots &a_{mn}&b_m \\ +\hline +\end{tabular} +\] +stellt sicher, dass das Pivot-Element zu $1$ wird. +\index{Pivotdivision} +Dies ist gleichbedeutend mit der Auflösung der Gleichung $i$ noch der +Variablen $x_j$. +Mit der {\em Zeilensubtraktion} auf Zeile $k\ne i$ können die Einträge in der +Spalte $j$ zu Null gemacht werden. +Dazu wird das $a_{kj}$-fache der Zeile $i$ von Zeile $k$ subtrahiert: +\[ +\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|} +\hline +\vdots& &\vdots&\ddots&\vdots&\vdots\\ +a_{i1}&\dots &{\color{red}1}&\dots &a_{in}&b_i \\[-2pt] +\vdots& &\vdots&\ddots&\vdots&\vdots\\ +a_{k1}&\dots &a_{kj}&\dots &a_{kn}&b_m \\[-2pt] +\vdots& &\vdots&\ddots&\vdots&\vdots\\ +\hline +\end{tabular} +\rightarrow +\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|} +\hline +\vdots& &\vdots&\ddots&\vdots&\vdots\\ +a_{i1}&\dots &{\color{red}1}&\dots &a_{in}&b_i \\[-2pt] +\vdots& &\vdots&\ddots&\vdots&\vdots\\ +{\color{blue}a_{k1}-a_{kj}a_{i1}}&\dots &{\color{blue}0}&\dots &{\color{blue}a_{kn}-a_{kj}a_{in}}&{\color{blue}b_m-a_{kj}b_{n}}\\[-2pt] +\vdots& &\vdots&\ddots&\vdots&\vdots\\ +\hline +\end{tabular} +\] +Typischerweise werden nach jeder Pivotdivision mehrer Zeilensubtraktionen +durchgeführt um alle anderen Elemente der Pivotspalte ausser dem +Pivotelement zu $0$ zu machen. +Beide Operationen können in einem Durchgang durchgeführt werden. + +Die beiden Operationen Pivotdivision und Zeilensubtraktion werden jetzt +kombiniert um im linken Teil des Tableaus möglichst viele Nullen und +Einsen zu erzeugen. +Im Idealfall wird ein Tableau der Form +\[ +\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|} +\hline + 1& 0&\dots & 0&u_1 \\ + 0& 1&\dots & 0&u_2 \\[-2pt] +\vdots&\vdots&\ddots&\vdots&\vdots\\ + 0& 0&\dots & 1&u_m \\ +\hline +\end{tabular} +\] +erreicht, was natürlich nur $m=n$ möglich ist. +Interpretiert man die Zeilen dieses Tableaus wieder als Gleichungen, +dann liefert die Zeile $i$ den Wert $x_i=u_i$ für die Variable $i$. +Die Lösung kann also in der Spalte rechts abgelesen werden. + +\begin{figure} +\centering +\includegraphics[width=\textwidth]{chapters/10-vektorenmatrizen/images/rref.pdf} +\caption{Zweckmässiger Ablauf der Berechnung des Gauss-Algorithmus. +Falls in einer Spalte kein weiteres von $0$ verschiedenes Pivotelement +zur Verfügung steht, wird die Zeile übersprungen. +Weisse Felder enthalten $0$, dunkelgraue $1$. +Die roten Kreise bezeichnen Pivot-Elemente, die blauen Felder +die mit einer Zeilensubtraktion zu $0$ gemacht werden sollen. +\label{buch:grundlagen:fig:gaussalgorithmus}} +\end{figure} +Die effizienteste Strategie für die Verwendung der beiden Operationen +ist in Abbildung~\ref{buch:grundlagen:fig:gaussalgorithmus} dargestellt. +In der Phase der {\em Vorwärtsreduktion} werden Pivotelemente von links +nach rechts möglichst auf der Diagonale gewählt und mit Zeilensubtraktionen +die darunterliegenden Spalten freigeräumt. +\index{Vorwärtsreduktion}% +Während des Rückwärtseinsetzens werden die gleichen Pivotelemente von +rechts nach links genutzt, um mit Zeilensubtraktionen auch die +Spalten über den Pivotelemnten frei zu räumen. +\index{Rückwärtseinsetzen}% +Wenn in einer Spalte kein von $0$ verschiedenes Element als Pivotelement +zur Verfügung steht, wird diese Spalte übersprungen. +Die so erzeuge Tableau-Form heisst auch die {\em reduzierte Zeilenstufenform} +({\em reduced row echelon form}, RREF). +\index{reduzierte Zeilenstufenform}% +\index{reduced row echelon form}% + +Da der Ablauf des Gauss-Algorithmus vollständig von den Koeffizienten der +Matrix $A$ bestimmt ist, kann er gleichzeitig für mehrere Spalten auf der +rechten Seite oder ganz ohne rechte Seite durchgeführt werden. + +\subsubsection{Lösungsmenge} +\index{Lösungsmenge}% +Die Spalten, in denen im Laufe des Gauss-Algorithmus kein Pivotelement +gefunden werden kann, gehören zu Variablen, nach denen sich das +Gleichungssystem nicht auflösen lässt. +Diese Variablen sind daher nicht bestimmt, sie können beliebig gewählt +werden. +Alle anderen Variablen sind durch diese frei wählbaren Variablen +bestimmt. + +Für ein Gleichungssystem $Ax=b$ mit Schlusstableau +\index{Schlusstableau}% +\begin{equation} +\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|} +\hline + x_1& x_2&\dots &x_{j_i-1}&{\color{darkgreen}x_{j_1}}&x_{j_1+1}&\dots &x_{j_2-1}&{\color{darkgreen}x_{j_2}}&\dots&{\color{darkgreen}x_{j_k}}& \\ +\hline + 1& 0&\dots & 0&c_{1j_1} & 0&\dots & 0&c_{1j_2} &\dots &c_{1j_k} &d_1 \\ + 0& 1&\dots & 0&c_{2j_1} & 0&\dots & 0&c_{2j_2} &\dots &c_{1j_k} &d_2 \\[-2pt] +\vdots&\vdots&\ddots&\vdots &\vdots &\vdots&\ddots&\vdots&\vdots &\ddots&\vdots &\vdots \\ + 0& 0&\dots & 1&c_{i_1,j_1}& 0&\dots & 0&c_{i_1,j_2} &\dots &c_{i_1j_k} &d_{i_1} \\ + 0& 0&\dots & 0& 0& 1&\dots & 0&c_{i_1+1,j_2}&\dots &c_{i_1+1,j_k}&d_{i_1+1}\\[-2pt] +\vdots&\vdots&\ddots&\vdots &\vdots &\vdots&\vdots&\vdots&\vdots &\ddots&\vdots &\vdots \\ + 0& 0&\dots & 0& 0& 0&\dots & 1&c_{i_2,j_2} &\dots &c_{i_2j_k} &d_{i_2} \\ + 0& 0&\dots & 0& 0& 0&\dots & 0& 0&\dots &c_{i_2+1,j_k}&d_{i_2+1}\\[-2pt] +\vdots&\vdots&\ddots&\vdots &\vdots &\vdots&\ddots&\vdots&\vdots &\ddots&\vdots &\vdots \\ + 0& 0&\dots & 0& 0& 0&\dots & 0& 0&\dots & 0&d_{m} \\ +\hline +\end{tabular} +\end{equation} +mit den $k$ frei wählbaren Variablen +$x_{j_1}, x_{j_2},\dots, x_{j_k}$ kann die Lösungsmenge als +\[ +\mathbb{L} += +\left\{ +\left. +\begin{pmatrix} +d_1\\ +d_2\\ +\vdots\\ +d_{i_1}\\ +d_{i_1+1}\\ +\vdots\\ +d_{i_2}\\ +d_{i_2+1}\\ +\vdots\\ +d_{m} +\end{pmatrix} ++ +{\color{darkgreen}x_{j_1}} +\begin{pmatrix} +-c_{1j_1}\\ +-c_{2j_1}\\ +\vdots\\ +-c_{i_1,j_1}\\ +{\color{darkgreen}1}\\ +\vdots\\ +0\\ +0\\ +\vdots\\ +0\\ +\end{pmatrix} ++ +{\color{darkgreen}x_{j_1}} +\begin{pmatrix} +-c_{1j_2}\\ +-c_{2j_2}\\ +\vdots\\ +-c_{j_1,j_2}\\ +-c_{j_1+1,j_2}\\ +\vdots\\ +-c_{i_2,j_2}\\ +{\color{darkgreen}1}\\ +\vdots\\ +0\\ +\end{pmatrix} ++ +\dots ++ +{\color{darkgreen}x_{j_k}} +\begin{pmatrix} +-c_{1j_k}\\ +-c_{2j_k}\\ +\vdots\\ +-c_{j_1,j_k}\\ +-c_{j_1+1,j_k}\\ +\vdots\\ +-c_{i_2,j_k}\\ +-c_{i_2+1,j_k}\\ +\vdots\\ +0\\ +\end{pmatrix} +\; +\right| +{\color{darkgreen}x_{i_1}},{\color{darkgreen}x_{i_2}},\dots,{\color{darkgreen}x_{i_k}}\in\Bbbk +\right\} +\] +geschrieben werden. +Insbesondere ist die Lösungsmenge $k$-dimensional. \subsubsection{Inverse Matrix} Zu jeder quadratischen Matrix $A\in M_n(\Bbbk)$ kann man versuchen, die @@ -541,7 +770,7 @@ Ac_1 = e_1,\quad Ac_2 = e_2, \dots, Ac_n = e_n \] mit den Standardbasisvektoren $e_i$ als rechten Seiten zu lösen, wobei die $c_i$ Vektoren in $\Bbbk^n$ sind. -Diese Vektoren kann man mit Hilfe des Gaussalgorithmus finden: +Diese Vektoren kann man mit Hilfe des Gauss-Algorithmus finden: \[ \begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|} \hline @@ -590,14 +819,14 @@ die zu $A$ {\em inverse Matrix}. \index{inverse Matrix} Sie wird auch $C=A^{-1}$ geschrieben. -Die Definition der inversen Matrix stellt sicher, dass $AA^{-1}=E$ gilt, -daraus folgt aber noch nicht, dass auch $A^{-1}A=E$ ist. +Die Definition der inversen Matrix stellt sicher, dass $AA^{-1}=I$ gilt, +daraus folgt aber noch nicht, dass auch $A^{-1}A=I$ ist. Diese Eigenschaft kann man jedoch wie folgt erhalten. -Sei $C$ die inverse Matrix von $A$, also $AC=E$. -Sei weiter $D$ die inverse Matrix von $C$, also $CD=E$. -Dann ist zunächst $A=AE=A(CD)=(AC)D=ED=D$ und weiter -$CA=CD=E$. -Mit der Bezeichnung $C=A^{-1}$ erhalten wir also auch $A^{-1}A=E$. +Sei $C$ die inverse Matrix von $A$, also $AC=I$. +Sei weiter $D$ die inverse Matrix von $C$, also $CD=I$. +Dann ist zunächst $A=AE=A(CD)=(AC)D=ID=D$ und weiter +$CA=CD=I$. +Mit der Bezeichnung $C=A^{-1}$ erhalten wir also auch $A^{-1}A=I$. Die Eigenschaften der Matrizenmultiplikation stellen sicher, dass die Menge der invertierbaren Matrizen eine Struktur bilden, @@ -605,9 +834,10 @@ die man Gruppe nennt, die in Abschnitt~\ref{buch:grundlagen:subsection:gruppen} genauer untersucht wird. In diesem Zusammenhang wird dann auf Seite~\pageref{buch:vektorenmatrizen:satz:gruppenregeln} -die Eigenschaft $A^{-1}A=E$ ganz allgemein gezeigt. +die Eigenschaft $A^{-1}A=I$ ganz allgemein gezeigt. \subsubsection{Determinante} +XXX TODO % % Lineare Abbildungen @@ -874,5 +1104,32 @@ Das Bild der Matrix $A$ ist der Unterraum \] von $\Bbbk^m$, aufgespannt von den Spaltenvektoren $a_i$ von $A$. +\subsubsection{Rang und Defekt} +Die Dimensionen von Bild und Kern sind wichtige Kennzahlen einer Matrix. +\begin{definition} +Sei $A$ eine Matrix $A\in M_{m\times n}(\Bbbk)$. +Der {\em Rang} der Matrix $A$ ist die Dimension des Bildraumes von $A$: +$\operatorname{rank}A=\dim\operatorname{im} A$. +\index{Rang einer Matrix}% +Der {\em Defekt} der Matrix $A$ ist die Dimension des Kernes von $A$: +$\operatorname{def}A=\dim\ker A$. +\index{Defekt einer Matrix}% +\end{definition} + +Da der Kern mit Hilfe des Gauss-Algorithmus bestimmt werden kann, +können Rang und Defekt aus dem Schlusstableau +eines homogenen Gleichungssystems mit $A$ als Koeffizientenmatrix +abgelesen werden. + +\begin{satz} +Ist $A\in M_{m\times n}(\Bbbk)$ eine $m\times n$-Matrix, +dann gilt +\[ +\operatorname{rank}A += +n-\operatorname{def}A. +\] +\end{satz} + \subsubsection{Quotient} -TODO +TODO: $\operatorname{im} A \simeq \Bbbk^m/\ker A$ diff --git a/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex index df284b2..afe64f7 100644 --- a/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex +++ b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex @@ -15,15 +15,574 @@ Das Skalarprodukt passt in den algebraischen Rahmen der linearen Algebra, bringt aber auch einen Abstandsbegriff hervor, der genau der geometrischen Intuition entspricht. -\subsection{Bilinearformen +\subsection{Bilinearformen und Skalarprodukte \label{buch:subsection:bilinearformen}} +Damit man mit einem Skalarprodukt rechnen kann wie mit jedem anderen +Produkt, müssen man auf beiden Seiten des Zeichesn ausmultiplizieren können: +\begin{align*} +(\lambda x_1 + \mu x_2)\cdot y &= \lambda x_1\cdot y + \mu x_2\cdot y\\ +x\cdot (\lambda y_1 + \mu x_2) &= \lambda x\cdot y_1 + \mu x\cdot y_2. +\end{align*} +Man kann dies interpretieren als Linearität der Abbildungen +$x\mapsto x\cdot y$ und $y\mapsto x\cdot y$. +Dies wird Bilinearität genannt und wie folgt definiert. + % XXX Bilinearität -% XXX Polarformel +\begin{definition} +Seien $U,V,W$ $\Bbbk$-Vektorräume. +Eine Abbildung $f\colon U\times V\to W$ heisst {\em bilinear}, +\index{bilinear}% +wenn die partiellen Abbildungen $U\to W:x\mapsto f(x,y_0)$ und +$V\to W:y\mapsto f(x_0,y)$ +linear sind für alle $x_0\in U$ und $y_0\in V$, d.~h. +\begin{align*} +f(\lambda x_1 + \mu x_2,y) &= \lambda f(x_1,y) + \mu f(x_2,y) +\\ +f(x,\lambda y_1 + \mu y_2) &= \lambda f(x,y_1) + \mu f(x,y_2) +\end{align*} +Eine bilineare Funktion mit Werten in $\Bbbk$ heisst auch {\em Bilinearform}. +\index{Bilinearform}% +\end{definition} + +\subsubsection{Symmetrische bilineare Funktionen} +Das Skalarprodukt hängt nicht von der Reihenfolge der Faktoren ab. +In Frage dafür kommen daher nur Bilnearformen $f\colon V\times V\to\Bbbk$, +die zusätzlich $f(x,y)=f(y,x)$ erfüllen. +Solche Bilinearformen heissen symmetrisch. +Für eine symmetrische Bilinearform gilt die binomische Formel +\begin{align*} +f(x+y,x+y) +&= +f(x,x+y)+f(y,x+y) += +f(x,x)+f(x,y)+f(y,x)+f(y,y) +\\ +&= +f(x,x)+2f(x,y)+f(y,y) +\end{align*} +wegen $f(x,y)=f(y,x)$. + +\subsubsection{Positiv definite Bilinearformen und Skalarprodukt} +Bilinearität alleine genügt nicht, um einen Vektorraum mit einem +nützlichen Abstandsbegriff auszustatten. +Dazu müssen die berechneten Abstände vergleichbar sein, es muss also +eine Ordnungsrelation definiert sein, wie wir sie nur in $\mathbb{R}$ +kennen. +Wir sind daher gezwungen uns auf $\mathbb{R}$- oder +$\mathbb{Q}$-Vektorräume zu beschränken. + +Man lernt in der Vektorgeometrie, dass sich mit einer Bilinearform +$f\colon V\times V\to\mathbb{R}$ +die Länge eines definieren lässt, indem man $\|x\|^2 = f(x,x)$ +setzt. +Ausserdem muss $f(x,x)\ge 0$ sein für alle $x$, was die Bilinearität +allein nicht garantieren kann. +Verschiedene Punkte in einem Vektorraum sollen in dem aus der Bilinearform +abgeleiteten Abstandsbegriff immer unterscheidbar sein. +Dazu muss jeder von $0$ verschiedene Vektor positive Länge haben. + % XXX Positiv definite Form +\begin{definition} +Eine Bilinearform $f\colon V\times V\to\mathbb{R}$ +heisst {\em positiv definit}, wenn +\index{positiv definit}% +\[ +f(x,x) > 0\qquad\forall x\in V\setminus\{0\}. +\] +Das zugehörige {\em Skalarprodukt} wird $f(x,y)=\langle x,y\rangle$ +geschrieben. +\index{Skalarprodukt}% +Die {\em $l^2$-Norm} $\|x\|_2$ eines Vektors ist definiert durch +$\|x\|_2^2 = \langle x,x\rangle$. +\end{definition} + +\subsubsection{Dreiecksungleichung} +% XXX Dreiecksungleichung +Damit man sinnvoll über Abstände sprechen kann, muss die Norm +$\|\;\cdot\;\|_2$ der geometrischen Intuition folgen, die durch +die Dreiecksungleichung ausgedrückt wird. +In diesem Abschnitt soll gezeigt werden, dass die $l^2$-Norm +diese immer erfüllt. +Dazu sei $V$ ein $\mathbb{R}$-Vektorraum mit Skalarprodukt +$\langle\;,\;\rangle$. + +\begin{satz}[Cauchy-Schwarz-Ungleichung] +Für $x,y\in V$ gilt +\[ +|\langle x,y\rangle | +\le +\| x\|_2\cdot \|y\|_2 +\] +mit Gleichheit genau dann, wenn $x$ und $y$ linear abhängig sind. +\end{satz} + +\begin{proof}[Beweis] +Wir die Norm von $z=x-ty$: +\begin{align} +\|x-ty\|_2^2 +&= +\|x\|_2^2 -2t\langle x,y\rangle +t^2\|y\|_2^2 \ge 0. +\notag +\end{align} +Sie nimmt den kleinsten Wert genau dann an, wenn es ein $t$ gibt derart, +dass $x=ty$. +Die rechte Seite ist ein quadratischer Ausdruck in $t$, +er hat sein Minimum bei +\begin{align*} +t&=-\frac{-2\langle x,y\rangle}{2\|y\|_2^2} +&&\Rightarrow& +\biggl\| +x - \frac{\langle x,y\rangle}{\|y\|_2^2}y +\biggr\|_2^2 +&= +\|x\|_2^2 +- +2\frac{(\langle x,y\rangle)^2}{\|y\|_2^2} ++ +\frac{(\langle x,y\rangle)^2}{\|y\|_2^4} \|y\|_2^2 +\\ +&&&& +&= +\|x\|_2^2 +- +\frac{(\langle x,y\rangle)^2}{\|y\|_2^2} += +\frac{ +\|x\|_2^2\cdot\|y\|_2^2 - (\langle x,y\rangle)^2 +}{ +\|y\|_2^2 +} +\ge 0 +\intertext{Es folgt} +&&&\Rightarrow& +\|x\|_2^2\cdot\|y\|_2^2 - (\langle x,y\rangle)^2 &\ge 0 +\\ +&&&\Rightarrow& +\|x\|_2\cdot\|y\|_2 &\ge |\langle x,y\rangle | +\end{align*} +mit Gleichheit genau dann, wenn es ein $t$ gibt mit $x=ty$. +\end{proof} + +\begin{satz}[Dreiecksungleichung] +Für $x,y\in V$ ist +\[ +\| x + y \|_2 \le \|x\|_2 + \|y\|_2 +\] +mit Gleichheit genau dann, wenn $x=ty$ ist für ein $t\ge 0$. +\end{satz} + +\begin{proof}[Beweis] +\begin{align*} +\|x+y\|_2^2 +&= +\langle x+y,x+y\rangle += +\langle x,x\rangle ++ +2\langle x,y\rangle ++ +\langle y,y\rangle +\\ +&= +\|x\|_2^2 ++ +2\langle x,y\rangle ++ +\|y\|_2^2 += +\|x\|_2^2 + 2\langle x,y\rangle + \|y\|_2^2 +\le +\|x\|_2^2 + 2\|x\|_2\cdot\|y\|_2 + \|y\|_2^2 +\\ +&= +(\|x\|_2 + \|y\|_2)^2 +\\ +\|x\|_2 + \|y\|_2 +&\le \|x\|_2 + \|y\|_2, +\end{align*} +Gleichheit tritt genau dann ein, wenn +$\langle x,y\rangle=\|x\|_2\cdot \|y\|_2$. +Dies tritt genau dann ein, wenn die beiden Vektoren linear abhängig sind. +\end{proof} + +\subsubsection{Polarformel} +% XXX Polarformel +Auf den ersten Blick scheint die Norm $\|x\|_2$ weniger Information +zu beinhalten, als die symmetrische Bilinearform, aus der sie +hervorgegangen ist. +Dem ist aber nicht so, denn die Bilinearform lässt sich aus der +Norm zurückgewinnen. +Dies ist der Inhalt der sogenannte Polarformel. + +\begin{satz}[Polarformel] +Ist $\|\cdot\|_2$ eine Norm, die aus einer symmetrischen Bilinearform +$\langle\;,\;\rangle$ hervorgegangen ist, dann kann die Bilinearform +mit Hilfe der Formel +\begin{equation} +\langle x,y\rangle += +\frac12( +\|x+y\|_2^2 +- +\|x\|_2^2 +- +\|y\|_2^2 +) +\label{buch:grundlagen:eqn:polarformel} +\end{equation} +für $x,y\in V$ wiedergewonnen werden. +\end{satz} + +\begin{proof}[Beweis] +Die binomischen Formel +\begin{align*} +\|x+y\|_2^2 +&= +\|x\|_2^2 + 2\langle x,y\rangle + \|y\|_2^2 +\intertext{kann nach $\langle x,y\rangle$ aufgelöst werden, was} +\langle x,y\rangle &= \frac12 ( +\|x+y\|_2^2 - \|x\|_2^2 - \|y\|_2^2 +) +\end{align*} +ergibt. +Damit ist die +Polarformel~\eqref{buch:grundlagen:eqn:polarformel} +bewiesen. +\end{proof} + +\subsubsection{Komplexe Vektorräume und Sesquilinearformen} % XXX Sesquilinearform +Eine Bilinearform auf einem komplexen Vektorraum führt nicht +auf eine Grösse, die sich als Norm eignet. +Selbst wenn $\langle x,x\rangle >0$ ist, +\[ +\langle ix,iy\rangle = i^2 \langle x,y\rangle += +-\langle x,y\rangle < 0. +\] +Dies kann verhindert werden, wenn verlangt wird, dass der Faktor +$i$ im ersten Faktor der Bilinearform als $-i$ aus der Bilinearform +herausgenommen werden muss. + +\begin{definition} +Seien $U,V,W$ komplexe Vektorräume. +Eine Abbildung $f\colon U\times V\to W$ heisst +{\em sesquilinear}\footnote{Das lateinische Wort {\em sesqui} bedeutet +eineinhalb, eine Sesquilinearform ist also eine Form, die in einem +Faktor (dem zweiten) linear ist, und im anderen nur halb linear.} +\index{sesquilinear} +wenn gilt +\begin{align*} +f(\lambda x_1+\mu x_2,y) &= \overline{\lambda}f(x_1,y) + \overline{\mu}f(x_2,y) +\\ +f(x,\lambda y_1+\mu y_2) &= \lambda f(x,y_1) + \mu f(x,y_2) +\end{align*} +\end{definition} + +Für die Norm $\|x\|_2^2=\langle x,x\rangle$ bedeutet dies jetzt +\[ +\|\lambda x\|_2^2 += +\langle \lambda x,\lambda x\rangle += +\overline{\lambda}\lambda \langle x,x\rangle += +|\lambda|^2 \|x\|_2^2 +\qquad\Rightarrow\qquad +\|\lambda x\|_2 = |\lambda|\, \|x\|_2. +\] + +\subsection{Orthognormalbasis +\label{buch:subsection:orthonormalbasis}} +\index{orthonormierte Basis}% + +\subsubsection{Gram-Matrix} +Sei $V$ ein Vektorraum mit einem Skalarprodukt und $\{b_1,\dots,b_n\}$ eine +Basis von $V$. +Wie kann man das Skalarprodukt aus den Koordinaten $\xi_i$ und $\eta_i$ +der Vektoren +\[ +x = \sum_{i=1}^n \xi_i b_i, +\quad\text{und}\quad +y = \sum_{i=1}^n \eta_i b_i +\] +berechnen? +Setzt man $x$ und $y$ in das Skalarprodukt ein, erhält man +\begin{align*} +\langle x,y\rangle +&= +\biggl\langle +\sum_{i=1}^n \xi_i b_i, +\sum_{j=1}^n \eta_j b_j +\biggr\rangle += +\sum_{i,j=1}^n \xi_i\eta_j \langle b_i,b_j\rangle. +\end{align*} +Die Komponente $g_{ij}=\langle b_i,b_j\rangle$ bilden die sogenannte +Gram-Matrix $G$. +Mit ihr kann das Skalarprodukt auch in Vektorform geschrieben werden +als $\langle x,y\rangle = \xi^t G\eta$. + +\subsubsection{Orthonormalbasis} +Eine Basis $\{a_1,\dots,a_n\}$ aus orthogonalen Einheitsvektoren, +also mit +$ +\langle a_i,a_j\rangle=\delta_{ij} +$ +heisst {\em Orthonormalbasis}. +In einer Orthonormalbasis ist die Bestimmung der Koordinaten eines +beliebigen Vektors besonders einfach, ist nämlich +\begin{equation} +v=\sum_{i=1}^n \langle v,a_i\rangle a_i. +\label{buch:grundlagen:eqn:koordinaten-in-orthonormalbasis} +\end{equation} +Die Gram-Matrix einer Orthonormalbasis ist die Einheitsmatrix. + +\subsubsection{Gram-Schmidt-Orthonormalisierung} +Mit Hilfe des Gram-Schmidtschen Orthonormalisierungsprozesses kann aus +einer beliebige Basis $\{a_1,a_2,\dots,a_n\}\subset V$ eines Vektorraums +mit einem SKalarprodukt eine orthonormierte Basis +$\{b_1,b_2,\dots,b_n\}$ gefunden werden derart, dass für alle $k$ +$\langle b_1,\dots,b_k\rangle = \langle a_1,\dots ,a_k\rangle$. +\index{Gram-Schmidt-Orthonormalisierung}% +Der Zusammenhang zwischen den Basisvektoren $b_i$ und $a_i$ ist +gegeben durch +\begin{align*} +b_1&=\frac{a_1}{\|a_1\|_2} +\\ +b_2&=\frac{a_2-b_1\langle b_1,a_2\rangle}{\|a_2-b_1\langle b_1,a_2\rangle\|_2} +\\ +b_3&=\frac{a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle}{\|a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle\|_2} +\\ +&\phantom{n}\vdots\\ +b_n +&= +\frac{ +a_n-b_1\langle b_1,a_n\rangle-b_2\langle b_2,a_n\rangle +-\dots-b_{n-1}\langle b_{n-1},a_n\rangle +}{ +\| +a_n-b_1\langle b_1,a_n\rangle-b_2\langle b_2,a_n\rangle +-\dots-b_{n-1}\langle b_{n-1},a_n\rangle +\|_2 +}. +\end{align*} +Die Gram-Matrix der Matrix $\{b_1,\dots,b_n\}$ ist die Einheitsmatrix. + +\subsubsection{Orthogonalisierung} +Der Normalisierungsschritt im Gram-Schmidt-Orthonormalisierungsprozess +ist nur möglich, wenn Quadratwurzeln unbeschränkt gezogen werden können. +Das ist in $\mathbb{R}$ möglich, nicht jedoch in $\mathbb{Q}$. +Es ist aber mit einer kleinen Anpassung auch über $\mathbb{Q}$ +immer noch möglich, aus einer Basis $\{a_1,\dots,a_n\}$ eine orthogonale +Basis zu konstruieren. +Man verwendet dazu die Formeln +\begin{align*} +b_1&=a_1 +\\ +b_2&=a_2-b_1\langle b_1,a_2\rangle +\\ +b_3&=a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle +\\ +&\phantom{n}\vdots\\ +b_n +&= +a_n-b_1\langle b_1,a_n\rangle-b_2\langle b_2,a_n\rangle +-\dots-b_{n-1}\langle b_{n-1},a_n\rangle. +\end{align*} +Die Basisvektoren $b_i$ sind orthogonal, aber $\|b_i\|_2$ kann auch +von $1$ abweichen. +Damit ist es zwar nicht mehr so einfach +wie in \eqref{buch:grundlagen:eqn:koordinaten-in-orthonormalbasis}, +einen Vektor in der Basis zu zerlegen. +Ein Vektor $v$ hat nämlich in der Basis $\{b_1,\dots,b_n\}$ die Zerlegung +\begin{equation} +v += +\sum_{i=1}^n +\frac{\langle b_i,v\rangle}{\|b_i\|_2^2} b_i, +\label{buch:grundlagen:eqn:orthogonal-basiszerlegung} +\end{equation} +Die Koordinaten bezüglich dieser Basis sind also +$\langle b_i,v\rangle/\|b_i\|_2^2$. + +Die Gram-Matrix einer Orthogonalen Basis ist immer noch diagonal, +auf der Diagonalen stehen die Normen der Basisvektoren. +Die Nenner in der Zerlegung +\eqref{buch:grundlagen:eqn:orthogonal-basiszerlegung} +sind die Einträge der inverse Matrix der Gram-Matrix. + +\subsubsection{Orthonormalbasen in komplexen Vektorräumen} +Die Gram-Matrix einer Basis $\{b_1,\dots,b_n\}$ in einem komplexen +Vektorraum hat die Eigenschaft +\[ +g_{ij} += +\langle b_i,b_j\rangle += +\overline{\langle b_j,b_i\rangle}, += +\overline{g}_{ji} +\quad 1\le i,j\le n. +\] +Sie ist nicht mehr symmetrisch, aber selbstadjungiert, gemäss +der folgenden Definition. + +\begin{definition} +\label{buch:grundlagen:definition:selstadjungiert} +Sei $A$ eine komplexe Matrix mit Einträgen $a_{ij}$, dann ist +$\overline{A}$ die Matrix mit komplex konjugierten Elementen +$\overline{a}_{ij}$. +Die {\em adjungierte} Matrix ist $A^*=\overline{A}^t$. +Eine Matrix heisst selbstadjungiert, wenn $A^*=A$. +\end{definition} + +\subsection{Symmetrische und selbstadjungierte Abbilungen +\label{buch:subsection:symmetrisch-und-selbstadjungiert}} +In Definition~\ref{buch:grundlagen:definition:selstadjungiert} +wurde der Begriff der selbstadjungierten Matrix basierend +eingeführt. +Als Eigenschaft einer Matrix ist diese Definition notwendigerweise +abhängig von der Wahl der Basis. +Es ist nicht unbedingt klar, dass derart definierte Eigenschaften +als von der Basis unabhängige Eigenschaften betrachtet werden können. +Ziel dieses Abschnitts ist, Eigenschaften wie Symmetrie oder +Selbstadjungiertheit auf basisunabhängige Eigenschaften von +linearen Abbildungen in einem Vektorraum $V$ mit Skalarprodukt +$\langle\;,\;\rangle$ zu verstehen. + +\subsubsection{Symmetrische Abbildungen} +Sei $f\colon V\to V$ eine lineare Abbildung. +In einer Basis $\{b_1,\dots,b_n\}\subset V$ wird $f$ durch eine +Matrix $A$ beschrieben. +Ist die Basis orthonormiert, dann kann man die Matrixelemente +mit $a_{ij}=\langle b_i,Ab_j\rangle$ berechnen. +Die Matrix ist symmetrisch, wenn +\[ +\langle b_i,Ab_j\rangle += +a_{ij} += +a_{ji} += +\langle b_j,Ab_i \rangle += +\langle Ab_i,b_j \rangle +\] +ist. +Daraus leitet sich jetzt die basisunabhängige Definition einer +symmetrischen Abbildung ab. + +\begin{definition} +Eine lineare Abbildung $f\colon V\to V$ heisst {\em symmetrisch}, wenn +$\langle x,Ay\rangle=\langle Ax,y\rangle$ gilt für beliebige +Vektoren $x,y\in V$. +\end{definition} + +Für $V=\mathbb{R}^n$ und das Skalarprodukt $\langle x,y\rangle=x^ty$ +erfüllt eine symmetrische Abbildung mit der Matrix $A$ die Gleichung +\[ +\left. +\begin{aligned} +\langle x,Ay\rangle +&= +x^tAy +\\ +\langle Ax,y\rangle +&= +(Ax)^ty=x^tA^ty +\end{aligned} +\right\} +\quad\Rightarrow\quad +x^tA^ty = x^tAy\quad\forall x,y\in\mathbb{R}^n, +\] +was gleichbedeutend ist mit $A^t=A$. +Der Begriff der symmetrischen Abbildung ist also eine natürliche +Verallgemeinerung des Begriffs der symmetrischen Matrix. + +\subsubsection{Selbstadjungierte Abbildungen} +In einem komplexen Vektorraum ist das Skalarprodukt nicht mehr bilinear +und symmetrisch, sondern sesquilinear und konjugiert symmetrisch. + +\begin{definition} +Eine lineare Abbildung $f\colon V\to V$ heisst {\em selbstadjungiert}, +wenn $\langle x,fy\rangle=\langle fx,y\rangle$ für alle $x,y\in\mathbb{C}$. +\end{definition} + +Im komplexen Vektorraum $\mathbb{C}^n$ ist das Standardskalarprodukt +definiert durch $\langle x,y\rangle = \overline{x}^ty$. + +\subsubsection{Die Adjungierte} +Die Werte der Skalarprodukte $\langle x, y\rangle$ für alle $x\in V$ +legen den Vektor $y$ fest. +Gäbe es nämlich einen zweiten Vektor $y'$ mit den gleichen Skalarprodukten, +also $\langle x,y\rangle = \langle x,y'\rangle$ für alle $x\in V$, +dann gilt wegen der Linearität $\langle x,y-y'\rangle=0$. +Wählt man $x=y-y'$, dann folgt +$0=\langle y-y',y-y'\rangle=\|y-y'\|_2$, also muss $y=y'$ sein. + +\begin{definition} +Sei $f\colon V\to V$ eine lineare Abbildung. +Die lineare Abbildung $f^*\colon V\to V$ definiert durch +\[ +\langle f^*x,y\rangle = \langle x,fy\rangle,\qquad x,y\in V +\] +heisst die {\em Adjungierte} von $f$. +\end{definition} + +Eine selbstadjungierte Abbildung ist also eine lineare Abbildung, +die mit ihrer Adjungierte übereinstimmt, als $f^* = f$. +In einer orthonormierten Basis $\{b_1,\dots,b_n\}$ hat die Abbildung +$f$ die Matrixelemente $a_{ij}=\langle b_i,fb_j\rangle$. +Die adjungierte Abbildung hat dann die Matrixelemente +\[ +\langle b_i,f^*b_j \rangle += +\overline{\langle f^*b_j,b_i\rangle} += +\overline{\langle b_j,fb_i\rangle} += +\overline{a_{ji}}, +\] +was mit der Definition von $A^*$ übereinstimmt. \subsection{Orthogonale und unitäre Matrizen \label{buch:subsection:orthogonale-und-unitaere-matrizen}} +Von besonderer geometrischer Bedeutung sind lineare Abbildung, +die die Norm nicht verändern. +Aus der Polarformel~\eqref{buch:grundlagen:eqn:polarformel} +folgt dann, dass auch das Skalarprodukt erhalten ist, aus dem +Winkel berechnet werden können. +Abbildungen, die die Norm erhalten, sind daher auch winkeltreu. + +\begin{definition} +Eine lineare Abbildung $f\colon V\to V$ in einem reellen +Vektorraum mit heisst {\em orthogonal}, wenn +$\langle fx,fy\rangle = \langle x,y\rangle$ für alle +$x,y\in V$ gilt. +\end{definition} + +Die adjungierte einer orthogonalen Abbildung erfüllt +$\langle x,y\rangle = \langle fx,fy\rangle = \langle f^*f x, y\rangle$ +für alle $x,y\in V$, also muss $f^*f$ die identische Abbildung sein, +deren Matrix die Einheitsmatrix ist. +Die Matrix $O$ einer orthogonalen Abbildung erfüllt daher $O^tO=I$. + +Für einen komplexen Vektorraum erwarten wir grundsätzlich dasselbe. +Lineare Abbildungen, die die Norm erhalten, erhalten das komplexe +Skalarprodukt. +Auch in diesem Fall ist $f^*f$ die identische Abbildung, die zugehörigen +Matrixen $U$ erfüllen daher $U^*U=I$. + +\begin{definition} +Eine lineare Abbildung $f\colon V\to V$ eines komplexen Vektorraumes +$V$ mit Skalarprodukt heisst unitär, +wenn $\langle x,y\rangle = \langle fx,fy\rangle$ für alle Vektoren $x,y\in V$. +Eine Matrix heisst unitär, wenn $U^*U=I$. +\end{definition} + +Die Matrix einer unitären Abbildung in einer orthonormierten Basis ist unitär. + % XXX Skalarprodukt und Lineare Abbildungen % XXX Symmetrische Matrizen % XXX Selbstadjungierte Matrizen @@ -35,7 +594,220 @@ der genau der geometrischen Intuition entspricht. \subsection{Andere Normen auf Vektorräumen \label{buch:subsection:andere-normen}} -% XXX l1 Norm -% XXX linfty Norm -% XXX Normen auf Funktionenräumen -% XXX Operatornorm +Das Skalarprodukt ist nicht die einzige Möglichkeit, eine Norm auf einem +Vektorraum zu definieren. +In diesem Abschnitt stellen wir einige weitere mögliche Normdefinitionen +zusammen. + +\subsubsection{$l^1$-Norm} +\begin{definition} +Die $l^1$-Norm in $V=\mathbb{R}^n$ oder $V=\mathbb{C}^n$ ist definiert durch +\[ +\| v\|_1 += +\sum_{i=1}^n |v_i| +\] +für $v\in V$. +\end{definition} + +Auch die $l^1$-Norm erfüllt die Dreiecksungleichung +\[ +\|x+y\|_1 += +\sum_{i=1}^n |x_i+y_i| +\le +\sum_{i=1} |x_i| + \sum_{i=1} |y_i| += +\|x\|_1 + \|y\|_1. +\] + +Die $l^1$-Norm kommt nicht von einem Skalarprodukt her. +Wenn es ein Skalarprodukt gäbe, welches auf diese Norm führt, dann +müsste +\[ +\langle x,y\rangle += +\frac12(\|x+y\|_1^2-\|x\|_1^2-\|y\|_1^2) +\] +sein. +Für die beiden Standardbasisvektoren $x=e_1$ und $y=e_2$ +bedeutet dies +\[ +\left . +\begin{aligned} +\|e_1\|_1 &= 2\\ +\|e_2\|_1 &= 2\\ +\|e_1\pm +e_2\|_1 &= 2\\ +\end{aligned} +\right\} +\quad\Rightarrow\quad +\langle e_1,\pm e_2\rangle += +\frac12( 2^2 - 1^2 - 1^2) +=1 +\] +Die Linearität des Skalarproduktes verlangt aber, dass +$1=\langle e_1,-e_2\rangle = -\langle e_1,e_2\rangle = -1$, +ein Widerspruch. + +\subsubsection{$l^\infty$-Norm} + + +\begin{definition} +Die $l^\infty$-Norm in $V=\mathbb{R}^n$ und $V=\mathbb{C}^n$ ist definiert +\[ +\|v\|_\infty += +\max_{i} |v_i|. +\] +Sie heisst auch die {\em Supremumnorm}. +\index{Supremumnorm}% +\end{definition} + +Auch diese Norm erfüllt die Dreiecksungleichung +\[ +\|x+y\|_\infty += +\max_i |x_i+y_i| +\le +\max_i (|x_i| + |y_i|) +\le +\max_i |x_i| + \max_i |y_i| += +\|x\|_\infty + \|y\|_\infty. +\] +Auch diese Norm kann nicht von einem Skalarprodukt herkommen, ein +Gegenbeispiel können wir wieder mit den ersten beiden Standardbasisvektoren +konstruieren. +Es ist +\[ +\left. +\begin{aligned} +\|e_1\|_\infty &= 1\\ +\|e_2\|_\infty &= 1\\ +\|e_1\pm e_2\|_\infty &= 1 +\end{aligned} +\right\} +\qquad\Rightarrow\qquad +\langle e_1,\pm e_2\rangle += +\frac12(\|e_1\pm e_2\|_\infty^2 - \|e_1\|_\infty^2 - \|e_2\|_\infty^2) += +\frac12(1-1-1) = -\frac12. +\] +Es folgt wieder +\( +-\frac12 += +\langle e_1,-e_2\rangle += +-\langle e_1,e_2\rangle += +\frac12, +\) +ein Widerspruch. + +\subsubsection{Operatornorm} +Der Vektorraum der linearen Abbildungen $f\colon U\to V$ kann mit einer +Norm ausgestattet werden, wenn $U$ und $V$ jeweils eine Norm haben. + +\begin{definition} +Seien $U$ und $V$ Vektorräume über $\mathbb{R}$ oder $\mathbb{C}$ und +$f\colon U\to V$ eine lineare Abbildung. +Die {\em Operatorname} der linearen Abbildung ist +\[ +\|f\| += +\sup_{x\in U\wedge \|x\|\le 1} \|fx\|. +\] +\end{definition} + +Nach Definition gilt $\|fx\| \le \|f\|\cdot \|x\|$ für alle $x\in U$. +Die in den Vektorräumen $U$ und $V$ verwendeten Normen haben einen +grossen Einfluss auf die Operatornorm, wie die beiden folgenden +Beispiele zeigen. + +\begin{beispiel} +Sei $V$ ein komplexer Vektorraum mit einem Skalarprodukt und $y\in V$ ein +Vektor. +$y$ definiert die lineare Abbildung +\[ +l_y +\colon +V\to \mathbb{C}: x\mapsto \langle y,x\rangle. +\] +Zur Berechnung der Operatorname von $l_y$ +\[ +|l_y(x)|^2 += +|\langle y,x\rangle|^2 +\le +\|y\|_2^2\cdot \|x\|_2^2 +\] +mit Gleichheit genau dann, wenn $x$ und $y$ linear abhängig sind. +Dies bedeutet, dass +$\|l_y\|=\|y\|$, die Operatorname von $l_y$ stimmt mit der Norm von $y$ +überein. +\end{beispiel} + +\begin{beispiel} +Sei $V=\mathbb{C}^n$. +Dann definiert $y\in V$ eine Linearform +\[ +l_y +\colon +V\to \mathbb C +: +x\mapsto y^tx. +\] +Wir suchen die Operatornorm von $l_y$, wenn $V$ mit der $l^1$-Norm +ausgestattet wird. +Sei $k$ der Index der betragsmässig grössten Komponente von $y_k$, +also $\| y\|_\infty = |y_k|$. +Dann gilt +\[ +|l_y(x)| += +\biggl|\sum_{i=1}^n y_ix_i\biggr| +\le +\sum_{i=1}^n |y_i|\cdot |x_i| +\le +|y_k| \sum_{i=1}^n |x_i| += +\|y\|_\infty\cdot \|x\|_1. +\] +Gleichheit wird erreicht, wenn die Komponente $k$ die einzige +von $0$ verschiedene Komponente des Vektors $x$ ist. +Somit ist $\|l_y\| = \|y\|_\infty$. +\end{beispiel} + + +\subsubsection{Normen auf Funktionenräumen} +Alle auf $\mathbb{R}^n$ und $\mathbb{C}^n$ definierten Normen lassen +sich auf den Raum der stetigen Funktionen $[a,b]\to\mathbb{R}$ oder +$[a,b]\to\mathbb{C}$ verallgemeinern. + +Die Supremumnorm auf dem Vektorraum der stetigen Funktionen ist +\[ +\|f\|_\infty = \sup_{x\in[a,b]} |f(x)| +\] +für $f\in C([a,b],\mathbb{R})$ oder $f\in C([a,b],\mathbb{C})$. + +Für die anderen beiden Normen wird zusätzlich das bestimmte Integral +von Funktionen auf $[a,b]$ benötigt. +Die $L^2$-Norm wird erzeugt von dem Skalarprodukt +\[ +\langle f,g\rangle += +\frac{1}{b-a} +\int_a^b \overline{f}(x)g(x)\,dx +\qquad\Rightarrow\qquad +\|f\|_2^2 = \frac{1}{b-a}\int_a^b |f(x)|^2\,dx. +\] +Die $L^2$-Norm ist dagegen +\[ +\|f\|_1 += +\int_a^b |f(x)|\,dx. +\] + diff --git a/buch/chapters/20-polynome/definitionen.tex b/buch/chapters/20-polynome/definitionen.tex index 4794dea..b80769f 100644 --- a/buch/chapters/20-polynome/definitionen.tex +++ b/buch/chapters/20-polynome/definitionen.tex @@ -378,7 +378,94 @@ R^{(k+l)}[X]. % \subsection{Teilbarkeit \label{buch:subsection:polynome:teilbarkeit}} -XXX TODO +XXX Beispiel für Polynomdivision? + +\subsubsection{Euklidische Ringe und Faktorzerlegung} +Der Polynomring $R[X]$ hat noch eine weitere Eigenschaft, die ihn +von einem gewöhnlichen Ring unterschiedet. +Der Polynomdivisionsalgorithmus findet zu zwei Polynomen $f,g\in R[X]$ +den Quotienten $q\in R[X]$ und den Rest $r\in R[X]$ mit +$f=qg+r$, wobei ausserdem $\deg r<\deg g$ ist. + +\begin{definition} +Ein {\em euklidischer Ring} $R$ ist ein nullteilerfreier Ring mit einer +Gradfunktion $\deg\colon R\setminus\{0\}\to\mathbb{N}$ mit folgenden +Eigenschaften +\begin{enumerate} +\item Für $x,y\in R$ gilt $\deg(xy) \ge \deg(x)$. +\item Für alle $x,y\in R$ gibt es $q,r\in R$ mit $x=qy+r$ mit +$\deg(y)>\deg(x)$ +\label{buch:20-polynome:def:euklidischerring-2} +\end{enumerate} +Bedingung~\ref{buch:20-polynome:def:euklidischerring-2} ist die +{\em Division mit Rest}. +\index{Gradfunktion}% +\index{Division mit Rest}% +\index{euklidischer Ring}% +\end{definition} + +Die ganzen Zahlen $\mathbb{Z}$ bilden einen euklidischen Ring mit der +Gradfunktion $\deg(z)=|z|$ für $z\in \mathbb{Z}$. +Aus dem Divisionsalgorithmus für ganze Zahlen leiten sich alle grundlegenden +Eigenschaften über Teilbarkeit und Primzahlen ab. +Eine Zahl $x$ ist teilbar durch $y$, wenn $x=qy$ mit $q\in \mathbb{Z}$, +es gibt Zahlen $p\in\mathbb{Z}$, die keine Teiler haben und jede Zahl +kann auf eindeutige Art und Weise in ein Produkt von Primfaktoren +zerlegt werden. + +\subsubsection{Irreduzible Polynome} +Das Konzept der Primzahl lässt sich wie folgt in den Polynomring übertragen. + +\begin{definition} +Ein Polynom $f\in R[X]$ heisst irreduzibel, es keine Faktorisierung $f=gh$ +in Faktoren $g,h\in R[X]$ mit $\deg(g)>0$ und $\deg(h) >0$. +\end{definition} + +\begin{beispiel} +Polynome ersten Grades $aX+b$ sind immer irreduzibel, da sie bereits +minimalen Grad haben. + +Sei jetzt $f=X^2+bX+c$ ein quadratisches Polynom in $\mathbb{Q}[X]$. +Wenn es faktorisierbar sein soll, dann müssen die Faktoren Polynome +ersten Grades sein, also $f=(X-x_1)(X-x_2)$ mit $x_i\in\mathbb{Q}$. +Die Zahlen $x_i$ die einzigen möglichen Lösungen für $x_i$ können mit +der Lösungsformel für die quadratische Gleichung +\[ +x_i = -\frac{b}2\pm\sqrt{\frac{b^2}{4}-c} +\] +gefunden werden. +Die Faktorisierung ist also genau dann möglich, wenn $b^2/4-c$ ein +Quadrat in $\mathbb{Q}$. +In $\mathbb{R}$ ist das Polynom faktorisierbar, wenn $b^2-4c\ge 0$ ist. +In $\mathbb{C}$ gibt es keine Einschränkung, die Wurzel zu ziehen, +in $\mathbb{C}$ gibt es also keine irreduziblen Polynome im Grad $2$. +\end{beispiel} + +\subsubsection{Faktorisierung in einem Polynomring} +Ein Polynomring ist ganz offensichtlich auch ein euklidischer Ring. +Wir erwarten daher die entsprechenden Eigenschaften auch in einem +Polynomring. +Allerdings ist eine Faktorzerlegung nicht ganz eindeutig. +Wenn das Polynom $f\in\mathbb{Z}[X]$ die Faktorisierung +$f=g\cdot h$ mit $g,h\mathbb{Z}[X]$ hat, dann +ist $rg\cdot r^{-1}h$ ebenfalls eine Faktorisierung für jedes $r =\pm1$. +Dasselbe gilt in $\mathbb{Q}$ für jedes $r\in \mathbb{Q}^*$. +Faktorisierung ist also nur eindeutig bis auf Elemente der +Einheitengruppe des Koeffizientenringes. +Diese Mehrdeutigkeit kann in den Polynomringen $\Bbbk[X]$ +überwunden werden, indem die Polynome normiert werden. + +\begin{satz} +Ein normiertes Polynom $f\in \Bbbk[X]$ kann in +normierte Faktoren $g_1,\dots,g_k\in\Bbbk[X]$ zerlegt werden, so dass +$f=g_1\cdot\ldots\cdot g_k$, wobei die Faktoren irreduzibel sind. +Zwei solche Faktorisierungen unterscheiden sich nur durch die Reihenfolge +der Faktoren. +Ein Polynom $f\in \Bbbk[X]$ kann in ein Produkt $a_n g_1\cdot\ldots\cdot g_k$ +zerlegt werden, wobei die normierten Faktoren $g_i$ bis auf die Reihenfolge +eindeutig sind. +\end{satz} + % % Abschnitt über formale Potenzreihen |