aboutsummaryrefslogtreecommitdiffstats
path: root/buch/chapters/10-vektorenmatrizen
diff options
context:
space:
mode:
authorRoy Seitz <roy.seitz@ost.ch>2021-02-22 08:48:36 +0100
committerRoy Seitz <roy.seitz@ost.ch>2021-02-22 08:48:36 +0100
commita82da67587b049e54dcd53e76b4220d22a60d842 (patch)
tree8b0717987839cf0e6cac6c4297f95f94f695f247 /buch/chapters/10-vektorenmatrizen
parentTypos. (diff)
parentadd ende (diff)
downloadSeminarMatrizen-a82da67587b049e54dcd53e76b4220d22a60d842.tar.gz
SeminarMatrizen-a82da67587b049e54dcd53e76b4220d22a60d842.zip
Merge remote-tracking branch 'origin/master'
Diffstat (limited to 'buch/chapters/10-vektorenmatrizen')
-rw-r--r--buch/chapters/10-vektorenmatrizen/images/Makefile5
-rw-r--r--buch/chapters/10-vektorenmatrizen/images/rref.pdfbin0 -> 15112 bytes
-rw-r--r--buch/chapters/10-vektorenmatrizen/images/rref.tex253
-rw-r--r--buch/chapters/10-vektorenmatrizen/images/strukturen.pdfbin45336 -> 45339 bytes
-rw-r--r--buch/chapters/10-vektorenmatrizen/images/strukturen.tex8
-rw-r--r--buch/chapters/10-vektorenmatrizen/linear.tex297
-rw-r--r--buch/chapters/10-vektorenmatrizen/skalarprodukt.tex784
7 files changed, 1316 insertions, 31 deletions
diff --git a/buch/chapters/10-vektorenmatrizen/images/Makefile b/buch/chapters/10-vektorenmatrizen/images/Makefile
index 664dff5..2c94e8a 100644
--- a/buch/chapters/10-vektorenmatrizen/images/Makefile
+++ b/buch/chapters/10-vektorenmatrizen/images/Makefile
@@ -3,7 +3,7 @@
#
# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
#
-all: ideale.pdf gausszahlen.pdf strukturen.pdf
+all: ideale.pdf gausszahlen.pdf strukturen.pdf rref.pdf
ideale.pdf: ideale.tex
pdflatex ideale.tex
@@ -13,3 +13,6 @@ gausszahlen.pdf: gausszahlen.tex
strukturen.pdf: strukturen.tex
pdflatex strukturen.tex
+
+rref.pdf: rref.tex
+ pdflatex rref.tex
diff --git a/buch/chapters/10-vektorenmatrizen/images/rref.pdf b/buch/chapters/10-vektorenmatrizen/images/rref.pdf
new file mode 100644
index 0000000..56fbfee
--- /dev/null
+++ b/buch/chapters/10-vektorenmatrizen/images/rref.pdf
Binary files differ
diff --git a/buch/chapters/10-vektorenmatrizen/images/rref.tex b/buch/chapters/10-vektorenmatrizen/images/rref.tex
new file mode 100644
index 0000000..9b2bf50
--- /dev/null
+++ b/buch/chapters/10-vektorenmatrizen/images/rref.tex
@@ -0,0 +1,253 @@
+%
+% rref.tex -- Visualisierung des Gauss-Algorithmus
+%
+% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule
+%
+\documentclass[tikz]{standalone}
+\usepackage{amsmath}
+\usepackage{times}
+\usepackage{txfonts}
+\usepackage{pgfplots}
+\usepackage{csvsimple}
+\usetikzlibrary{arrows,intersections,math,calc}
+\begin{document}
+\def\skala{0.21}
+\def\r{0.4}
+\definecolor{darkgreen}{rgb}{0,0.6,0}
+\begin{tikzpicture}[>=latex,thick,scale=\skala]
+
+\def\pivot#1#2{
+ \fill[color=red!20] ({#1-0.5},{-#2+0.5}) circle[radius=\r];
+ \draw[color=red] ({#1-0.5},{-#2+0.5}) circle[radius=\r];
+}
+
+\def\spalteoben#1#2#3{
+ \fill[color=blue!20] ({(#1)-0.5+\r},{-(#3)})
+ -- ({(#1)-0.5+\r},{-(#2)+0.5}) arc (0:180:\r)
+ -- ({(#1)-0.5-\r},{-(#3)}) -- cycle;
+ \draw[color=blue] ({(#1)-0.5+\r},{-(#3)})
+ -- ({(#1)-0.5+\r},{-(#2)+0.5}) arc (0:180:\r)
+ -- ({(#1)-0.5-\r},{-(#3)});
+}
+
+\def\spalteunten#1#2#3{
+ \fill[color=blue!20] ({(#1)-0.5-\r},{-(#2)+1})
+ -- ({(#1)-0.5-\r},{-(#3)+0.5}) arc (-180:0:\r)
+ -- ({(#1)-0.5+\r},{-(#2)+1});
+ \draw[color=blue] ({(#1)-0.5-\r},{-(#2)+1})
+ -- ({(#1)-0.5-\r},{-(#3)+0.5}) arc (-180:0:\r)
+ -- ({(#1)-0.5+\r},{-(#2)+1});
+}
+
+\def\fuellung{
+ \fill[color=gray!50] (0,0) rectangle (8,-6);
+}
+\def\rahmen{
+ \draw (0,0) rectangle (8,-6);
+ \draw (7,0) -- (7,-6);
+}
+
+\def\eins#1#2{
+ \fill[color=gray] ({#1-1},{-#2}) rectangle ({#1},{-#2+1});
+}
+
+\def\null#1#2#3{
+ \fill[color=white] ({#1-1-0.01},{-#3-0.01})
+ rectangle ({#1+0.01},{-#2+1+0.01});
+}
+
+\fill[color=darkgreen!20] (-1.0,-10.81) rectangle (67.0,5);
+\fill[color=orange!20] (-1.0,-27) rectangle (67.0,-11.94);
+
+\node at (33,2) [above] {Vorwärtsreduktion};
+\node at (33,-24) [below] {Rückwärtseinsetzen};
+
+\draw[->] (9,-3.375)--(11,-3.375);
+\draw[->] (21,-3.375)--(23,-3.375);
+\draw[->] (33,-3.375)--(35,-3.375);
+\draw[->] (45,-3.375)--(47,-3.375);
+
+\draw[->] (57,-3.375) .. controls (62,-3.375) .. (62,-7.5);
+\draw[->] (62,-15.375) .. controls (62,-19.375) .. (57,-19.375);
+
+\draw[<-] (9,-19.375)--(11,-19.375);
+\draw[<-] (21,-19.375)--(23,-19.375);
+\draw[<-] (33,-19.375)--(35,-19.375);
+\draw[<-] (45,-19.375)--(47,-19.375);
+
+\begin{scope}[xshift=-0.5cm,scale=1.125]
+\fuellung
+\pivot{1}{1}
+\spalteoben{1}{2}{6}
+\rahmen
+\end{scope}
+
+\begin{scope}[xshift=11.5cm,scale=1.125]
+\fuellung
+\eins{1}{1}
+\null{1}{2}{6}
+\pivot{2}{2}
+\spalteoben{2}{3}{6}
+\rahmen
+\end{scope}
+
+\begin{scope}[xshift=23.54cm,scale=1.125]
+\fuellung
+\eins{1}{1}
+\null{1}{2}{6}
+\eins{2}{2}
+\null{2}{3}{6}
+\pivot{3}{3}
+\spalteoben{3}{4}{6}
+\rahmen
+\end{scope}
+
+\begin{scope}[xshift=35.5cm,scale=1.125]
+\fuellung
+\eins{1}{1}
+\null{1}{2}{6}
+\eins{2}{2}
+\null{2}{3}{6}
+\eins{3}{3}
+\null{3}{4}{6}
+\null{4}{4}{6}
+\pivot{5}{4}
+\spalteoben{5}{5}{6}
+\rahmen
+\end{scope}
+
+\begin{scope}[xshift=47.5cm,scale=1.125]
+\fuellung
+\eins{1}{1}
+\null{1}{2}{6}
+\eins{2}{2}
+\null{2}{3}{6}
+\eins{3}{3}
+\null{3}{4}{6}
+\eins{5}{4}
+\null{5}{5}{6}
+\null{6}{5}{6}
+\pivot{7}{5}
+\spalteoben{7}{6}{6}
+\rahmen
+\end{scope}
+
+\begin{scope}[xshift=57.5cm,yshift=-8cm,scale=1.125]
+\fuellung
+\eins{1}{1}
+\null{1}{2}{6}
+\eins{2}{2}
+\null{2}{3}{6}
+\eins{3}{3}
+\null{3}{4}{6}
+\null{4}{4}{6}
+\eins{5}{4}
+\null{5}{5}{6}
+\null{6}{5}{6}
+\eins{7}{5}
+\null{7}{6}{6}
+\rahmen
+\end{scope}
+
+\begin{scope}[xshift=47.5cm,yshift=-16cm,scale=1.125]
+\fuellung
+\eins{1}{1}
+\null{1}{2}{6}
+\eins{2}{2}
+\null{2}{3}{6}
+\eins{3}{3}
+\null{3}{4}{6}
+\null{4}{4}{6}
+\eins{5}{4}
+\null{5}{5}{6}
+\null{6}{5}{6}
+\eins{7}{5}
+\null{7}{6}{6}
+\spalteunten{7}{1}{4}
+\rahmen
+\end{scope}
+
+\begin{scope}[xshift=35.5cm,yshift=-16cm,scale=1.125]
+\fuellung
+\eins{1}{1}
+\null{1}{2}{6}
+\eins{2}{2}
+\null{2}{3}{6}
+\eins{3}{3}
+\null{3}{4}{6}
+\null{4}{4}{6}
+\eins{5}{4}
+\null{5}{5}{6}
+\null{6}{5}{6}
+\eins{7}{5}
+\null{7}{6}{6}
+\null{7}{1}{4}
+\spalteunten{5}{1}{3}
+\rahmen
+\end{scope}
+
+\begin{scope}[xshift=23.5cm,yshift=-16cm,scale=1.125]
+\fuellung
+\eins{1}{1}
+\null{1}{2}{6}
+\eins{2}{2}
+\null{2}{3}{6}
+\eins{3}{3}
+\null{3}{4}{6}
+\null{4}{4}{6}
+\eins{5}{4}
+\null{5}{5}{6}
+\null{6}{5}{6}
+\eins{7}{5}
+\null{7}{6}{6}
+\null{7}{1}{4}
+\null{5}{1}{3}
+\spalteunten{3}{1}{2}
+\rahmen
+\end{scope}
+
+\begin{scope}[xshift=11.5cm,yshift=-16cm,scale=1.125]
+\fuellung
+\eins{1}{1}
+\null{1}{2}{6}
+\eins{2}{2}
+\null{2}{3}{6}
+\eins{3}{3}
+\null{3}{4}{6}
+\null{4}{4}{6}
+\eins{5}{4}
+\null{5}{5}{6}
+\null{6}{5}{6}
+\eins{7}{5}
+\null{7}{6}{6}
+\null{7}{1}{4}
+\null{5}{1}{3}
+\null{3}{1}{2}
+\spalteunten{2}{1}{1}
+\rahmen
+\end{scope}
+
+\begin{scope}[xshift=-0.5cm,yshift=-16cm,scale=1.125]
+\fuellung
+\eins{1}{1}
+\null{1}{2}{6}
+\eins{2}{2}
+\null{2}{3}{6}
+\eins{3}{3}
+\null{3}{4}{6}
+\null{4}{4}{6}
+\eins{5}{4}
+\null{5}{5}{6}
+\null{6}{5}{6}
+\eins{7}{5}
+\null{7}{6}{6}
+\null{7}{1}{4}
+\null{5}{1}{3}
+\null{3}{1}{2}
+\null{2}{1}{1}
+\rahmen
+\end{scope}
+
+\end{tikzpicture}
+\end{document}
+
diff --git a/buch/chapters/10-vektorenmatrizen/images/strukturen.pdf b/buch/chapters/10-vektorenmatrizen/images/strukturen.pdf
index c2d545e..14f7e59 100644
--- a/buch/chapters/10-vektorenmatrizen/images/strukturen.pdf
+++ b/buch/chapters/10-vektorenmatrizen/images/strukturen.pdf
Binary files differ
diff --git a/buch/chapters/10-vektorenmatrizen/images/strukturen.tex b/buch/chapters/10-vektorenmatrizen/images/strukturen.tex
index 0006699..02ca71d 100644
--- a/buch/chapters/10-vektorenmatrizen/images/strukturen.tex
+++ b/buch/chapters/10-vektorenmatrizen/images/strukturen.tex
@@ -52,7 +52,7 @@
\end{scope}
\fill[rounded corners=0.5cm,color=white] (-2,-10.5) rectangle (6,-0.5);
-\fill[rounded corners=0.5cm,color=blue!20] (-6,-10.0) rectangle (2,0);
+\fill[rounded corners=0.5cm,color=blue!20] (-6,-10.1) rectangle (2,0);
%\draw[rounded corners=0.5cm] (-6,-10.0) rectangle (2,0);
% Vektorraum
@@ -94,7 +94,7 @@
\draw[rounded corners=0.3cm] (-1.8,-10.3) rectangle (5.8,-4.5);
% boundary of blue area
-\draw[rounded corners=0.5cm] (-6,-10.0) rectangle (2,0);
+\draw[rounded corners=0.5cm] (-6,-10.1) rectangle (2,0);
\begin{scope}[yshift=-5cm]
\node at (5.6,0) [left] {{\bf Ring mit Eins}:};
@@ -108,8 +108,8 @@
\end{scope}
\fill[rounded corners=0.1cm,color=darkgreen!20]
- (-1.6,-9.8) rectangle (1.6,-6.9);
-\draw[rounded corners=0.1cm] (-1.6,-9.8) rectangle (1.6,-6.9);
+ (-1.6,-9.9) rectangle (1.6,-6.9);
+\draw[rounded corners=0.1cm] (-1.6,-9.9) rectangle (1.6,-6.9);
\begin{scope}[yshift=-7cm]
\node at (0,-0.3) {{\bf Körper}:\strut};
diff --git a/buch/chapters/10-vektorenmatrizen/linear.tex b/buch/chapters/10-vektorenmatrizen/linear.tex
index e868463..cdd1693 100644
--- a/buch/chapters/10-vektorenmatrizen/linear.tex
+++ b/buch/chapters/10-vektorenmatrizen/linear.tex
@@ -450,10 +450,10 @@ besagt also, dass das Element $c_{ij}$ entsteht als das Produkt
der Zeile $i$ von $A$ mit der Spalte $j$ von $C$.
\subsubsection{Einheitsmatrix}
-Welche $m\times m$-Matrix $E\in M_{m}(\Bbbk)$ hat die Eigenschaft, dass
-$EA=A$ für jede beliebige Matrix $A\in M_{m\times n}(\Bbbk)$.
-Wir bezeichnen die Koeffizienten von $E$ mit $\delta_{ij}$.
-Die Bedingung $EA=A$ bedeutet
+Welche $m\times m$-Matrix $I\in M_{m}(\Bbbk)$ hat die Eigenschaft, dass
+$IA=A$ für jede beliebige Matrix $A\in M_{m\times n}(\Bbbk)$.
+Wir bezeichnen die Einträge von $I$ mit $\delta_{ij}$.
+Die Bedingung $IA=A$ bedeutet
\[
a_{ij} = \delta_{i1}a_{1j} + \dots + \delta_{im}a_{mj},
\]
@@ -473,15 +473,15 @@ Die Zahlen $\delta_{ij}$ heissen auch das {\em Kronecker-Symbol} oder
{\em Kronecker-Delta}.
\index{Kronecker-$\delta$}%
\index{Kronecker-Symbol}%
-Die Matrix $E$ hat die Einträge $\delta_{ij}$ und heisst die
+Die Matrix $I$ hat die Einträge $\delta_{ij}$ und heisst die
{\em Einheitsmatrix}
\index{Einheitsmatrix}%
\[
-E
+I
=
\begin{pmatrix}
1 &0 &\dots &0 \\
-0 &1 &\dots &0 \\
+0 &1 &\dots &0 \\[-2pt]
\vdots&\vdots&\ddots&\vdots\\
0 &0 &\dots &1
\end{pmatrix}.
@@ -504,13 +504,14 @@ Mit Hilfe der Vektorform eines linearen Gleichungssystems wurde
gezeigt, dass die Lösung genau dann eindeutig ist, wenn die Spaltenvektoren
der Koeffizientenmatrix linear unabhängig sind.
Dies bedeutet, dass das Gleichungssystem
-\[
+\begin{equation}
\begin{linsys}{3}
a_{11}x_1 &+& \dots &+& a_{1n}x_n &=& 0 \\
\vdots & & \ddots& & \vdots & & \vdots \\
a_{m1}x_1 &+& \dots &+& a_{mn}x_n &=& 0
\end{linsys}
-\]
+\label{buch:grundlagen:eqn:homogenessystem}
+\end{equation}
eine nichttriviale Lösung haben muss.
Das Gleichungssystem $Ax=b$ ist also genau dann eindeutig lösbar, wenn
das homogene Gleichungssystem $Ax=0$ nur die Nulllösung hat.
@@ -531,7 +532,235 @@ eindeutig, wenn das zugehörige homogene Gleichungssystem eine nichttriviale
Lösung hat.
\subsubsection{Gauss-Algorithmus}
-
+Der Gauss-Algorithmus oder genauer Gausssche Eliminations-Algorithmus
+löst ein lineare Gleichungssystem der
+Form~\eqref{buch:vektoren-und-matrizen:eqn:vektorform}.
+Die Koeffizienten werden dazu in das Tableau
+\[
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|}
+\hline
+a_{11}&\dots &a_{1n}&b_1 \\[-2pt]
+\vdots&\ddots&\vdots&\vdots\\
+a_{m1}&\dots &a_{mn}&b_m \\
+\hline
+\end{tabular}
+\]
+geschrieben.
+Die vertikale Linie erinnert an die Position des Gleichheitszeichens.
+Es beinhaltet alle Informationen zur Durchführung des Algorithmus.
+Der Algorithmus is so gestaltet, dass er nicht mehr Speicher als
+das Tableau benötigt, alle Schritte operieren direkt auf den Daten
+des Tableaus.
+
+In jedem Schritt des Algorithmus wird zunächst eine Zeile $i$ und
+Spalte $j$ ausgewählt, das Elemente $a_{ij}$ heisst das Pivotelement.
+\index{Pivotelement}%
+Die {\em Pivotdivision}
+\[
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|}
+\hline
+a_{11}&\dots &a_{1j}&\dots &a_{1n}&b_1 \\[-2pt]
+\vdots& &\vdots&\ddots&\vdots&\vdots\\
+a_{i1}&\dots &{\color{red}a_{ij}}&\dots &a_{in}&b_i \\[-2pt]
+\vdots& &\vdots&\ddots&\vdots&\vdots\\
+a_{m1}&\dots &a_{mj}&\dots &a_{mn}&b_m \\
+\hline
+\end{tabular}
+\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|}
+\hline
+a_{11}&\dots &a_{1j}&\dots &a_{1n}&b_1 \\[-2pt]
+\vdots& &\vdots&\ddots&\vdots&\vdots\\
+{\color{red}\frac{a_{i1}}{a_{ij}}}&\dots &{\color{red}1}&\dots &{\color{red}\frac{a_{in}}{a_{ij}}}&{\color{red}\frac{b_i}{a_{ij}}}\\[-2pt]
+\vdots& &\vdots&\ddots&\vdots&\vdots\\
+a_{m1}&\dots &a_{mj}&\dots &a_{mn}&b_m \\
+\hline
+\end{tabular}
+\]
+stellt sicher, dass das Pivot-Element zu $1$ wird.
+\index{Pivotdivision}
+Dies ist gleichbedeutend mit der Auflösung der Gleichung $i$ noch der
+Variablen $x_j$.
+Mit der {\em Zeilensubtraktion} auf Zeile $k\ne i$ können die Einträge in der
+Spalte $j$ zu Null gemacht werden.
+Dazu wird das $a_{kj}$-fache der Zeile $i$ von Zeile $k$ subtrahiert:
+\[
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|}
+\hline
+\vdots& &\vdots&\ddots&\vdots&\vdots\\
+a_{i1}&\dots &{\color{red}1}&\dots &a_{in}&b_i \\[-2pt]
+\vdots& &\vdots&\ddots&\vdots&\vdots\\
+a_{k1}&\dots &a_{kj}&\dots &a_{kn}&b_m \\[-2pt]
+\vdots& &\vdots&\ddots&\vdots&\vdots\\
+\hline
+\end{tabular}
+\rightarrow
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|}
+\hline
+\vdots& &\vdots&\ddots&\vdots&\vdots\\
+a_{i1}&\dots &{\color{red}1}&\dots &a_{in}&b_i \\[-2pt]
+\vdots& &\vdots&\ddots&\vdots&\vdots\\
+{\color{blue}a_{k1}-a_{kj}a_{i1}}&\dots &{\color{blue}0}&\dots &{\color{blue}a_{kn}-a_{kj}a_{in}}&{\color{blue}b_m-a_{kj}b_{n}}\\[-2pt]
+\vdots& &\vdots&\ddots&\vdots&\vdots\\
+\hline
+\end{tabular}
+\]
+Typischerweise werden nach jeder Pivotdivision mehrer Zeilensubtraktionen
+durchgeführt um alle anderen Elemente der Pivotspalte ausser dem
+Pivotelement zu $0$ zu machen.
+Beide Operationen können in einem Durchgang durchgeführt werden.
+
+Die beiden Operationen Pivotdivision und Zeilensubtraktion werden jetzt
+kombiniert um im linken Teil des Tableaus möglichst viele Nullen und
+Einsen zu erzeugen.
+Im Idealfall wird ein Tableau der Form
+\[
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|}
+\hline
+ 1& 0&\dots & 0&u_1 \\
+ 0& 1&\dots & 0&u_2 \\[-2pt]
+\vdots&\vdots&\ddots&\vdots&\vdots\\
+ 0& 0&\dots & 1&u_m \\
+\hline
+\end{tabular}
+\]
+erreicht, was natürlich nur $m=n$ möglich ist.
+Interpretiert man die Zeilen dieses Tableaus wieder als Gleichungen,
+dann liefert die Zeile $i$ den Wert $x_i=u_i$ für die Variable $i$.
+Die Lösung kann also in der Spalte rechts abgelesen werden.
+
+\begin{figure}
+\centering
+\includegraphics[width=\textwidth]{chapters/10-vektorenmatrizen/images/rref.pdf}
+\caption{Zweckmässiger Ablauf der Berechnung des Gauss-Algorithmus.
+Falls in einer Spalte kein weiteres von $0$ verschiedenes Pivotelement
+zur Verfügung steht, wird die Zeile übersprungen.
+Weisse Felder enthalten $0$, dunkelgraue $1$.
+Die roten Kreise bezeichnen Pivot-Elemente, die blauen Felder
+die mit einer Zeilensubtraktion zu $0$ gemacht werden sollen.
+\label{buch:grundlagen:fig:gaussalgorithmus}}
+\end{figure}
+Die effizienteste Strategie für die Verwendung der beiden Operationen
+ist in Abbildung~\ref{buch:grundlagen:fig:gaussalgorithmus} dargestellt.
+In der Phase der {\em Vorwärtsreduktion} werden Pivotelemente von links
+nach rechts möglichst auf der Diagonale gewählt und mit Zeilensubtraktionen
+die darunterliegenden Spalten freigeräumt.
+\index{Vorwärtsreduktion}%
+Während des Rückwärtseinsetzens werden die gleichen Pivotelemente von
+rechts nach links genutzt, um mit Zeilensubtraktionen auch die
+Spalten über den Pivotelemnten frei zu räumen.
+\index{Rückwärtseinsetzen}%
+Wenn in einer Spalte kein von $0$ verschiedenes Element als Pivotelement
+zur Verfügung steht, wird diese Spalte übersprungen.
+Die so erzeuge Tableau-Form heisst auch die {\em reduzierte Zeilenstufenform}
+({\em reduced row echelon form}, RREF).
+\index{reduzierte Zeilenstufenform}%
+\index{reduced row echelon form}%
+
+Da der Ablauf des Gauss-Algorithmus vollständig von den Koeffizienten der
+Matrix $A$ bestimmt ist, kann er gleichzeitig für mehrere Spalten auf der
+rechten Seite oder ganz ohne rechte Seite durchgeführt werden.
+
+\subsubsection{Lösungsmenge}
+\index{Lösungsmenge}%
+Die Spalten, in denen im Laufe des Gauss-Algorithmus kein Pivotelement
+gefunden werden kann, gehören zu Variablen, nach denen sich das
+Gleichungssystem nicht auflösen lässt.
+Diese Variablen sind daher nicht bestimmt, sie können beliebig gewählt
+werden.
+Alle anderen Variablen sind durch diese frei wählbaren Variablen
+bestimmt.
+
+Für ein Gleichungssystem $Ax=b$ mit Schlusstableau
+\index{Schlusstableau}%
+\begin{equation}
+\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|}
+\hline
+ x_1& x_2&\dots &x_{j_i-1}&{\color{darkgreen}x_{j_1}}&x_{j_1+1}&\dots &x_{j_2-1}&{\color{darkgreen}x_{j_2}}&\dots&{\color{darkgreen}x_{j_k}}& \\
+\hline
+ 1& 0&\dots & 0&c_{1j_1} & 0&\dots & 0&c_{1j_2} &\dots &c_{1j_k} &d_1 \\
+ 0& 1&\dots & 0&c_{2j_1} & 0&\dots & 0&c_{2j_2} &\dots &c_{1j_k} &d_2 \\[-2pt]
+\vdots&\vdots&\ddots&\vdots &\vdots &\vdots&\ddots&\vdots&\vdots &\ddots&\vdots &\vdots \\
+ 0& 0&\dots & 1&c_{i_1,j_1}& 0&\dots & 0&c_{i_1,j_2} &\dots &c_{i_1j_k} &d_{i_1} \\
+ 0& 0&\dots & 0& 0& 1&\dots & 0&c_{i_1+1,j_2}&\dots &c_{i_1+1,j_k}&d_{i_1+1}\\[-2pt]
+\vdots&\vdots&\ddots&\vdots &\vdots &\vdots&\vdots&\vdots&\vdots &\ddots&\vdots &\vdots \\
+ 0& 0&\dots & 0& 0& 0&\dots & 1&c_{i_2,j_2} &\dots &c_{i_2j_k} &d_{i_2} \\
+ 0& 0&\dots & 0& 0& 0&\dots & 0& 0&\dots &c_{i_2+1,j_k}&d_{i_2+1}\\[-2pt]
+\vdots&\vdots&\ddots&\vdots &\vdots &\vdots&\ddots&\vdots&\vdots &\ddots&\vdots &\vdots \\
+ 0& 0&\dots & 0& 0& 0&\dots & 0& 0&\dots & 0&d_{m} \\
+\hline
+\end{tabular}
+\end{equation}
+mit den $k$ frei wählbaren Variablen
+$x_{j_1}, x_{j_2},\dots, x_{j_k}$ kann die Lösungsmenge als
+\[
+\mathbb{L}
+=
+\left\{
+\left.
+\begin{pmatrix}
+d_1\\
+d_2\\
+\vdots\\
+d_{i_1}\\
+d_{i_1+1}\\
+\vdots\\
+d_{i_2}\\
+d_{i_2+1}\\
+\vdots\\
+d_{m}
+\end{pmatrix}
++
+{\color{darkgreen}x_{j_1}}
+\begin{pmatrix}
+-c_{1j_1}\\
+-c_{2j_1}\\
+\vdots\\
+-c_{i_1,j_1}\\
+{\color{darkgreen}1}\\
+\vdots\\
+0\\
+0\\
+\vdots\\
+0\\
+\end{pmatrix}
++
+{\color{darkgreen}x_{j_1}}
+\begin{pmatrix}
+-c_{1j_2}\\
+-c_{2j_2}\\
+\vdots\\
+-c_{j_1,j_2}\\
+-c_{j_1+1,j_2}\\
+\vdots\\
+-c_{i_2,j_2}\\
+{\color{darkgreen}1}\\
+\vdots\\
+0\\
+\end{pmatrix}
++
+\dots
++
+{\color{darkgreen}x_{j_k}}
+\begin{pmatrix}
+-c_{1j_k}\\
+-c_{2j_k}\\
+\vdots\\
+-c_{j_1,j_k}\\
+-c_{j_1+1,j_k}\\
+\vdots\\
+-c_{i_2,j_k}\\
+-c_{i_2+1,j_k}\\
+\vdots\\
+0\\
+\end{pmatrix}
+\;
+\right|
+{\color{darkgreen}x_{i_1}},{\color{darkgreen}x_{i_2}},\dots,{\color{darkgreen}x_{i_k}}\in\Bbbk
+\right\}
+\]
+geschrieben werden.
+Insbesondere ist die Lösungsmenge $k$-dimensional.
\subsubsection{Inverse Matrix}
Zu jeder quadratischen Matrix $A\in M_n(\Bbbk)$ kann man versuchen, die
@@ -541,7 +770,7 @@ Ac_1 = e_1,\quad Ac_2 = e_2, \dots, Ac_n = e_n
\]
mit den Standardbasisvektoren $e_i$ als rechten Seiten zu lösen, wobei
die $c_i$ Vektoren in $\Bbbk^n$ sind.
-Diese Vektoren kann man mit Hilfe des Gaussalgorithmus finden:
+Diese Vektoren kann man mit Hilfe des Gauss-Algorithmus finden:
\[
\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
\hline
@@ -590,14 +819,14 @@ die zu $A$ {\em inverse Matrix}.
\index{inverse Matrix}
Sie wird auch $C=A^{-1}$ geschrieben.
-Die Definition der inversen Matrix stellt sicher, dass $AA^{-1}=E$ gilt,
-daraus folgt aber noch nicht, dass auch $A^{-1}A=E$ ist.
+Die Definition der inversen Matrix stellt sicher, dass $AA^{-1}=I$ gilt,
+daraus folgt aber noch nicht, dass auch $A^{-1}A=I$ ist.
Diese Eigenschaft kann man jedoch wie folgt erhalten.
-Sei $C$ die inverse Matrix von $A$, also $AC=E$.
-Sei weiter $D$ die inverse Matrix von $C$, also $CD=E$.
-Dann ist zunächst $A=AE=A(CD)=(AC)D=ED=D$ und weiter
-$CA=CD=E$.
-Mit der Bezeichnung $C=A^{-1}$ erhalten wir also auch $A^{-1}A=E$.
+Sei $C$ die inverse Matrix von $A$, also $AC=I$.
+Sei weiter $D$ die inverse Matrix von $C$, also $CD=I$.
+Dann ist zunächst $A=AE=A(CD)=(AC)D=ID=D$ und weiter
+$CA=CD=I$.
+Mit der Bezeichnung $C=A^{-1}$ erhalten wir also auch $A^{-1}A=I$.
Die Eigenschaften der Matrizenmultiplikation stellen sicher,
dass die Menge der invertierbaren Matrizen eine Struktur bilden,
@@ -605,9 +834,10 @@ die man Gruppe nennt, die in Abschnitt~\ref{buch:grundlagen:subsection:gruppen}
genauer untersucht wird.
In diesem Zusammenhang wird dann auf
Seite~\pageref{buch:vektorenmatrizen:satz:gruppenregeln}
-die Eigenschaft $A^{-1}A=E$ ganz allgemein gezeigt.
+die Eigenschaft $A^{-1}A=I$ ganz allgemein gezeigt.
\subsubsection{Determinante}
+XXX TODO
%
% Lineare Abbildungen
@@ -874,5 +1104,32 @@ Das Bild der Matrix $A$ ist der Unterraum
\]
von $\Bbbk^m$, aufgespannt von den Spaltenvektoren $a_i$ von $A$.
+\subsubsection{Rang und Defekt}
+Die Dimensionen von Bild und Kern sind wichtige Kennzahlen einer Matrix.
+\begin{definition}
+Sei $A$ eine Matrix $A\in M_{m\times n}(\Bbbk)$.
+Der {\em Rang} der Matrix $A$ ist die Dimension des Bildraumes von $A$:
+$\operatorname{rank}A=\dim\operatorname{im} A$.
+\index{Rang einer Matrix}%
+Der {\em Defekt} der Matrix $A$ ist die Dimension des Kernes von $A$:
+$\operatorname{def}A=\dim\ker A$.
+\index{Defekt einer Matrix}%
+\end{definition}
+
+Da der Kern mit Hilfe des Gauss-Algorithmus bestimmt werden kann,
+können Rang und Defekt aus dem Schlusstableau
+eines homogenen Gleichungssystems mit $A$ als Koeffizientenmatrix
+abgelesen werden.
+
+\begin{satz}
+Ist $A\in M_{m\times n}(\Bbbk)$ eine $m\times n$-Matrix,
+dann gilt
+\[
+\operatorname{rank}A
+=
+n-\operatorname{def}A.
+\]
+\end{satz}
+
\subsubsection{Quotient}
-TODO
+TODO: $\operatorname{im} A \simeq \Bbbk^m/\ker A$
diff --git a/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex
index df284b2..afe64f7 100644
--- a/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex
+++ b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex
@@ -15,15 +15,574 @@ Das Skalarprodukt passt in den algebraischen Rahmen der
linearen Algebra, bringt aber auch einen Abstandsbegriff hervor,
der genau der geometrischen Intuition entspricht.
-\subsection{Bilinearformen
+\subsection{Bilinearformen und Skalarprodukte
\label{buch:subsection:bilinearformen}}
+Damit man mit einem Skalarprodukt rechnen kann wie mit jedem anderen
+Produkt, müssen man auf beiden Seiten des Zeichesn ausmultiplizieren können:
+\begin{align*}
+(\lambda x_1 + \mu x_2)\cdot y &= \lambda x_1\cdot y + \mu x_2\cdot y\\
+x\cdot (\lambda y_1 + \mu x_2) &= \lambda x\cdot y_1 + \mu x\cdot y_2.
+\end{align*}
+Man kann dies interpretieren als Linearität der Abbildungen
+$x\mapsto x\cdot y$ und $y\mapsto x\cdot y$.
+Dies wird Bilinearität genannt und wie folgt definiert.
+
% XXX Bilinearität
-% XXX Polarformel
+\begin{definition}
+Seien $U,V,W$ $\Bbbk$-Vektorräume.
+Eine Abbildung $f\colon U\times V\to W$ heisst {\em bilinear},
+\index{bilinear}%
+wenn die partiellen Abbildungen $U\to W:x\mapsto f(x,y_0)$ und
+$V\to W:y\mapsto f(x_0,y)$
+linear sind für alle $x_0\in U$ und $y_0\in V$, d.~h.
+\begin{align*}
+f(\lambda x_1 + \mu x_2,y) &= \lambda f(x_1,y) + \mu f(x_2,y)
+\\
+f(x,\lambda y_1 + \mu y_2) &= \lambda f(x,y_1) + \mu f(x,y_2)
+\end{align*}
+Eine bilineare Funktion mit Werten in $\Bbbk$ heisst auch {\em Bilinearform}.
+\index{Bilinearform}%
+\end{definition}
+
+\subsubsection{Symmetrische bilineare Funktionen}
+Das Skalarprodukt hängt nicht von der Reihenfolge der Faktoren ab.
+In Frage dafür kommen daher nur Bilnearformen $f\colon V\times V\to\Bbbk$,
+die zusätzlich $f(x,y)=f(y,x)$ erfüllen.
+Solche Bilinearformen heissen symmetrisch.
+Für eine symmetrische Bilinearform gilt die binomische Formel
+\begin{align*}
+f(x+y,x+y)
+&=
+f(x,x+y)+f(y,x+y)
+=
+f(x,x)+f(x,y)+f(y,x)+f(y,y)
+\\
+&=
+f(x,x)+2f(x,y)+f(y,y)
+\end{align*}
+wegen $f(x,y)=f(y,x)$.
+
+\subsubsection{Positiv definite Bilinearformen und Skalarprodukt}
+Bilinearität alleine genügt nicht, um einen Vektorraum mit einem
+nützlichen Abstandsbegriff auszustatten.
+Dazu müssen die berechneten Abstände vergleichbar sein, es muss also
+eine Ordnungsrelation definiert sein, wie wir sie nur in $\mathbb{R}$
+kennen.
+Wir sind daher gezwungen uns auf $\mathbb{R}$- oder
+$\mathbb{Q}$-Vektorräume zu beschränken.
+
+Man lernt in der Vektorgeometrie, dass sich mit einer Bilinearform
+$f\colon V\times V\to\mathbb{R}$
+die Länge eines definieren lässt, indem man $\|x\|^2 = f(x,x)$
+setzt.
+Ausserdem muss $f(x,x)\ge 0$ sein für alle $x$, was die Bilinearität
+allein nicht garantieren kann.
+Verschiedene Punkte in einem Vektorraum sollen in dem aus der Bilinearform
+abgeleiteten Abstandsbegriff immer unterscheidbar sein.
+Dazu muss jeder von $0$ verschiedene Vektor positive Länge haben.
+
% XXX Positiv definite Form
+\begin{definition}
+Eine Bilinearform $f\colon V\times V\to\mathbb{R}$
+heisst {\em positiv definit}, wenn
+\index{positiv definit}%
+\[
+f(x,x) > 0\qquad\forall x\in V\setminus\{0\}.
+\]
+Das zugehörige {\em Skalarprodukt} wird $f(x,y)=\langle x,y\rangle$
+geschrieben.
+\index{Skalarprodukt}%
+Die {\em $l^2$-Norm} $\|x\|_2$ eines Vektors ist definiert durch
+$\|x\|_2^2 = \langle x,x\rangle$.
+\end{definition}
+
+\subsubsection{Dreiecksungleichung}
+% XXX Dreiecksungleichung
+Damit man sinnvoll über Abstände sprechen kann, muss die Norm
+$\|\;\cdot\;\|_2$ der geometrischen Intuition folgen, die durch
+die Dreiecksungleichung ausgedrückt wird.
+In diesem Abschnitt soll gezeigt werden, dass die $l^2$-Norm
+diese immer erfüllt.
+Dazu sei $V$ ein $\mathbb{R}$-Vektorraum mit Skalarprodukt
+$\langle\;,\;\rangle$.
+
+\begin{satz}[Cauchy-Schwarz-Ungleichung]
+Für $x,y\in V$ gilt
+\[
+|\langle x,y\rangle |
+\le
+\| x\|_2\cdot \|y\|_2
+\]
+mit Gleichheit genau dann, wenn $x$ und $y$ linear abhängig sind.
+\end{satz}
+
+\begin{proof}[Beweis]
+Wir die Norm von $z=x-ty$:
+\begin{align}
+\|x-ty\|_2^2
+&=
+\|x\|_2^2 -2t\langle x,y\rangle +t^2\|y\|_2^2 \ge 0.
+\notag
+\end{align}
+Sie nimmt den kleinsten Wert genau dann an, wenn es ein $t$ gibt derart,
+dass $x=ty$.
+Die rechte Seite ist ein quadratischer Ausdruck in $t$,
+er hat sein Minimum bei
+\begin{align*}
+t&=-\frac{-2\langle x,y\rangle}{2\|y\|_2^2}
+&&\Rightarrow&
+\biggl\|
+x - \frac{\langle x,y\rangle}{\|y\|_2^2}y
+\biggr\|_2^2
+&=
+\|x\|_2^2
+-
+2\frac{(\langle x,y\rangle)^2}{\|y\|_2^2}
++
+\frac{(\langle x,y\rangle)^2}{\|y\|_2^4} \|y\|_2^2
+\\
+&&&&
+&=
+\|x\|_2^2
+-
+\frac{(\langle x,y\rangle)^2}{\|y\|_2^2}
+=
+\frac{
+\|x\|_2^2\cdot\|y\|_2^2 - (\langle x,y\rangle)^2
+}{
+\|y\|_2^2
+}
+\ge 0
+\intertext{Es folgt}
+&&&\Rightarrow&
+\|x\|_2^2\cdot\|y\|_2^2 - (\langle x,y\rangle)^2 &\ge 0
+\\
+&&&\Rightarrow&
+\|x\|_2\cdot\|y\|_2 &\ge |\langle x,y\rangle |
+\end{align*}
+mit Gleichheit genau dann, wenn es ein $t$ gibt mit $x=ty$.
+\end{proof}
+
+\begin{satz}[Dreiecksungleichung]
+Für $x,y\in V$ ist
+\[
+\| x + y \|_2 \le \|x\|_2 + \|y\|_2
+\]
+mit Gleichheit genau dann, wenn $x=ty$ ist für ein $t\ge 0$.
+\end{satz}
+
+\begin{proof}[Beweis]
+\begin{align*}
+\|x+y\|_2^2
+&=
+\langle x+y,x+y\rangle
+=
+\langle x,x\rangle
++
+2\langle x,y\rangle
++
+\langle y,y\rangle
+\\
+&=
+\|x\|_2^2
++
+2\langle x,y\rangle
++
+\|y\|_2^2
+=
+\|x\|_2^2 + 2\langle x,y\rangle + \|y\|_2^2
+\le
+\|x\|_2^2 + 2\|x\|_2\cdot\|y\|_2 + \|y\|_2^2
+\\
+&=
+(\|x\|_2 + \|y\|_2)^2
+\\
+\|x\|_2 + \|y\|_2
+&\le \|x\|_2 + \|y\|_2,
+\end{align*}
+Gleichheit tritt genau dann ein, wenn
+$\langle x,y\rangle=\|x\|_2\cdot \|y\|_2$.
+Dies tritt genau dann ein, wenn die beiden Vektoren linear abhängig sind.
+\end{proof}
+
+\subsubsection{Polarformel}
+% XXX Polarformel
+Auf den ersten Blick scheint die Norm $\|x\|_2$ weniger Information
+zu beinhalten, als die symmetrische Bilinearform, aus der sie
+hervorgegangen ist.
+Dem ist aber nicht so, denn die Bilinearform lässt sich aus der
+Norm zurückgewinnen.
+Dies ist der Inhalt der sogenannte Polarformel.
+
+\begin{satz}[Polarformel]
+Ist $\|\cdot\|_2$ eine Norm, die aus einer symmetrischen Bilinearform
+$\langle\;,\;\rangle$ hervorgegangen ist, dann kann die Bilinearform
+mit Hilfe der Formel
+\begin{equation}
+\langle x,y\rangle
+=
+\frac12(
+\|x+y\|_2^2
+-
+\|x\|_2^2
+-
+\|y\|_2^2
+)
+\label{buch:grundlagen:eqn:polarformel}
+\end{equation}
+für $x,y\in V$ wiedergewonnen werden.
+\end{satz}
+
+\begin{proof}[Beweis]
+Die binomischen Formel
+\begin{align*}
+\|x+y\|_2^2
+&=
+\|x\|_2^2 + 2\langle x,y\rangle + \|y\|_2^2
+\intertext{kann nach $\langle x,y\rangle$ aufgelöst werden, was}
+\langle x,y\rangle &= \frac12 (
+\|x+y\|_2^2 - \|x\|_2^2 - \|y\|_2^2
+)
+\end{align*}
+ergibt.
+Damit ist die
+Polarformel~\eqref{buch:grundlagen:eqn:polarformel}
+bewiesen.
+\end{proof}
+
+\subsubsection{Komplexe Vektorräume und Sesquilinearformen}
% XXX Sesquilinearform
+Eine Bilinearform auf einem komplexen Vektorraum führt nicht
+auf eine Grösse, die sich als Norm eignet.
+Selbst wenn $\langle x,x\rangle >0$ ist,
+\[
+\langle ix,iy\rangle = i^2 \langle x,y\rangle
+=
+-\langle x,y\rangle < 0.
+\]
+Dies kann verhindert werden, wenn verlangt wird, dass der Faktor
+$i$ im ersten Faktor der Bilinearform als $-i$ aus der Bilinearform
+herausgenommen werden muss.
+
+\begin{definition}
+Seien $U,V,W$ komplexe Vektorräume.
+Eine Abbildung $f\colon U\times V\to W$ heisst
+{\em sesquilinear}\footnote{Das lateinische Wort {\em sesqui} bedeutet
+eineinhalb, eine Sesquilinearform ist also eine Form, die in einem
+Faktor (dem zweiten) linear ist, und im anderen nur halb linear.}
+\index{sesquilinear}
+wenn gilt
+\begin{align*}
+f(\lambda x_1+\mu x_2,y) &= \overline{\lambda}f(x_1,y) + \overline{\mu}f(x_2,y)
+\\
+f(x,\lambda y_1+\mu y_2) &= \lambda f(x,y_1) + \mu f(x,y_2)
+\end{align*}
+\end{definition}
+
+Für die Norm $\|x\|_2^2=\langle x,x\rangle$ bedeutet dies jetzt
+\[
+\|\lambda x\|_2^2
+=
+\langle \lambda x,\lambda x\rangle
+=
+\overline{\lambda}\lambda \langle x,x\rangle
+=
+|\lambda|^2 \|x\|_2^2
+\qquad\Rightarrow\qquad
+\|\lambda x\|_2 = |\lambda|\, \|x\|_2.
+\]
+
+\subsection{Orthognormalbasis
+\label{buch:subsection:orthonormalbasis}}
+\index{orthonormierte Basis}%
+
+\subsubsection{Gram-Matrix}
+Sei $V$ ein Vektorraum mit einem Skalarprodukt und $\{b_1,\dots,b_n\}$ eine
+Basis von $V$.
+Wie kann man das Skalarprodukt aus den Koordinaten $\xi_i$ und $\eta_i$
+der Vektoren
+\[
+x = \sum_{i=1}^n \xi_i b_i,
+\quad\text{und}\quad
+y = \sum_{i=1}^n \eta_i b_i
+\]
+berechnen?
+Setzt man $x$ und $y$ in das Skalarprodukt ein, erhält man
+\begin{align*}
+\langle x,y\rangle
+&=
+\biggl\langle
+\sum_{i=1}^n \xi_i b_i,
+\sum_{j=1}^n \eta_j b_j
+\biggr\rangle
+=
+\sum_{i,j=1}^n \xi_i\eta_j \langle b_i,b_j\rangle.
+\end{align*}
+Die Komponente $g_{ij}=\langle b_i,b_j\rangle$ bilden die sogenannte
+Gram-Matrix $G$.
+Mit ihr kann das Skalarprodukt auch in Vektorform geschrieben werden
+als $\langle x,y\rangle = \xi^t G\eta$.
+
+\subsubsection{Orthonormalbasis}
+Eine Basis $\{a_1,\dots,a_n\}$ aus orthogonalen Einheitsvektoren,
+also mit
+$
+\langle a_i,a_j\rangle=\delta_{ij}
+$
+heisst {\em Orthonormalbasis}.
+In einer Orthonormalbasis ist die Bestimmung der Koordinaten eines
+beliebigen Vektors besonders einfach, ist nämlich
+\begin{equation}
+v=\sum_{i=1}^n \langle v,a_i\rangle a_i.
+\label{buch:grundlagen:eqn:koordinaten-in-orthonormalbasis}
+\end{equation}
+Die Gram-Matrix einer Orthonormalbasis ist die Einheitsmatrix.
+
+\subsubsection{Gram-Schmidt-Orthonormalisierung}
+Mit Hilfe des Gram-Schmidtschen Orthonormalisierungsprozesses kann aus
+einer beliebige Basis $\{a_1,a_2,\dots,a_n\}\subset V$ eines Vektorraums
+mit einem SKalarprodukt eine orthonormierte Basis
+$\{b_1,b_2,\dots,b_n\}$ gefunden werden derart, dass für alle $k$
+$\langle b_1,\dots,b_k\rangle = \langle a_1,\dots ,a_k\rangle$.
+\index{Gram-Schmidt-Orthonormalisierung}%
+Der Zusammenhang zwischen den Basisvektoren $b_i$ und $a_i$ ist
+gegeben durch
+\begin{align*}
+b_1&=\frac{a_1}{\|a_1\|_2}
+\\
+b_2&=\frac{a_2-b_1\langle b_1,a_2\rangle}{\|a_2-b_1\langle b_1,a_2\rangle\|_2}
+\\
+b_3&=\frac{a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle}{\|a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle\|_2}
+\\
+&\phantom{n}\vdots\\
+b_n
+&=
+\frac{
+a_n-b_1\langle b_1,a_n\rangle-b_2\langle b_2,a_n\rangle
+-\dots-b_{n-1}\langle b_{n-1},a_n\rangle
+}{
+\|
+a_n-b_1\langle b_1,a_n\rangle-b_2\langle b_2,a_n\rangle
+-\dots-b_{n-1}\langle b_{n-1},a_n\rangle
+\|_2
+}.
+\end{align*}
+Die Gram-Matrix der Matrix $\{b_1,\dots,b_n\}$ ist die Einheitsmatrix.
+
+\subsubsection{Orthogonalisierung}
+Der Normalisierungsschritt im Gram-Schmidt-Orthonormalisierungsprozess
+ist nur möglich, wenn Quadratwurzeln unbeschränkt gezogen werden können.
+Das ist in $\mathbb{R}$ möglich, nicht jedoch in $\mathbb{Q}$.
+Es ist aber mit einer kleinen Anpassung auch über $\mathbb{Q}$
+immer noch möglich, aus einer Basis $\{a_1,\dots,a_n\}$ eine orthogonale
+Basis zu konstruieren.
+Man verwendet dazu die Formeln
+\begin{align*}
+b_1&=a_1
+\\
+b_2&=a_2-b_1\langle b_1,a_2\rangle
+\\
+b_3&=a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle
+\\
+&\phantom{n}\vdots\\
+b_n
+&=
+a_n-b_1\langle b_1,a_n\rangle-b_2\langle b_2,a_n\rangle
+-\dots-b_{n-1}\langle b_{n-1},a_n\rangle.
+\end{align*}
+Die Basisvektoren $b_i$ sind orthogonal, aber $\|b_i\|_2$ kann auch
+von $1$ abweichen.
+Damit ist es zwar nicht mehr so einfach
+wie in \eqref{buch:grundlagen:eqn:koordinaten-in-orthonormalbasis},
+einen Vektor in der Basis zu zerlegen.
+Ein Vektor $v$ hat nämlich in der Basis $\{b_1,\dots,b_n\}$ die Zerlegung
+\begin{equation}
+v
+=
+\sum_{i=1}^n
+\frac{\langle b_i,v\rangle}{\|b_i\|_2^2} b_i,
+\label{buch:grundlagen:eqn:orthogonal-basiszerlegung}
+\end{equation}
+Die Koordinaten bezüglich dieser Basis sind also
+$\langle b_i,v\rangle/\|b_i\|_2^2$.
+
+Die Gram-Matrix einer Orthogonalen Basis ist immer noch diagonal,
+auf der Diagonalen stehen die Normen der Basisvektoren.
+Die Nenner in der Zerlegung
+\eqref{buch:grundlagen:eqn:orthogonal-basiszerlegung}
+sind die Einträge der inverse Matrix der Gram-Matrix.
+
+\subsubsection{Orthonormalbasen in komplexen Vektorräumen}
+Die Gram-Matrix einer Basis $\{b_1,\dots,b_n\}$ in einem komplexen
+Vektorraum hat die Eigenschaft
+\[
+g_{ij}
+=
+\langle b_i,b_j\rangle
+=
+\overline{\langle b_j,b_i\rangle},
+=
+\overline{g}_{ji}
+\quad 1\le i,j\le n.
+\]
+Sie ist nicht mehr symmetrisch, aber selbstadjungiert, gemäss
+der folgenden Definition.
+
+\begin{definition}
+\label{buch:grundlagen:definition:selstadjungiert}
+Sei $A$ eine komplexe Matrix mit Einträgen $a_{ij}$, dann ist
+$\overline{A}$ die Matrix mit komplex konjugierten Elementen
+$\overline{a}_{ij}$.
+Die {\em adjungierte} Matrix ist $A^*=\overline{A}^t$.
+Eine Matrix heisst selbstadjungiert, wenn $A^*=A$.
+\end{definition}
+
+\subsection{Symmetrische und selbstadjungierte Abbilungen
+\label{buch:subsection:symmetrisch-und-selbstadjungiert}}
+In Definition~\ref{buch:grundlagen:definition:selstadjungiert}
+wurde der Begriff der selbstadjungierten Matrix basierend
+eingeführt.
+Als Eigenschaft einer Matrix ist diese Definition notwendigerweise
+abhängig von der Wahl der Basis.
+Es ist nicht unbedingt klar, dass derart definierte Eigenschaften
+als von der Basis unabhängige Eigenschaften betrachtet werden können.
+Ziel dieses Abschnitts ist, Eigenschaften wie Symmetrie oder
+Selbstadjungiertheit auf basisunabhängige Eigenschaften von
+linearen Abbildungen in einem Vektorraum $V$ mit Skalarprodukt
+$\langle\;,\;\rangle$ zu verstehen.
+
+\subsubsection{Symmetrische Abbildungen}
+Sei $f\colon V\to V$ eine lineare Abbildung.
+In einer Basis $\{b_1,\dots,b_n\}\subset V$ wird $f$ durch eine
+Matrix $A$ beschrieben.
+Ist die Basis orthonormiert, dann kann man die Matrixelemente
+mit $a_{ij}=\langle b_i,Ab_j\rangle$ berechnen.
+Die Matrix ist symmetrisch, wenn
+\[
+\langle b_i,Ab_j\rangle
+=
+a_{ij}
+=
+a_{ji}
+=
+\langle b_j,Ab_i \rangle
+=
+\langle Ab_i,b_j \rangle
+\]
+ist.
+Daraus leitet sich jetzt die basisunabhängige Definition einer
+symmetrischen Abbildung ab.
+
+\begin{definition}
+Eine lineare Abbildung $f\colon V\to V$ heisst {\em symmetrisch}, wenn
+$\langle x,Ay\rangle=\langle Ax,y\rangle$ gilt für beliebige
+Vektoren $x,y\in V$.
+\end{definition}
+
+Für $V=\mathbb{R}^n$ und das Skalarprodukt $\langle x,y\rangle=x^ty$
+erfüllt eine symmetrische Abbildung mit der Matrix $A$ die Gleichung
+\[
+\left.
+\begin{aligned}
+\langle x,Ay\rangle
+&=
+x^tAy
+\\
+\langle Ax,y\rangle
+&=
+(Ax)^ty=x^tA^ty
+\end{aligned}
+\right\}
+\quad\Rightarrow\quad
+x^tA^ty = x^tAy\quad\forall x,y\in\mathbb{R}^n,
+\]
+was gleichbedeutend ist mit $A^t=A$.
+Der Begriff der symmetrischen Abbildung ist also eine natürliche
+Verallgemeinerung des Begriffs der symmetrischen Matrix.
+
+\subsubsection{Selbstadjungierte Abbildungen}
+In einem komplexen Vektorraum ist das Skalarprodukt nicht mehr bilinear
+und symmetrisch, sondern sesquilinear und konjugiert symmetrisch.
+
+\begin{definition}
+Eine lineare Abbildung $f\colon V\to V$ heisst {\em selbstadjungiert},
+wenn $\langle x,fy\rangle=\langle fx,y\rangle$ für alle $x,y\in\mathbb{C}$.
+\end{definition}
+
+Im komplexen Vektorraum $\mathbb{C}^n$ ist das Standardskalarprodukt
+definiert durch $\langle x,y\rangle = \overline{x}^ty$.
+
+\subsubsection{Die Adjungierte}
+Die Werte der Skalarprodukte $\langle x, y\rangle$ für alle $x\in V$
+legen den Vektor $y$ fest.
+Gäbe es nämlich einen zweiten Vektor $y'$ mit den gleichen Skalarprodukten,
+also $\langle x,y\rangle = \langle x,y'\rangle$ für alle $x\in V$,
+dann gilt wegen der Linearität $\langle x,y-y'\rangle=0$.
+Wählt man $x=y-y'$, dann folgt
+$0=\langle y-y',y-y'\rangle=\|y-y'\|_2$, also muss $y=y'$ sein.
+
+\begin{definition}
+Sei $f\colon V\to V$ eine lineare Abbildung.
+Die lineare Abbildung $f^*\colon V\to V$ definiert durch
+\[
+\langle f^*x,y\rangle = \langle x,fy\rangle,\qquad x,y\in V
+\]
+heisst die {\em Adjungierte} von $f$.
+\end{definition}
+
+Eine selbstadjungierte Abbildung ist also eine lineare Abbildung,
+die mit ihrer Adjungierte übereinstimmt, als $f^* = f$.
+In einer orthonormierten Basis $\{b_1,\dots,b_n\}$ hat die Abbildung
+$f$ die Matrixelemente $a_{ij}=\langle b_i,fb_j\rangle$.
+Die adjungierte Abbildung hat dann die Matrixelemente
+\[
+\langle b_i,f^*b_j \rangle
+=
+\overline{\langle f^*b_j,b_i\rangle}
+=
+\overline{\langle b_j,fb_i\rangle}
+=
+\overline{a_{ji}},
+\]
+was mit der Definition von $A^*$ übereinstimmt.
\subsection{Orthogonale und unitäre Matrizen
\label{buch:subsection:orthogonale-und-unitaere-matrizen}}
+Von besonderer geometrischer Bedeutung sind lineare Abbildung,
+die die Norm nicht verändern.
+Aus der Polarformel~\eqref{buch:grundlagen:eqn:polarformel}
+folgt dann, dass auch das Skalarprodukt erhalten ist, aus dem
+Winkel berechnet werden können.
+Abbildungen, die die Norm erhalten, sind daher auch winkeltreu.
+
+\begin{definition}
+Eine lineare Abbildung $f\colon V\to V$ in einem reellen
+Vektorraum mit heisst {\em orthogonal}, wenn
+$\langle fx,fy\rangle = \langle x,y\rangle$ für alle
+$x,y\in V$ gilt.
+\end{definition}
+
+Die adjungierte einer orthogonalen Abbildung erfüllt
+$\langle x,y\rangle = \langle fx,fy\rangle = \langle f^*f x, y\rangle$
+für alle $x,y\in V$, also muss $f^*f$ die identische Abbildung sein,
+deren Matrix die Einheitsmatrix ist.
+Die Matrix $O$ einer orthogonalen Abbildung erfüllt daher $O^tO=I$.
+
+Für einen komplexen Vektorraum erwarten wir grundsätzlich dasselbe.
+Lineare Abbildungen, die die Norm erhalten, erhalten das komplexe
+Skalarprodukt.
+Auch in diesem Fall ist $f^*f$ die identische Abbildung, die zugehörigen
+Matrixen $U$ erfüllen daher $U^*U=I$.
+
+\begin{definition}
+Eine lineare Abbildung $f\colon V\to V$ eines komplexen Vektorraumes
+$V$ mit Skalarprodukt heisst unitär,
+wenn $\langle x,y\rangle = \langle fx,fy\rangle$ für alle Vektoren $x,y\in V$.
+Eine Matrix heisst unitär, wenn $U^*U=I$.
+\end{definition}
+
+Die Matrix einer unitären Abbildung in einer orthonormierten Basis ist unitär.
+
% XXX Skalarprodukt und Lineare Abbildungen
% XXX Symmetrische Matrizen
% XXX Selbstadjungierte Matrizen
@@ -35,7 +594,220 @@ der genau der geometrischen Intuition entspricht.
\subsection{Andere Normen auf Vektorräumen
\label{buch:subsection:andere-normen}}
-% XXX l1 Norm
-% XXX linfty Norm
-% XXX Normen auf Funktionenräumen
-% XXX Operatornorm
+Das Skalarprodukt ist nicht die einzige Möglichkeit, eine Norm auf einem
+Vektorraum zu definieren.
+In diesem Abschnitt stellen wir einige weitere mögliche Normdefinitionen
+zusammen.
+
+\subsubsection{$l^1$-Norm}
+\begin{definition}
+Die $l^1$-Norm in $V=\mathbb{R}^n$ oder $V=\mathbb{C}^n$ ist definiert durch
+\[
+\| v\|_1
+=
+\sum_{i=1}^n |v_i|
+\]
+für $v\in V$.
+\end{definition}
+
+Auch die $l^1$-Norm erfüllt die Dreiecksungleichung
+\[
+\|x+y\|_1
+=
+\sum_{i=1}^n |x_i+y_i|
+\le
+\sum_{i=1} |x_i| + \sum_{i=1} |y_i|
+=
+\|x\|_1 + \|y\|_1.
+\]
+
+Die $l^1$-Norm kommt nicht von einem Skalarprodukt her.
+Wenn es ein Skalarprodukt gäbe, welches auf diese Norm führt, dann
+müsste
+\[
+\langle x,y\rangle
+=
+\frac12(\|x+y\|_1^2-\|x\|_1^2-\|y\|_1^2)
+\]
+sein.
+Für die beiden Standardbasisvektoren $x=e_1$ und $y=e_2$
+bedeutet dies
+\[
+\left .
+\begin{aligned}
+\|e_1\|_1 &= 2\\
+\|e_2\|_1 &= 2\\
+\|e_1\pm +e_2\|_1 &= 2\\
+\end{aligned}
+\right\}
+\quad\Rightarrow\quad
+\langle e_1,\pm e_2\rangle
+=
+\frac12( 2^2 - 1^2 - 1^2)
+=1
+\]
+Die Linearität des Skalarproduktes verlangt aber, dass
+$1=\langle e_1,-e_2\rangle = -\langle e_1,e_2\rangle = -1$,
+ein Widerspruch.
+
+\subsubsection{$l^\infty$-Norm}
+
+
+\begin{definition}
+Die $l^\infty$-Norm in $V=\mathbb{R}^n$ und $V=\mathbb{C}^n$ ist definiert
+\[
+\|v\|_\infty
+=
+\max_{i} |v_i|.
+\]
+Sie heisst auch die {\em Supremumnorm}.
+\index{Supremumnorm}%
+\end{definition}
+
+Auch diese Norm erfüllt die Dreiecksungleichung
+\[
+\|x+y\|_\infty
+=
+\max_i |x_i+y_i|
+\le
+\max_i (|x_i| + |y_i|)
+\le
+\max_i |x_i| + \max_i |y_i|
+=
+\|x\|_\infty + \|y\|_\infty.
+\]
+Auch diese Norm kann nicht von einem Skalarprodukt herkommen, ein
+Gegenbeispiel können wir wieder mit den ersten beiden Standardbasisvektoren
+konstruieren.
+Es ist
+\[
+\left.
+\begin{aligned}
+\|e_1\|_\infty &= 1\\
+\|e_2\|_\infty &= 1\\
+\|e_1\pm e_2\|_\infty &= 1
+\end{aligned}
+\right\}
+\qquad\Rightarrow\qquad
+\langle e_1,\pm e_2\rangle
+=
+\frac12(\|e_1\pm e_2\|_\infty^2 - \|e_1\|_\infty^2 - \|e_2\|_\infty^2)
+=
+\frac12(1-1-1) = -\frac12.
+\]
+Es folgt wieder
+\(
+-\frac12
+=
+\langle e_1,-e_2\rangle
+=
+-\langle e_1,e_2\rangle
+=
+\frac12,
+\)
+ein Widerspruch.
+
+\subsubsection{Operatornorm}
+Der Vektorraum der linearen Abbildungen $f\colon U\to V$ kann mit einer
+Norm ausgestattet werden, wenn $U$ und $V$ jeweils eine Norm haben.
+
+\begin{definition}
+Seien $U$ und $V$ Vektorräume über $\mathbb{R}$ oder $\mathbb{C}$ und
+$f\colon U\to V$ eine lineare Abbildung.
+Die {\em Operatorname} der linearen Abbildung ist
+\[
+\|f\|
+=
+\sup_{x\in U\wedge \|x\|\le 1} \|fx\|.
+\]
+\end{definition}
+
+Nach Definition gilt $\|fx\| \le \|f\|\cdot \|x\|$ für alle $x\in U$.
+Die in den Vektorräumen $U$ und $V$ verwendeten Normen haben einen
+grossen Einfluss auf die Operatornorm, wie die beiden folgenden
+Beispiele zeigen.
+
+\begin{beispiel}
+Sei $V$ ein komplexer Vektorraum mit einem Skalarprodukt und $y\in V$ ein
+Vektor.
+$y$ definiert die lineare Abbildung
+\[
+l_y
+\colon
+V\to \mathbb{C}: x\mapsto \langle y,x\rangle.
+\]
+Zur Berechnung der Operatorname von $l_y$
+\[
+|l_y(x)|^2
+=
+|\langle y,x\rangle|^2
+\le
+\|y\|_2^2\cdot \|x\|_2^2
+\]
+mit Gleichheit genau dann, wenn $x$ und $y$ linear abhängig sind.
+Dies bedeutet, dass
+$\|l_y\|=\|y\|$, die Operatorname von $l_y$ stimmt mit der Norm von $y$
+überein.
+\end{beispiel}
+
+\begin{beispiel}
+Sei $V=\mathbb{C}^n$.
+Dann definiert $y\in V$ eine Linearform
+\[
+l_y
+\colon
+V\to \mathbb C
+:
+x\mapsto y^tx.
+\]
+Wir suchen die Operatornorm von $l_y$, wenn $V$ mit der $l^1$-Norm
+ausgestattet wird.
+Sei $k$ der Index der betragsmässig grössten Komponente von $y_k$,
+also $\| y\|_\infty = |y_k|$.
+Dann gilt
+\[
+|l_y(x)|
+=
+\biggl|\sum_{i=1}^n y_ix_i\biggr|
+\le
+\sum_{i=1}^n |y_i|\cdot |x_i|
+\le
+|y_k| \sum_{i=1}^n |x_i|
+=
+\|y\|_\infty\cdot \|x\|_1.
+\]
+Gleichheit wird erreicht, wenn die Komponente $k$ die einzige
+von $0$ verschiedene Komponente des Vektors $x$ ist.
+Somit ist $\|l_y\| = \|y\|_\infty$.
+\end{beispiel}
+
+
+\subsubsection{Normen auf Funktionenräumen}
+Alle auf $\mathbb{R}^n$ und $\mathbb{C}^n$ definierten Normen lassen
+sich auf den Raum der stetigen Funktionen $[a,b]\to\mathbb{R}$ oder
+$[a,b]\to\mathbb{C}$ verallgemeinern.
+
+Die Supremumnorm auf dem Vektorraum der stetigen Funktionen ist
+\[
+\|f\|_\infty = \sup_{x\in[a,b]} |f(x)|
+\]
+für $f\in C([a,b],\mathbb{R})$ oder $f\in C([a,b],\mathbb{C})$.
+
+Für die anderen beiden Normen wird zusätzlich das bestimmte Integral
+von Funktionen auf $[a,b]$ benötigt.
+Die $L^2$-Norm wird erzeugt von dem Skalarprodukt
+\[
+\langle f,g\rangle
+=
+\frac{1}{b-a}
+\int_a^b \overline{f}(x)g(x)\,dx
+\qquad\Rightarrow\qquad
+\|f\|_2^2 = \frac{1}{b-a}\int_a^b |f(x)|^2\,dx.
+\]
+Die $L^2$-Norm ist dagegen
+\[
+\|f\|_1
+=
+\int_a^b |f(x)|\,dx.
+\]
+