aboutsummaryrefslogtreecommitdiffstats
path: root/buch
diff options
context:
space:
mode:
Diffstat (limited to '')
-rw-r--r--buch/chapters/10-vektorenmatrizen/skalarprodukt.tex478
1 files changed, 471 insertions, 7 deletions
diff --git a/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex
index 45f7a6b..19ebe6e 100644
--- a/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex
+++ b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex
@@ -250,7 +250,7 @@ Polarformel~\eqref{buch:grundlagen:eqn:polarformel}
bewiesen.
\end{proof}
-\subsubsection{Komplexe Vektorräume uns Sesquilinearformen}
+\subsubsection{Komplexe Vektorräume und Sesquilinearformen}
% XXX Sesquilinearform
Eine Bilinearform auf einem komplexen Vektorraum führt nicht
auf eine Grösse, die sich als Norm eignet.
@@ -296,6 +296,48 @@ Für die Norm $\|x\|_2^2=\langle x,x\rangle$ bedeutet dies jetzt
\label{buch:subsection:orthonormalbasis}}
\index{orthonormierte Basis}%
+\subsubsection{Gram-Matrix}
+Sei $V$ ein Vektorraum mit einem Skalarprodukt und $\{b_1,\dots,b_n\}$ eine
+Basis von $V$.
+Wie kann man das Skalarprodukt aus den Koordinaten $\xi_i$ und $\eta_i$
+der Vektoren
+\[
+x = \sum_{i=1}^n \xi_i b_i,
+\quad\text{und}\quad
+y = \sum_{i=1}^n \eta_i b_i
+\]
+berechnen?
+Setzt man $x$ und $y$ in das Skalarprodukt ein, erhält man
+\begin{align*}
+\langle x,y\rangle
+&=
+\biggl\langle
+\sum_{i=1}^n \xi_i b_i,
+\sum_{j=1}^n \eta_j b_j
+\biggr\rangle
+=
+\sum_{i,j=1}^n \xi_i\eta_j \langle b_i,b_j\rangle.
+\end{align*}
+Die Komponente $g_{ij}=\langle b_i,b_j\rangle$ bilden die sogenannte
+Gram-Matrix $G$.
+Mit ihr kann das Skalarprodukt auch in Vektorform geschrieben werden
+als $\langle x,y\rangle = \xi^t G\eta$.
+
+\subsubsection{Orthonormalbasis}
+Eine Basis $\{a_1,\dots,a_n\}$ aus orthogonalen Einheitsvektoren,
+also mit
+$
+\langle a_i,a_j\rangle=\delta_{ij}
+$
+heisst {\em Orthonormalbasis}.
+In einer Orthonormalbasis ist die Bestimmung der Koordinaten eines
+beliebigen Vektors besonders einfach, ist nämlich
+\begin{equation}
+v=\sum_{i=1}^n \langle v,a_i\rangle a_i.
+\label{buch:grundlagen:eqn:koordinaten-in-orthonormalbasis}
+\end{equation}
+Die Gram-Matrix einer Orthonormalbasis ist die Einheitsmatrix.
+
\subsubsection{Gram-Schmidt-Orthonormalisierung}
Mit Hilfe des Gram-Schmidtschen Orthonormalisierungsprozesses kann aus
einer beliebige Basis $\{a_1,a_2,\dots,a_n\}\subset V$ eines Vektorraums
@@ -325,13 +367,222 @@ a_n-b_1\langle b_1,a_n\rangle-b_2\langle b_2,a_n\rangle
\|_2
}.
\end{align*}
+Die Gram-Matrix der Matrix $\{b_1,\dots,b_n\}$ ist die Einheitsmatrix.
+
+\subsubsection{Orthogonalisierung}
+Der Normalisierungsschritt im Gram-Schmidt-Orthonormalisierungsprozess
+ist nur möglich, wenn Quadratwurzeln unbeschränkt gezogen werden können.
+Das ist in $\mathbb{R}$ möglich, nicht jedoch in $\mathbb{Q}$.
+Es ist aber mit einer kleinen Anpassung auch über $\mathbb{Q}$
+immer noch möglich, aus einer Basis $\{a_1,\dots,a_n\}$ eine orthogonale
+Basis zu konstruieren.
+Man verwendet dazu die Formeln
+\begin{align*}
+b_1&=a_1
+\\
+b_2&=a_2-b_1\langle b_1,a_2\rangle
+\\
+b_3&=a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle
+\\
+&\phantom{n}\vdots\\
+b_n
+&=
+a_n-b_1\langle b_1,a_n\rangle-b_2\langle b_2,a_n\rangle
+-\dots-b_{n-1}\langle b_{n-1},a_n\rangle.
+\end{align*}
+Die Basisvektoren $b_i$ sind orthogonal, aber $\|b_i\|_2$ kann auch
+von $1$ abweichen.
+Damit ist es zwar nicht mehr so einfach
+wie in \eqref{buch:grundlagen:eqn:koordinaten-in-orthonormalbasis},
+einen Vektor in der Basis zu zerlegen.
+Ein Vektor $v$ hat nämlich in der Basis $\{b_1,\dots,b_n\}$ die Zerlegung
+\begin{equation}
+v
+=
+\sum_{i=1}^n
+\frac{\langle b_i,v\rangle}{\|b_i\|_2^2} b_i,
+\label{buch:grundlagen:eqn:orthogonal-basiszerlegung}
+\end{equation}
+Die Koordinaten bezüglich dieser Basis sind also
+$\langle b_i,v\rangle/\|b_i\|_2^2$.
+
+Die Gram-Matrix einer Orthogonalen Basis ist immer noch diagonal,
+auf der Diagonalen stehen die Normen der Basisvektoren.
+Die Nenner in der Zerlegung
+\eqref{buch:grundlagen:eqn:orthogonal-basiszerlegung}
+sind die Einträge der inverse Matrix der Gram-Matrix.
+
+\subsubsection{Orthonormalbasen in komplexen Vektorräumen}
+Die Gram-Matrix einer Basis $\{b_1,\dots,b_n\}$ in einem komplexen
+Vektorraum hat die Eigenschaft
+\[
+g_{ij}
+=
+\langle b_i,b_j\rangle
+=
+\overline{\langle b_j,b_i\rangle},
+=
+\overline{g}_{ji}
+\quad 1\le i,j\le n.
+\]
+Sie ist nicht mehr symmetrisch, aber selbstadjungiert, gemäss
+der folgenden Definition.
-\subsection{Symmetrische und selbstadjungierte Matrizen
+\begin{definition}
+\label{buch:grundlagen:definition:selstadjungiert}
+Sei $A$ eine komplexe Matrix mit Einträgen $a_{ij}$, dann ist
+$\overline{A}$ die Matrix mit komplex konjugierten Elementen
+$\overline{a}_{ij}$.
+Die {\em adjungierte} Matrix ist $A^*=\overline{A}^t$.
+Eine Matrix heisst selbstadjungiert, wenn $A^*=A$.
+\end{definition}
+
+\subsection{Symmetrische und selbstadjungierte Abbilungen
\label{buch:subsection:symmetrisch-und-selbstadjungiert}}
-%
+In Definition~\ref{buch:grundlagen:definition:selstadjungiert}
+wurde der Begriff der selbstadjungierten Matrix basierend
+eingeführt.
+Als Eigenschaft einer Matrix ist diese Definition notwendigerweise
+abhängig von der Wahl der Basis.
+Es ist nicht unbedingt klar, dass derart definierte Eigenschaften
+als von der Basis unabhängige Eigenschaften betrachtet werden können.
+Ziel dieses Abschnitts ist, Eigenschaften wie Symmetrie oder
+Selbstadjungiertheit auf basisunabhängige Eigenschaften von
+linearen Abbildungen in einem Vektorraum $V$ mit Skalarprodukt
+$\langle\;,\;\rangle$ zu verstehen.
+
+\subsubsection{Symmetrische Abbildungen}
+Sei $f\colon V\to V$ eine lineare Abbildung.
+In einer Basis $\{b_1,\dots,b_n\}\subset V$ wird $f$ durch eine
+Matrix $A$ beschrieben.
+Ist die Basis orthonormiert, dann kann man die Matrixelemente
+mit $a_{ij}=\langle b_i,Ab_j\rangle$ berechnen.
+Die Matrix ist symmetrisch, wenn
+\[
+\langle b_i,Ab_j\rangle
+=
+a_{ij}
+=
+a_{ji}
+=
+\langle b_j,Ab_i \rangle
+=
+\langle Ab_i,b_j \rangle
+\]
+ist.
+Daraus leitet sich jetzt die basisunabhängige Definition einer
+symmetrischen Abbildung ab.
+
+\begin{definition}
+Eine lineare Abbildung $f\colon V\to V$ heisst {\em symmetrisch}, wenn
+$\langle x,Ay\rangle=\langle Ax,y\rangle$ gilt für beliebige
+Vektoren $x,y\in V$.
+\end{definition}
+
+Für $V=\mathbb{R}^n$ und das Skalarprodukt $\langle x,y\rangle=x^ty$
+erfüllt eine symmetrische Abbildung mit der Matrix $A$ die Gleichung
+\[
+\left.
+\begin{aligned}
+\langle x,Ay\rangle
+&=
+x^tAy
+\\
+\langle Ax,y\rangle
+&=
+(Ax)^ty=x^tA^ty
+\end{aligned}
+\right\}
+\quad\Rightarrow\quad
+x^tA^ty = x^tAy\quad\forall x,y\in\mathbb{R}^n,
+\]
+was gleichbedeutend ist mit $A^t=A$.
+Der Begriff der symmetrischen Abbildung ist also eine natürliche
+Verallgemeinerung des Begriffs der symmetrischen Matrix.
+
+\subsubsection{Selbstadjungierte Abbildungen}
+In einem komplexen Vektorraum ist das Skalarprodukt nicht mehr bilinear
+und symmetrisch, sondern sesquilinear und konjugiert symmetrisch.
+
+\begin{definition}
+Eine lineare Abbildung $f\colon V\to V$ heisst {\em selbstadjungiert},
+wenn $\langle x,fy\rangle=\langle fx,y\rangle$ für alle $x,y\in\mathbb{C}$.
+\end{definition}
+
+Im komplexen Vektorraum $\mathbb{C}^n$ ist das Standardskalarprodukt
+definiert durch $\langle x,y\rangle = \overline{x}^ty$.
+
+\subsubsection{Die Adjungierte}
+Die Werte der Skalarprodukte $\langle x, y\rangle$ für alle $x\in V$
+legen den Vektor $y$ fest.
+Gäbe es nämlich einen zweiten Vektor $y'$ mit den gleichen Skalarprodukten,
+also $\langle x,y\rangle = \langle x,y'\rangle$ für alle $x\in V$,
+dann gilt wegen der Linearität $\langle x,y-y'\rangle=0$.
+Wählt man $x=y-y'$, dann folgt
+$0=\langle y-y',y-y'\rangle=\|y-y'\|_2$, also muss $y=y'$ sein.
+
+\begin{definition}
+Sei $f\colon V\to V$ eine lineare Abbildung.
+Die lineare Abbildung $f^*\colon V\to V$ definiert durch
+\[
+\langle f^*x,y\rangle = \langle x,fy\rangle,\qquad x,y\in V
+\]
+heisst die {\em Adjungierte} von $f$.
+\end{definition}
+
+Eine selbstadjungierte Abbildung ist also eine lineare Abbildung,
+die mit ihrer Adjungierte übereinstimmt, als $f^* = f$.
+In einer orthonormierten Basis $\{b_1,\dots,b_n\}$ hat die Abbildung
+$f$ die Matrixelemente $a_{ij}=\langle b_i,fb_j\rangle$.
+Die adjungierte Abbildung hat dann die Matrixelemente
+\[
+\langle b_i,f^*b_j \rangle
+=
+\overline{\langle f^*b_j,b_i\rangle}
+=
+\overline{\langle b_j,fb_i\rangle}
+=
+\overline{a_{ji}},
+\]
+was mit der Definition von $A^*$ übereinstimmt.
\subsection{Orthogonale und unitäre Matrizen
\label{buch:subsection:orthogonale-und-unitaere-matrizen}}
+Von besonderer geometrischer Bedeutung sind lineare Abbildung,
+die die Norm nicht verändern.
+Aus der Polarformel~\eqref{buch:grundlagen:eqn:polarformel}
+folgt dann, dass auch das Skalarprodukt erhalten ist, aus dem
+Winkel berechnet werden können.
+Abbildungen, die die Norm erhalten, sind daher auch winkeltreu.
+
+\begin{definition}
+Eine lineare Abbildung $f\colon V\to V$ in einem reellen
+Vektorraum mit heisst {\em orthogonal}, wenn
+$\langle fx,fy\rangle = \langle x,y\rangle$ für alle
+$x,y\in V$ gilt.
+\end{definition}
+
+Die adjungierte einer orthogonalen Abbildung erfüllt
+$\langle x,y\rangle = \langle fx,fy\rangle = \langle f^*f x, y\rangle$
+für alle $x,y\in V$, also muss $f^*f$ die identische Abbildung sein,
+deren Matrix die Einheitsmatrix ist.
+Die Matrix $O$ einer orthogonalen Abbildung erfüllt daher $O^tO=I$.
+
+Für einen komplexen Vektorraum erwarten wir grundsätzlich dasselbe.
+Lineare Abbildungen, die die Norm erhalten, erhalten das komplexe
+Skalarprodukt.
+Auch in diesem Fall ist $f^*f$ die identische Abbildung, die zugehörigen
+Matrixen $U$ erfüllen daher $U^*U=I$.
+
+\begin{definition}
+Eine lineare Abbildung $f\colon V\to V$ eines komplexen Vektorraumes
+$V$ mit Skalarprodukt heisst unitär,
+wenn $\langle x,y\rangle = \langle fx,fy\rangle$ für alle Vektoren $x,y\in V$.
+Eine Matrix heisst unitär, wenn $U^*U=I$.
+\end{definition}
+
+Die Matrix einer unitären Abbildung in einer orthonormierten Basis ist unitär.
+
% XXX Skalarprodukt und Lineare Abbildungen
% XXX Symmetrische Matrizen
% XXX Selbstadjungierte Matrizen
@@ -343,7 +594,220 @@ a_n-b_1\langle b_1,a_n\rangle-b_2\langle b_2,a_n\rangle
\subsection{Andere Normen auf Vektorräumen
\label{buch:subsection:andere-normen}}
-% XXX l1 Norm
-% XXX linfty Norm
-% XXX Normen auf Funktionenräumen
-% XXX Operatornorm
+Das Skalarprodukt ist nicht die einzige Möglichkeit, eine Norm auf einem
+Vektorraum zu definieren.
+In diesem Abschnitt stellen wir einige weitere mögliche Normdefinitionen
+zusammen.
+
+\subsubsection{$l^1$-Norm}
+\begin{definition}
+Die $l^1$-Norm in $V=\mathbb{R}^n$ oder $V=\mathbb{C}^n$ ist definiert durch
+\[
+\| v\|_1
+=
+\sum_{i=1}^n |v_i|
+\]
+für $v\in V$.
+\end{definition}
+
+Auch die $l^1$-Norm erfüllt die Dreiecksungleichung
+\[
+\|x+y\|_1
+=
+\sum_{i=1}^n |x_i+y_i|
+\le
+\sum_{i=1} |x_i| + \sum_{i=1} |y_i|
+=
+\|x\|_1 + \|y\|_1.
+\]
+
+Die $l^1$-Norm kommt nicht von einem Skalarprodukt her.
+Wenn es ein Skalarprodukt gäbe, welches auf diese Norm führt, dann
+müsste
+\[
+\langle x,y\rangle
+=
+\frac12(\|x+y\|_1^2-\|x\|_1^2-\|y\|_1^2)
+\]
+sein.
+Für die beiden Standardbasisvektoren $x=e_1$ und $y=e_2$
+bedeutet dies
+\[
+\left .
+\begin{aligned}
+\|e_1\|_1 &= 2\\
+\|e_2\|_1 &= 2\\
+\|e_1\pm +e_2\|_1 &= 2\\
+\end{aligned}
+\right\}
+\quad\Rightarrow\quad
+\langle e_1,\pm e_2\rangle
+=
+\frac12( 2^2 - 1^2 - 1^2)
+=1
+\]
+Die Linearität des Skalarproduktes verlangt aber, dass
+$1=\langle e_1,-e_2\rangle = -\langle e_1,e_2\rangle = -1$,
+ein Widerspruch.
+
+\subsubsection{$l^\infty$-Norm}
+
+
+\begin{definition}
+Die $l^\infty$-Norm in $V=\mathbb{R}^n$ und $V=\mathbb{C}^n$ ist definiert
+\[
+\|v\|_\infty
+=
+\max_{i} |v_i|.
+\]
+Sie heisst auch die {\em Supremumnorm}.
+\index{Supremumnorm}%
+\end{definition}
+
+Auch diese Norm erfüllt die Dreiecksungleichung
+\[
+\|x+y\|_\infty
+=
+\max_i |x_i+y_i|
+\le
+\max_i (|x_i| + |y_i|)
+\le
+\max_i |x_i| + \max_i |y_i|
+=
+\|x\|_\infty + \|y\|_\infty.
+\]
+Auch diese Norm kann nicht von einem Skalarprodukt herkommen, ein
+Gegenbeispiel können wir wieder mit den ersten beiden Standardbasisvektoren
+konstruieren.
+Es ist
+\[
+\left.
+\begin{aligned}
+\|e_1\|_\infty &= 1\\
+\|e_2\|_\infty &= 1\\
+\|e_1\pm e_2\|_\infty &= 1
+\end{aligned}
+\right\}
+\qquad\Rightarrow\qquad
+\langle e_1,\pm e_2\rangle
+=
+\frac12(\|e_1\pm e_2\|_\infty^2 - \|e_1\|_\infty^2 - \|e_2\|_\infty^2)
+=
+\frac12(1-1-1) = -\frac12.
+\]
+Es folgt wieder
+\(
+-\frac12
+=
+\langle e_1,-e_2\rangle
+=
+-\langle e_1,e_2\rangle
+=
+\frac12,
+\)
+ein Widerspruch.
+
+\subsubsection{Operatornorm}
+Der Vektorraum der linearen Abbildungen $f\colon U\to V$ kann mit einer
+Norm ausgestattet werden, wenn $U$ und $V$ jeweils eine Norm haben.
+
+\begin{definition}
+Seien $U$ und $V$ Vektorräume über $\mathbb{R}$ oder $\mathbb{C}$ und
+$f\colon U\to V$ eine lineare Abbildung.
+Die {\em Operatorname} der linearen Abbildung ist
+\[
+\|f\|
+=
+\sup_{x\in U\wedge \|x\|\le 1} \|fx\|.
+\]
+\end{definition}
+
+Nach Definition gilt $\|fx\| \le \|f\|\cdot \|x\|$ für alle $x\in U$.
+Die in den Vektorräumen $U$ und $V$ verwendeten Normen haben einen
+grossen Einfluss auf die Operatornorm, wie die beiden folgenden
+Beispiele zeigen.
+
+\begin{beispiel}
+Sei $V$ ein komplexer Vektorraum mit einem Skalarprodukt und $y\in V$ ein
+Vektor.
+$y$ definiert die lineare Abbildung
+\[
+l_y
+\colon
+V\to \mathbb{C}: x\mapsto \langle y,x\rangle.
+\]
+Zur Berechnung der Operatorname von $l_y$
+\[
+|l_y(x)|^2
+=
+|\langle y,x\rangle|^2
+\le
+\|y\|_2^2\cdot \|x\|_2^2
+\]
+mit Gleichheit genau dann, wenn $x$ und $y$ linear abhängig sind.
+Dies bedeutet, dass
+$\|l_y\|=\|y\|$, die Operatorname von $l_y$ stimmt mit der Norm von $y$
+überein.
+\end{beispiel}
+
+\begin{beispiel}
+Sei $V=\mathbb{C}^n$.
+Dann definiert $y\in V$ eine Linearform
+\[
+l_y
+\colon
+V\to \mathbb C
+:
+x\mapsto y^tx.
+\]
+Wir suchen die Operatornorm von $l_y$, wenn $V$ mit der $l^1$-Norm
+ausgestattet wird.
+Sei $k$ der Index der betragsmässig grössten Komponente von $y_k$,
+also $\| y\|_\infty = |y_k|$.
+Dann gilt
+\[
+|l_y(x)|
+=
+\biggl|\sum_{i=1}^n y_ix_i\biggr|
+\le
+\sum_{i=1}^n |y_i|\cdot |x_i|
+\le
+|y_k| \sum_{i=1}^n |x_i|
+=
+\|y\|_\infty\cdot \|x\|_1.
+\]
+Gleichheit wird erreicht, wenn die Komponente $k$ die einzige
+von $0$ verschiedene Komponente des Vektors $x$ ist.
+Somit ist $\|l_y\| = \|y\|_\infty$.
+\end{beispiel}
+
+
+\subsubsection{Normen auf Funktionenräumen}
+Alle auf $\mathbb{R}^n$ und $\mathbb{C}^n$ definierten Normen lassen
+sich auf den Raum der stetigen Funktionen $[a,b]\to\mathbb{R}$ oder
+$[a,b]\to\mathbb{C}$ verallgemeinern.
+
+Die Supremumnorm auf dem Vektorraum der stetigen Funktionen ist
+\[
+\|f\|_\infty = \sup_{x\in[a,b]} |f(x)|
+\]
+für $f\in C([a,b],\mathbb{R})$ oder $f\in C([a,b],\mathbb{C})$.
+
+Für die anderen beiden Normen wird zusätzlich das bestimmte Integral
+von Funktionen auf $[a,b]$ benötigt.
+Die $L^2$-Norm wird erzeugt von dem Skalarprodukt
+\[
+\langle f,g\rangle
+=
+\frac{1}{b-a}
+\int_a^b \overline{f}(x)g(x)\,dx
+\qquad\Rightarrow\qquad
+\|f\|_2^2 = \frac{1}{b-a}\int_a^b |f(x)|^2\,dx.
+\]
+Die $L^2$-Norm ist dagegen
+\[
+\|f\|_1
+=
+\int_a^b |f(x)|\,dx.
+\]
+