diff options
author | Andreas Müller <andreas.mueller@ost.ch> | 2021-02-14 21:23:51 +0100 |
---|---|---|
committer | Andreas Müller <andreas.mueller@ost.ch> | 2021-02-14 21:23:51 +0100 |
commit | c07ff85205dc3916679a4b7da916e9b663b312cf (patch) | |
tree | f0d89223d3399dc325c9c05c07002cb22291c238 | |
parent | skalarprodukt hinzugefügt (diff) | |
download | SeminarMatrizen-c07ff85205dc3916679a4b7da916e9b663b312cf.tar.gz SeminarMatrizen-c07ff85205dc3916679a4b7da916e9b663b312cf.zip |
skalarprodukt stuff
Diffstat (limited to '')
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/skalarprodukt.tex | 478 |
1 files changed, 471 insertions, 7 deletions
diff --git a/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex index 45f7a6b..19ebe6e 100644 --- a/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex +++ b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex @@ -250,7 +250,7 @@ Polarformel~\eqref{buch:grundlagen:eqn:polarformel} bewiesen. \end{proof} -\subsubsection{Komplexe Vektorräume uns Sesquilinearformen} +\subsubsection{Komplexe Vektorräume und Sesquilinearformen} % XXX Sesquilinearform Eine Bilinearform auf einem komplexen Vektorraum führt nicht auf eine Grösse, die sich als Norm eignet. @@ -296,6 +296,48 @@ Für die Norm $\|x\|_2^2=\langle x,x\rangle$ bedeutet dies jetzt \label{buch:subsection:orthonormalbasis}} \index{orthonormierte Basis}% +\subsubsection{Gram-Matrix} +Sei $V$ ein Vektorraum mit einem Skalarprodukt und $\{b_1,\dots,b_n\}$ eine +Basis von $V$. +Wie kann man das Skalarprodukt aus den Koordinaten $\xi_i$ und $\eta_i$ +der Vektoren +\[ +x = \sum_{i=1}^n \xi_i b_i, +\quad\text{und}\quad +y = \sum_{i=1}^n \eta_i b_i +\] +berechnen? +Setzt man $x$ und $y$ in das Skalarprodukt ein, erhält man +\begin{align*} +\langle x,y\rangle +&= +\biggl\langle +\sum_{i=1}^n \xi_i b_i, +\sum_{j=1}^n \eta_j b_j +\biggr\rangle += +\sum_{i,j=1}^n \xi_i\eta_j \langle b_i,b_j\rangle. +\end{align*} +Die Komponente $g_{ij}=\langle b_i,b_j\rangle$ bilden die sogenannte +Gram-Matrix $G$. +Mit ihr kann das Skalarprodukt auch in Vektorform geschrieben werden +als $\langle x,y\rangle = \xi^t G\eta$. + +\subsubsection{Orthonormalbasis} +Eine Basis $\{a_1,\dots,a_n\}$ aus orthogonalen Einheitsvektoren, +also mit +$ +\langle a_i,a_j\rangle=\delta_{ij} +$ +heisst {\em Orthonormalbasis}. +In einer Orthonormalbasis ist die Bestimmung der Koordinaten eines +beliebigen Vektors besonders einfach, ist nämlich +\begin{equation} +v=\sum_{i=1}^n \langle v,a_i\rangle a_i. +\label{buch:grundlagen:eqn:koordinaten-in-orthonormalbasis} +\end{equation} +Die Gram-Matrix einer Orthonormalbasis ist die Einheitsmatrix. + \subsubsection{Gram-Schmidt-Orthonormalisierung} Mit Hilfe des Gram-Schmidtschen Orthonormalisierungsprozesses kann aus einer beliebige Basis $\{a_1,a_2,\dots,a_n\}\subset V$ eines Vektorraums @@ -325,13 +367,222 @@ a_n-b_1\langle b_1,a_n\rangle-b_2\langle b_2,a_n\rangle \|_2 }. \end{align*} +Die Gram-Matrix der Matrix $\{b_1,\dots,b_n\}$ ist die Einheitsmatrix. + +\subsubsection{Orthogonalisierung} +Der Normalisierungsschritt im Gram-Schmidt-Orthonormalisierungsprozess +ist nur möglich, wenn Quadratwurzeln unbeschränkt gezogen werden können. +Das ist in $\mathbb{R}$ möglich, nicht jedoch in $\mathbb{Q}$. +Es ist aber mit einer kleinen Anpassung auch über $\mathbb{Q}$ +immer noch möglich, aus einer Basis $\{a_1,\dots,a_n\}$ eine orthogonale +Basis zu konstruieren. +Man verwendet dazu die Formeln +\begin{align*} +b_1&=a_1 +\\ +b_2&=a_2-b_1\langle b_1,a_2\rangle +\\ +b_3&=a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle +\\ +&\phantom{n}\vdots\\ +b_n +&= +a_n-b_1\langle b_1,a_n\rangle-b_2\langle b_2,a_n\rangle +-\dots-b_{n-1}\langle b_{n-1},a_n\rangle. +\end{align*} +Die Basisvektoren $b_i$ sind orthogonal, aber $\|b_i\|_2$ kann auch +von $1$ abweichen. +Damit ist es zwar nicht mehr so einfach +wie in \eqref{buch:grundlagen:eqn:koordinaten-in-orthonormalbasis}, +einen Vektor in der Basis zu zerlegen. +Ein Vektor $v$ hat nämlich in der Basis $\{b_1,\dots,b_n\}$ die Zerlegung +\begin{equation} +v += +\sum_{i=1}^n +\frac{\langle b_i,v\rangle}{\|b_i\|_2^2} b_i, +\label{buch:grundlagen:eqn:orthogonal-basiszerlegung} +\end{equation} +Die Koordinaten bezüglich dieser Basis sind also +$\langle b_i,v\rangle/\|b_i\|_2^2$. + +Die Gram-Matrix einer Orthogonalen Basis ist immer noch diagonal, +auf der Diagonalen stehen die Normen der Basisvektoren. +Die Nenner in der Zerlegung +\eqref{buch:grundlagen:eqn:orthogonal-basiszerlegung} +sind die Einträge der inverse Matrix der Gram-Matrix. + +\subsubsection{Orthonormalbasen in komplexen Vektorräumen} +Die Gram-Matrix einer Basis $\{b_1,\dots,b_n\}$ in einem komplexen +Vektorraum hat die Eigenschaft +\[ +g_{ij} += +\langle b_i,b_j\rangle += +\overline{\langle b_j,b_i\rangle}, += +\overline{g}_{ji} +\quad 1\le i,j\le n. +\] +Sie ist nicht mehr symmetrisch, aber selbstadjungiert, gemäss +der folgenden Definition. -\subsection{Symmetrische und selbstadjungierte Matrizen +\begin{definition} +\label{buch:grundlagen:definition:selstadjungiert} +Sei $A$ eine komplexe Matrix mit Einträgen $a_{ij}$, dann ist +$\overline{A}$ die Matrix mit komplex konjugierten Elementen +$\overline{a}_{ij}$. +Die {\em adjungierte} Matrix ist $A^*=\overline{A}^t$. +Eine Matrix heisst selbstadjungiert, wenn $A^*=A$. +\end{definition} + +\subsection{Symmetrische und selbstadjungierte Abbilungen \label{buch:subsection:symmetrisch-und-selbstadjungiert}} -% +In Definition~\ref{buch:grundlagen:definition:selstadjungiert} +wurde der Begriff der selbstadjungierten Matrix basierend +eingeführt. +Als Eigenschaft einer Matrix ist diese Definition notwendigerweise +abhängig von der Wahl der Basis. +Es ist nicht unbedingt klar, dass derart definierte Eigenschaften +als von der Basis unabhängige Eigenschaften betrachtet werden können. +Ziel dieses Abschnitts ist, Eigenschaften wie Symmetrie oder +Selbstadjungiertheit auf basisunabhängige Eigenschaften von +linearen Abbildungen in einem Vektorraum $V$ mit Skalarprodukt +$\langle\;,\;\rangle$ zu verstehen. + +\subsubsection{Symmetrische Abbildungen} +Sei $f\colon V\to V$ eine lineare Abbildung. +In einer Basis $\{b_1,\dots,b_n\}\subset V$ wird $f$ durch eine +Matrix $A$ beschrieben. +Ist die Basis orthonormiert, dann kann man die Matrixelemente +mit $a_{ij}=\langle b_i,Ab_j\rangle$ berechnen. +Die Matrix ist symmetrisch, wenn +\[ +\langle b_i,Ab_j\rangle += +a_{ij} += +a_{ji} += +\langle b_j,Ab_i \rangle += +\langle Ab_i,b_j \rangle +\] +ist. +Daraus leitet sich jetzt die basisunabhängige Definition einer +symmetrischen Abbildung ab. + +\begin{definition} +Eine lineare Abbildung $f\colon V\to V$ heisst {\em symmetrisch}, wenn +$\langle x,Ay\rangle=\langle Ax,y\rangle$ gilt für beliebige +Vektoren $x,y\in V$. +\end{definition} + +Für $V=\mathbb{R}^n$ und das Skalarprodukt $\langle x,y\rangle=x^ty$ +erfüllt eine symmetrische Abbildung mit der Matrix $A$ die Gleichung +\[ +\left. +\begin{aligned} +\langle x,Ay\rangle +&= +x^tAy +\\ +\langle Ax,y\rangle +&= +(Ax)^ty=x^tA^ty +\end{aligned} +\right\} +\quad\Rightarrow\quad +x^tA^ty = x^tAy\quad\forall x,y\in\mathbb{R}^n, +\] +was gleichbedeutend ist mit $A^t=A$. +Der Begriff der symmetrischen Abbildung ist also eine natürliche +Verallgemeinerung des Begriffs der symmetrischen Matrix. + +\subsubsection{Selbstadjungierte Abbildungen} +In einem komplexen Vektorraum ist das Skalarprodukt nicht mehr bilinear +und symmetrisch, sondern sesquilinear und konjugiert symmetrisch. + +\begin{definition} +Eine lineare Abbildung $f\colon V\to V$ heisst {\em selbstadjungiert}, +wenn $\langle x,fy\rangle=\langle fx,y\rangle$ für alle $x,y\in\mathbb{C}$. +\end{definition} + +Im komplexen Vektorraum $\mathbb{C}^n$ ist das Standardskalarprodukt +definiert durch $\langle x,y\rangle = \overline{x}^ty$. + +\subsubsection{Die Adjungierte} +Die Werte der Skalarprodukte $\langle x, y\rangle$ für alle $x\in V$ +legen den Vektor $y$ fest. +Gäbe es nämlich einen zweiten Vektor $y'$ mit den gleichen Skalarprodukten, +also $\langle x,y\rangle = \langle x,y'\rangle$ für alle $x\in V$, +dann gilt wegen der Linearität $\langle x,y-y'\rangle=0$. +Wählt man $x=y-y'$, dann folgt +$0=\langle y-y',y-y'\rangle=\|y-y'\|_2$, also muss $y=y'$ sein. + +\begin{definition} +Sei $f\colon V\to V$ eine lineare Abbildung. +Die lineare Abbildung $f^*\colon V\to V$ definiert durch +\[ +\langle f^*x,y\rangle = \langle x,fy\rangle,\qquad x,y\in V +\] +heisst die {\em Adjungierte} von $f$. +\end{definition} + +Eine selbstadjungierte Abbildung ist also eine lineare Abbildung, +die mit ihrer Adjungierte übereinstimmt, als $f^* = f$. +In einer orthonormierten Basis $\{b_1,\dots,b_n\}$ hat die Abbildung +$f$ die Matrixelemente $a_{ij}=\langle b_i,fb_j\rangle$. +Die adjungierte Abbildung hat dann die Matrixelemente +\[ +\langle b_i,f^*b_j \rangle += +\overline{\langle f^*b_j,b_i\rangle} += +\overline{\langle b_j,fb_i\rangle} += +\overline{a_{ji}}, +\] +was mit der Definition von $A^*$ übereinstimmt. \subsection{Orthogonale und unitäre Matrizen \label{buch:subsection:orthogonale-und-unitaere-matrizen}} +Von besonderer geometrischer Bedeutung sind lineare Abbildung, +die die Norm nicht verändern. +Aus der Polarformel~\eqref{buch:grundlagen:eqn:polarformel} +folgt dann, dass auch das Skalarprodukt erhalten ist, aus dem +Winkel berechnet werden können. +Abbildungen, die die Norm erhalten, sind daher auch winkeltreu. + +\begin{definition} +Eine lineare Abbildung $f\colon V\to V$ in einem reellen +Vektorraum mit heisst {\em orthogonal}, wenn +$\langle fx,fy\rangle = \langle x,y\rangle$ für alle +$x,y\in V$ gilt. +\end{definition} + +Die adjungierte einer orthogonalen Abbildung erfüllt +$\langle x,y\rangle = \langle fx,fy\rangle = \langle f^*f x, y\rangle$ +für alle $x,y\in V$, also muss $f^*f$ die identische Abbildung sein, +deren Matrix die Einheitsmatrix ist. +Die Matrix $O$ einer orthogonalen Abbildung erfüllt daher $O^tO=I$. + +Für einen komplexen Vektorraum erwarten wir grundsätzlich dasselbe. +Lineare Abbildungen, die die Norm erhalten, erhalten das komplexe +Skalarprodukt. +Auch in diesem Fall ist $f^*f$ die identische Abbildung, die zugehörigen +Matrixen $U$ erfüllen daher $U^*U=I$. + +\begin{definition} +Eine lineare Abbildung $f\colon V\to V$ eines komplexen Vektorraumes +$V$ mit Skalarprodukt heisst unitär, +wenn $\langle x,y\rangle = \langle fx,fy\rangle$ für alle Vektoren $x,y\in V$. +Eine Matrix heisst unitär, wenn $U^*U=I$. +\end{definition} + +Die Matrix einer unitären Abbildung in einer orthonormierten Basis ist unitär. + % XXX Skalarprodukt und Lineare Abbildungen % XXX Symmetrische Matrizen % XXX Selbstadjungierte Matrizen @@ -343,7 +594,220 @@ a_n-b_1\langle b_1,a_n\rangle-b_2\langle b_2,a_n\rangle \subsection{Andere Normen auf Vektorräumen \label{buch:subsection:andere-normen}} -% XXX l1 Norm -% XXX linfty Norm -% XXX Normen auf Funktionenräumen -% XXX Operatornorm +Das Skalarprodukt ist nicht die einzige Möglichkeit, eine Norm auf einem +Vektorraum zu definieren. +In diesem Abschnitt stellen wir einige weitere mögliche Normdefinitionen +zusammen. + +\subsubsection{$l^1$-Norm} +\begin{definition} +Die $l^1$-Norm in $V=\mathbb{R}^n$ oder $V=\mathbb{C}^n$ ist definiert durch +\[ +\| v\|_1 += +\sum_{i=1}^n |v_i| +\] +für $v\in V$. +\end{definition} + +Auch die $l^1$-Norm erfüllt die Dreiecksungleichung +\[ +\|x+y\|_1 += +\sum_{i=1}^n |x_i+y_i| +\le +\sum_{i=1} |x_i| + \sum_{i=1} |y_i| += +\|x\|_1 + \|y\|_1. +\] + +Die $l^1$-Norm kommt nicht von einem Skalarprodukt her. +Wenn es ein Skalarprodukt gäbe, welches auf diese Norm führt, dann +müsste +\[ +\langle x,y\rangle += +\frac12(\|x+y\|_1^2-\|x\|_1^2-\|y\|_1^2) +\] +sein. +Für die beiden Standardbasisvektoren $x=e_1$ und $y=e_2$ +bedeutet dies +\[ +\left . +\begin{aligned} +\|e_1\|_1 &= 2\\ +\|e_2\|_1 &= 2\\ +\|e_1\pm +e_2\|_1 &= 2\\ +\end{aligned} +\right\} +\quad\Rightarrow\quad +\langle e_1,\pm e_2\rangle += +\frac12( 2^2 - 1^2 - 1^2) +=1 +\] +Die Linearität des Skalarproduktes verlangt aber, dass +$1=\langle e_1,-e_2\rangle = -\langle e_1,e_2\rangle = -1$, +ein Widerspruch. + +\subsubsection{$l^\infty$-Norm} + + +\begin{definition} +Die $l^\infty$-Norm in $V=\mathbb{R}^n$ und $V=\mathbb{C}^n$ ist definiert +\[ +\|v\|_\infty += +\max_{i} |v_i|. +\] +Sie heisst auch die {\em Supremumnorm}. +\index{Supremumnorm}% +\end{definition} + +Auch diese Norm erfüllt die Dreiecksungleichung +\[ +\|x+y\|_\infty += +\max_i |x_i+y_i| +\le +\max_i (|x_i| + |y_i|) +\le +\max_i |x_i| + \max_i |y_i| += +\|x\|_\infty + \|y\|_\infty. +\] +Auch diese Norm kann nicht von einem Skalarprodukt herkommen, ein +Gegenbeispiel können wir wieder mit den ersten beiden Standardbasisvektoren +konstruieren. +Es ist +\[ +\left. +\begin{aligned} +\|e_1\|_\infty &= 1\\ +\|e_2\|_\infty &= 1\\ +\|e_1\pm e_2\|_\infty &= 1 +\end{aligned} +\right\} +\qquad\Rightarrow\qquad +\langle e_1,\pm e_2\rangle += +\frac12(\|e_1\pm e_2\|_\infty^2 - \|e_1\|_\infty^2 - \|e_2\|_\infty^2) += +\frac12(1-1-1) = -\frac12. +\] +Es folgt wieder +\( +-\frac12 += +\langle e_1,-e_2\rangle += +-\langle e_1,e_2\rangle += +\frac12, +\) +ein Widerspruch. + +\subsubsection{Operatornorm} +Der Vektorraum der linearen Abbildungen $f\colon U\to V$ kann mit einer +Norm ausgestattet werden, wenn $U$ und $V$ jeweils eine Norm haben. + +\begin{definition} +Seien $U$ und $V$ Vektorräume über $\mathbb{R}$ oder $\mathbb{C}$ und +$f\colon U\to V$ eine lineare Abbildung. +Die {\em Operatorname} der linearen Abbildung ist +\[ +\|f\| += +\sup_{x\in U\wedge \|x\|\le 1} \|fx\|. +\] +\end{definition} + +Nach Definition gilt $\|fx\| \le \|f\|\cdot \|x\|$ für alle $x\in U$. +Die in den Vektorräumen $U$ und $V$ verwendeten Normen haben einen +grossen Einfluss auf die Operatornorm, wie die beiden folgenden +Beispiele zeigen. + +\begin{beispiel} +Sei $V$ ein komplexer Vektorraum mit einem Skalarprodukt und $y\in V$ ein +Vektor. +$y$ definiert die lineare Abbildung +\[ +l_y +\colon +V\to \mathbb{C}: x\mapsto \langle y,x\rangle. +\] +Zur Berechnung der Operatorname von $l_y$ +\[ +|l_y(x)|^2 += +|\langle y,x\rangle|^2 +\le +\|y\|_2^2\cdot \|x\|_2^2 +\] +mit Gleichheit genau dann, wenn $x$ und $y$ linear abhängig sind. +Dies bedeutet, dass +$\|l_y\|=\|y\|$, die Operatorname von $l_y$ stimmt mit der Norm von $y$ +überein. +\end{beispiel} + +\begin{beispiel} +Sei $V=\mathbb{C}^n$. +Dann definiert $y\in V$ eine Linearform +\[ +l_y +\colon +V\to \mathbb C +: +x\mapsto y^tx. +\] +Wir suchen die Operatornorm von $l_y$, wenn $V$ mit der $l^1$-Norm +ausgestattet wird. +Sei $k$ der Index der betragsmässig grössten Komponente von $y_k$, +also $\| y\|_\infty = |y_k|$. +Dann gilt +\[ +|l_y(x)| += +\biggl|\sum_{i=1}^n y_ix_i\biggr| +\le +\sum_{i=1}^n |y_i|\cdot |x_i| +\le +|y_k| \sum_{i=1}^n |x_i| += +\|y\|_\infty\cdot \|x\|_1. +\] +Gleichheit wird erreicht, wenn die Komponente $k$ die einzige +von $0$ verschiedene Komponente des Vektors $x$ ist. +Somit ist $\|l_y\| = \|y\|_\infty$. +\end{beispiel} + + +\subsubsection{Normen auf Funktionenräumen} +Alle auf $\mathbb{R}^n$ und $\mathbb{C}^n$ definierten Normen lassen +sich auf den Raum der stetigen Funktionen $[a,b]\to\mathbb{R}$ oder +$[a,b]\to\mathbb{C}$ verallgemeinern. + +Die Supremumnorm auf dem Vektorraum der stetigen Funktionen ist +\[ +\|f\|_\infty = \sup_{x\in[a,b]} |f(x)| +\] +für $f\in C([a,b],\mathbb{R})$ oder $f\in C([a,b],\mathbb{C})$. + +Für die anderen beiden Normen wird zusätzlich das bestimmte Integral +von Funktionen auf $[a,b]$ benötigt. +Die $L^2$-Norm wird erzeugt von dem Skalarprodukt +\[ +\langle f,g\rangle += +\frac{1}{b-a} +\int_a^b \overline{f}(x)g(x)\,dx +\qquad\Rightarrow\qquad +\|f\|_2^2 = \frac{1}{b-a}\int_a^b |f(x)|^2\,dx. +\] +Die $L^2$-Norm ist dagegen +\[ +\|f\|_1 += +\int_a^b |f(x)|\,dx. +\] + |