diff options
author | fabioviecelli <80270098+fabioviecelli@users.noreply.github.com> | 2021-09-08 09:23:56 +0200 |
---|---|---|
committer | fabioviecelli <80270098+fabioviecelli@users.noreply.github.com> | 2021-09-08 09:23:56 +0200 |
commit | 910a4f556d89d75ee07384a2a3fb963334552264 (patch) | |
tree | 53f346e2de59d4bf1365535b709f0a2e8ebffba1 /buch/chapters/10-vektorenmatrizen | |
parent | Ergänzungen (diff) | |
parent | editorial edits clifford (diff) | |
download | SeminarMatrizen-910a4f556d89d75ee07384a2a3fb963334552264.tar.gz SeminarMatrizen-910a4f556d89d75ee07384a2a3fb963334552264.zip |
Merge remote-tracking branch 'upstream/master'
Diffstat (limited to 'buch/chapters/10-vektorenmatrizen')
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/algebren.tex | 6 | ||||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/gruppen.tex | 61 | ||||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/hadamard.tex | 70 | ||||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/koerper.tex | 59 | ||||
-rwxr-xr-x | buch/chapters/10-vektorenmatrizen/linear.tex | 344 | ||||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/ringe.tex | 22 | ||||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/skalarprodukt.tex | 334 | ||||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/strukturen.tex | 7 |
8 files changed, 695 insertions, 208 deletions
diff --git a/buch/chapters/10-vektorenmatrizen/algebren.tex b/buch/chapters/10-vektorenmatrizen/algebren.tex index 9e1d3dc..594b94e 100644 --- a/buch/chapters/10-vektorenmatrizen/algebren.tex +++ b/buch/chapters/10-vektorenmatrizen/algebren.tex @@ -10,10 +10,13 @@ vorhanden. Die Menge der Matrizen $M_n(\Bbbk)$ ist sowohl ein Ring als auch ein Vektorraum. Man nennt eine {\em $\Bbbk$-Algebra} oder {\em Algebra über $\Bbbk$} +\index{k-Algebra@$\Bbbk$-Algebra}% +\index{Algebra}% ein Ring $A$, der auch eine $\Bbbk$-Vektorraum ist. Die Multiplikation des Ringes muss dazu mit der Skalarmultiplikation verträglich sein. Dazu müssen Assoziativgesetze +\index{Assoziativgesetz} \[ \lambda(\mu a) = (\lambda \mu) a \qquad\text{und}\qquad @@ -42,7 +45,8 @@ beinhaltet aber auch das Distributivgesetz. $M_n(\Bbbk)$ ist eine Algebra. \subsubsection{Die Algebra der Funktionen $\Bbbk^X$} -Sie $X$ eine Menge und $\Bbbk^X$ die Menge aller Funktionen $X\to \Bbbk$. +Sei $X$ eine Menge und $\Bbbk^X$ die Menge aller Funktionen $X\to \Bbbk$. +\index{kX@$\Bbbk^X$}% Auf $\Bbbk^X$ kann man Addition, Multiplikation mit Skalaren und Multiplikation von Funktionen punktweise definieren. Für zwei Funktion $f,g\in\Bbbk^X$ und $\lambda\in\Bbbk$ definiert man diff --git a/buch/chapters/10-vektorenmatrizen/gruppen.tex b/buch/chapters/10-vektorenmatrizen/gruppen.tex index cb37d05..741a871 100644 --- a/buch/chapters/10-vektorenmatrizen/gruppen.tex +++ b/buch/chapters/10-vektorenmatrizen/gruppen.tex @@ -8,20 +8,23 @@ Die kleinste sinnvolle Struktur ist die einer Gruppe. Eine solche besteht aus einer Menge $G$ mit einer Verknüpfung, die additiv +\index{additive Verknüpfung}% \begin{align*} -G\times G \to G&: (g,h) = gh -\intertext{oder multiplikativ } G\times G \to G&: (g,h) = g+h +\intertext{oder multiplikativ } +G\times G \to G&: (g,h) = gh \end{align*} +\index{multiplikative Verknüpfung}% geschrieben werden kann. Ein Element $0\in G$ heisst {\em neutrales Element} bezüglich der additiv +\index{neutrales Element}% geschriebenen Verknüpfung falls $0+x=x$ für alle $x\in G$. \index{neutrales Element}% Ein Element $e\in G$ heisst neutrales Element bezüglich der multiplikativ geschriebneen Verknüpfung, wenn $ex=x$ für alle $x\in G$. In den folgenden Definitionen werden wir immer die multiplikative -Schreibweise verwenden, für Fälle additiv geschriebener siehe auch die -Beispiele weiter unten. +Schreibweise verwenden, für Fälle additiv geschriebener Verknüpfungen +siehe auch die Beispiele weiter unten. \begin{definition} \index{Gruppe}% @@ -32,24 +35,28 @@ Eigenschaften: \begin{enumerate} \item Die Verknüpfung ist assoziativ: $(ab)c=a(bc)$ für alle $a,b,c\in G$. +\index{assoziativ}% \item Es gibt ein neutrales Element $e\in G$ \item Für jedes Element $g\in G$ gibt es ein Element $h\in G$ mit $hg=e$. \end{enumerate} -Das Element $h$ heisst auch das Inverse Element zu $g$. +Das Element $h$ heisst auch das inverse Element zu $g$. +\index{inverses Element}% \end{definition} Falls nicht jedes Element invertierbar ist, aber wenigstens ein neutrales Element vorhanden ist, spricht man von einem {\em Monoid}. \index{Monoid}% -Hat man nur eine Verknüpfung, spricht man oft von einer {\em Halbruppe}. +Hat man nur eine Verknüpfung, aber kein neutrales Element, +spricht man oft von einer {\em Halbruppe}. \index{Halbgruppe}% \begin{definition} Eine Gruppe $G$ heisst abelsch, wenn $ab=ba$ für alle $a,b\in G$. \end{definition} +\index{abelsch}% Additiv geschrieben Gruppen werden immer als abelsch angenommen, multiplikativ geschrieben Gruppen können abelsch oder nichtabelsch sein. @@ -63,7 +70,9 @@ Das additive Inverse eines Elementes $a$ ist $-a$. \end{beispiel} \begin{beispiel} -Die von Null verschiedenen Elemente $\Bbbk^*$ eines Zahlekörpers bilden +Die von Null verschiedenen Elemente $\Bbbk^*=\Bbbk\setminus\{0\}$ (definiert +auf Seite~\pageref{buch:zahlen:def:bbbk*}) +eines Zahlekörpers bilden bezüglich der Multiplikation eine Gruppe mit neutralem Element $1$. Das multiplikative Inverse eines Elementes $a\in \Bbbk$ mit $a\ne 0$ ist $a^{-1}=\frac1{a}$. @@ -75,7 +84,7 @@ dem Nullvektor als neutralem Element. Betrachtet man $\Bbbk^n$ als Gruppe, verliert man die Multiplikation mit Skalaren aus den Augen. $\Bbbk^n$ als Gruppe zu bezeichnen ist also nicht falsch, man -verliert dadurch aber +verliert dadurch aber den Blick auf die Multiplikation mit Skalaren. \end{beispiel} \begin{beispiel} @@ -115,6 +124,7 @@ Ist $G$ eine Gruppe mit neutralem Element $e$, dann gilt $xe=x$ für alle $x\in G$ \item Es gibt nur ein neutrales Element. +\index{neutrales Element}% Wenn also $f\in G$ mit $fx=x$ für alle $x\in G$, ist dann folgt $f=e$. \item Wenn $hg=e$ gilt, dann auch $gh=e$ und $h$ ist durch $g$ eindeutig bestimmt. @@ -171,16 +181,22 @@ f = fe = e \] aus der Eigenschaft~1. -Schliesslich sei $x$ ein beliebiges Inverses von $g$, dann ist -$xg=e$, dann folgt +Schliesslich sei $x$ ein beliebiges Inverses von $g$. +Dann ist $xg=e$ und es folgt $x=xe=x(gh)=(xg)h = eh = h$, es gibt also nur ein Inverses von $g$. \end{proof} -Diesem Problem sind wir zum Beispiel auch in +Der Frage, ob Linksinverse und Rechtsinverse übereinstimmen, +sind wir zum Beispiel bereits in Abschnitt~\ref{buch:grundlagen:subsection:gleichungssyteme} -begegnet, wo wir nur gezeigt haben, dass $AA^{-1}=E$ ist. -Da aber die invertierbaren Matrizen eine Gruppe -bilden, folgt jetzt aus dem Satz automatisch, dass auch $A^{-1}A=E$. +begegnet. +Dort haben wir bereits gezeigt, dass nicht nur $AA^{-1}=I$, +sondern auch $A^{-1}A=I$. +Die dabei verwendete Methode war identisch mit dem hier gezeigten +Beweis. +Da die invertierbaren Matrizen eine Gruppe bilden, stellt sich +dieses Resultat jetzt als Spezialfall des +Satzes~\ref{buch:vektorenmatrizen:satz:gruppenregeln} dar. \subsubsection{Homomorphismen} \label{buch:gruppen:subsection:homomorphismen} Lineare Abbildung zwischen Vektorräumen zeichnen sich dadurch aus, @@ -189,6 +205,7 @@ Für eine Abbildung zwischen Gruppen heisst dies, dass die Verknüpfung, das neutrale Element und die Inverse respektiert werden müssen. \begin{definition} +\label{buch:gruppen:def:homomorphismus} Ein Abbildung $\varphi\colon G\to H$ zwischen Gruppen heisst ein {\em Homomorphismus}, wenn $\varphi(g_1g_2)=\varphi(g_1)\varphi(g_2)$ für alle $g_1,g_2\in G$ gilt. @@ -231,17 +248,20 @@ e ghg^{-1}\in\ker\varphi. \] Der Kern wird also von der Abbildung $h\mapsto ghg^{-1}$, -der {\em Konjugation} in sich abgebildet. +der {\em Konjugation}, in sich abgebildet. +\index{Konjugation in einer Gruppe} \begin{definition} Eine Untergruppe $H \subset G$ heisst ein {\em Normalteiler}, geschrieben $H \triangleleft G$ wenn $gHg^{-1}\subset H$ für jedes $g\in G$. -\index{Normalteiler} +\index{Normalteiler}% \end{definition} Die Konjugation selbst ist ebenfalls keine Unbekannte, sie ist uns -bei der Basistransformationsformel schon begegnet. +bei der Basistransformationsformel +\eqref{buch:vektoren-und-matrizen:eqn:basiswechselabb} +schon begegnet. Die Tatsache, dass $\ker\varphi$ unter Konjugation erhalten bleibt, kann man also interpretieren als eine Eigenschaft, die unter Basistransformation erhalten bleibt. @@ -312,7 +332,7 @@ auf einem geeigneten Vektorraum. \begin{definition} \label{buch:vektorenmatrizen:def:darstellung} -Eine Darstellung einer Gruppe $G$ ist ein Homomorphismus +Eine {\em Darstellung} einer Gruppe $G$ ist ein Homomorphismus $G\to\operatorname{GL}_n(\mathbb{R})$. \index{Darstellung} \end{definition} @@ -324,11 +344,12 @@ sind alle Teilmengen von $\operatorname{GL}_n(\mathbb{R})$. Die Einbettungsabbildung $G\hookrightarrow \operatorname{GL}_n(\mathbb{R})$ ist damit automatisch eine Darstellung, sie heisst auch die {\em reguläre Darstellung} der Gruppe $G$. -\index{reguläre Darstellung} +\index{reguläre Darstellung}% +\index{Darstellung, reguläre}% \end{beispiel} In Kapitel~\ref{buch:chapter:permutationen} wird gezeigt, -dass Permutationen einer endlichen eine Gruppe bilden und wie +dass Permutationen einer endlichen Menge eine Gruppe bilden und wie sie durch Matrizen dargestellt werden können. diff --git a/buch/chapters/10-vektorenmatrizen/hadamard.tex b/buch/chapters/10-vektorenmatrizen/hadamard.tex index 1fd0373..787b0f5 100644 --- a/buch/chapters/10-vektorenmatrizen/hadamard.tex +++ b/buch/chapters/10-vektorenmatrizen/hadamard.tex @@ -25,14 +25,16 @@ dies ist das Hadamard-Produkt. \begin{definition} Das {\em Hadamard-Produkt} zweier Matrizen +\index{Hadamard-Produkt}% $A,B\in M_{m\times n}(\Bbbk)$ ist definiert als die Matrix $A\odot B$ mit den Komponenten \[ -(A\odot B)_{ij} = (A)_{ij} (B)_{ij}. +(A\odot B)_{i\!j} = (A)_{i\!j} (B)_{i\!j}. \] Wir nennen $M_{m\times n}(\Bbbk)$ mit der Multiplikation $\odot$ -auch die Hadamard-Algebra $H_{m\times n}(\Bbbk)$. +auch die {\em Hadamard-Algebra} $H_{m\times n}(\Bbbk)$. +\index{Hadamard-Algebra}% \end{definition} Dies ist jedoch nur interessant, wenn $M_{m\times n}(\Bbbk)$ mit diesem @@ -46,30 +48,30 @@ Es gilt \begin{align*} A\odot(B\odot C) &= (A\odot B)\odot C &&\Leftrightarrow& -a_{ij}(b_{ij}c_{ij}) &= (a_{ij}b_{ij})c_{ij} +a_{i\!j}(b_{i\!j}c_{i\!j}) &= (a_{i\!j}b_{i\!j})c_{i\!j} \\ A\odot(B+C) &= A\odot B + A\odot C &&\Leftrightarrow& -a_{ij}(b_{ij}+c_{ij}) &= a_{ij}b_{ij} + a_{ij}c_{ij} +a_{i\!j}(b_{i\!j}+c_{i\!j}) &= a_{i\!j}b_{i\!j} + a_{i\!j}c_{i\!j} \\ (A+B)\odot C&=A\odot C+B\odot C &&\Leftrightarrow& -(a_{ij}+b_{ij})c_{ij}&=a_{ij}c_{ij} + b_{ij}c_{ij} +(a_{i\!j}+b_{i\!j})c_{i\!j}&=a_{i\!j}c_{i\!j} + b_{i\!j}c_{i\!j} \\ (\lambda A)\odot B &= \lambda (A\odot B) &&\Leftrightarrow& -(\lambda a_{ij})b_{ij}&=\lambda(a_{ij}b_{ij}) +(\lambda a_{i\!j})b_{i\!j}&=\lambda(a_{i\!j}b_{i\!j}) \\ A\odot(\lambda B)&=\lambda(A\odot B) &&\Leftrightarrow& -a_{ij}(\lambda b_{ij})&=\lambda(a_{ij}b_{ij}) +a_{i\!j}(\lambda b_{i\!j})&=\lambda(a_{i\!j}b_{i\!j}) \end{align*} für alle $i,j$. Das Hadamard-Produkt ist kommutativ, da die Multiplikation in $\Bbbk$ kommuativ ist. Das Hadamard-Produkt kann auch für Matrizen mit Einträgen in einem -Ring definiert werden, in diesem Fall ist es möglich, dass die entsehende +Ring definiert werden, in diesem Fall ist es möglich, dass die entstehende Algebra nicht kommutativ ist. Die Hadamard-Algebra hat auch ein Eins-Elemente, nämlich die Matrix, @@ -77,6 +79,7 @@ die aus lauter Einsen besteht. \begin{definition} Die sogenannte {\em Einsmatrix} $U$ ist die Matrix +\index{Einsmatrix} \[ U=\begin{pmatrix} 1&1&\dots&1\\ @@ -106,7 +109,7 @@ Auch die Hadamard-Algebra $H_{m\times n}(\Bbbk)$ kann als Funktionenalgebra betrachtet werden. Einer Matrix $A\in H_{m\times n}(\Bbbk)$ ordnet man die Funktion \[ -a\colon [m]\times [n] : (i,j) \mapsto a_{ij} +a\colon [m]\times [n] : (i,j) \mapsto a_{i\!j} \] zu. Dabei gehen die Algebraoperationen von $H_{m\times n}(\Bbbk)$ über @@ -131,7 +134,7 @@ A=\begin{pmatrix}3&4\\4&5\end{pmatrix} B=\begin{pmatrix}-5&4\\4&-3\end{pmatrix} \] sind inverse Matrizen bezüglich des Matrizenproduktes, also -$AB=E$. +$AB=I$. Für das Hadamard-Produkt gilt dagegen \[ A\odot B @@ -141,13 +144,15 @@ A\odot B 16&-15 \end{pmatrix}. \] -Die Inverse einer Matrix $A$ Bezüglich des Hadamard-Produktes hat -die Einträge $a_{ij}^{-1}$. -Die Matrix $E$ ist bezüglich des gewöhnlichen Matrizenproduktes +Die Inverse einer Matrix $A$ bezüglich des Hadamard-Produktes hat +die Einträge $a_{i\!j}^{-1}$. +Die Matrix $I$ ist bezüglich des gewöhnlichen Matrizenproduktes invertierbar, aber sie ist bezüglich des Hadamard-Produktes nicht invertierbar. +Umgekehrt ist die Einsmatrix $U$ invertierbar bezüglich des +Hadamard-Produktes, aber für $n>1$ nicht für das Matrizenprodukt. -\subsubsection{Einbettung der Hadamard-Algebra ein eine Matrizenalgebra} +\subsubsection{Einbettung der Hadamard-Algebra in eine Matrizenalgebra} Hadamard-Algebren können als Unteralgebren einer Matrizenalgebra betrachtet werden. Der Operator $\operatorname{diag}$ bildet Vektoren ab in Diagonalmatrizen @@ -224,36 +229,32 @@ a_{nn} Bei dieser Abbildung geht die Hadamard-Multiplikation wieder in das gewöhnliche Matrizenprodukt über. -% XXX Faltungsmatrizen und Fouriertheorie -\subsubsection{Beispiel: Faltung und Fourier-Theorie} - -\subsection{Weitere Verknüpfungen -\label{buch:vektorenmatrizen:subsection:weitere}} - \subsubsection{Transposition} Das Hadamard-Produkt verträgt sich mit der Transposition: +\index{Transposition}% \[ (A\odot B)^t = A^t \odot B^t. \] Insbesondere ist das Hadamard-Produkt zweier symmetrischer Matrizen auch wieder symmetrisch. -\subsubsection{Frobeniusnorm} +\subsubsection{Frobenius-Norm} Das Hadamard-Produkt in der Hadamard-Algebra $H_{m\times n}(\mathbb{R})$ nimmt keine Rücksicht auf die Dimensionen einer Matrix und ist nicht unterscheidbar von $\mathbb{R}^{m\times n}$ mit dem Hadamard-Produkt. Daher darf auch der Begriff einer mit den algebraischen Operationen -verträglichen Norm nicht von von den Dimensionen abhängen. +verträglichen Norm nicht von den spezifischen Dimensionen $m$ und $n$ abhängen. Dies führt auf die folgende Definition einer Norm. \begin{definition} -Die {\em Frobenius-Norm} einer Matrix $A\in H_{m\times n}\mathbb{R})$ -mit den Einträgen $(a_{ij})=A$ ist +Die {\em Frobenius-Norm} einer Matrix $A\in H_{m\times n}(\mathbb{R})$ +\index{Frobenius-Norm}% +mit den Einträgen $(a_{i\!j})=A$ ist \[ \| A\|_F = \sqrt{ -\sum_{i,j} a_{ij}^2 +\sum_{i,j} a_{i\!j}^2 }. \] Das {\em Frobenius-Skalarprodukt} zweier Matrizen @@ -262,14 +263,15 @@ ist \[ \langle A,B\rangle_F = -\sum_{i,j} a_{ij} b_{ij} +\sum_{i,j} a_{i\!j} b_{i\!j} = \operatorname{Spur} A^t B \] und es gilt $\|A\|_F = \sqrt{\langle A,A\rangle}$. \end{definition} -Für komplexe Matrizen muss +Für komplexe Matrizen muss die Definition angepasst werden, damit +das Skalarprodukt sesquilinear und positiv definit wird. \begin{definition} Die {\em komplexe Frobenius-Norm} einer Matrix $A\in H_{m\times n}(\mathbb{C})$ @@ -278,11 +280,11 @@ ist \| A\| = \sqrt{ -\sum_{i,j} |a_{ij}|^2 +\sum_{i,j} |a_{i\!j}|^2 } = \sqrt{ -\sum_{i,u} \overline{a}_{ij} a_{ij} +\sum_{i,u} \overline{a}_{i\!j} a_{i\!j} } \] das {\em komplexe Frobenius-Skalarprodukt} zweier Matrizen @@ -290,18 +292,10 @@ $A,B\in H_{m\times n}(\mathbb{C})$ ist das Produkt \[ \langle A,B\rangle_F = -\sum_{i,j}\overline{a}_{ij} b_{ij} +\sum_{i,j}\overline{a}_{i\!j} b_{i\!j} = \operatorname{Spur} (A^* B) \] und es gilt $\|A\|_F = \sqrt{\langle A,A\rangle}$. \end{definition} -% XXX Frobeniusnorm - -\subsubsection{Skalarprodukt} - -% XXX Skalarprodukt - - - diff --git a/buch/chapters/10-vektorenmatrizen/koerper.tex b/buch/chapters/10-vektorenmatrizen/koerper.tex index e1dda6d..1754ce6 100644 --- a/buch/chapters/10-vektorenmatrizen/koerper.tex +++ b/buch/chapters/10-vektorenmatrizen/koerper.tex @@ -11,10 +11,67 @@ sehr spezielle Algebren, man nennt sie Körper. In diesem Abschnitt sollen die wichtigsten Eigenschaften von Körpern zusammengetragen werden. +\begin{definition} +Ein Körper $K$ ist ein additive Gruppe mit einer multiplikativen +Verknüpfung derart, dass $K^* = K \setminus \{0\}$ eine Gruppe bezüglich +der Multiplikation ist. +Ausserdem gelten die Distributivgesetze +\[ +(a+b)c = ac+bc +\qquad a,b,c\in K. +\] +\end{definition} -XXX TODO +Ein Körper ist also ein Ring derart, dass die Einheitengruppe $K^*$ ist. +\begin{beispiel} +Die Menge $\mathbb{F}_2=\{0,1\}$ mit der Additions- und +Mutliplikationstabelle +\begin{center} +\begin{tabular}{|>{$}c<{$}|>{$}c<{$}>{$}c<{$}|} +\hline ++&0&1\\ +\hline +0&0&1\\ +1&1&0\\ +\hline +\end{tabular} +\qquad +\qquad +\qquad +\begin{tabular}{|>{$}c<{$}|>{$}c<{$}>{$}c<{$}|} +\hline +\cdot&0&1\\ +\hline +0&0&0\\ +1&0&1\\ +\hline +\end{tabular} +\end{center} +ist der kleinste mögliche Körper. +\end{beispiel} +\begin{beispiel} +Die Menge der rationalen Funktionen +\[ +\mathbb{Q}(z) += +\biggl\{ +f(z) += +\frac{p(z)}{q(z)} +\, +\bigg| +\, +\begin{minipage}{5.5cm} +\raggedright +$p(z), q(z)$ sind Polynome mit rationalen Koeffizienten, $q(z)\ne 0$ +\end{minipage} +\, +\biggr\} +\] +ist ein Körper. +\end{beispiel} diff --git a/buch/chapters/10-vektorenmatrizen/linear.tex b/buch/chapters/10-vektorenmatrizen/linear.tex index 3ad51f1..70c1f9c 100755 --- a/buch/chapters/10-vektorenmatrizen/linear.tex +++ b/buch/chapters/10-vektorenmatrizen/linear.tex @@ -8,7 +8,7 @@ \rhead{Lineare Algebra} In diesem Abschnitt tragen wir die bekannten Resultate der linearen Algebra zusammen. -Meistens lernt man diese zuerst für Vektoren und Gleichungssyteme mit +Meistens lernt man diese zuerst für Vektoren und Gleichungssysteme mit reellen Variablen. In der linearen Algebra werden aber nur die arithmetischen Grundoperationen verwendet, es gibt also keinen Grund, warum sich @@ -16,7 +16,8 @@ die Theorie nicht über einem beliebigen Zahlenkörper entwickeln lassen sollte. Die in Kapitel~\ref{buch:chapter:endliche-koerper} untersuchten endlichen Körper sind zum Beispiel besser geeignet für Anwendungen in -der Kryptographie oder für die diskrete schnelle Fourier-Transformation. +der Kryptographie, der Codierungstheorie oder für die diskrete schnelle +Fourier-Transformation. Daher geht es in diesem Abschnitt weniger darum alles herzuleiten, sondern vor allem darum, die Konzepte in Erinnerung zu rufen und so zu formulieren, dass offensichtlich wird, dass alles mit einem @@ -28,27 +29,31 @@ beliebigen Zahlkörper $\Bbbk$ funktioniert. \subsection{Vektoren \label{buch:grundlagen:subsection:vektoren}} Koordinatensysteme haben ermöglicht, Punkte als Zahlenpaare zu beschreiben. -Dies ermöglicht, geometrische Eigenschaften als Gleichungen auszudrücken, -aber mit Punkten kann man trotzdem noch nicht rechnen. +Dies ermöglicht, geometrische Eigenschaften als Gleichungen auszudrücken. +Das bedeutet aber nur, dass man mit den Koordinaten rechnen kann, +mit den Punkten selbst kann man trotzdem noch nicht rechnen. Ein Vektor fasst die Koordinaten eines Punktes in einem Objekt zusammen, mit dem man auch rechnen und zum Beispiel Parallelverschiebungen algebraisieren kann. -Um auch Streckungen ausdrücken zu können, wird auch eine Menge von +Um auch Streckungen ausdrücken zu können, wird zudem eine Menge von Streckungsfaktoren benötigt, mit denen alle Komponenten eines Vektors multipliziert werden können. Sie heissen auch {\em Skalare} und liegen in $\Bbbk$. \subsubsection{Zeilen- und Spaltenvektoren} Vektoren sind Tupel von Elementen aus $\Bbbk$. +\index{Vektor}% \begin{definition} Ein $n$-dimensionaler {\em Spaltenvektor} ist ein $n$-Tupel von Zahlen aus +\index{Spaltenvektor}% $\Bbbk$ geschrieben als \[ v = \begin{pmatrix} v_1\\v_2\\\vdots\\v_n\end{pmatrix} \in \Bbbk^n. \] Ein $m$-dimensionaler {\em Zeilenvektor} wird geschrieben als +\index{Zeilenvektor}% \[ u = \begin{pmatrix}u_1&u_2&\dots&u_m\end{pmatrix} \in \Bbbk^m. \] @@ -56,6 +61,7 @@ u = \begin{pmatrix}u_1&u_2&\dots&u_m\end{pmatrix} \in \Bbbk^m. Für Vektoren gleicher Dimension sind zwei Rechenoperationen definiert. Die {\em Addition von Vektoren} $a,a\in\Bbbk^n$ und die Multiplikation +\index{Addition von Vektoren}% eines Vektors mit einem Skalar $\lambda\in\Bbbk$ erfolgt elementweise: \[ a+b @@ -75,6 +81,9 @@ a+b \] Die üblichen Rechenregeln sind erfüllt, nämlich \begin{equation} +\index{Kommutativgesetz}% +\index{Assoziativgesetz}% +\index{Distributivgesetz}% \begin{aligned} &\text{Kommutativität:} & @@ -105,12 +114,13 @@ man Skalare immer links von Vektoren schreiben muss. Die Distributivgesetze zum Beispiel sagen, dass man Ausmultipilizieren oder Ausklammern kann genauso wie in Ausdrücken, die nur Zahlen enthalten. -Man beachte, dass es im allgemeinen kein Produkt von Vektoren gibt. +Man beachte, dass es im Allgemeinen kein Produkt von Vektoren gibt. Das aus der Vektorgeometrie bekannte Vektorprodukt ist eine Spezialität des dreidimensionalen Raumes, es gibt keine Entsprechung dafür in anderen Dimensionen. \subsubsection{Standardbasisvektoren} +\index|{Standardbasisvektor}% In $\Bbbk^n$ findet man eine Menge von speziellen Vektoren, durch die man alle anderen Vektoren ausdrücken kann. Mit den sogenannten {\em Standardbasisvektoren} @@ -137,6 +147,10 @@ a_n \begin{pmatrix}0\\0\\\vdots\\1\end{pmatrix} a_1e_1+a_2e_2+\dots+a_ne_n \] ausgedrückt werden. +Dies ist ein Speziallfall des Begriffs der Linearkombination, der +weiter unten in +Definition~\ref{buch:vektoren-und-matrizen:def:linearkombination} +eingeführt wird. \subsubsection{Vektorraum} Die Rechnungen, die man gemäss der Rechengesetze @@ -147,7 +161,7 @@ Jede Art von mathematischem Objekt, mit dem man so rechen kann, kann als (abstrakter) Vektor betrachtet werden. \begin{definition} -Eine Menge $V$ von Objekten, auf der zwei Operationen definiert, +Eine Menge $V$ von Objekten, auf der zwei Operationen definiert sind, nämlich die Addition, geschrieben $a+b$ für $a,b\in V$ und die Multiplikation mit Skalaren, geschrieben $\lambda a$ für $a\in V$ und $\lambda\in \Bbbk$, heisst ein {\em $\Bbbk$-Vektorraum} oder {\em Vektorraum @@ -155,6 +169,8 @@ $\lambda\in \Bbbk$, heisst ein {\em $\Bbbk$-Vektorraum} oder {\em Vektorraum einfach nur {\em Vektorraum}, wenn $\Bbbk$ aus dem Kontext klar sind), wenn die Rechenregeln~\eqref{buch:vektoren-und-matrizen:eqn:vrgesetze} gelten +\index{Vektorraum}% +\index{k-Vektorraum@$\Bbbk$-Vektorraum}% \end{definition} Die Mengen von Spaltenvektoren $\Bbbk^n$ sind ganz offensichtlich @@ -164,6 +180,7 @@ Polynomen mit Koeffizienten in $\Bbbk$ sind ebenfalls Vektorräume. \begin{beispiel} Die Zahlenmenge $\mathbb{C}$ ist ein $\mathbb{R}$-Vektorraum. +\index{C als R-Vektorraum@$\mathbb{C}$ als $\mathbb{R}$-Vektorraum}% Elemente von $\mathbb{C}$ können addiert und mit reellen Zahlen multipliziert werden. Die Rechenregeln für die komplexen Zahlen umfassen auch alle Regeln @@ -174,6 +191,7 @@ $\mathbb{C}$ ein Vektorraum über $\mathbb{R}$. \begin{beispiel} Die Menge $C([a,b])$ der stetigen Funktionen $[a,b]\to\mathbb{Re}$ bildet ein Vektorraum. +\index{stetige Funktionen}% Funktionen können addiert und mit reellen Zahlen multipliziert werden: \[ (f+g)(x) = f(x) + g(x) @@ -190,13 +208,16 @@ Die Vektorraum-Rechenregeln Die Beispiele zeigen, dass der Begriff des Vektorraums die algebraischen Eigenschaften eine grosse Zahl sehr verschiedenartiger mathematischer Objekte beschreiben kann. -Alle Erkenntnisse, die man ausschliesslich aus Vekotorraumeigenschaften +Alle Erkenntnisse, die man ausschliesslich aus Vektorraumeigenschaften gewonnen hat, sind auf alle diese Objekte übertragbar. Im folgenden werden wir alle Aussagen für einen Vektorraum $V$ formulieren, wenn wir die Darstellung als Tupel $\Bbbk^n$ nicht brauchen. \subsubsection{Gleichungssysteme in Vektorform} Die Vektorraum-Operationen erlauben nun auch, lineare Gleichungssysteme +\index{lineares Gleichungssytem}% +\index{Gleichungssytem, lineares}% +\index{Vektorform}% in {\em Vektorform} zu schreiben: \index{Vektorform eines Gleichungssystems}% \begin{equation} @@ -222,11 +243,13 @@ x_n \begin{pmatrix}b_1\\\vdots\\b_m\end{pmatrix} \label{buch:vektoren-und-matrizen:eqn:vektorform} \end{equation} -Die rechte Seite von~\eqref{buch:vektoren-und-matrizen:eqn:vektorform} -ist eine Linearkombination der Spaltenvektoren. +Die linke Seite der Gleichung rechts in~\eqref{buch:vektoren-und-matrizen:eqn:vektorform} +\index{Linearkombination}% +ist, wie man sagt, eine Linearkombination der Spaltenvektoren. \begin{definition} -Eine Linearkombination der Vektoren $v_1,\dots,v_n\in V$ ist ein Ausdruck +\label{buch:vektoren-und-matrizen:def:linearkombination} +Eine {\em Linearkombination} der Vektoren $v_1,\dots,v_n\in V$ ist ein Ausdruck der Form \[ v @@ -249,7 +272,7 @@ Sind $a_1,\dots,a_n\in V$ Vektoren, dann heisst die Menge \] aller Vektoren, die sich durch Linearkombination aus den Vektoren $a_1,\dots,a_n$ gewinnen lassen, der von $a_1,\dots,a_n$ -aufgespannte Raum. +{\em aufgespannte Raum}. \end{definition} \subsubsection{Lineare Abhängigkeit} @@ -336,6 +359,7 @@ Skalaren immer noch möglich ist. \begin{definition} Eine Teilmenge $U\subset V$ heisst ein {\em Unterraum} von $V$, wenn +\index{Unterraum}% $U$ selbst ein $\Bbbk$-Vektorraum ist, also \[ \begin{aligned} @@ -359,7 +383,7 @@ Spaltenvektoren Spezialfälle sind. \subsubsection{Definition einer Matrix} \begin{definition} -Eine $m\times n$-Matrix $A$ (über $\Bbbk$) ist rechteckiges Schema +Eine {\em $m\times n$-Matrix} $A$ (über $\Bbbk$) ist ein rechteckiges Schema \index{Matrix}% \[ A @@ -371,10 +395,14 @@ a_{21}&a_{22}&\dots &a_{2n}\\ a_{m1}&a_{m2}&\dots &a_{mn}\\ \end{pmatrix} \] -mit $a_{ij}\in\Bbbk$. +mit $a_{i\!j}\in\Bbbk$. Die Menge aller $m\times n$-Matrizen wird mit \[ -M_{m\times n}(\Bbbk) = \{ A\;|\; \text{$A$ ist eine $m\times n$-Matrix}\}. +M_{m\times n}(\Bbbk) += +M_{m,n}(\Bbbk) += +\{ A\;|\; \text{$A$ ist eine $m\times n$-Matrix}\}. \] Falls $m=n$ gilt, heisst die Matrix $A$ auch {\em quadratisch} \index{quadratische Matrix}% @@ -385,7 +413,7 @@ $M_n(\Bbbk) = M_{n\times n}(\Bbbk)$ ab. Die $m$-dimensionalen Spaltenvektoren $v\in \Bbbk^m$ sind $m\times 1$-Matrizen $v\in M_{n\times 1}(\Bbbk)$, die $n$-dimensionalen Zeilenvetoren $u\in\Bbbk^n$ sind $1\times n$-Matrizen $v\in M_{1\times n}(\Bbbk)$. -Eine $m\times n$-Matrix $A$ mit den Koeffizienten $a_{ij}$ besteht aus +Eine $m\times n$-Matrix $A$ mit den Koeffizienten $a_{i\!j}$ besteht aus den $n$ Spaltenvektoren \[ a_1 = \begin{pmatrix} a_{11} \\ a_{21} \\ \vdots \\ a_{m1} \end{pmatrix},\quad @@ -426,54 +454,57 @@ a_{m1}+b_{m1}&a_{m2}+b_{m2}&\dots &a_{mn}+b_{mn} \end{definition} \subsubsection{Multiplikation} -Will man ein lineares Gleichungssystem mit Hilfe der Matrix $A$ der +Will man ein lineares Gleichungssystem +wie~\eqref{buch:vektoren-und-matrizen:eqn:vektorform} +mit Hilfe der Matrix $A$ der Koeffizienten schreiben, bekommt es die Form $Ax=b$, wobei der Vektor der rechten Seiten ist, und $x$ ein Vektor von unbekannten Zahlen. Dies ist jedoch nur sinnvoll, wenn das Produkt $Ax$ sinnvoll definiert werden kann. \begin{definition} +\label{buch:vektoren-und-matrizen:def:matrixmultiplikation} Eine $m\times n$-Matrix $A\in M_{m\times n}(\Bbbk)$ und eine $n\times l$-Matrix $B\in M_{n\times l}(\Bbbk)$ haben als Produkt eine $m\times l$-Matrix $C=AB\in M_{m\times l}(\Bbbk)$ mit den Koeffizienten \begin{equation} -c_{ij} = \sum_{k=1}^n a_{ik} b_{kj}. -\label{buch:vektoren-unbd-matrizen:eqn:matrixmultiplikation} +c_{i\!j} = \sum_{k=1}^n a_{ik} b_{kj}. +\label{buch:vektoren-und-matrizen:eqn:matrixmultiplikation} \end{equation} \end{definition} Die Koeffizienten $a_{ik}$ kommen aus der Zeile $i$ von $A$, die Koeffizienten $b_{kj}$ stehen in der Spalte $j$ von $B$, die Multiplikationsregel \eqref{buch:vektoren-unbd-matrizen:eqn:matrixmultiplikation} -besagt also, dass das Element $c_{ij}$ entsteht als das Produkt +besagt also, dass das Element $c_{i\!j}$ entsteht als das Produkt der Zeile $i$ von $A$ mit der Spalte $j$ von $C$. \subsubsection{Einheitsmatrix} Welche $m\times m$-Matrix $I\in M_{m}(\Bbbk)$ hat die Eigenschaft, dass $IA=A$ für jede beliebige Matrix $A\in M_{m\times n}(\Bbbk)$. -Wir bezeichnen die Einträge von $I$ mit $\delta_{ij}$. +Wir bezeichnen die Einträge von $I$ mit $\delta_{i\!j}$. Die Bedingung $IA=A$ bedeutet \[ -a_{ij} = \delta_{i1}a_{1j} + \dots + \delta_{im}a_{mj}, +a_{i\!j} = \delta_{i1}a_{1j} + \dots + \delta_{im}a_{mj}, \] -Da auf der linken Seite nur $a_{ij}$ vorkommt, müssen alle Terme auf der -rechten Seite verschwinden ausser dem Term mit $a_{ij}$, dessen +Da auf der linken Seite nur $a_{i\!j}$ vorkommt, müssen alle Terme auf der +rechten Seite verschwinden ausser dem Term mit $a_{i\!j}$, dessen Koeffizient $\delta_{ii}=1$ sein muss. Die Koeffizienten sind daher \[ -\delta_{ij} +\delta_{i\!j} = \begin{cases} 1&\qquad i=j\\ 0&\qquad\text{sonst} \end{cases} \] -Die Zahlen $\delta_{ij}$ heissen auch das {\em Kronecker-Symbol} oder +Die Zahlen $\delta_{i\!j}$ heissen auch das {\em Kronecker-Symbol} oder {\em Kronecker-Delta}. \index{Kronecker-$\delta$}% \index{Kronecker-Symbol}% -Die Matrix $I$ hat die Einträge $\delta_{ij}$ und heisst die +Die Matrix $I$ hat die Einträge $\delta_{i\!j}$ und heisst die {\em Einheitsmatrix} \index{Einheitsmatrix}% \[ @@ -487,7 +518,27 @@ I \end{pmatrix}. \] - +\subsubsection{Transponierte Matrix} +\index{transponierte Matrix}% +\index{Matrix, transponiert}% +Die zu einer $m\times n$-Matrix $A$ {\em transponierte} Matrix ist die +$n\times m$-Matrix +\[ +A^t=\begin{pmatrix} +a_{11}&a_{21}&\dots&a_{m1}\\ +a_{12}&a_{22}&\dots&a_{m2}\\ +\vdots&\vdots&\ddots&\vdots\\ +a_{1n}&a_{2n}&\dots&a_{mn} +\end{pmatrix}. +\] +Sie entsteht aus der Matrix $A$ durch Vertauschung von Zeilen und Spalten. +Aus der Definition~\ref{buch:vektoren-und-matrizen:def:matrixmultiplikation} +folgt unmittelbar die Rechenregel $(AB)^t = B^tA^t$. + +Eine Matrix $A$ heisst {\em symmetrisch}, wenn $A^t=A$ ist, sie heisst +{\em antisymmetrisch}, wenn $A^t=-A$ gilt. +\index{symmetrische Matrix}% +\index{antisymmetrische Matrix}% % % Gleichungssysteme % @@ -523,17 +574,21 @@ Ein Gleichungssystem mit rechter Seite $0$ heisst {\em homogen}. \index{homogenes Gleichungssystem}% Zu jedem {\em inhomogenen} Gleichungssystem $Ax=b$ mit $b\ne 0$ ist $Ax=0$ das zugehörige homogene Gleichungssystem. +\index{inhomogenes Gleichungssystem}% Ein homogenes Gleichungssytem $Ax=0$ hat immer mindestens die Lösung $x=0$, man nennt sie auch die {\em triviale} Lösung. +\index{triviale Lösung}% Eine Lösung $x\ne 0$ heisst auch eine nichttriviale Lösung. Die Lösungen eines inhomgenen Gleichungssystem $Ax=b$ ist also nur dann eindeutig, wenn das zugehörige homogene Gleichungssystem eine nichttriviale Lösung hat. \subsubsection{Gauss-Algorithmus} -Der Gauss-Algorithmus oder genauer Gausssche Eliminations-Algorithmus -löst ein lineare Gleichungssystem der +Der Gauss-Algorithmus oder genauer Gausssche Eliminationsalgorithmus +löst ein lineares Gleichungssystem der +\index{Gauss-Algorithmus}% +\index{Gausscher Eliminationsalgorithmus}% Form~\eqref{buch:vektoren-und-matrizen:eqn:vektorform}. Die Koeffizienten werden dazu in das Tableau \[ @@ -547,21 +602,22 @@ a_{m1}&\dots &a_{mn}&b_m \\ \] geschrieben. Die vertikale Linie erinnert an die Position des Gleichheitszeichens. -Es beinhaltet alle Informationen zur Durchführung des Algorithmus. +Das Tableau beinhaltet alle Informationen zur Durchführung des Algorithmus. Der Algorithmus is so gestaltet, dass er nicht mehr Speicher als das Tableau benötigt, alle Schritte operieren direkt auf den Daten des Tableaus. In jedem Schritt des Algorithmus wird zunächst eine Zeile $i$ und -Spalte $j$ ausgewählt, das Elemente $a_{ij}$ heisst das Pivotelement. +Spalte $j$ ausgewählt, das Elemente $a_{i\!j}$ heisst das {\em Pivotelement}. \index{Pivotelement}% Die {\em Pivotdivision} +\index{Pivotdivision} \[ \begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|} \hline a_{11}&\dots &a_{1j}&\dots &a_{1n}&b_1 \\[-2pt] \vdots& &\vdots&\ddots&\vdots&\vdots\\ -a_{i1}&\dots &{\color{red}a_{ij}}&\dots &a_{in}&b_i \\[-2pt] +a_{i1}&\dots &{\color{red}a_{i\!j}}&\dots &a_{in}&b_i \\[-2pt] \vdots& &\vdots&\ddots&\vdots&\vdots\\ a_{m1}&\dots &a_{mj}&\dots &a_{mn}&b_m \\ \hline @@ -571,7 +627,7 @@ a_{m1}&\dots &a_{mj}&\dots &a_{mn}&b_m \\ \hline a_{11}&\dots &a_{1j}&\dots &a_{1n}&b_1 \\[-2pt] \vdots& &\vdots&\ddots&\vdots&\vdots\\ -{\color{red}\frac{a_{i1}}{a_{ij}}}&\dots &{\color{red}1}&\dots &{\color{red}\frac{a_{in}}{a_{ij}}}&{\color{red}\frac{b_i}{a_{ij}}}\\[-2pt] +{\color{red}\frac{a_{i1}}{a_{i\!j}}}&\dots &{\color{red}1}&\dots &{\color{red}\frac{a_{in}}{a_{i\!j}}}&{\color{red}\frac{b_i}{a_{i\!j}}}\\[-2pt] \vdots& &\vdots&\ddots&\vdots&\vdots\\ a_{m1}&\dots &a_{mj}&\dots &a_{mn}&b_m \\ \hline @@ -581,7 +637,8 @@ stellt sicher, dass das Pivot-Element zu $1$ wird. \index{Pivotdivision} Dies ist gleichbedeutend mit der Auflösung der Gleichung $i$ noch der Variablen $x_j$. -Mit der {\em Zeilensubtraktion} auf Zeile $k\ne i$ können die Einträge in der +Mit der {\em Zeilensubtraktion} auf Zeile $k>i$ können die Einträge in der +\index{Zeilenoperation}% Spalte $j$ zu Null gemacht werden. Dazu wird das $a_{kj}$-fache der Zeile $i$ von Zeile $k$ subtrahiert: \[ @@ -611,8 +668,10 @@ Pivotelement zu $0$ zu machen. Beide Operationen können in einem Durchgang durchgeführt werden. Die beiden Operationen Pivotdivision und Zeilensubtraktion werden jetzt -kombiniert um im linken Teil des Tableaus möglichst viele Nullen und +kombiniert, um im linken Teil des Tableaus möglichst viele Nullen und Einsen zu erzeugen. +Dabei kann es nötig werden, Zeilen zu vertauschen, um ein von $0$ +verschiedenes Pivotelement zu finden. Im Idealfall wird ein Tableau der Form \[ \begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|} @@ -626,8 +685,9 @@ Im Idealfall wird ein Tableau der Form \] erreicht, was natürlich nur $m=n$ möglich ist. Interpretiert man die Zeilen dieses Tableaus wieder als Gleichungen, -dann liefert die Zeile $i$ den Wert $x_i=u_i$ für die Variable $i$. -Die Lösung kann also in der Spalte rechts abgelesen werden. +dann liefert die Zeile $i$ den Wert $x_i=u_i$ für die Variable +mit Nummer $i$. +Der Lösungsvektor kann also in der Spalte rechts abgelesen werden. \begin{figure} \centering @@ -652,7 +712,7 @@ Spalten über den Pivotelemnten frei zu räumen. \index{Rückwärtseinsetzen}% Wenn in einer Spalte kein von $0$ verschiedenes Element als Pivotelement zur Verfügung steht, wird diese Spalte übersprungen. -Die so erzeuge Tableau-Form heisst auch die {\em reduzierte Zeilenstufenform} +Die so erzeugte Tableau-Form heisst auch die {\em reduzierte Zeilenstufenform} ({\em reduced row echelon form}, RREF). \index{reduzierte Zeilenstufenform}% \index{reduced row echelon form}% @@ -699,6 +759,19 @@ $x_{j_1}, x_{j_2},\dots, x_{j_k}$ kann die Lösungsmenge als \left\{ \left. \begin{pmatrix} +x_1\\ +x_2\\ +\vdots\\ +{\color{darkgreen}x_{i_1}}\\ +x_{i_1+1}\\ +\vdots\\ +{\color{darkgreen}x_{i_2}}\\ +x_{i_2+1}\\ +\vdots\\ +x_m +\end{pmatrix} += +\begin{pmatrix} d_1\\ d_2\\ \vdots\\ @@ -791,7 +864,7 @@ a_{n1}&a_{n2}&\dots &a_{nn}&0 &0 &\dots &1 \\ \end{tabular} \] Die Vektoren $c_k$ sind die Spaltenvektoren der Matrix $C$ mit den -Einträgen $c_{ij}$. +Einträgen $c_{i\!j}$. Mit den Vektoren $c_k$ können jetzt beliebige inhomogene Gleichungssysteme $Ax=b$ gelöst werden. @@ -812,7 +885,8 @@ b_1e_1 + b_2e_2 + \dots + b_ne_n b. \end{align*} Die Linearkombination $x=b_1c_1+\dots+b_nc_n$ kann in Vektorform als $x=Cb$ -geschrieben werden. +geschrieben werden, wenn die Vektoren $c_i$ als Spalten einer Matrix $C$ +interpretiert werden. Die Konstruktion von $C$ bedeutet auch, dass $AC=E$, daher heisst $C$ auch die zu $A$ {\em inverse Matrix}. @@ -824,7 +898,7 @@ daraus folgt aber noch nicht, dass auch $A^{-1}A=I$ ist. Diese Eigenschaft kann man jedoch wie folgt erhalten. Sei $C$ die inverse Matrix von $A$, also $AC=I$. Sei weiter $D$ die inverse Matrix von $C$, also $CD=I$. -Dann ist zunächst $A=AE=A(CD)=(AC)D=ID=D$ und weiter +Dann ist zunächst $A=AI=A(CD)=(AC)D=ID=D$ und weiter $CA=CD=I$. Mit der Bezeichnung $C=A^{-1}$ erhalten wir also auch $A^{-1}A=I$. @@ -848,7 +922,8 @@ lösbar ist. \label{buch:linear:determinate:def} Das Produkt der Pivot-Elemente bei der Durchführung des Gauss-Algorithmus für eine Gleichungssystem mit quadratischer Koeffizientenmatrix $A$ -heisst die Determinante $\det(A)$ der Matrix $A$. +heisst die {\em Determinante} $\det(A)$ der Matrix $A$. +\index{Determinante}% \end{definition} Aus den Regeln für die Durchführung des Gauss-Algorithmus kann man die @@ -887,17 +962,19 @@ und \ref{buch:linear:determinante:asymetrisch} eindeutig bestimmt. \item -Der Entwicklungssatz von Laplace. +Der Entwicklungssatz von Laplace: \index{Entwicklungssatz Laplace}% Die Determinante der $n\times n$-Matrix $A$ kann mit der Formel \begin{equation} \det(A) = -\sum_{i=1}^n (-1)^{i+j} a_{ij} \cdot \det(A_{ij}) +\sum_{i=1}^n (-1)^{i+j} a_{i\!j} \cdot \det(A_{i\!j}) \end{equation} -wobei die $(n-1)\times(n-1)$-Matrix $A_{ij}$ die Matrix $A$ ist, aus der +berechnet werden, +wobei die $(n-1)\times(n-1)$-Matrix $A_{i\!j}$ die Matrix $A$ ist, aus der man Zeile $i$ und Spalte $j$ entfernt hat. -$A_{ij}$ heisst ein {\em Minor} der Matrix $A$. +$A_{i\!j}$ heisst ein {\em Minor} der Matrix $A$. +\label{buch:linear:def:minor} \index{Minor einer Matrix}% \end{enumerate} @@ -925,6 +1002,9 @@ aei + bfg + cdh - ceg - bdi - afh. Die Determinanten ermöglicht auch, eine Formel für die Lösung eines Gleichungssystems zu geben. Dies ist bekannt als die {\em Regel von Cramer}. +\index{Cramer, Regel von}% +\index{Cramersche Regel}% +\index{Regel von Cramer}% \begin{satz} \label{buch:linear:determinante:cramer} @@ -967,13 +1047,13 @@ Die Inverse der $n\times n$-Matrix $A$ ist gegeben durch \index{Formel für die inverse Matrix}% \index{inverse Matrix, Formel für}% \begin{equation} -(A^{-1})_{ij} +(A^{-1})_{i\!j} = \frac{1}{\det(A)} \begin{pmatrix} -\det(A_{11}) & -\det(A_{21}) & \dots & (-1)^{i+1}\det(A_{i1}) & \dots +\phantom{(-1)^{1+1}}\det(A_{11}) & \phantom{()^{1+1}}-\det(A_{21}) & \dots & (-1)^{i+1}\det(A_{i1}) & \dots & (-1)^{1+n} \det(A_{n1}) \\ --\det(A_{12}) & \det(A_{22}) & \dots & (-1)^{i+2}\det(A_{i2}) & \dots +\phantom{()^{1+1}}-\det(A_{12}) & \phantom{(-1)^{1+1}}\det(A_{22}) & \dots & (-1)^{i+2}\det(A_{i2}) & \dots & (-1)^{2+n} \det(A_{n2}) \\ \vdots & \vdots & \ddots & \vdots & \ddots & \vdots \\ (-1)^{1+j}\det(A_{1j}) & (-1)^{2+j}\det(A_{2j}) & \dots @@ -982,7 +1062,7 @@ Die Inverse der $n\times n$-Matrix $A$ ist gegeben durch \vdots & \vdots & \ddots & \vdots & \ddots & \vdots \\ (-1)^{1+n}\det(A_{1n}) & (-1)^{2+n}\det(A_{2n}) & \dots & (-1)^{i+n}\det(A_{in}) - & \dots & \det(A_{nn}) + & \dots & \phantom{(-1)^{n+n}}\det(A_{nn}) \end{pmatrix} \label{buch:linalg:inverse:formel} \end{equation} @@ -992,7 +1072,7 @@ heisst die {\em Adjunkte} $\operatorname{adj}A$ von $A$. \index{Adjunkte}% \end{satz} -Der Satz~\ref{buch:linalg:inverse:adjoint} liefert eine algebraische +Der Satz~\ref{buch:linalg:inverse:adjunkte} liefert eine algebraische Formel für die Elemente der inversen Matrix. Für kleine Matrizen wie im nachfolgenden Beispiel ist die Formel~\eqref{buch:linalg:inverse:formel} oft einfachter anzuwenden. @@ -1011,7 +1091,7 @@ d&-b\\ erhält. \begin{beispiel} -Die Inverse der Matrix +Die Matrix \begin{equation} A=\begin{pmatrix} 1&a&a\\ @@ -1022,8 +1102,9 @@ a&a&1 \end{equation} ist mit Hilfe von Determinanten besonders einfach zu invertieren. Die Determinante von $A$ ist nach der Sarrus-Formel +Satz~\ref{buch:linear:determinate:sarrus} \[ -\operatorname{adj}A +\operatorname{det}A = 1 + 2a^3 - 3a^2. \] @@ -1048,13 +1129,13 @@ A^{-1} -\left|\begin{matrix}a&a\\a&1\end{matrix}\right| & \left|\begin{matrix}a&a\\1&a\end{matrix}\right| -\\ +\\[10pt] -\left|\begin{matrix}a&a\\a&1\end{matrix}\right| & \left|\begin{matrix}1&a\\a&1\end{matrix}\right| & -\left|\begin{matrix}1&a\\a&a\end{matrix}\right| -\\ +\\[10pt] \left|\begin{matrix}a&1\\a&a\end{matrix}\right| & -\left|\begin{matrix}1&a\\a&a\end{matrix}\right| @@ -1071,7 +1152,7 @@ a^2-a & a^2-a & 1-a^2 \end{pmatrix}. \end{align*} Mit $1-a^2=(1+a)(1-a)$ und $a^2-a=a(a-1)$ kann man dies noch etwas -vereinfachen, indem man den gemeinsamen Faktor $1-a$ ausklammern. +vereinfachen, indem man den gemeinsamen Faktor $1-a$ ausklammert. Man erhält so die Form \begin{equation} A^{-1} @@ -1091,6 +1172,7 @@ für die Inverse einer Matrix der Form \subsubsection{Produktregel für die Determinante} Aus der Charakterisierung der Determinanten kann man auch ableiten, dass die Produktregel +\index{Produktregel}% \[ \det (AB) = \det(A) \cdot \det(B) \] @@ -1114,8 +1196,9 @@ dass die Operationen des Vektorraums erhalten bleiben. Dies wird von der folgenden Definition erreicht. \begin{definition} +\index{lineare Abbildung}% Eine Abbildung $f\colon V\to U$ zwischen Vektorräumen $V$ und $U$ -heisst linear, wenn +heisst {\em linear}, wenn \[ \begin{aligned} f(v+w) &= f(v) + f(w)&&\forall v,w\in V @@ -1126,12 +1209,13 @@ f(\lambda v) &= \lambda f(v) &&\forall v\in V,\lambda \in \Bbbk gilt. \end{definition} -Lineare Abbildungen sind in der Mathematik sehr verbreitet. +Lineare Abbildungen sind in der Mathematik weit verbreitet, wie die +folgenden Beispiele zeigen. \begin{beispiel} Sie $V=C^1([a,b])$ die Menge der stetig differenzierbaren Funktionen auf dem Intervall $[a,b]$ und $U=C([a,b])$ die Menge der -stetigen Funktion aif $[a,b]$. +stetigen Funktion auf $[a,b]$. Die Ableitung $\frac{d}{dx}$ macht aus einer Funktion $f(x)$ die Ableitung $f'(x)$. Die Rechenregeln für die Ableitung stellen sicher, dass @@ -1196,9 +1280,12 @@ x_n(a_{1n} c_1 + \dots + a_{mn} c_m) Die Koordinaten von $f(x)$ in der Basis $\mathcal{C}$ in $U$ sind also gegeben durch das Matrizenprodukt $Ax$, wenn $x$ der Spaltenvektor aus den Koordinaten in der Basis $\mathcal{B}$ in $V$ ist. +Die Matrix $A$ heisst die Matrix der linearen Abbildung $f$ in +den Basen $\mathcal{B}$ bzw.~$\mathcal{C}$. +\index{Matrix einer linearen Abbildung}% Die Matrix einer linearen Abbildung macht Aussagen über eine lineare -Abbilung der Rechnung zugänglich. +Abbilung der rechnerischen Untersuchung zugänglich. Allerdings hängt die Matrix einer linearen Abbildung von der Wahl der Basis ab. Gleichzeitig ist dies eine Chance, durch Wahl einer geeigneten Basis @@ -1208,10 +1295,10 @@ Problems optimal geeignet ist. \subsubsection{Basiswechsel} In einem Vektorraum $V$ seien zwei Basen $\mathcal{B}=\{b_1,\dots,b_n\}$ und $\mathcal{B}'=\{b_1',\dots,b_n'\}$ gegeben. -Ein Vektor $v\in V$ kann in beiden beiden Basen dargestellt werden. +Ein Vektor $v\in V$ kann in beiden Basen dargestellt werden. Wir bezeichnen mit dem Spaltenvektor $x$ die Koordinaten von $v$ in der Basis $\mathcal{B}$ und mit dem Spaltenvektor $x'$ die Koordinaten -in der Basisi $\mathcal{B}'$. +in der Basis $\mathcal{B}'$. Um die Koordinaten umzurechnen, muss man die Gleichung \begin{equation} x_1b_1 + \dots + x_nb_n = x_1'b_1' + \dots + x_n'b_n' @@ -1220,7 +1307,7 @@ x_1b_1 + \dots + x_nb_n = x_1'b_1' + \dots + x_n'b_n' lösen. Stellt man sich die Vektoren $b_i$ und $b_j'$ als $m$-dimensionale -Spaltenvektoren vor mit $m\ge n$, dann bekommt +Spaltenvektoren mit $m\ge n$ vor, dann bekommt \eqref{buch:vektoren-und-matrizen:eqn:basiswechselgleichung} die Form eines Gleichungssystems \[ @@ -1231,7 +1318,8 @@ b_{m1}x_1&+& \dots &+&b_{mn}x_n&=&b_{m1}'x_1'&+& \dots &+&b_{mn}'x_n' \end{linsys} \] Dieses Gleichungssystem kann man mit Hilfe eines Gauss-Tableaus lösen. -Wir schreiben die zugehörigen Variablen +Wir schreiben die zugehörigen Variablen in die Kopfzeile der Tableaus. +Die Durchführung des Gauss-Algorithmus liefert \[ \renewcommand{\arraystretch}{1.1} \begin{tabular}{|>{$}c<{$} >{$}c<{$} >{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}|} @@ -1267,12 +1355,28 @@ Vektor in $V$ sich in beiden Mengen $\mathcal{B}$ und $\mathcal{B}'$ ausdrücken lässt. Dies folgt aber aus der Tatsache, dass $\mathcal{B}$ und $\mathcal{B}'$ beide Basen sind, also insbesondere den gleichen Raum aufspannen. -Die $n\times n$-Matrix $T$ mit Komponenten $t_{ij}$ rechnet Koordinaten +Die $n\times n$-Matrix $T$ mit Komponenten $t_{i\!j}$ rechnet Koordinaten in der Basis $\mathcal{B}'$ um in Koordinaten in der Basis $\mathcal{B}$. +\subsubsection{Basiswechselformel für die Matrix einer linearen Abbildung} +Die Matrix einer linearen Abbildung $f\colon U\to V$ ist abhängig von den +in $U$ bzw.~$V$ gewählten Basen $\mathcal{B}$ bzw.~$\mathcal{C}$. +Wechselt man die Basis und verwendet in $U$ die Basis $\mathcal{B}'$ und +in $V$ die Basis $\mathcal{C}'$, dann gibt es Matrizen +$T_U$ und $T_V$, die die Koordinaten in $U$ bzw.~$V$ von der gestrichenen +Basis in die gestrichen umzurechnen gestattet. +Ist $A$ die Matrix von $A$ in den Basen $\mathcal{B}$ und $\mathcal{C}$, +dann ist Matrix der gleichen Abbildung in den Basen $\mathcal{B}'$ +und $\mathcal{C}'$ gegeben durch die Matrix +\begin{equation} +A' = T_VAT_U^{-1}. +\label{buch:vektoren-und-matrizen:eqn:basiswechselabb} +\end{equation} + \subsubsection{Umkehrabbbildung} Sei $f$ eine umkehrbare lineare Abbildung $U\to V$ und $g\colon V\to U$. die zugehörige Umkehrabbildung. +\index{Umkehrabbildung}% Für zwei Vektoren $u$ und $w$ in $U$ gibt es daher Vektoren $a=g(u)$ und $b=g(w)$ in $V$ derart, dass $f(a)=u$ und $f(b)=w$. Weil $f$ linear ist, folgt daraus $f(a+b)=u+w$ und $f(\lambda a)=\lambda a$ @@ -1305,6 +1409,8 @@ Ist $f$ eine lineare Abbildung $U\to V$, dann heisst die Menge \{x\in U\;|\; f(x)=0\} \] der {\em Kern} oder {\em Nullraum} der linearen Abbildung $f$. +\index{Kern}% +\index{Nullraum}% Ist $A \in M_{m\times n}(\Bbbk)$ Matrix, dann gehört dazu eine lineare Abbildung $f\colon\Bbbk^n\to\Bbbk^m$. Der Kern oder Nullraum der Matrix $A$ ist die Menge @@ -1326,8 +1432,9 @@ gilt. Ob ein Gleichungssystem $Ax=b$ überhaupt eine Lösung hat, hängt davon, ob der Vektor $b$ als Bild der durch $A$ beschriebenen linearen Abbildung -$\Bbbk^n \to \Bbbk^m$ enthalten ist. -Wir definieren daher das Bild einer linearen Abbildung oder Matrix. +$\Bbbk^n \to \Bbbk^m$ dargestellt werden kann. +Wir definieren daher das Bild einer linearen Abbildung oder Matrix +wie folgt. \begin{definition} Ist $f\colon V\to U$ eine lineare Abbildung dann ist das Bild von $f$ @@ -1336,25 +1443,26 @@ der Unterraum \operatorname{im}f = \{ f(v)\;|\;v\in V\} \subset U \] von $U$. -Das Bild einer $m\times n$-Matrix $A$ ist die Menge +Das {\em Bild} einer $m\times n$-Matrix $A$ ist die Menge \[ \operatorname{im}A = \{ Av \;|\; v\in\Bbbk^n\} \subset \Bbbk^m. \] \end{definition} +\index{Bild}% Zwei Vektoren $a,b\in\operatorname{im} f$ haben Urbilder $u,w\in V$ mit $f(u)=a$ und $f(w)=b$. Für Summe und Multiplikation mit Skalaren folgt \[ \begin{aligned} -a+b&= f(u)+f(v)=f(u+v) &&\Rightarrow a+b\in\operatorname{im}f\\ -\lambda a&=\lambda f(u) = f(\lambda u) &&\Rightarrow \lambda a&\in\operatorname{im}f, +a+b &= f(u)+f(v)=f(u+v) & \Rightarrow & a+b &\in\operatorname{im}f\\ +\lambda a &=\lambda f(u) = f(\lambda u) & \Rightarrow & \lambda a &\in\operatorname{im}f, \end{aligned} \] also ist auch das Bild $\operatorname{im}f$ ein Unterraum von $U$. Das Bild der Matrix $A$ ist der Unterraum \[ -\{ x_1f(b_1) + \dots x_n f(b_n) | x_i\in\Bbbk\} +\{ x_1f(b_1) + \dots x_n f(b_n) \,|\, x_i\in\Bbbk\} = \langle f(b_1),\dots,f(b_n)\rangle = @@ -1369,6 +1477,7 @@ Sei $A$ eine Matrix $A\in M_{m\times n}(\Bbbk)$. Der {\em Rang} der Matrix $A$ ist die Dimension des Bildraumes von $A$: $\operatorname{rank}A=\dim\operatorname{im} A$. \index{Rang einer Matrix}% +\index{rank@$\operatorname{rank}A$}% Der {\em Defekt} der Matrix $A$ ist die Dimension des Kernes von $A$: $\operatorname{def}A=\dim\ker A$. \index{Defekt einer Matrix}% @@ -1389,5 +1498,94 @@ n-\operatorname{def}A. \] \end{satz} +\begin{proof}[Beweis] +Der Defekt der Matrix $A$ ist die Dimension des Kernes, also die +Dimension des Lösungsraumes des homogenen Gleichungssystems mit +Koeffizientenmatrix $A$. +Dies ist auch die Anzahl der frei wählbaren Variablen nach +der Durchführung des Gaussalgorithmus +Die behauptete Bezieung kann man jetzt unmittelbar aus dem +Schlusstableau +\begin{center} +\begin{tikzpicture}[>=latex,thick,scale=0.5] +\draw (0,0) rectangle (8,7); +\draw (0,3) -- (8,3); +\draw (4,0) -- (4,7); +\node at (0.5,6.5) {$1$}; +\node at (2,5.25) {$\ddots$}; +\node at (3.5,3.5) {$1$}; + +\node at (4.5,6.5) {$*$}; +\node at (4.5,3.5) {$*$}; +\node at (7.5,6.5) {$*$}; +\node at (7.5,3.5) {$*$}; +\node at (4.5,5.25) {$\vdots$}; +\node at (7.5,5.25) {$\vdots$}; +\node at (6,3.5) {$\cdots$}; +\node at (6,6.5) {$\cdots$}; +\node at (6,5.25) {$\ddots$}; + +\node at (2,1.5) {$0$}; +\node at (6,1.5) {$0$}; + +\draw[<->] (-0.3,7) -- (-0.3,3); +\node at (-0.3,5) [left] {$\operatorname{rank}A$}; +\draw[<->] (4,7.3) -- (8,7.3); +\node at (6,7.3) [above] {$\operatorname{def}A\mathstrut$}; +\node at (2,7.3) [above] {$n-\operatorname{def}A\mathstrut$}; +\draw[<->] (0,7.3) -- (4,7.3); +\draw[<->] (0,-0.3) -- (8,-0.3); +\node at (4,-0.3) [below] {$n$}; +\end{tikzpicture} +\end{center} +ablesen. +\end{proof} + +\subsubsection{Gauss-Algorithmus und Basiswechsel} +Die Zeilenoperationen des Gauss-Algorithmus können durch Multiplikation +mit Matrizen der Form +\[ +\begin{pmatrix} +1& & & & & & & \\ + &\ddots& & & & & & \\ + & &1& & & & & \\ + & & &{\color{red}1} & & & & \\ + & & &{\color{blue}-a_{i+1,i}}&1& & & \\ + & & &{\color{blue}-a_{i+2,i}}& &1& & \\ + & & &\vdots & & &\ddots& \\ + & & &{\color{blue}-a_{n,i}} & & & &1 +\end{pmatrix} +\] +ausgedrückt werden. +Diese Matrizen sind alle invertiertbar. +Man kann die Zeilenoperationen also als ein Basiswechsel im Bildraum +verstehen. + \subsubsection{Quotient} -TODO: $\operatorname{im} A \simeq \Bbbk^m/\ker A$ +Ist $U\subset V$ ein Unterraum, dann kann man einen neuen Vektorraum +$V/U$ bilden, dessen Vektoren Äquivalenzklassen von Vektoren aus $V$ +sind, die sich nur um einen Vektor aus $U$ unterscheiden. +Wir können solche Vektoren als $v+U$ schreiben. +Diese abstrakte Definition des Quotienten kann im Falle +des Quotienten $\Bbbk^n / \ker A$ mit Hilfe des +Gauss-Algorithmus wesentlich anschaulicher realisiert werden, +wie im folgenden Abschnitt gezeigt wird. + +\subsubsection{Realisierung des Quotienten} +Der Quotient besteht aus den Vektoren, die ``übrig'' bleiben, wenn man die +Vektoren im Kern mit $0$ identifiziert. +Man kann ihn sich als das Bild vorstellen. + +Etwas konkreter erlaubt der Gauss-Algorithmus, +für das Bild $\operatorname{im}A$ eine Basis zu finden. +Aus dem Schlusstableau lässt sich zunächst eine Basis des Kernes +ablesen, dies sind die ``grünen'' Spalten. +Die Pivotspalten bilden dagegen eine Basis für den Bildraum +nach dem im vorangegangenen Abschnitt angesprochenen Basiswechsel. + +Die Pivotspalten beschreiben Vektoren, die durch die Abbildung {\em nicht} +zu $0$ gemacht werden. +Wendet man $A$ auf die Standardbasisvektoren ab, die zu den +Pivospalten gehören, erhält man also eine Basis für da Bild +von $A$. + diff --git a/buch/chapters/10-vektorenmatrizen/ringe.tex b/buch/chapters/10-vektorenmatrizen/ringe.tex index 21b29c2..1149e29 100644 --- a/buch/chapters/10-vektorenmatrizen/ringe.tex +++ b/buch/chapters/10-vektorenmatrizen/ringe.tex @@ -13,6 +13,7 @@ Eine ähnliche Situation haben wir bei $M_n(\Bbbk)$ angetroffen. $M_n(\Bbbk)$ ist eine zunächst eine Gruppe bezüglich der Addition, hat aber auch noch eine Multiplikation, die nicht immer umkehrbar ist. Diese Art von Struktur nennt man einen Ring. +\index{Ring} \subsubsection{Definition eines Rings} @@ -21,6 +22,7 @@ Diese Art von Struktur nennt man einen Ring. Eine Menge $R$ mit einer additiven Operation $+$ mit neutralem Element $0$ und einer multiplikativ geschriebenen Operation $\cdot$ heisst ein {\em Ring}, wenn folgendes gilt. +\index{Ring}% \begin{enumerate} \item $R$ ist eine Gruppe bezüglich der Addition. @@ -56,14 +58,15 @@ kein neutrales Element hat oder beides. \begin{definition} \index{Ring mit Eins}% -Ein Ring $R$ heisst ein Ring mit Eins, wenn die Multiplikation ein +Ein Ring $R$ heisst ein {\em Ring mit Eins}, wenn die Multiplikation ein neutrales Element hat. +\index{Ring mit Eins}% \end{definition} \begin{definition} \index{Ring!kommutativ}% \index{kommutativer Ring}% -Ein Ring $R$ heisst kommutativ, wenn die Multiplikation kommutativ +Ein Ring $R$ heisst {\em kommutativ}, wenn die Multiplikation kommutativ ist. \end{definition} @@ -93,7 +96,7 @@ für $a,b\in c(\mathbb{Z})$. Die Algebra ist kommutativ und hat die konstante Folge $u_n = 1\;\forall n$ als Eins. -Wir betrachten jetzt ein Unterring $c_0(\mathbb{Z})\subset c(\mathbb{Z})$ +Wir betrachten jetzt den Unterring $c_0(\mathbb{Z})\subset c(\mathbb{Z})$ bestehend aus den Folgen, die nur für endlich viele Folgenglieder von $0$ verschieden sind. Für eine Folge $a\in c_0(\mathbb{Z})$ gibt es eine Zahl $N$ derart, dass @@ -138,8 +141,8 @@ Ebenso ist das Produkt dieser Zahlen weil Realteil $ac-bd\in\mathbb{Z}$ und der Imaginärteil $ad+bc\in\mathbb{Z}$ ganze Zahlen sind. Die Menge $\mathbb{Z}[i]$ ist also ein kommutative Ring mit Eins, er -heisst der Ring der ganzen {\em Gaussschen Zahlen}. -\index{Gausssche Zahlen}% +heisst der Ring der {\em ganzen Gaussschen Zahlen}. +\index{ganze Gausssche Zahlen}% \end{beispiel} \begin{beispiel} @@ -170,9 +173,9 @@ $M_2(\mathbb{Z})$. \subsubsection{Einheiten} In einem Ring mit Eins sind normalerweise nicht alle von $0$ verschiedenen Elemente intertierbar. -Die Menge der von $0$ verschiedenen Elemente in $R$ wir mit $R^*$ +Die Menge der von $0$ verschiedenen Elemente in $R$ wir mit $R^*=R\setminus\{0\}$ bezeichnet. -\index{$R^*$}% +\index{R*@$R^*$}% Die Menge der invertierbaren Elemente verdient einen besonderen Namen. \begin{definition} @@ -214,14 +217,17 @@ $U(M_n(\Bbbk))=\operatorname{GL}_n(\Bbbk)$. \subsubsection{Nullteiler} Ein möglicher Grund, warum ein Element $r\in R$ nicht invertierbar -ist, kann sein, dass es ein Element $s\in R$ gibt mit $rs=0$. +ist, kann sein, dass es ein Element $s\in R$ mit $rs=0$ gibt. Wäre nämlich $t$ ein inverses Element, dann wäre $0=t0 = t(rs) = (tr)s=s$. \begin{definition} +\label{buch:grundlagen:def:nullteiler} Ein Element $r\in R^*$ heisst ein {\em Nullteiler} in $R$, wenn es ein $s\in R^*$ gibt mit $rs=0$ Ein Ring ohne Nullteiler heisst {\em nullteilerfrei}. \end{definition} +\index{Nullteiler}% +\index{nullteilerfrei}% In $\mathbb{R}$ ist man sich gewohnt zu argumentieren, dass wenn ein Produkt $ab=0$ ist, dann muss einer der Faktoren $a=0$ oder $b=0$ sein. diff --git a/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex index 408bfeb..f89da33 100644 --- a/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex +++ b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex @@ -17,8 +17,9 @@ der genau der geometrischen Intuition entspricht. \subsection{Bilinearformen und Skalarprodukte \label{buch:subsection:bilinearformen}} -Damit man mit einem Skalarprodukt rechnen kann wie mit jedem anderen -Produkt, müssen man auf beiden Seiten des Zeichesn ausmultiplizieren können: +Damit man mit einem Skalarprodukt wie mit jedem anderen Produkt +rechnen kann, müssen man auf beiden Seiten des Zeichesn ausmultiplizieren +können: \begin{align*} (\lambda x_1 + \mu x_2)\cdot y &= \lambda x_1\cdot y + \mu x_2\cdot y\\ x\cdot (\lambda y_1 + \mu y_2) &= \lambda x\cdot y_1 + \mu x\cdot y_2. @@ -48,7 +49,7 @@ Eine bilineare Funktion mit Werten in $\Bbbk$ heisst auch {\em Bilinearform}. Das Skalarprodukt hängt nicht von der Reihenfolge der Faktoren ab. In Frage dafür kommen daher nur Bilnearformen $f\colon V\times V\to\Bbbk$, die zusätzlich $f(x,y)=f(y,x)$ erfüllen. -Solche Bilinearformen heissen symmetrisch. +Solche Bilinearformen heissen {\em symmetrisch}. Für eine symmetrische Bilinearform gilt die binomische Formel \begin{align*} f(x+y,x+y) @@ -62,8 +63,19 @@ f(x,x)+2f(x,y)+f(y,y) \end{align*} wegen $f(x,y)=f(y,x)$. +Aus einer beliebigen bilinearen Funktion $g(x,y)$ kann immer eine +symmetrische bilineare Funktion $f(x,y)$ gewonnen werden, indem +man +\[ +f(x,y) = \frac12 \bigl(g(x,y)+g(x,y)\bigr) +\] +setzt. +Dieser Prozess heisst auch {\em Symmetrisieren}. +\index{symmetrisieren}% +Ist $g$ bereits symmetrische, dann ist $g(x,y)=f(x,y)$. + \subsubsection{Positiv definite Bilinearformen und Skalarprodukt} -Bilinearität alleine genügt nicht, um einen Vektorraum mit einem +Bilinearität allein genügt nicht, um einen Vektorraum mit einem nützlichen Abstandsbegriff auszustatten. Dazu müssen die berechneten Abstände vergleichbar sein, es muss also eine Ordnungsrelation definiert sein, wie wir sie nur in $\mathbb{R}$ @@ -75,15 +87,14 @@ Man lernt in der Vektorgeometrie, dass sich mit einer Bilinearform $f\colon V\times V\to\mathbb{R}$ die Länge eines Vektors $x$ definieren lässt, indem man $\|x\|^2 = f(x,x)$ setzt. -Ausserdem muss $f(x,x)\ge 0$ sein für alle $x$, was die Bilinearität +Dazu muss $f(x,x)\ge 0$ sein für alle $x$, was die Bilinearität allein nicht garantieren kann. Verschiedene Punkte in einem Vektorraum sollen in dem aus der Bilinearform abgeleiteten Abstandsbegriff immer unterscheidbar sein. Dazu muss jeder von $0$ verschiedene Vektor positive Länge haben. -% XXX Positiv definite Form \begin{definition} -Eine Bilinearform $f\colon V\times V\to\mathbb{R}$ +Eine symmetrische Bilinearform $f\colon V\times V\to\mathbb{R}$ heisst {\em positiv definit}, wenn \index{positiv definit}% \[ @@ -94,12 +105,14 @@ geschrieben. \index{Skalarprodukt}% Die {\em $l^2$-Norm} $\|x\|_2$ eines Vektors ist definiert durch $\|x\|_2^2 = \langle x,x\rangle$. +\index{l2-norm@$l^2$-Norm}% \end{definition} \subsubsection{Dreiecksungleichung} % XXX Dreiecksungleichung Damit man sinnvoll über Abstände sprechen kann, muss die Norm -$\|\;\cdot\;\|_2$ der geometrischen Intuition folgen, die durch +$\|\mathstrut\cdot\mathstrut\|_2$ +der geometrischen Intuition folgen, die durch die Dreiecksungleichung ausgedrückt wird. In diesem Abschnitt soll gezeigt werden, dass die $l^2$-Norm diese immer erfüllt. @@ -107,14 +120,17 @@ Dazu sei $V$ ein $\mathbb{R}$-Vektorraum mit Skalarprodukt $\langle\;,\;\rangle$. \begin{satz}[Cauchy-Schwarz-Ungleichung] +\label{buch:skalarprodukt:satz:cauchy-schwarz-ungleichung} Für $x,y\in V$ gilt -\[ +\begin{equation} |\langle x,y\rangle | \le \| x\|_2\cdot \|y\|_2 -\] +\label{buch:skalarprodukt:eqn:cauchy-schwarz-ungleichung} +\end{equation} mit Gleichheit genau dann, wenn $x$ und $y$ linear abhängig sind. \end{satz} +\index{Cauchy-Schwarz-Ungleichung}% \begin{proof}[Beweis] Wir die Norm von $z=x-ty$: @@ -152,7 +168,7 @@ x - \frac{\langle x,y\rangle}{\|y\|_2^2}y }{ \|y\|_2^2 } -\ge 0 +\ge 0. \intertext{Es folgt} &&&\Rightarrow& \|x\|_2^2\cdot\|y\|_2^2 - (\langle x,y\rangle)^2 &\ge 0 @@ -164,14 +180,18 @@ mit Gleichheit genau dann, wenn es ein $t$ gibt mit $x=ty$. \end{proof} \begin{satz}[Dreiecksungleichung] +\label{buch:skalarprodukt:satz:dreiecksungleichung} Für $x,y\in V$ ist \[ \| x + y \|_2 \le \|x\|_2 + \|y\|_2 \] mit Gleichheit genau dann, wenn $x=ty$ ist für ein $t\ge 0$. \end{satz} +\index{Dreiecksungleichung}% \begin{proof}[Beweis] +Wir berechnen die Norm von $x+y$ und wenden die +Cauchy-Schwarz-Ungleichung darauf an: \begin{align*} \|x+y\|_2^2 &= @@ -189,20 +209,21 @@ mit Gleichheit genau dann, wenn $x=ty$ ist für ein $t\ge 0$. 2\langle x,y\rangle + \|y\|_2^2 -= -\|x\|_2^2 + 2\langle x,y\rangle + \|y\|_2^2 -\le +\\ +&\le \|x\|_2^2 + 2\|x\|_2\cdot\|y\|_2 + \|y\|_2^2 \\ &= (\|x\|_2 + \|y\|_2)^2 \\ +\Rightarrow\qquad \|x + y\|_2 -&\le \|x\|_2 + \|y\|_2, +&\le \|x\|_2 + \|y\|_2. \end{align*} Gleichheit tritt genau dann ein, wenn $\langle x,y\rangle=\|x\|_2\cdot \|y\|_2$. -Dies tritt genau dann ein, wenn die beiden Vektoren linear abhängig sind. +Dies tritt nach Satz~\ref{buch:skalarprodukt:satz:cauchy-schwarz-ungleichung} +genau dann ein, wenn die beiden Vektoren linear abhängig sind. \end{proof} \subsubsection{Polarformel} @@ -215,6 +236,7 @@ Norm zurückgewinnen. Dies ist der Inhalt der sogenannte Polarformel. \begin{satz}[Polarformel] +\label{buch:skalarprodukt:satz:polarformel} Ist $\|\cdot\|_2$ eine Norm, die aus einer symmetrischen Bilinearform $\langle\;,\;\rangle$ hervorgegangen ist, dann kann die Bilinearform mit Hilfe der Formel @@ -232,6 +254,7 @@ mit Hilfe der Formel \end{equation} für $x,y\in V$ wiedergewonnen werden. \end{satz} +\index{Polarformel}% \begin{proof}[Beweis] Die binomischen Formel @@ -269,13 +292,14 @@ Seien $U,V,W$ komplexe Vektorräume. Eine Abbildung $f\colon U\times V\to W$ heisst {\em sesquilinear}\footnote{Das lateinische Wort {\em sesqui} bedeutet eineinhalb, eine Sesquilinearform ist also eine Form, die in einem -Faktor (dem zweiten) linear ist, und im anderen nur halb linear.} -\index{sesquilinear} +Faktor (dem zweiten) linear ist, und im anderen nur ``halb'' linear. +} +\index{sesquilinear}% wenn gilt \begin{align*} -f(\lambda x_1+\mu x_2,y) &= \overline{\lambda}f(x_1,y) + \overline{\mu}f(x_2,y) +f(\lambda x_1+\mu x_2,y) &= \overline{\lambda}f(x_1,y) + \overline{\mu}f(x_2,y), \\ -f(x,\lambda y_1+\mu y_2) &= \lambda f(x,y_1) + \mu f(x,y_2) +f(x,\lambda y_1+\mu y_2) &= \lambda f(x,y_1) + \mu f(x,y_2). \end{align*} \end{definition} @@ -295,6 +319,23 @@ Für die Norm $\|x\|_2^2=\langle x,x\rangle$ bedeutet dies jetzt \subsection{Orthognormalbasis \label{buch:subsection:orthonormalbasis}} \index{orthonormierte Basis}% +Sowohl die Berechnung von Skalarprodukten wie auch der Basis-Wechsel +werden besonders einfach, wenn die verwendeten Basisvektoren orthogonal +sind und Länge $1$ haben. + +\subsubsection{Orthogonale Vektoren} +In der Vektorgeometrie definiert man den Zwischenwinkel $\alpha$ +zwischen zwei von $0$ verschiedene Vektoren $u$ und $v$ mit Hilfe +des Skalarproduktes und er Formel +\[ +\cos\alpha = \frac{\langle u,v\rangle}{\|u\|_2\cdot\|v\|_2}. +\] +Der Winkel ist $\alpha=90^\circ$ genau dann, wenn das Skalarprodukt +verschwindet. +Zwei Vektoren $u$ und $v$ heissen daher {\em orthogonal} genau dann, +wenn $\langle u,v\rangle=0$. +Wir schreiben dafür auch $u\perp v$. +\index{orthogonal}% \subsubsection{Gram-Matrix} Sei $V$ ein Vektorraum mit einem Skalarprodukt und $\{b_1,\dots,b_n\}$ eine @@ -308,7 +349,7 @@ y = \sum_{i=1}^n \eta_i b_i \] berechnen? Setzt man $x$ und $y$ in das Skalarprodukt ein, erhält man -\begin{align*} +\begin{align} \langle x,y\rangle &= \biggl\langle @@ -317,31 +358,70 @@ Setzt man $x$ und $y$ in das Skalarprodukt ein, erhält man \biggr\rangle = \sum_{i,j=1}^n \xi_i\eta_j \langle b_i,b_j\rangle. -\end{align*} -Die Komponente $g_{ij}=\langle b_i,b_j\rangle$ bilden die sogenannte -Gram-Matrix $G$. +\label{buch:skalarprodukt:eqn:skalarproduktgram} +\end{align} +Die Komponente $g_{i\!j}=\langle b_i,b_j\rangle$ bilden die sogenannte +{\em Gram-Matrix} $G$. +\index{Gram-Matrix}% +Da das Skalarprodukt eine symmetrische Bilinearform ist, ist die +Gram-Matrix symmetrisch. Mit ihr kann das Skalarprodukt auch in Vektorform geschrieben werden als $\langle x,y\rangle = \xi^t G\eta$. \subsubsection{Orthonormalbasis} -Eine Basis $\{a_1,\dots,a_n\}$ aus orthogonalen Einheitsvektoren, +Eine Basis $\{b_1,\dots,b_n\}$ aus orthonormierten Einheitsvektoren, also mit $ -\langle a_i,a_j\rangle=\delta_{ij} +\langle b_i,b_j\rangle=\delta_{i\!j}, $ heisst {\em Orthonormalbasis}. -In einer Orthonormalbasis ist die Bestimmung der Koordinaten eines -beliebigen Vektors besonders einfach, ist nämlich +\index{Orthonormalbasis}% +Die Gram-Matrix einer Orthonormalbasis ist die Einheitsmatrix. + +Eine Orthonormalbasis zeichnet sich dadurch aus, dass die Berechnung +des Skalarproduktes in einer solchen Basis besonders einfach ist. +Aus \eqref{buch:skalarprodukt:eqn:skalarproduktgram} kann man ablesen, +dass $\langle x,y\rangle = \xi^t G \eta = \xi^t I \eta = \xi^t\eta$. + +In einer Orthonormalbasis ist auch die Bestimmung der Koordinaten +eines beliebigen Vektors besonders einfach. +Sei also $\{b_1,\dots,b_n\}$ eine Orthonormalbasis und $v$ ein +Vektor, der in dieser Basis dargestellt werden soll. +Der Vektor \begin{equation} -v=\sum_{i=1}^n \langle v,a_i\rangle a_i. +v'=\sum_{i=1}^n \langle v,b_i\rangle b_i, \label{buch:grundlagen:eqn:koordinaten-in-orthonormalbasis} \end{equation} -Die Gram-Matrix einer Orthonormalbasis ist die Einheitsmatrix. +hat die Skalarprodukte +\[ +\langle v',b_j\rangle= +\biggl\langle \sum_{i=1}^n \langle v,b_i\rangle b_i,b_j\biggr\rangle += +\sum_{i=1}^n \bigl\langle \langle v,b_i\rangle b_i, b_j\bigr\rangle += +\sum_{i=1}^n \langle v,b_i\rangle \rangle b_i, b_j\rangle += +\sum_{i=1}^n \langle v,b_i\rangle \delta_{i\!j} += +\langle v,b_j\rangle. +\] +Insbesondere gilt +\[ +\langle v,b_j\rangle = \langle v',b_j\rangle +\qquad\Rightarrow\qquad +\langle v-v',b_j\rangle = 0 +\qquad\Rightarrow\qquad +v-v'=0 +\qquad\Rightarrow\qquad +v=v'. +\] +Die Koordinaten von $v$ in der Basis $\{b_i\,|\,1\le i\le n\}$ +sind also genau die Skalarprodukte $\langle v,b_i\rangle$. \subsubsection{Gram-Schmidt-Orthonormalisierung} Mit Hilfe des Gram-Schmidtschen Orthonormalisierungsprozesses kann aus einer beliebige Basis $\{a_1,a_2,\dots,a_n\}\subset V$ eines Vektorraums -mit einem SKalarprodukt eine orthonormierte Basis +mit einem Skalarprodukt eine orthonormierte Basis $\{b_1,b_2,\dots,b_n\}$ gefunden werden derart, dass für alle $k$ $\langle b_1,\dots,b_k\rangle = \langle a_1,\dots ,a_k\rangle$. \index{Gram-Schmidt-Orthonormalisierung}% @@ -392,7 +472,7 @@ a_n-b_1\langle b_1,a_n\rangle-b_2\langle b_2,a_n\rangle \end{align*} Die Basisvektoren $b_i$ sind orthogonal, aber $\|b_i\|_2$ kann auch von $1$ abweichen. -Damit ist es zwar nicht mehr so einfach +Damit ist es leider nicht mehr so einfach wie in \eqref{buch:grundlagen:eqn:koordinaten-in-orthonormalbasis}, einen Vektor in der Basis zu zerlegen. Ein Vektor $v$ hat nämlich in der Basis $\{b_1,\dots,b_n\}$ die Zerlegung @@ -403,10 +483,10 @@ v \frac{\langle b_i,v\rangle}{\|b_i\|_2^2} b_i, \label{buch:grundlagen:eqn:orthogonal-basiszerlegung} \end{equation} -Die Koordinaten bezüglich dieser Basis sind also +die Koordinaten bezüglich dieser Basis sind also $\langle b_i,v\rangle/\|b_i\|_2^2$. -Die Gram-Matrix einer Orthogonalen Basis ist immer noch diagonal, +Die Gram-Matrix einer orthogonalen Basis ist immer noch diagonal, auf der Diagonalen stehen die Normen der Basisvektoren. Die Nenner in der Zerlegung \eqref{buch:grundlagen:eqn:orthogonal-basiszerlegung} @@ -416,7 +496,7 @@ sind die Einträge der inverse Matrix der Gram-Matrix. Die Gram-Matrix einer Basis $\{b_1,\dots,b_n\}$ in einem komplexen Vektorraum hat die Eigenschaft \[ -g_{ij} +g_{i\!j} = \langle b_i,b_j\rangle = @@ -425,43 +505,46 @@ g_{ij} \overline{g}_{ji} \quad 1\le i,j\le n. \] -Sie ist nicht mehr symmetrisch, aber selbstadjungiert, gemäss +Sie ist nicht mehr symmetrisch, aber hermitesch, gemäss der folgenden Definition. \begin{definition} -\label{buch:grundlagen:definition:selstadjungiert} -Sei $A$ eine komplexe Matrix mit Einträgen $a_{ij}$, dann ist +\label{buch:grundlagen:definition:hermitesch} +Sei $A$ eine komplexe Matrix mit Einträgen $a_{i\!j}$, dann ist $\overline{A}$ die Matrix mit komplex konjugierten Elementen -$\overline{a}_{ij}$. +$\overline{a}_{i\!j}$. Die {\em adjungierte} Matrix ist $A^*=\overline{A}^t$. -Eine Matrix heisst selbstadjungiert, wenn $A^*=A$. +\index{adjungiert}% +Eine Matrix heisst {\em hermitesch}, wenn $A^*=A$. +\index{hermitesch}% +Sie heisst {\em antihermitesch}, wenn $A^*=-A$. \end{definition} -\subsection{Symmetrische und selbstadjungierte Abbilungen -\label{buch:subsection:symmetrisch-und-selbstadjungiert}} -In Definition~\ref{buch:grundlagen:definition:selstadjungiert} -wurde der Begriff der selbstadjungierten Matrix basierend +\subsection{Selbstadjungierte Abbilungen +\label{buch:subsection:selbstadjungiert}} +In Definition~\ref{buch:grundlagen:definition:hermitesch} +wurde der Begriff der hermiteschen Matrix basierend eingeführt. Als Eigenschaft einer Matrix ist diese Definition notwendigerweise abhängig von der Wahl der Basis. Es ist nicht unbedingt klar, dass derart definierte Eigenschaften als von der Basis unabhängige Eigenschaften betrachtet werden können. Ziel dieses Abschnitts ist, Eigenschaften wie Symmetrie oder -Selbstadjungiertheit auf basisunabhängige Eigenschaften von +hermitesch auf basisunabhängige Eigenschaften von linearen Abbildungen in einem Vektorraum $V$ mit Skalarprodukt $\langle\;,\;\rangle$ zu verstehen. -\subsubsection{Symmetrische Abbildungen} +\subsubsection{Reelle selbstadjungierte Abbildungen} Sei $f\colon V\to V$ eine lineare Abbildung. In einer Basis $\{b_1,\dots,b_n\}\subset V$ wird $f$ durch eine Matrix $A$ beschrieben. Ist die Basis orthonormiert, dann kann man die Matrixelemente -mit $a_{ij}=\langle b_i,Ab_j\rangle$ berechnen. +mit $a_{i\!j}=\langle b_i,Ab_j\rangle$ berechnen. Die Matrix ist symmetrisch, wenn \[ \langle b_i,Ab_j\rangle = -a_{ij} +a_{i\!j} = a_{ji} = @@ -471,16 +554,17 @@ a_{ji} \] ist. Daraus leitet sich jetzt die basisunabhängige Definition einer -symmetrischen Abbildung ab. +selbstadjungierten Abbildung ab. \begin{definition} -Eine lineare Abbildung $f\colon V\to V$ heisst {\em symmetrisch}, wenn +Eine lineare Abbildung $f\colon V\to V$ heisst {\em selbstadjungiert}, wenn $\langle x,Ay\rangle=\langle Ax,y\rangle$ gilt für beliebige Vektoren $x,y\in V$. +\index{selbstadjungierte Abbildung}% \end{definition} Für $V=\mathbb{R}^n$ und das Skalarprodukt $\langle x,y\rangle=x^ty$ -erfüllt eine symmetrische Abbildung mit der Matrix $A$ die Gleichung +erfüllt eine selbstadjungierte Abbildung mit der Matrix $A$ die Gleichung \[ \left. \begin{aligned} @@ -497,16 +581,18 @@ x^tAy x^tA^ty = x^tAy\quad\forall x,y\in\mathbb{R}^n, \] was gleichbedeutend ist mit $A^t=A$. -Der Begriff der symmetrischen Abbildung ist also eine natürliche +Der Begriff der selbstadjungierten Abbildung ist also eine natürliche Verallgemeinerung des Begriffs der symmetrischen Matrix. -\subsubsection{Selbstadjungierte Abbildungen} +\subsubsection{Selbstadjungierte komplexe Abbildungen} In einem komplexen Vektorraum ist das Skalarprodukt nicht mehr bilinear und symmetrisch, sondern sesquilinear und konjugiert symmetrisch. \begin{definition} -Eine lineare Abbildung $f\colon V\to V$ heisst {\em selbstadjungiert}, +Eine lineare Selbstabbildung $f\colon V\to V$ eines komplexen +Vektorraumes heisst {\em selbstadjungiert}, wenn $\langle x,fy\rangle=\langle fx,y\rangle$ für alle $x,y\in\mathbb{C}$. +\index{selbstadjungiert}% \end{definition} Im komplexen Vektorraum $\mathbb{C}^n$ ist das Standardskalarprodukt @@ -528,12 +614,13 @@ Die lineare Abbildung $f^*\colon V\to V$ definiert durch \langle f^*x,y\rangle = \langle x,fy\rangle,\qquad x,y\in V \] heisst die {\em Adjungierte} von $f$. +\index{Adjungierte}% \end{definition} Eine selbstadjungierte Abbildung ist also eine lineare Abbildung, die mit ihrer Adjungierte übereinstimmt, als $f^* = f$. In einer orthonormierten Basis $\{b_1,\dots,b_n\}$ hat die Abbildung -$f$ die Matrixelemente $a_{ij}=\langle b_i,fb_j\rangle$. +$f$ die Matrixelemente $a_{i\!j}=\langle b_i,fb_j\rangle$. Die adjungierte Abbildung hat dann die Matrixelemente \[ \langle b_i,f^*b_j \rangle @@ -560,6 +647,8 @@ Eine lineare Abbildung $f\colon V\to V$ in einem reellen Vektorraum mit heisst {\em orthogonal}, wenn $\langle fx,fy\rangle = \langle x,y\rangle$ für alle $x,y\in V$ gilt. +\index{orthogonale Abbildung}% +\index{orthogonale Matrix}% \end{definition} Die adjungierte einer orthogonalen Abbildung erfüllt @@ -579,18 +668,101 @@ Eine lineare Abbildung $f\colon V\to V$ eines komplexen Vektorraumes $V$ mit Skalarprodukt heisst unitär, wenn $\langle x,y\rangle = \langle fx,fy\rangle$ für alle Vektoren $x,y\in V$. Eine Matrix heisst unitär, wenn $U^*U=I$. +\index{unitäre Abbildung}% +\index{unitäre Matrix}% \end{definition} Die Matrix einer unitären Abbildung in einer orthonormierten Basis ist unitär. -% XXX Skalarprodukt und Lineare Abbildungen -% XXX Symmetrische Matrizen -% XXX Selbstadjungierte Matrizen - \subsection{Orthogonale Unterräume \label{buch:subsection:orthogonale-unterraeume}} -% XXX Invariante Unterräume -% XXX Kern und Bild orthogonaler Abbildungen +Die Orthogonalitätsrelation lässt sich auch auf Unterräume ausdehnen. +Zwei Unterräume $U\subset V$ und $W\subset V$ eines Vektorraums mit +Skalarprodukt heissen orthogonal, wenn gilt +\( +u\perp w\forall u\in U,w\in W +\). + +\subsubsection{Orthogonalkomplement} +Zu einem Unterraum $U$ kann man den Vektorraum +\[ +U^\perp = \{ v\in V\,|\, v\perp u\forall u\in U\} +\] +bilden. +$U^\perp$ ist ein Unterraum, denn für zwei Vektoren +$v_1,v_2\in U^\perp$ gilt +\[ +\langle \lambda v_1+\mu v_2,u\rangle += +\lambda \langle v_1,u\rangle + \mu \langle v_2,u\rangle += +0 +\] +für alle $u\in U$, also ist $\lambda v_1+\mu v_2\in U^\perp$. +Der Unterraum $U^\perp$ heisst das {\em Orthogonalkomplement} +von $U$. +\index{Orthogonalkomplement}% + +\subsubsection{Kern und Bild} +Die adjungierte Abbildung ermöglicht, eine Abbildung in einem +Skalarprodukt auf den anderen Faktor zu schieben und damit +einen Zusammenhang zwischen Bildern und Kernen mit Hilfe des +Orthogonalkomplements herzustellen. + +\begin{satz} +Sei $f\colon U\to V$ eine lineare Abbildung zwischen Vektorräumen +mit Skalarprodukt, und $f^*\colon V \to U$ die adjungierte Abbildung, +Dann gilt +\[ +\begin{aligned} +\ker f^* +&= +(\operatorname{im}f)^\perp +&& +& +\operatorname{im}f\phantom{\mathstrut^*} +&= +(\ker f^*)^\perp +\\ +\ker f\phantom{\mathstrut^*} +&= +(\operatorname{im}f^*)^\perp +& +&& +\operatorname{im}f^* +&= +(\ker f)^\perp. +\end{aligned} +\] +\end{satz} + +\begin{proof}[Beweis] +Es gilt $\langle fu,v\rangle = \langle u,f^*v\rangle$ für +alle $u\in U, v\in V$. +Das Orthogonalkomplement des Bildes von $f$ ist +\begin{align*} +(\operatorname{im} f)^\perp +&= +\{ +v\in V +\,|\, +\langle v, fu\rangle=0\forall u\in U +\} +\end{align*} +Ein Vektor $v$ ist genau dann in $(\operatorname{im}f)^\perp$ enthalten, +wenn für alle $u$ +\[ +0 += +\langle v,fu\rangle += +\langle f^*v,u\rangle +\] +gilt. +Das ist aber gleichbdeutend damit, dass $f^*v=0$ ist, dass also +$v\in\ker f^*$. +Dies beweist die erste Beziehung, alle anderen folgen auf analoge Weise. +\end{proof} \subsection{Andere Normen auf Vektorräumen \label{buch:subsection:andere-normen}} @@ -602,6 +774,7 @@ zusammen. \subsubsection{$l^1$-Norm} \begin{definition} Die $l^1$-Norm in $V=\mathbb{R}^n$ oder $V=\mathbb{C}^n$ ist definiert durch +\index{l1-Norm@$l^1$-Norm}% \[ \| v\|_1 = @@ -652,7 +825,6 @@ ein Widerspruch. \subsubsection{$l^\infty$-Norm} - \begin{definition} Die $l^\infty$-Norm in $V=\mathbb{R}^n$ und $V=\mathbb{C}^n$ ist definiert \[ @@ -662,6 +834,7 @@ Die $l^\infty$-Norm in $V=\mathbb{R}^n$ und $V=\mathbb{C}^n$ ist definiert \] Sie heisst auch die {\em Supremumnorm}. \index{Supremumnorm}% +\index{lunendlich-norm@$l^\infty$-Norm}% \end{definition} Auch diese Norm erfüllt die Dreiecksungleichung @@ -715,6 +888,7 @@ Norm ausgestattet werden, wenn $U$ und $V$ jeweils eine Norm haben. Seien $U$ und $V$ Vektorräume über $\mathbb{R}$ oder $\mathbb{C}$ und $f\colon U\to V$ eine lineare Abbildung. Die {\em Operatorname} der linearen Abbildung ist +\index{Operatornorm}% \[ \|f\| = @@ -736,7 +910,8 @@ l_y \colon V\to \mathbb{C}: x\mapsto \langle y,x\rangle. \] -Zur Berechnung der Operatorname von $l_y$ +Zur Berechnung der Operatorname von $l_y$ verwenden wir die +Cauchy-Schwarz-Ungleichung~\eqref{buch:skalarprodukt:eqn:cauchy-schwarz-ungleichung} \[ |l_y(x)|^2 = @@ -788,6 +963,7 @@ sich auf den Raum der stetigen Funktionen $[a,b]\to\mathbb{R}$ oder $[a,b]\to\mathbb{C}$ verallgemeinern. Die Supremumnorm auf dem Vektorraum der stetigen Funktionen ist +\index{Supremumnorm}% \[ \|f\|_\infty = \sup_{x\in[a,b]} |f(x)| \] @@ -796,6 +972,8 @@ für $f\in C([a,b],\mathbb{R})$ oder $f\in C([a,b],\mathbb{C})$. Für die anderen beiden Normen wird zusätzlich das bestimmte Integral von Funktionen auf $[a,b]$ benötigt. Die $L^2$-Norm wird erzeugt von dem Skalarprodukt +\index{L2-norm@$L^2$-Norm}% +\index{Skalarprodukt}% \[ \langle f,g\rangle = @@ -804,10 +982,38 @@ Die $L^2$-Norm wird erzeugt von dem Skalarprodukt \qquad\Rightarrow\qquad \|f\|_2^2 = \frac{1}{b-a}\int_a^b |f(x)|^2\,dx. \] -Die $L^2$-Norm ist dagegen +Die $L^1$-Norm ist dagegen definiert als. \[ \|f\|_1 = \int_a^b |f(x)|\,dx. \] +Die drei Normen stimmen nicht überein. +Beschränkte Funktionen sind zwar immer integrierbar und quadratintegrierbar. +Es gibt integrierbare Funktionen, die nicht quadratintegrierbar sind, zum +Beispiel ist die Funktion $f(x)=1/\sqrt{x}$ auf dem Interval $[0,1]$ +\begin{align*} +\|f\|_1 +&= +\int_0^1 \frac 1{\sqrt{x}}\,dx += +[2\sqrt{x}]_0^1 += +2 +< +\infty +&&\Rightarrow& \|f\|_1&<\infty +\\ +\|f\|_2^2 +&= +\int_0^1 \biggl(\frac1{\sqrt{x}}\biggr)^2\,dx += +\int_0^1 \frac1x\,dx += +\lim_{t\to 0} [\log x]_t^1 = \infty +&&\Rightarrow& +\|f\|_2 &= \infty. +\end{align*} +Die Vektorräume der integrierbaren und der quadratintegrierbaren Funktionen +sind also verschieden. diff --git a/buch/chapters/10-vektorenmatrizen/strukturen.tex b/buch/chapters/10-vektorenmatrizen/strukturen.tex index a2afa37..2ad7b88 100644 --- a/buch/chapters/10-vektorenmatrizen/strukturen.tex +++ b/buch/chapters/10-vektorenmatrizen/strukturen.tex @@ -17,9 +17,10 @@ werden. Im Laufe der Definition der Vektorräume $\Bbbk^n$ und der Operationen für die Matrizen in $M_{m\times n}(\Bbbk)$ haben wir eine ganze Reihe von algebraischen Strukturen kennengelernt. -Nicht immer sind alle Operationen verfügbar, in einem Vektorraum -gibt es normalerweise kein Produkt. -Und bei der Konstruktion des Zahlensystems wurde gezeigt, dass +Nicht immer sind alle Operationen verfügbar, die uns von der Diskussion +der Zahlenmengen her vertraut sind, zum Beispiel gibt es in einem +Vektorraum normalerweise kein Produkt. +Bei der Konstruktion des Zahlensystems wurde gezeigt, dass additive oder multiplikative Inverse nicht selbstverständlich sind. Sinnvolle Mathematik lässt sich aber erst betreiben, wenn zusammen |