diff options
author | Andreas Müller <andreas.mueller@ost.ch> | 2021-09-21 17:39:31 +0200 |
---|---|---|
committer | Andreas Müller <andreas.mueller@ost.ch> | 2021-09-21 17:39:31 +0200 |
commit | 91c131a2824f5f89422497002fab1654105a10f9 (patch) | |
tree | cd032f2cd661ccf7a230379bb5b605a02e1ef83f /buch/chapters/10-vektorenmatrizen | |
parent | fixes kapitel 1 (diff) | |
download | SeminarMatrizen-91c131a2824f5f89422497002fab1654105a10f9.tar.gz SeminarMatrizen-91c131a2824f5f89422497002fab1654105a10f9.zip |
chapter 2
Diffstat (limited to '')
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/algebren.tex | 8 | ||||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/gruppen.tex | 16 | ||||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/hadamard.tex | 16 | ||||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/koerper.tex | 5 | ||||
-rwxr-xr-x | buch/chapters/10-vektorenmatrizen/linear.tex | 101 | ||||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/ringe.tex | 25 | ||||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/skalarprodukt.tex | 58 | ||||
-rw-r--r-- | buch/chapters/10-vektorenmatrizen/strukturen.tex | 2 |
8 files changed, 129 insertions, 102 deletions
diff --git a/buch/chapters/10-vektorenmatrizen/algebren.tex b/buch/chapters/10-vektorenmatrizen/algebren.tex index 594b94e..718e693 100644 --- a/buch/chapters/10-vektorenmatrizen/algebren.tex +++ b/buch/chapters/10-vektorenmatrizen/algebren.tex @@ -34,12 +34,14 @@ eine Folge der Forderung, dass die Multiplikation eine lineare Abbildung sein soll. Dies bedeutet, dass \begin{equation} -a(\lambda b+\mu c) = \lambda (ab) + \mu (ac), +a(\lambda b+\mu c) = \lambda (ab) + \mu (ac) \label{buch:vektorenmatrizen:eqn:algebralinear} \end{equation} +ist, woraus \eqref{buch:vektorenmatrizen:eqn:algebrakommutativ} -für $\mu=0$ folgt. +folgt, indem man +$\mu=0$ setzt. Die Regel \eqref{buch:vektorenmatrizen:eqn:algebralinear} beinhaltet aber auch das Distributivgesetz. $M_n(\Bbbk)$ ist eine Algebra. @@ -66,7 +68,7 @@ Für zwei Funktion $f,g\in\Bbbk^X$ und $\lambda\in\Bbbk$ definiert man \end{aligned} \] Man kann leicht nachprüfen, dass die Menge der Funktionen $\Bbbk^X$ -mit diesen Verknüfungen die Struktur einer $\Bbbk$-Algebra erhält. +mit diesen Verknüpfungen die Struktur einer $\Bbbk$-Algebra erhält. Die Algebra der Funktionen $\Bbbk^X$ hat auch ein Einselement: die konstante Funktion diff --git a/buch/chapters/10-vektorenmatrizen/gruppen.tex b/buch/chapters/10-vektorenmatrizen/gruppen.tex index 741a871..9a9bef3 100644 --- a/buch/chapters/10-vektorenmatrizen/gruppen.tex +++ b/buch/chapters/10-vektorenmatrizen/gruppen.tex @@ -37,7 +37,7 @@ Eigenschaften: Die Verknüpfung ist assoziativ: $(ab)c=a(bc)$ für alle $a,b,c\in G$. \index{assoziativ}% \item -Es gibt ein neutrales Element $e\in G$ +Es gibt ein neutrales Element $e\in G$. \item Für jedes Element $g\in G$ gibt es ein Element $h\in G$ mit $hg=e$. @@ -54,12 +54,12 @@ spricht man oft von einer {\em Halbruppe}. \index{Halbgruppe}% \begin{definition} -Eine Gruppe $G$ heisst abelsch, wenn $ab=ba$ für alle $a,b\in G$. +Eine Gruppe $G$ heisst {\em abelsch}, wenn $ab=ba$ für alle $a,b\in G$. \end{definition} \index{abelsch}% Additiv geschrieben Gruppen werden immer als abelsch angenommen, -multiplikativ geschrieben Gruppen können abelsch oder nichtabelsch sein. +multiplikativ geschriebene Gruppen können abelsch oder nichtabelsch sein. \subsubsection{Beispiele von Gruppen} @@ -147,8 +147,8 @@ i(hg) = ie. \] -Wende man dies auf das Produkt $gh$ an, folgt -\[ +Wendet man dies auf das Produkt $gh$ an, folgt +\begin{equation} gh = (ie)h @@ -157,11 +157,13 @@ i(eh) = ih = -e -\] +e. +\label{buch:gruppen:eqn:gh=e} +\end{equation} Es ist also nicht nur $hg=e$ sondern immer auch $gh=e$. Für eine Inverse $h$ von $g$ folgt +aus \eqref{buch:gruppen:eqn:gh=e} \[ ge = diff --git a/buch/chapters/10-vektorenmatrizen/hadamard.tex b/buch/chapters/10-vektorenmatrizen/hadamard.tex index 787b0f5..ae91489 100644 --- a/buch/chapters/10-vektorenmatrizen/hadamard.tex +++ b/buch/chapters/10-vektorenmatrizen/hadamard.tex @@ -20,7 +20,7 @@ Im Folgenden werden wir $\Bbbk^n =M_{n\times 1}(\Bbbk)$ setzen und den Fall der Vektoren nicht mehr separat diskutieren. Die Addition und Multiplikation mit Skalaren ist in $M_{m\times n}(\Bbbk)$ komponentenweise definiert. -Wir können natürlich auch ein Produkt komponentenweise definieren, +Wir können natürlich auch ein Produkt von Matrizen komponentenweise definieren, dies ist das Hadamard-Produkt. \begin{definition} @@ -41,11 +41,12 @@ Dies ist jedoch nur interessant, wenn $M_{m\times n}(\Bbbk)$ mit diesem Produkt eine interessante algebraische Struktur erhält. Dazu müssen die üblichen Verträglichkeitsgesetze zwischen den Vektorraumoperationen von $M_{m\times n}(\Bbbk)$ und dem neuen Produkt -gelten, wir erhalten dann eine Algebra. +gelten, erst so erhalten wir eine Algebra. Da alle Operationen elementweise definiert sind, muss man auch alle Rechengesetze nur elementweise prüfen. Es gilt -\begin{align*} +\[ +\begin{aligned} A\odot(B\odot C) &= (A\odot B)\odot C &&\Leftrightarrow& a_{i\!j}(b_{i\!j}c_{i\!j}) &= (a_{i\!j}b_{i\!j})c_{i\!j} @@ -65,7 +66,8 @@ a_{i\!j}(b_{i\!j}+c_{i\!j}) &= a_{i\!j}b_{i\!j} + a_{i\!j}c_{i\!j} A\odot(\lambda B)&=\lambda(A\odot B) &&\Leftrightarrow& a_{i\!j}(\lambda b_{i\!j})&=\lambda(a_{i\!j}b_{i\!j}) -\end{align*} +\end{aligned} +\] für alle $i,j$. Das Hadamard-Produkt ist kommutativ, da die Multiplikation in $\Bbbk$ @@ -119,7 +121,7 @@ Funktion $1$ auf $[m]\times[n]$. \subsection{Hadamard-Produkt und Matrizenalgebra \label{buch:vektorenmatrizen:subsection:vertraeglichkeit}} -Es ist nur in Ausnahmefällen, Hadamard-Produkt und Matrizen-Produkt +Es ist nur in Ausnahmefällen sinnvoll, Hadamard-Produkt und Matrizen-Produkt gleichzeitig zu verwenden. Das liegt daran, dass die beiden Produkte sich überhaupt nicht vertragen. @@ -207,7 +209,7 @@ Matrizenprodukt der Diagonalmatrizen. Für die Hadamard-Matrix ist die Einbettung etwas komplizierter. Wir machen aus einer Matrix erst einen Vektor, den wir dann mit -dem $\operatorname{diag}$ in eine Diagonalmatrix umwandeln: +dem Operator $\operatorname{diag}$ in eine Diagonalmatrix umwandeln: \[ \begin{pmatrix} a_{11}&\dots&a_{1n}\\ @@ -224,7 +226,7 @@ a_{21}\\ a_{2n}\\ \vdots\\ a_{nn} -\end{pmatrix} +\end{pmatrix}. \] Bei dieser Abbildung geht die Hadamard-Multiplikation wieder in das gewöhnliche Matrizenprodukt über. diff --git a/buch/chapters/10-vektorenmatrizen/koerper.tex b/buch/chapters/10-vektorenmatrizen/koerper.tex index 1754ce6..fdc4ceb 100644 --- a/buch/chapters/10-vektorenmatrizen/koerper.tex +++ b/buch/chapters/10-vektorenmatrizen/koerper.tex @@ -73,5 +73,8 @@ $p(z), q(z)$ sind Polynome mit rationalen Koeffizienten, $q(z)\ne 0$ ist ein Körper. \end{beispiel} - +Kapitel~\ref{buch:chapter:endliche-koerper} wird eingehender weitere +Körper studieren. +Diese endlichen Körper sind vor allem in Kryptographie und Codierungstheorie +sehr nützlich. diff --git a/buch/chapters/10-vektorenmatrizen/linear.tex b/buch/chapters/10-vektorenmatrizen/linear.tex index 78cddad..33169bd 100755 --- a/buch/chapters/10-vektorenmatrizen/linear.tex +++ b/buch/chapters/10-vektorenmatrizen/linear.tex @@ -60,7 +60,7 @@ u = \begin{pmatrix}u_1&u_2&\dots&u_m\end{pmatrix} \in \Bbbk^m. \end{definition} Für Vektoren gleicher Dimension sind zwei Rechenoperationen definiert. -Die {\em Addition von Vektoren} $a,a\in\Bbbk^n$ und die Multiplikation +Die {\em Addition von Vektoren} $a,b\in\Bbbk^n$ und die Multiplikation \index{Addition von Vektoren}% eines Vektors mit einem Skalar $\lambda\in\Bbbk$ erfolgt elementweise: \[ @@ -89,22 +89,21 @@ Die üblichen Rechenregeln sind erfüllt, nämlich & a+b&=b+a && -&&\forall a,b\in V +&&\forall a,b\in \Bbbk^n \\ &\text{Assoziativgesetze:} & (a+b)+c&=a+(b+c) & (\lambda\mu)a&=\lambda(\mu a) -&&\forall a,b,c\in V,\; \lambda,\mu\in\Bbbk +&&\forall a,b,c\in \Bbbk^n,\; \lambda,\mu\in\Bbbk \\ &\text{Distributivgesetze:} & \lambda(a+b)&=\lambda a + \lambda b & (\lambda+\mu)a&=\lambda a + \mu a -&&\forall a,b\in V,\; \lambda,\mu\in\Bbbk. -\\ +&&\forall a,b\in \Bbbk^n,\; \lambda,\mu\in\Bbbk. \end{aligned} \label{buch:vektoren-und-matrizen:eqn:vrgesetze} \end{equation} @@ -120,8 +119,8 @@ des dreidimensionalen Raumes, es gibt keine Entsprechung dafür in anderen Dimensionen. \subsubsection{Standardbasisvektoren} -\index|{Standardbasisvektor}% -In $\Bbbk^n$ findet man eine Menge von speziellen Vektoren, durch die +\index{Standardbasisvektor}% +In $\Bbbk^n$ findet man die folgenden speziellen Vektoren, durch die man alle anderen Vektoren ausdrücken kann. Mit den sogenannten {\em Standardbasisvektoren} \[ @@ -210,8 +209,9 @@ Eigenschaften eine grosse Zahl sehr verschiedenartiger mathematischer Objekte beschreiben kann. Alle Erkenntnisse, die man ausschliesslich aus Vektorraumeigenschaften gewonnen hat, sind auf alle diese Objekte übertragbar. -Im folgenden werden wir alle Aussagen für einen Vektorraum $V$ formulieren, -wenn wir die Darstellung als Tupel $\Bbbk^n$ nicht brauchen. +Im Folgenden werden wir danach streben, Aussagen für einen +abstrakten Vektorraum $V$ zu formulieren, +wenn wir die Darstellung als Tupel in $\Bbbk^n$ nicht brauchen. \subsubsection{Gleichungssysteme in Vektorform} Die Vektorraum-Operationen erlauben nun auch, lineare Gleichungssysteme @@ -305,7 +305,7 @@ x_1'a_1 &+& \dots &+& x_n'a_n &=& b \\ \end{equation} Die Frage, ob ein Gleichungssystem genau eine Lösung hat, hängt also damit zusammen, ob es Zahlen $\lambda_1,\dots,\lambda_n$ gibt, für -die die Gleichung~\label{buch:vektoren-und-matrizen:eqn:linabhkomb} +die die Gleichung~\eqref{buch:vektoren-und-matrizen:eqn:linabhkomb} erfüllt ist. \begin{definition} @@ -317,7 +317,7 @@ $\lambda_1,\dots,\lambda_n\in\Bbbk$ gibt, die nicht alle $0$ sind, so dass \end{equation} Die Vektoren heissen linear abhängig, wenn aus \eqref{buch:vektoren-und-matrizen:eqn:linabhdef} -folgt, dass alle $\lambda_1,\dots,\lambda_n=0$ sind. +folgt, dass alle $\lambda_1=0,\dots,\lambda_n=0$ sind. \end{definition} Lineare Abhängigkeit der Vektoren $a_1,\dots,a_n$ bedeutet auch, dass @@ -337,14 +337,15 @@ man sagt $a_1,\dots,a_n$ sind (untereinander) linear abhängig. \subsubsection{Basis} Ein lineares Gleichungssystem fragt danach, ob und wie ein Vektor $b$ als Linearkombination der Vektoren $a_1,\dots,a_n$ ausgedrückt werden kann. -Wenn dies eindeutig möglich ist, dann haben die Vektoren $a_1,\dots,a_n$ +Wenn dies immer eindeutig möglich ist, dann haben die Vektoren $a_1,\dots,a_n$ offenbar eine besondere Bedeutung. \begin{definition} \index{Basis}% \index{Dimension}% Eine linear unabhängig Menge von Vektoren -$\mathcal{B}=\{a_1,\dots,a_n\}\subset V$ +$\mathcal{B}=\{a_1,\dots,a_n\}\subset V$, +mit der sich jeder Vektor von $V$ linear kombinieren lässt, heisst {\em Basis} von $V$. Die maximale Anzahl linear unabhängiger Vektoren in $V$ heisst {\em Dimension} von $V$. @@ -404,14 +405,14 @@ M_{m,n}(\Bbbk) = \{ A\;|\; \text{$A$ ist eine $m\times n$-Matrix}\}. \] -Falls $m=n$ gilt, heisst die Matrix $A$ auch {\em quadratisch} +Falls $m=n$ gilt, heisst die Matrix $A$ auch {\em quadratisch}. \index{quadratische Matrix}% Man kürzt die Menge der quadratischen Matrizen als $M_n(\Bbbk) = M_{n\times n}(\Bbbk)$ ab. \end{definition} Die $m$-dimensionalen Spaltenvektoren $v\in \Bbbk^m$ sind $m\times 1$-Matrizen -$v\in M_{n\times 1}(\Bbbk)$, die $n$-dimensionalen Zeilenvetoren $u\in\Bbbk^n$ +$v\in M_{n\times 1}(\Bbbk)$, die $n$-dimensionalen Zeilenvektoren $u\in\Bbbk^n$ sind $1\times n$-Matrizen $v\in M_{1\times n}(\Bbbk)$. Eine $m\times n$-Matrix $A$ mit den Koeffizienten $a_{i\!j}$ besteht aus den $n$ Spaltenvektoren @@ -476,9 +477,9 @@ c_{i\!j} = \sum_{k=1}^n a_{ik} b_{k\!j}. Die Koeffizienten $a_{ik}$ kommen aus der Zeile $i$ von $A$, die Koeffizienten $b_{k\!j}$ stehen in der Spalte $j$ von $B$, die Multiplikationsregel -\eqref{buch:vektoren-unbd-matrizen:eqn:matrixmultiplikation} -besagt also, dass das Element $c_{i\!j}$ entsteht als das Produkt -der Zeile $i$ von $A$ mit der Spalte $j$ von $C$. +\eqref{buch:vektoren-und-matrizen:eqn:matrixmultiplikation} +besagt also, dass das Element $c_{i\!j}$ als das Produkt +der Zeile $i$ von $A$ mit der Spalte $j$ von $C$ entsteht. \subsubsection{Einheitsmatrix} Welche $m\times m$-Matrix $I\in M_{m}(\Bbbk)$ hat die Eigenschaft, dass @@ -488,8 +489,9 @@ Die Bedingung $IA=A$ bedeutet \[ a_{i\!j} = \delta_{i1}a_{1j} + \dots + \delta_{im}a_{mj}, \] -Da auf der linken Seite nur $a_{i\!j}$ vorkommt, müssen alle Terme auf der -rechten Seite verschwinden ausser dem Term mit $a_{i\!j}$, dessen +Da auf der linken Seite nur $a_{i\!j}$ vorkommt, müssen +auf der rechten Seite alle Terme +verschwinden ausser dem Term mit $a_{i\!j}$, dessen Koeffizient $\delta_{ii}=1$ sein muss. Die Koeffizienten sind daher \[ @@ -497,7 +499,7 @@ Die Koeffizienten sind daher = \begin{cases} 1&\qquad i=j\\ -0&\qquad\text{sonst} +0&\qquad\text{sonst.} \end{cases} \] Die Zahlen $\delta_{i\!j}$ heissen auch das {\em Kronecker-Symbol} oder @@ -563,9 +565,9 @@ a_{m1}x_1 &+& \dots &+& a_{mn}x_n &=& 0 \end{linsys} \label{buch:grundlagen:eqn:homogenessystem} \end{equation} -eine nichttriviale Lösung haben muss. +nur die Nulllösung haben kann. Das Gleichungssystem $Ax=b$ ist also genau dann eindeutig lösbar, wenn -das homogene Gleichungssystem $Ax=0$ nur die Nulllösung hat. +das Gleichungssystem $Ax=0$ mit gleichen Koeffizienten nur die Nulllösung hat. \subsubsection{Inhomogene und homogene Gleichungssysteme} Ein Gleichungssystem mit $0$ auf der rechten Seite ist also bereits @@ -580,7 +582,7 @@ Ein homogenes Gleichungssytem $Ax=0$ hat immer mindestens die Lösung $x=0$, man nennt sie auch die {\em triviale} Lösung. \index{triviale Lösung}% Eine Lösung $x\ne 0$ heisst auch eine nichttriviale Lösung. -Die Lösungen eines inhomgenen Gleichungssystem $Ax=b$ ist also nur dann +Die Lösungen eines inhomogenen Gleichungssystem $Ax=b$ ist also nur dann eindeutig, wenn das zugehörige homogene Gleichungssystem eine nichttriviale Lösung hat. @@ -600,7 +602,7 @@ a_{m1}&\dots &a_{mn}&b_m \\ \hline \end{tabular} \] -geschrieben. +eingetragen. Die vertikale Linie erinnert an die Position des Gleichheitszeichens. Das Tableau beinhaltet alle Informationen zur Durchführung des Algorithmus. Der Algorithmus is so gestaltet, dass er nicht mehr Speicher als @@ -683,11 +685,11 @@ Im Idealfall wird ein Tableau der Form \hline \end{tabular} \] -erreicht, was natürlich nur $m=n$ möglich ist. +erreicht, was natürlich nur für $m=n$ möglich ist. Interpretiert man die Zeilen dieses Tableaus wieder als Gleichungen, dann liefert die Zeile $i$ den Wert $x_i=u_i$ für die Variable mit Nummer $i$. -Der Lösungsvektor kann also in der Spalte rechts abgelesen werden. +Der Lösungsvektor kann also in der Spalte ganz rechts abgelesen werden. \begin{figure} \centering @@ -839,7 +841,7 @@ Insbesondere ist die Lösungsmenge $k$-dimensional. Zu jeder quadratischen Matrix $A\in M_n(\Bbbk)$ kann man versuchen, die Gleichungen \[ -Ac_1 = e_1,\quad Ac_2 = e_2, \dots, Ac_n = e_n +Ac_1 = e_1,\quad Ac_2 = e_2, \quad\dots, \quad Ac_n = e_n \] mit den Standardbasisvektoren $e_i$ als rechten Seiten zu lösen, wobei die $c_i$ Vektoren in $\Bbbk^n$ sind. @@ -937,7 +939,7 @@ Kapitel~2 des Skripts \cite{buch:linalg}. Die Determinante der Einheitsmatrix ist $\det(I)=1$. \item Sind zwei Zeilen einer Matrix gleich, dann tritt beim Gauss-Algorithmus -eine Nullzweile auf, die Matrix kann also nicht regulär sein und die +eine Nullzeile auf, die Matrix kann also nicht regulär sein und die Determinante ist $0$. \item \label{buch:linear:determinante:vorzeichen} @@ -945,7 +947,7 @@ Vertauscht man zwei Zeilen einer Matrix, dann kehrt das Vorzeichen der Determinante. \item Addiert man ein Vielfaches einer Zeile der Matrix zu einer anderen Zeile, -dann ändert der Wert der Determinante nicht. +dann ändert der Wert der Determinanten nicht. \item Wird eine Zeile der Matrix mit einer Zahl $\lambda$ multipliziert, dann wird auch der Wert der Determinanten mit $\lambda$ multipliziert. @@ -1067,7 +1069,7 @@ Die Inverse der $n\times n$-Matrix $A$ ist gegeben durch \label{buch:linalg:inverse:formel} \end{equation} Die Transponierte der Matrix auf der rechten Seite (ohne den Vorfaktor -$1/\det(A)$ +$1/\det(A)$) heisst die {\em Adjunkte} $\operatorname{adj}A$ von $A$. \index{Adjunkte}% \end{satz} @@ -1177,7 +1179,9 @@ dass die Produktregel \det (AB) = \det(A) \cdot \det(B) \] gilt. -Daraus folgt auch, dass $\det(A^{-1})=\det(A)^{-1}$. +Daraus folgt auch, dass $\det(A^{-1})=\det(A)^{-1}$ +(Details in \cite{buch:linalg}). + % % Lineare Abbildungen @@ -1191,7 +1195,7 @@ und die Darstellung als Matrix mit Hilfe einer Basis eingeführt. \subsubsection{Definition} -Eine lineare Abbildung zwischen Vektorräumen muss so gestaltet sein, +Eine lineare Abbildung zwischen $\Bbbk$-Vektorräumen muss so gestaltet sein, dass die Operationen des Vektorraums erhalten bleiben. Dies wird von der folgenden Definition erreicht. @@ -1213,7 +1217,7 @@ Lineare Abbildungen sind in der Mathematik weit verbreitet, wie die folgenden Beispiele zeigen. \begin{beispiel} -Sie $V=C^1([a,b])$ die Menge der stetig differenzierbaren Funktionen +Sei $V=C^1([a,b])$ die Menge der stetig differenzierbaren Funktionen auf dem Intervall $[a,b]$ und $U=C([a,b])$ die Menge der stetigen Funktion auf $[a,b]$. Die Ableitung $\frac{d}{dx}$ macht aus einer Funktion $f(x)$ die @@ -1285,10 +1289,10 @@ den Basen $\mathcal{B}$ bzw.~$\mathcal{C}$. \index{Matrix einer linearen Abbildung}% Die Matrix einer linearen Abbildung macht Aussagen über eine lineare -Abbilung der rechnerischen Untersuchung zugänglich. +Abbildung der rechnerischen Untersuchung zugänglich. Allerdings hängt die Matrix einer linearen Abbildung von der Wahl der Basis ab. -Gleichzeitig ist dies eine Chance, durch Wahl einer geeigneten Basis +Gleichzeitig ist dies eine Chance: Durch Wahl einer geeigneten Basis kann man eine Matrix in eine Form bringen, die zur Lösung eines Problems optimal geeignet ist. @@ -1364,9 +1368,9 @@ in $U$ bzw.~$V$ gewählten Basen $\mathcal{B}$ bzw.~$\mathcal{C}$. Wechselt man die Basis und verwendet in $U$ die Basis $\mathcal{B}'$ und in $V$ die Basis $\mathcal{C}'$, dann gibt es Matrizen $T_U$ und $T_V$, die die Koordinaten in $U$ bzw.~$V$ von der gestrichenen -Basis in die gestrichen umzurechnen gestattet. +Basis in die ungestrichene umzurechnen gestattet. Ist $A$ die Matrix von $A$ in den Basen $\mathcal{B}$ und $\mathcal{C}$, -dann ist Matrix der gleichen Abbildung in den Basen $\mathcal{B}'$ +dann ist die Matrix der gleichen linearen Abbildung in den Basen $\mathcal{B}'$ und $\mathcal{C}'$ gegeben durch die Matrix \begin{equation} A' = T_VAT_U^{-1}. @@ -1374,12 +1378,14 @@ A' = T_VAT_U^{-1}. \end{equation} \subsubsection{Umkehrabbbildung} -Sei $f$ eine umkehrbare lineare Abbildung $U\to V$ und $g\colon V\to U$. +Sei $f$ eine umkehrbare lineare Abbildung $f\colon U\to V$ und $g\colon V\to U$. die zugehörige Umkehrabbildung. \index{Umkehrabbildung}% -Für zwei Vektoren $u$ und $w$ in $U$ gibt es daher Vektoren $a=g(u)$ -und $b=g(w)$ in $V$ derart, dass $f(a)=u$ und $f(b)=w$. -Weil $f$ linear ist, folgt daraus $f(a+b)=u+w$ und $f(\lambda a)=\lambda a$ +Für zwei Vektoren $u$ und $w$ in $U$ setzen wir $a=g(u)\in V$ +und $b=g(w)\in V$. +Da $g$ die Umkehrabbildung von $f$ ist, folgt $f(a)=u$ und $f(b)=w$. +Weil $f$ linear ist, folgt daraus +$f(a+b)=u+w$ und $f(\lambda a)=\lambda a$ für jedes $\lambda\in\Bbbk$. Damit kann man jetzt \begin{align*} @@ -1417,7 +1423,7 @@ Der Kern oder Nullraum der Matrix $A$ ist die Menge \[ \ker A = -\{ x\in\Bbbk^m \;|\; Ax=0\}. +\{ x\in\Bbbk^n \;|\; Ax=0\}. \] \end{definition} @@ -1455,8 +1461,8 @@ $f(u)=a$ und $f(w)=b$. Für Summe und Multiplikation mit Skalaren folgt \[ \begin{aligned} -a+b &= f(u)+f(v)=f(u+v) & \Rightarrow & a+b &\in\operatorname{im}f\\ -\lambda a &=\lambda f(u) = f(\lambda u) & \Rightarrow & \lambda a &\in\operatorname{im}f, +a+b &= f(u)+f(v)=f(u+v) && \Rightarrow & a+b &\in\operatorname{im}f\phantom{,}\\ +\lambda a &=\lambda f(u) = f(\lambda u) && \Rightarrow & \lambda a &\in\operatorname{im}f, \end{aligned} \] also ist auch das Bild $\operatorname{im}f$ ein Unterraum von $U$. @@ -1478,7 +1484,8 @@ Der {\em Rang} der Matrix $A$ ist die Dimension des Bildraumes von $A$: $\operatorname{rank}A=\dim\operatorname{im} A$. \index{Rang einer Matrix}% \index{rank@$\operatorname{rank}A$}% -Der {\em Defekt} der Matrix $A$ ist die Dimension des Kernes von $A$: +Der {\em Defekt} $\operatorname{def}A$ der Matrix $A$ ist die Dimension +des Kernes von $A$: $\operatorname{def}A=\dim\ker A$. \index{Defekt einer Matrix}% \end{definition} @@ -1586,6 +1593,6 @@ nach dem im vorangegangenen Abschnitt angesprochenen Basiswechsel. Die Pivotspalten beschreiben Vektoren, die durch die Abbildung {\em nicht} zu $0$ gemacht werden. Wendet man $A$ auf die Standardbasisvektoren ab, die zu den -Pivospalten gehören, erhält man also eine Basis für da Bild +Pivospalten gehören, erhält man also eine Basis für das Bild von $A$. diff --git a/buch/chapters/10-vektorenmatrizen/ringe.tex b/buch/chapters/10-vektorenmatrizen/ringe.tex index 433f1e9..ac64fa6 100644 --- a/buch/chapters/10-vektorenmatrizen/ringe.tex +++ b/buch/chapters/10-vektorenmatrizen/ringe.tex @@ -42,7 +42,7 @@ für beliebige Elemente $a,b,c\in R$. Die Distributivgesetze stellen sicher, dass man in $R$ beliebig ausmultiplizieren kann. -Man kann also so rechnen kann, wie man sich das gewohnt ist. +Man kann also so rechnen, wie man sich das gewohnt ist. Es stellt auch sicher, dass die Multiplikation mit $0$ immer $0$ ergibt, denn es ist \[ @@ -101,10 +101,10 @@ bestehend aus den Folgen, die nur für endlich viele Folgenglieder von $0$ verschieden sind. Für eine Folge $a\in c_0(\mathbb{Z})$ gibt es eine Zahl $N$ derart, dass $a_n=0$ für $n\ge N$. -Die konstante Folge $u_n=1$, die in $c(\mathbb{Z})$ erfüllt diese +Die konstante Folge $u_n=1$, die in $c(\mathbb{Z})$ liegt, erfüllt diese Bedingung nicht, die Eins des Ringes $c(\mathbb{Z})$ ist also nicht in $c_0(\mathbb{Z})$. -$c_0(\mathbb{Z})$ ist immer noch ein Ring, aber er hat kein Eins. +$c_0(\mathbb{Z})$ ist immer noch ein Ring, aber er hat keine Eins. \end{beispiel} \begin{beispiel} @@ -195,7 +195,7 @@ $U(R)$ ist eine Gruppe, die sogenannte {\em Einheitengruppe}. \begin{beispiel} Die Menge $M_2(\mathbb{Z})$ ist ein Ring mit Eins, die Einheitengruppe besteht aus den invertierbaren $2\times 2$-Matrizen. -Aus der Formel für +Die Formel für \[ \begin{pmatrix} a&b\\ @@ -216,9 +216,10 @@ $U(M_n(\Bbbk))=\operatorname{GL}_n(\Bbbk)$. \end{beispiel} \subsubsection{Nullteiler} -Ein möglicher Grund, warum ein Element $r\in R$ nicht invertierbar -ist, kann sein, dass es ein Element $s\in R$ mit $rs=0$ gibt. -Wäre nämlich $t$ ein inverses Element, dann wäre $0=t0 = t(rs) = (tr)s=s$. +Ein möglicher Grund, warum ein Element $r\in R^*$ nicht invertierbar +ist, kann sein, dass es ein Element $s\in R^*$ mit $rs=0$ gibt. +Wäre nämlich $t$ ein inverses Element, dann wäre $0=t0 = t(rs) = (tr)s=s$, +also $s\not\in R^*$, ein Widerspruch. \begin{definition} \label{buch:grundlagen:def:nullteiler} @@ -230,7 +231,7 @@ Ein Ring ohne Nullteiler heisst {\em nullteilerfrei}. \index{nullteilerfrei}% In $\mathbb{R}$ ist man sich gewohnt zu argumentieren, dass wenn ein -Produkt $ab=0$ ist, dann muss einer der Faktoren $a=0$ oder $b=0$ sein. +Produkt $ab=0$ ist, auch einer der Faktoren $a=0$ oder $b=0$ sein muss. Dieses Argument funktioniert nur, weil $\mathbb{R}$ ein nullteilerfreier Ring ist. In $M_2(\mathbb{R})$ ist dies nicht mehr möglich. @@ -318,10 +319,14 @@ $r_2I\subset I$ ist. Ein Unterring $I\subset R$ heisst ein {\em Ideal}, wenn für jedes $r\in R$ gilt $rI\subset I$ und $Ir\subset I$ gilt. \index{Ideal}% -Die Faktorgruppe $R/I$ erhält eine natürliche Ringstruktur, $R/I$ +\end{definition} + +\begin{satz} +Für ein Ideal $I\subset R$ +erhält die Faktorgruppe $R/I$ eine natürliche Ringstruktur, $R/I$ heisst der {\em Quotientenring}. \index{Quotientenring}% -\end{definition} +\end{satz} \begin{beispiel} Die Menge $n\mathbb{Z}\subset\mathbb{Z}$ besteht aus den durch $n$ teilbaren diff --git a/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex index c1a873d..47cb2ba 100644 --- a/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex +++ b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex @@ -7,8 +7,8 @@ \label{buch:section:skalarprodukt}} \rhead{Skalarprodukt} In der bisher dargestellten Form ist die lineare Algebra nicht -in der Lage, unsere vom Abstandsbegriff dominierte Geometrie adäquat -darzustellen. +in der Lage, unsere vom Abstandsbegriff dominierte, anschauliche Geometrie +adäquat darzustellen. Als zusätzliches Hilfsmittel wird eine Methode benötigt, Längen und Winkel auszudrücken. Das Skalarprodukt passt in den algebraischen Rahmen der @@ -18,8 +18,8 @@ der genau der geometrischen Intuition entspricht. \subsection{Bilinearformen und Skalarprodukte \label{buch:subsection:bilinearformen}} Damit man mit einem Skalarprodukt wie mit jedem anderen Produkt -rechnen kann, müssen man auf beiden Seiten des Zeichesn ausmultiplizieren -können: +rechnen kann, müssen man auf beiden Seiten des Multiplikationszeichens +ausmultiplizieren können: \begin{align*} (\lambda x_1 + \mu x_2)\cdot y &= \lambda x_1\cdot y + \mu x_2\cdot y\\ x\cdot (\lambda y_1 + \mu y_2) &= \lambda x\cdot y_1 + \mu x\cdot y_2. @@ -46,7 +46,7 @@ Eine bilineare Funktion mit Werten in $\Bbbk$ heisst auch {\em Bilinearform}. \subsubsection{Symmetrische bilineare Funktionen} Das Skalarprodukt hängt nicht von der Reihenfolge der Faktoren ab. -In Frage dafür kommen daher nur Bilnearformen $f\colon V\times V\to\Bbbk$, +In Frage dafür kommen daher nur Bilinearformen $f\colon V\times V\to\Bbbk$, die zusätzlich $f(x,y)=f(y,x)$ erfüllen. Solche Bilinearformen heissen {\em symmetrisch}. Für eine symmetrische Bilinearform gilt die binomische Formel @@ -115,7 +115,7 @@ die Dreiecksungleichung ausgedrückt wird. In diesem Abschnitt soll gezeigt werden, dass die $l^2$-Norm diese immer erfüllt. Dazu sei $V$ ein $\mathbb{R}$-Vektorraum mit Skalarprodukt -$\langle\;,\;\rangle$. +$\langle\;\,,\;\rangle$. \begin{satz}[Cauchy-Schwarz-Ungleichung] \label{buch:skalarprodukt:satz:cauchy-schwarz-ungleichung} @@ -131,7 +131,7 @@ mit Gleichheit genau dann, wenn $x$ und $y$ linear abhängig sind. \index{Cauchy-Schwarz-Ungleichung}% \begin{proof}[Beweis] -Wir die Norm von $z=x-ty$: +Wir berechnen die Norm von $z=x-ty$: \begin{align} \|x-ty\|_2^2 &= @@ -230,12 +230,12 @@ zu beinhalten, als die symmetrische Bilinearform, aus der sie hervorgegangen ist. Dem ist aber nicht so, denn die Bilinearform lässt sich aus der Norm zurückgewinnen. -Dies ist der Inhalt der sogenannte Polarformel. +Dies ist der Inhalt der sogenannte {\em Polarformel}. \begin{satz}[Polarformel] \label{buch:skalarprodukt:satz:polarformel} Ist $\|\cdot\|_2$ eine Norm, die aus einer symmetrischen Bilinearform -$\langle\;,\;\rangle$ hervorgegangen ist, dann kann die Bilinearform +$\langle\;\,,\;\rangle$ hervorgegangen ist, dann kann die Bilinearform mit Hilfe der Formel \begin{equation} \langle x,y\rangle @@ -312,7 +312,7 @@ Für die Norm $\|x\|_2^2=\langle x,x\rangle$ bedeutet dies jetzt \|\lambda x\|_2 = |\lambda|\, \|x\|_2. \] -\subsection{Orthognormalbasis +\subsection{Orthonormalbasis \label{buch:subsection:orthonormalbasis}} \index{orthonormierte Basis}% Sowohl die Berechnung von Skalarprodukten wie auch der Basis-Wechsel @@ -322,7 +322,7 @@ sind und Länge $1$ haben. \subsubsection{Orthogonale Vektoren} In der Vektorgeometrie definiert man den Zwischenwinkel $\alpha$ zwischen zwei von $0$ verschiedene Vektoren $u$ und $v$ mit Hilfe -des Skalarproduktes und er Formel +des Skalarproduktes und der Formel \[ \cos\alpha = \frac{\langle u,v\rangle}{\|u\|_2\cdot\|v\|_2}. \] @@ -419,14 +419,18 @@ Mit Hilfe des Gram-Schmidtschen Orthonormalisierungsprozesses kann aus einer beliebige Basis $\{a_1,a_2,\dots,a_n\}\subset V$ eines Vektorraums mit einem Skalarprodukt eine orthonormierte Basis $\{b_1,b_2,\dots,b_n\}$ gefunden werden derart, dass für alle $k$ -$\langle b_1,\dots,b_k\rangle = \langle a_1,\dots ,a_k\rangle$. +die aufgespannten Räume +$\langle b_1,\dots,b_k\rangle = \langle a_1,\dots ,a_k\rangle$ +gleich sind. \index{Gram-Schmidt-Orthonormalisierung}% +Mit den Vektoren $b_1,\dots,b_k$ kann man also die gleichen Vektoren +linear kombinieren wie mit den Vektoren $a_1,\dots,a_k$. Der Zusammenhang zwischen den Basisvektoren $b_i$ und $a_i$ ist gegeben durch \begin{align*} -b_1&=\frac{a_1}{\|a_1\|_2} +b_1&=\frac{a_1}{\|a_1\|_2}, \\ -b_2&=\frac{a_2-b_1\langle b_1,a_2\rangle}{\|a_2-b_1\langle b_1,a_2\rangle\|_2} +b_2&=\frac{a_2-b_1\langle b_1,a_2\rangle}{\|a_2-b_1\langle b_1,a_2\rangle\|_2}, \\ b_3&=\frac{a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle}{\|a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle\|_2} \\ @@ -454,9 +458,9 @@ immer noch möglich, aus einer Basis $\{a_1,\dots,a_n\}$ eine orthogonale Basis zu konstruieren. Man verwendet dazu die Formeln \begin{align*} -b_1&=a_1 +b_1&=a_1, \\ -b_2&=a_2-b_1\langle b_1,a_2\rangle +b_2&=a_2-b_1\langle b_1,a_2\rangle, \\ b_3&=a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle \\ @@ -528,7 +532,7 @@ als von der Basis unabhängige Eigenschaften betrachtet werden können. Ziel dieses Abschnitts ist, Eigenschaften wie Symmetrie oder hermitesch auf basisunabhängige Eigenschaften von linearen Abbildungen in einem Vektorraum $V$ mit Skalarprodukt -$\langle\;,\;\rangle$ zu verstehen. +$\langle\;\,,\;\rangle$ zu verstehen. \subsubsection{Reelle selbstadjungierte Abbildungen} Sei $f\colon V\to V$ eine lineare Abbildung. @@ -577,7 +581,8 @@ x^tAy x^tA^ty = x^tAy\quad\forall x,y\in\mathbb{R}^n, \] was gleichbedeutend ist mit $A^t=A$. -Der Begriff der selbstadjungierten Abbildung ist also eine natürliche +Der Begriff der selbstadjungierten Abbildung ist also die natürliche, +basisunabhängige Verallgemeinerung des Begriffs der symmetrischen Matrix. \subsubsection{Selbstadjungierte komplexe Abbildungen} @@ -614,7 +619,7 @@ heisst die {\em Adjungierte} von $f$. \end{definition} Eine selbstadjungierte Abbildung ist also eine lineare Abbildung, -die mit ihrer Adjungierte übereinstimmt, als $f^* = f$. +die mit ihrer Adjungierte übereinstimmt, also $f^* = f$. In einer orthonormierten Basis $\{b_1,\dots,b_n\}$ hat die Abbildung $f$ die Matrixelemente $a_{i\!j}=\langle b_i,fb_j\rangle$. Die adjungierte Abbildung hat dann die Matrixelemente @@ -636,18 +641,18 @@ die die Norm nicht verändern. Aus der Polarformel~\eqref{buch:grundlagen:eqn:polarformel} folgt dann, dass auch das Skalarprodukt erhalten ist, aus dem Winkel berechnet werden können. -Abbildungen, die die Norm erhalten, sind daher auch winkeltreu. +Lineare Abbildungen, die die Norm erhalten, sind daher auch winkeltreu. \begin{definition} Eine lineare Abbildung $f\colon V\to V$ in einem reellen -Vektorraum mit heisst {\em orthogonal}, wenn +Vektorraum mit Skalarprodukt heisst {\em orthogonal}, wenn $\langle fx,fy\rangle = \langle x,y\rangle$ für alle $x,y\in V$ gilt. \index{orthogonale Abbildung}% \index{orthogonale Matrix}% \end{definition} -Die adjungierte einer orthogonalen Abbildung erfüllt +Die Adjungierte einer orthogonalen Abbildung erfüllt $\langle x,y\rangle = \langle fx,fy\rangle = \langle f^*f x, y\rangle$ für alle $x,y\in V$, also muss $f^*f$ die identische Abbildung sein, deren Matrix die Einheitsmatrix ist. @@ -672,11 +677,12 @@ Die Matrix einer unitären Abbildung in einer orthonormierten Basis ist unitär. \subsection{Orthogonale Unterräume \label{buch:subsection:orthogonale-unterraeume}} -Die Orthogonalitätsrelation lässt sich auch auf Unterräume ausdehnen. +Die Orthogonalitätsrelation lässt sich von einzelnen Vektoren auf ganze +auf Unterräume ausdehnen. Zwei Unterräume $U\subset V$ und $W\subset V$ eines Vektorraums mit Skalarprodukt heissen orthogonal, wenn gilt \( -u\perp w\forall u\in U,w\in W +u\perp w\;\forall u\in U,w\in W \). \subsubsection{Orthogonalkomplement} @@ -883,7 +889,7 @@ Norm ausgestattet werden, wenn $U$ und $V$ jeweils eine Norm haben. \begin{definition} Seien $U$ und $V$ Vektorräume über $\mathbb{R}$ oder $\mathbb{C}$ und $f\colon U\to V$ eine lineare Abbildung. -Die {\em Operatorname} der linearen Abbildung ist +Die {\em Operatornorm} der linearen Abbildung ist \index{Operatornorm}% \[ \|f\| @@ -986,7 +992,7 @@ Die $L^1$-Norm ist dagegen definiert als. \] Die drei Normen stimmen nicht überein. Beschränkte Funktionen sind zwar immer integrierbar und quadratintegrierbar. -Es gibt integrierbare Funktionen, die nicht quadratintegrierbar sind, zum +Es gibt aber integrierbare Funktionen, die nicht quadratintegrierbar sind, zum Beispiel ist die Funktion $f(x)=1/\sqrt{x}$ auf dem Interval $[0,1]$ \begin{align*} \|f\|_1 diff --git a/buch/chapters/10-vektorenmatrizen/strukturen.tex b/buch/chapters/10-vektorenmatrizen/strukturen.tex index 2ad7b88..2dec00e 100644 --- a/buch/chapters/10-vektorenmatrizen/strukturen.tex +++ b/buch/chapters/10-vektorenmatrizen/strukturen.tex @@ -25,7 +25,7 @@ additive oder multiplikative Inverse nicht selbstverständlich sind. Sinnvolle Mathematik lässt sich aber erst betreiben, wenn zusammen mit den vorhandenen Operationen auch einige Regeln erfüllt sind. -Die schränkt die Menge der sinnvollen Gruppierungen von Eigenschaften +Dies schränkt die Menge der sinnvollen Gruppierungen von Eigenschaften ein. In diesem Abschnitten sollen diesen sinnvollen Gruppierungen von Eigenschaften Namen gegeben werden. |