aboutsummaryrefslogtreecommitdiffstats
diff options
context:
space:
mode:
-rw-r--r--buch/chapters/10-vektorenmatrizen/algebren.tex8
-rw-r--r--buch/chapters/10-vektorenmatrizen/gruppen.tex16
-rw-r--r--buch/chapters/10-vektorenmatrizen/hadamard.tex16
-rw-r--r--buch/chapters/10-vektorenmatrizen/koerper.tex5
-rwxr-xr-xbuch/chapters/10-vektorenmatrizen/linear.tex101
-rw-r--r--buch/chapters/10-vektorenmatrizen/ringe.tex25
-rw-r--r--buch/chapters/10-vektorenmatrizen/skalarprodukt.tex58
-rw-r--r--buch/chapters/10-vektorenmatrizen/strukturen.tex2
8 files changed, 129 insertions, 102 deletions
diff --git a/buch/chapters/10-vektorenmatrizen/algebren.tex b/buch/chapters/10-vektorenmatrizen/algebren.tex
index 594b94e..718e693 100644
--- a/buch/chapters/10-vektorenmatrizen/algebren.tex
+++ b/buch/chapters/10-vektorenmatrizen/algebren.tex
@@ -34,12 +34,14 @@ eine Folge der Forderung, dass die Multiplikation
eine lineare Abbildung sein soll.
Dies bedeutet, dass
\begin{equation}
-a(\lambda b+\mu c) = \lambda (ab) + \mu (ac),
+a(\lambda b+\mu c) = \lambda (ab) + \mu (ac)
\label{buch:vektorenmatrizen:eqn:algebralinear}
\end{equation}
+ist,
woraus
\eqref{buch:vektorenmatrizen:eqn:algebrakommutativ}
-für $\mu=0$ folgt.
+folgt, indem man
+$\mu=0$ setzt.
Die Regel \eqref{buch:vektorenmatrizen:eqn:algebralinear}
beinhaltet aber auch das Distributivgesetz.
$M_n(\Bbbk)$ ist eine Algebra.
@@ -66,7 +68,7 @@ Für zwei Funktion $f,g\in\Bbbk^X$ und $\lambda\in\Bbbk$ definiert man
\end{aligned}
\]
Man kann leicht nachprüfen, dass die Menge der Funktionen $\Bbbk^X$
-mit diesen Verknüfungen die Struktur einer $\Bbbk$-Algebra erhält.
+mit diesen Verknüpfungen die Struktur einer $\Bbbk$-Algebra erhält.
Die Algebra der Funktionen $\Bbbk^X$ hat auch ein Einselement:
die konstante Funktion
diff --git a/buch/chapters/10-vektorenmatrizen/gruppen.tex b/buch/chapters/10-vektorenmatrizen/gruppen.tex
index 741a871..9a9bef3 100644
--- a/buch/chapters/10-vektorenmatrizen/gruppen.tex
+++ b/buch/chapters/10-vektorenmatrizen/gruppen.tex
@@ -37,7 +37,7 @@ Eigenschaften:
Die Verknüpfung ist assoziativ: $(ab)c=a(bc)$ für alle $a,b,c\in G$.
\index{assoziativ}%
\item
-Es gibt ein neutrales Element $e\in G$
+Es gibt ein neutrales Element $e\in G$.
\item
Für jedes Element $g\in G$ gibt es ein Element $h\in G$ mit
$hg=e$.
@@ -54,12 +54,12 @@ spricht man oft von einer {\em Halbruppe}.
\index{Halbgruppe}%
\begin{definition}
-Eine Gruppe $G$ heisst abelsch, wenn $ab=ba$ für alle $a,b\in G$.
+Eine Gruppe $G$ heisst {\em abelsch}, wenn $ab=ba$ für alle $a,b\in G$.
\end{definition}
\index{abelsch}%
Additiv geschrieben Gruppen werden immer als abelsch angenommen,
-multiplikativ geschrieben Gruppen können abelsch oder nichtabelsch sein.
+multiplikativ geschriebene Gruppen können abelsch oder nichtabelsch sein.
\subsubsection{Beispiele von Gruppen}
@@ -147,8 +147,8 @@ i(hg)
=
ie.
\]
-Wende man dies auf das Produkt $gh$ an, folgt
-\[
+Wendet man dies auf das Produkt $gh$ an, folgt
+\begin{equation}
gh
=
(ie)h
@@ -157,11 +157,13 @@ i(eh)
=
ih
=
-e
-\]
+e.
+\label{buch:gruppen:eqn:gh=e}
+\end{equation}
Es ist also nicht nur $hg=e$ sondern immer auch $gh=e$.
Für eine Inverse $h$ von $g$ folgt
+aus \eqref{buch:gruppen:eqn:gh=e}
\[
ge
=
diff --git a/buch/chapters/10-vektorenmatrizen/hadamard.tex b/buch/chapters/10-vektorenmatrizen/hadamard.tex
index 787b0f5..ae91489 100644
--- a/buch/chapters/10-vektorenmatrizen/hadamard.tex
+++ b/buch/chapters/10-vektorenmatrizen/hadamard.tex
@@ -20,7 +20,7 @@ Im Folgenden werden wir $\Bbbk^n =M_{n\times 1}(\Bbbk)$ setzen
und den Fall der Vektoren nicht mehr separat diskutieren.
Die Addition und Multiplikation mit Skalaren ist in
$M_{m\times n}(\Bbbk)$ komponentenweise definiert.
-Wir können natürlich auch ein Produkt komponentenweise definieren,
+Wir können natürlich auch ein Produkt von Matrizen komponentenweise definieren,
dies ist das Hadamard-Produkt.
\begin{definition}
@@ -41,11 +41,12 @@ Dies ist jedoch nur interessant, wenn $M_{m\times n}(\Bbbk)$ mit diesem
Produkt eine interessante algebraische Struktur erhält.
Dazu müssen die üblichen Verträglichkeitsgesetze zwischen den
Vektorraumoperationen von $M_{m\times n}(\Bbbk)$ und dem neuen Produkt
-gelten, wir erhalten dann eine Algebra.
+gelten, erst so erhalten wir eine Algebra.
Da alle Operationen elementweise definiert sind, muss man auch alle
Rechengesetze nur elementweise prüfen.
Es gilt
-\begin{align*}
+\[
+\begin{aligned}
A\odot(B\odot C) &= (A\odot B)\odot C
&&\Leftrightarrow&
a_{i\!j}(b_{i\!j}c_{i\!j}) &= (a_{i\!j}b_{i\!j})c_{i\!j}
@@ -65,7 +66,8 @@ a_{i\!j}(b_{i\!j}+c_{i\!j}) &= a_{i\!j}b_{i\!j} + a_{i\!j}c_{i\!j}
A\odot(\lambda B)&=\lambda(A\odot B)
&&\Leftrightarrow&
a_{i\!j}(\lambda b_{i\!j})&=\lambda(a_{i\!j}b_{i\!j})
-\end{align*}
+\end{aligned}
+\]
für alle $i,j$.
Das Hadamard-Produkt ist kommutativ, da die Multiplikation in $\Bbbk$
@@ -119,7 +121,7 @@ Funktion $1$ auf $[m]\times[n]$.
\subsection{Hadamard-Produkt und Matrizenalgebra
\label{buch:vektorenmatrizen:subsection:vertraeglichkeit}}
-Es ist nur in Ausnahmefällen, Hadamard-Produkt und Matrizen-Produkt
+Es ist nur in Ausnahmefällen sinnvoll, Hadamard-Produkt und Matrizen-Produkt
gleichzeitig zu verwenden.
Das liegt daran, dass die beiden Produkte sich überhaupt nicht
vertragen.
@@ -207,7 +209,7 @@ Matrizenprodukt der Diagonalmatrizen.
Für die Hadamard-Matrix ist die Einbettung etwas komplizierter.
Wir machen aus einer Matrix erst einen Vektor, den wir dann mit
-dem $\operatorname{diag}$ in eine Diagonalmatrix umwandeln:
+dem Operator $\operatorname{diag}$ in eine Diagonalmatrix umwandeln:
\[
\begin{pmatrix}
a_{11}&\dots&a_{1n}\\
@@ -224,7 +226,7 @@ a_{21}\\
a_{2n}\\
\vdots\\
a_{nn}
-\end{pmatrix}
+\end{pmatrix}.
\]
Bei dieser Abbildung geht die Hadamard-Multiplikation wieder in
das gewöhnliche Matrizenprodukt über.
diff --git a/buch/chapters/10-vektorenmatrizen/koerper.tex b/buch/chapters/10-vektorenmatrizen/koerper.tex
index 1754ce6..fdc4ceb 100644
--- a/buch/chapters/10-vektorenmatrizen/koerper.tex
+++ b/buch/chapters/10-vektorenmatrizen/koerper.tex
@@ -73,5 +73,8 @@ $p(z), q(z)$ sind Polynome mit rationalen Koeffizienten, $q(z)\ne 0$
ist ein Körper.
\end{beispiel}
-
+Kapitel~\ref{buch:chapter:endliche-koerper} wird eingehender weitere
+Körper studieren.
+Diese endlichen Körper sind vor allem in Kryptographie und Codierungstheorie
+sehr nützlich.
diff --git a/buch/chapters/10-vektorenmatrizen/linear.tex b/buch/chapters/10-vektorenmatrizen/linear.tex
index 78cddad..33169bd 100755
--- a/buch/chapters/10-vektorenmatrizen/linear.tex
+++ b/buch/chapters/10-vektorenmatrizen/linear.tex
@@ -60,7 +60,7 @@ u = \begin{pmatrix}u_1&u_2&\dots&u_m\end{pmatrix} \in \Bbbk^m.
\end{definition}
Für Vektoren gleicher Dimension sind zwei Rechenoperationen definiert.
-Die {\em Addition von Vektoren} $a,a\in\Bbbk^n$ und die Multiplikation
+Die {\em Addition von Vektoren} $a,b\in\Bbbk^n$ und die Multiplikation
\index{Addition von Vektoren}%
eines Vektors mit einem Skalar $\lambda\in\Bbbk$ erfolgt elementweise:
\[
@@ -89,22 +89,21 @@ Die üblichen Rechenregeln sind erfüllt, nämlich
&
a+b&=b+a
&&
-&&\forall a,b\in V
+&&\forall a,b\in \Bbbk^n
\\
&\text{Assoziativgesetze:}
&
(a+b)+c&=a+(b+c)
&
(\lambda\mu)a&=\lambda(\mu a)
-&&\forall a,b,c\in V,\; \lambda,\mu\in\Bbbk
+&&\forall a,b,c\in \Bbbk^n,\; \lambda,\mu\in\Bbbk
\\
&\text{Distributivgesetze:}
&
\lambda(a+b)&=\lambda a + \lambda b
&
(\lambda+\mu)a&=\lambda a + \mu a
-&&\forall a,b\in V,\; \lambda,\mu\in\Bbbk.
-\\
+&&\forall a,b\in \Bbbk^n,\; \lambda,\mu\in\Bbbk.
\end{aligned}
\label{buch:vektoren-und-matrizen:eqn:vrgesetze}
\end{equation}
@@ -120,8 +119,8 @@ des dreidimensionalen Raumes, es gibt keine Entsprechung dafür in anderen
Dimensionen.
\subsubsection{Standardbasisvektoren}
-\index|{Standardbasisvektor}%
-In $\Bbbk^n$ findet man eine Menge von speziellen Vektoren, durch die
+\index{Standardbasisvektor}%
+In $\Bbbk^n$ findet man die folgenden speziellen Vektoren, durch die
man alle anderen Vektoren ausdrücken kann.
Mit den sogenannten {\em Standardbasisvektoren}
\[
@@ -210,8 +209,9 @@ Eigenschaften eine grosse Zahl sehr verschiedenartiger mathematischer
Objekte beschreiben kann.
Alle Erkenntnisse, die man ausschliesslich aus Vektorraumeigenschaften
gewonnen hat, sind auf alle diese Objekte übertragbar.
-Im folgenden werden wir alle Aussagen für einen Vektorraum $V$ formulieren,
-wenn wir die Darstellung als Tupel $\Bbbk^n$ nicht brauchen.
+Im Folgenden werden wir danach streben, Aussagen für einen
+abstrakten Vektorraum $V$ zu formulieren,
+wenn wir die Darstellung als Tupel in $\Bbbk^n$ nicht brauchen.
\subsubsection{Gleichungssysteme in Vektorform}
Die Vektorraum-Operationen erlauben nun auch, lineare Gleichungssysteme
@@ -305,7 +305,7 @@ x_1'a_1 &+& \dots &+& x_n'a_n &=& b \\
\end{equation}
Die Frage, ob ein Gleichungssystem genau eine Lösung hat, hängt also
damit zusammen, ob es Zahlen $\lambda_1,\dots,\lambda_n$ gibt, für
-die die Gleichung~\label{buch:vektoren-und-matrizen:eqn:linabhkomb}
+die die Gleichung~\eqref{buch:vektoren-und-matrizen:eqn:linabhkomb}
erfüllt ist.
\begin{definition}
@@ -317,7 +317,7 @@ $\lambda_1,\dots,\lambda_n\in\Bbbk$ gibt, die nicht alle $0$ sind, so dass
\end{equation}
Die Vektoren heissen linear abhängig, wenn aus
\eqref{buch:vektoren-und-matrizen:eqn:linabhdef}
-folgt, dass alle $\lambda_1,\dots,\lambda_n=0$ sind.
+folgt, dass alle $\lambda_1=0,\dots,\lambda_n=0$ sind.
\end{definition}
Lineare Abhängigkeit der Vektoren $a_1,\dots,a_n$ bedeutet auch, dass
@@ -337,14 +337,15 @@ man sagt $a_1,\dots,a_n$ sind (untereinander) linear abhängig.
\subsubsection{Basis}
Ein lineares Gleichungssystem fragt danach, ob und wie ein Vektor $b$ als
Linearkombination der Vektoren $a_1,\dots,a_n$ ausgedrückt werden kann.
-Wenn dies eindeutig möglich ist, dann haben die Vektoren $a_1,\dots,a_n$
+Wenn dies immer eindeutig möglich ist, dann haben die Vektoren $a_1,\dots,a_n$
offenbar eine besondere Bedeutung.
\begin{definition}
\index{Basis}%
\index{Dimension}%
Eine linear unabhängig Menge von Vektoren
-$\mathcal{B}=\{a_1,\dots,a_n\}\subset V$
+$\mathcal{B}=\{a_1,\dots,a_n\}\subset V$,
+mit der sich jeder Vektor von $V$ linear kombinieren lässt,
heisst {\em Basis} von $V$.
Die maximale Anzahl linear unabhängiger Vektoren in $V$ heisst
{\em Dimension} von $V$.
@@ -404,14 +405,14 @@ M_{m,n}(\Bbbk)
=
\{ A\;|\; \text{$A$ ist eine $m\times n$-Matrix}\}.
\]
-Falls $m=n$ gilt, heisst die Matrix $A$ auch {\em quadratisch}
+Falls $m=n$ gilt, heisst die Matrix $A$ auch {\em quadratisch}.
\index{quadratische Matrix}%
Man kürzt die Menge der quadratischen Matrizen als
$M_n(\Bbbk) = M_{n\times n}(\Bbbk)$ ab.
\end{definition}
Die $m$-dimensionalen Spaltenvektoren $v\in \Bbbk^m$ sind $m\times 1$-Matrizen
-$v\in M_{n\times 1}(\Bbbk)$, die $n$-dimensionalen Zeilenvetoren $u\in\Bbbk^n$
+$v\in M_{n\times 1}(\Bbbk)$, die $n$-dimensionalen Zeilenvektoren $u\in\Bbbk^n$
sind $1\times n$-Matrizen $v\in M_{1\times n}(\Bbbk)$.
Eine $m\times n$-Matrix $A$ mit den Koeffizienten $a_{i\!j}$ besteht aus
den $n$ Spaltenvektoren
@@ -476,9 +477,9 @@ c_{i\!j} = \sum_{k=1}^n a_{ik} b_{k\!j}.
Die Koeffizienten $a_{ik}$ kommen aus der Zeile $i$ von $A$, die Koeffizienten
$b_{k\!j}$ stehen in der Spalte $j$ von $B$, die Multiplikationsregel
-\eqref{buch:vektoren-unbd-matrizen:eqn:matrixmultiplikation}
-besagt also, dass das Element $c_{i\!j}$ entsteht als das Produkt
-der Zeile $i$ von $A$ mit der Spalte $j$ von $C$.
+\eqref{buch:vektoren-und-matrizen:eqn:matrixmultiplikation}
+besagt also, dass das Element $c_{i\!j}$ als das Produkt
+der Zeile $i$ von $A$ mit der Spalte $j$ von $C$ entsteht.
\subsubsection{Einheitsmatrix}
Welche $m\times m$-Matrix $I\in M_{m}(\Bbbk)$ hat die Eigenschaft, dass
@@ -488,8 +489,9 @@ Die Bedingung $IA=A$ bedeutet
\[
a_{i\!j} = \delta_{i1}a_{1j} + \dots + \delta_{im}a_{mj},
\]
-Da auf der linken Seite nur $a_{i\!j}$ vorkommt, müssen alle Terme auf der
-rechten Seite verschwinden ausser dem Term mit $a_{i\!j}$, dessen
+Da auf der linken Seite nur $a_{i\!j}$ vorkommt, müssen
+auf der rechten Seite alle Terme
+verschwinden ausser dem Term mit $a_{i\!j}$, dessen
Koeffizient $\delta_{ii}=1$ sein muss.
Die Koeffizienten sind daher
\[
@@ -497,7 +499,7 @@ Die Koeffizienten sind daher
=
\begin{cases}
1&\qquad i=j\\
-0&\qquad\text{sonst}
+0&\qquad\text{sonst.}
\end{cases}
\]
Die Zahlen $\delta_{i\!j}$ heissen auch das {\em Kronecker-Symbol} oder
@@ -563,9 +565,9 @@ a_{m1}x_1 &+& \dots &+& a_{mn}x_n &=& 0
\end{linsys}
\label{buch:grundlagen:eqn:homogenessystem}
\end{equation}
-eine nichttriviale Lösung haben muss.
+nur die Nulllösung haben kann.
Das Gleichungssystem $Ax=b$ ist also genau dann eindeutig lösbar, wenn
-das homogene Gleichungssystem $Ax=0$ nur die Nulllösung hat.
+das Gleichungssystem $Ax=0$ mit gleichen Koeffizienten nur die Nulllösung hat.
\subsubsection{Inhomogene und homogene Gleichungssysteme}
Ein Gleichungssystem mit $0$ auf der rechten Seite ist also bereits
@@ -580,7 +582,7 @@ Ein homogenes Gleichungssytem $Ax=0$ hat immer mindestens die
Lösung $x=0$, man nennt sie auch die {\em triviale} Lösung.
\index{triviale Lösung}%
Eine Lösung $x\ne 0$ heisst auch eine nichttriviale Lösung.
-Die Lösungen eines inhomgenen Gleichungssystem $Ax=b$ ist also nur dann
+Die Lösungen eines inhomogenen Gleichungssystem $Ax=b$ ist also nur dann
eindeutig, wenn das zugehörige homogene Gleichungssystem eine nichttriviale
Lösung hat.
@@ -600,7 +602,7 @@ a_{m1}&\dots &a_{mn}&b_m \\
\hline
\end{tabular}
\]
-geschrieben.
+eingetragen.
Die vertikale Linie erinnert an die Position des Gleichheitszeichens.
Das Tableau beinhaltet alle Informationen zur Durchführung des Algorithmus.
Der Algorithmus is so gestaltet, dass er nicht mehr Speicher als
@@ -683,11 +685,11 @@ Im Idealfall wird ein Tableau der Form
\hline
\end{tabular}
\]
-erreicht, was natürlich nur $m=n$ möglich ist.
+erreicht, was natürlich nur für $m=n$ möglich ist.
Interpretiert man die Zeilen dieses Tableaus wieder als Gleichungen,
dann liefert die Zeile $i$ den Wert $x_i=u_i$ für die Variable
mit Nummer $i$.
-Der Lösungsvektor kann also in der Spalte rechts abgelesen werden.
+Der Lösungsvektor kann also in der Spalte ganz rechts abgelesen werden.
\begin{figure}
\centering
@@ -839,7 +841,7 @@ Insbesondere ist die Lösungsmenge $k$-dimensional.
Zu jeder quadratischen Matrix $A\in M_n(\Bbbk)$ kann man versuchen, die
Gleichungen
\[
-Ac_1 = e_1,\quad Ac_2 = e_2, \dots, Ac_n = e_n
+Ac_1 = e_1,\quad Ac_2 = e_2, \quad\dots, \quad Ac_n = e_n
\]
mit den Standardbasisvektoren $e_i$ als rechten Seiten zu lösen, wobei
die $c_i$ Vektoren in $\Bbbk^n$ sind.
@@ -937,7 +939,7 @@ Kapitel~2 des Skripts \cite{buch:linalg}.
Die Determinante der Einheitsmatrix ist $\det(I)=1$.
\item
Sind zwei Zeilen einer Matrix gleich, dann tritt beim Gauss-Algorithmus
-eine Nullzweile auf, die Matrix kann also nicht regulär sein und die
+eine Nullzeile auf, die Matrix kann also nicht regulär sein und die
Determinante ist $0$.
\item
\label{buch:linear:determinante:vorzeichen}
@@ -945,7 +947,7 @@ Vertauscht man zwei Zeilen einer Matrix, dann kehrt das Vorzeichen der
Determinante.
\item
Addiert man ein Vielfaches einer Zeile der Matrix zu einer anderen Zeile,
-dann ändert der Wert der Determinante nicht.
+dann ändert der Wert der Determinanten nicht.
\item
Wird eine Zeile der Matrix mit einer Zahl $\lambda$ multipliziert, dann
wird auch der Wert der Determinanten mit $\lambda$ multipliziert.
@@ -1067,7 +1069,7 @@ Die Inverse der $n\times n$-Matrix $A$ ist gegeben durch
\label{buch:linalg:inverse:formel}
\end{equation}
Die Transponierte der Matrix auf der rechten Seite (ohne den Vorfaktor
-$1/\det(A)$
+$1/\det(A)$)
heisst die {\em Adjunkte} $\operatorname{adj}A$ von $A$.
\index{Adjunkte}%
\end{satz}
@@ -1177,7 +1179,9 @@ dass die Produktregel
\det (AB) = \det(A) \cdot \det(B)
\]
gilt.
-Daraus folgt auch, dass $\det(A^{-1})=\det(A)^{-1}$.
+Daraus folgt auch, dass $\det(A^{-1})=\det(A)^{-1}$
+(Details in \cite{buch:linalg}).
+
%
% Lineare Abbildungen
@@ -1191,7 +1195,7 @@ und die Darstellung als Matrix mit Hilfe einer Basis eingeführt.
\subsubsection{Definition}
-Eine lineare Abbildung zwischen Vektorräumen muss so gestaltet sein,
+Eine lineare Abbildung zwischen $\Bbbk$-Vektorräumen muss so gestaltet sein,
dass die Operationen des Vektorraums erhalten bleiben.
Dies wird von der folgenden Definition erreicht.
@@ -1213,7 +1217,7 @@ Lineare Abbildungen sind in der Mathematik weit verbreitet, wie die
folgenden Beispiele zeigen.
\begin{beispiel}
-Sie $V=C^1([a,b])$ die Menge der stetig differenzierbaren Funktionen
+Sei $V=C^1([a,b])$ die Menge der stetig differenzierbaren Funktionen
auf dem Intervall $[a,b]$ und $U=C([a,b])$ die Menge der
stetigen Funktion auf $[a,b]$.
Die Ableitung $\frac{d}{dx}$ macht aus einer Funktion $f(x)$ die
@@ -1285,10 +1289,10 @@ den Basen $\mathcal{B}$ bzw.~$\mathcal{C}$.
\index{Matrix einer linearen Abbildung}%
Die Matrix einer linearen Abbildung macht Aussagen über eine lineare
-Abbilung der rechnerischen Untersuchung zugänglich.
+Abbildung der rechnerischen Untersuchung zugänglich.
Allerdings hängt die Matrix einer linearen Abbildung von der Wahl der
Basis ab.
-Gleichzeitig ist dies eine Chance, durch Wahl einer geeigneten Basis
+Gleichzeitig ist dies eine Chance: Durch Wahl einer geeigneten Basis
kann man eine Matrix in eine Form bringen, die zur Lösung eines
Problems optimal geeignet ist.
@@ -1364,9 +1368,9 @@ in $U$ bzw.~$V$ gewählten Basen $\mathcal{B}$ bzw.~$\mathcal{C}$.
Wechselt man die Basis und verwendet in $U$ die Basis $\mathcal{B}'$ und
in $V$ die Basis $\mathcal{C}'$, dann gibt es Matrizen
$T_U$ und $T_V$, die die Koordinaten in $U$ bzw.~$V$ von der gestrichenen
-Basis in die gestrichen umzurechnen gestattet.
+Basis in die ungestrichene umzurechnen gestattet.
Ist $A$ die Matrix von $A$ in den Basen $\mathcal{B}$ und $\mathcal{C}$,
-dann ist Matrix der gleichen Abbildung in den Basen $\mathcal{B}'$
+dann ist die Matrix der gleichen linearen Abbildung in den Basen $\mathcal{B}'$
und $\mathcal{C}'$ gegeben durch die Matrix
\begin{equation}
A' = T_VAT_U^{-1}.
@@ -1374,12 +1378,14 @@ A' = T_VAT_U^{-1}.
\end{equation}
\subsubsection{Umkehrabbbildung}
-Sei $f$ eine umkehrbare lineare Abbildung $U\to V$ und $g\colon V\to U$.
+Sei $f$ eine umkehrbare lineare Abbildung $f\colon U\to V$ und $g\colon V\to U$.
die zugehörige Umkehrabbildung.
\index{Umkehrabbildung}%
-Für zwei Vektoren $u$ und $w$ in $U$ gibt es daher Vektoren $a=g(u)$
-und $b=g(w)$ in $V$ derart, dass $f(a)=u$ und $f(b)=w$.
-Weil $f$ linear ist, folgt daraus $f(a+b)=u+w$ und $f(\lambda a)=\lambda a$
+Für zwei Vektoren $u$ und $w$ in $U$ setzen wir $a=g(u)\in V$
+und $b=g(w)\in V$.
+Da $g$ die Umkehrabbildung von $f$ ist, folgt $f(a)=u$ und $f(b)=w$.
+Weil $f$ linear ist, folgt daraus
+$f(a+b)=u+w$ und $f(\lambda a)=\lambda a$
für jedes $\lambda\in\Bbbk$.
Damit kann man jetzt
\begin{align*}
@@ -1417,7 +1423,7 @@ Der Kern oder Nullraum der Matrix $A$ ist die Menge
\[
\ker A
=
-\{ x\in\Bbbk^m \;|\; Ax=0\}.
+\{ x\in\Bbbk^n \;|\; Ax=0\}.
\]
\end{definition}
@@ -1455,8 +1461,8 @@ $f(u)=a$ und $f(w)=b$.
Für Summe und Multiplikation mit Skalaren folgt
\[
\begin{aligned}
-a+b &= f(u)+f(v)=f(u+v) & \Rightarrow & a+b &\in\operatorname{im}f\\
-\lambda a &=\lambda f(u) = f(\lambda u) & \Rightarrow & \lambda a &\in\operatorname{im}f,
+a+b &= f(u)+f(v)=f(u+v) && \Rightarrow & a+b &\in\operatorname{im}f\phantom{,}\\
+\lambda a &=\lambda f(u) = f(\lambda u) && \Rightarrow & \lambda a &\in\operatorname{im}f,
\end{aligned}
\]
also ist auch das Bild $\operatorname{im}f$ ein Unterraum von $U$.
@@ -1478,7 +1484,8 @@ Der {\em Rang} der Matrix $A$ ist die Dimension des Bildraumes von $A$:
$\operatorname{rank}A=\dim\operatorname{im} A$.
\index{Rang einer Matrix}%
\index{rank@$\operatorname{rank}A$}%
-Der {\em Defekt} der Matrix $A$ ist die Dimension des Kernes von $A$:
+Der {\em Defekt} $\operatorname{def}A$ der Matrix $A$ ist die Dimension
+des Kernes von $A$:
$\operatorname{def}A=\dim\ker A$.
\index{Defekt einer Matrix}%
\end{definition}
@@ -1586,6 +1593,6 @@ nach dem im vorangegangenen Abschnitt angesprochenen Basiswechsel.
Die Pivotspalten beschreiben Vektoren, die durch die Abbildung {\em nicht}
zu $0$ gemacht werden.
Wendet man $A$ auf die Standardbasisvektoren ab, die zu den
-Pivospalten gehören, erhält man also eine Basis für da Bild
+Pivospalten gehören, erhält man also eine Basis für das Bild
von $A$.
diff --git a/buch/chapters/10-vektorenmatrizen/ringe.tex b/buch/chapters/10-vektorenmatrizen/ringe.tex
index 433f1e9..ac64fa6 100644
--- a/buch/chapters/10-vektorenmatrizen/ringe.tex
+++ b/buch/chapters/10-vektorenmatrizen/ringe.tex
@@ -42,7 +42,7 @@ für beliebige Elemente $a,b,c\in R$.
Die Distributivgesetze stellen sicher, dass man in $R$ beliebig
ausmultiplizieren kann.
-Man kann also so rechnen kann, wie man sich das gewohnt ist.
+Man kann also so rechnen, wie man sich das gewohnt ist.
Es stellt auch sicher, dass die Multiplikation mit $0$ immer $0$
ergibt, denn es ist
\[
@@ -101,10 +101,10 @@ bestehend aus den Folgen, die nur für endlich viele Folgenglieder von
$0$ verschieden sind.
Für eine Folge $a\in c_0(\mathbb{Z})$ gibt es eine Zahl $N$ derart, dass
$a_n=0$ für $n\ge N$.
-Die konstante Folge $u_n=1$, die in $c(\mathbb{Z})$ erfüllt diese
+Die konstante Folge $u_n=1$, die in $c(\mathbb{Z})$ liegt, erfüllt diese
Bedingung nicht, die Eins des Ringes $c(\mathbb{Z})$ ist also nicht in
$c_0(\mathbb{Z})$.
-$c_0(\mathbb{Z})$ ist immer noch ein Ring, aber er hat kein Eins.
+$c_0(\mathbb{Z})$ ist immer noch ein Ring, aber er hat keine Eins.
\end{beispiel}
\begin{beispiel}
@@ -195,7 +195,7 @@ $U(R)$ ist eine Gruppe, die sogenannte {\em Einheitengruppe}.
\begin{beispiel}
Die Menge $M_2(\mathbb{Z})$ ist ein Ring mit Eins, die Einheitengruppe
besteht aus den invertierbaren $2\times 2$-Matrizen.
-Aus der Formel für
+Die Formel für
\[
\begin{pmatrix}
a&b\\
@@ -216,9 +216,10 @@ $U(M_n(\Bbbk))=\operatorname{GL}_n(\Bbbk)$.
\end{beispiel}
\subsubsection{Nullteiler}
-Ein möglicher Grund, warum ein Element $r\in R$ nicht invertierbar
-ist, kann sein, dass es ein Element $s\in R$ mit $rs=0$ gibt.
-Wäre nämlich $t$ ein inverses Element, dann wäre $0=t0 = t(rs) = (tr)s=s$.
+Ein möglicher Grund, warum ein Element $r\in R^*$ nicht invertierbar
+ist, kann sein, dass es ein Element $s\in R^*$ mit $rs=0$ gibt.
+Wäre nämlich $t$ ein inverses Element, dann wäre $0=t0 = t(rs) = (tr)s=s$,
+also $s\not\in R^*$, ein Widerspruch.
\begin{definition}
\label{buch:grundlagen:def:nullteiler}
@@ -230,7 +231,7 @@ Ein Ring ohne Nullteiler heisst {\em nullteilerfrei}.
\index{nullteilerfrei}%
In $\mathbb{R}$ ist man sich gewohnt zu argumentieren, dass wenn ein
-Produkt $ab=0$ ist, dann muss einer der Faktoren $a=0$ oder $b=0$ sein.
+Produkt $ab=0$ ist, auch einer der Faktoren $a=0$ oder $b=0$ sein muss.
Dieses Argument funktioniert nur, weil $\mathbb{R}$ ein nullteilerfreier
Ring ist.
In $M_2(\mathbb{R})$ ist dies nicht mehr möglich.
@@ -318,10 +319,14 @@ $r_2I\subset I$ ist.
Ein Unterring $I\subset R$ heisst ein {\em Ideal}, wenn für jedes $r\in R$ gilt
$rI\subset I$ und $Ir\subset I$ gilt.
\index{Ideal}%
-Die Faktorgruppe $R/I$ erhält eine natürliche Ringstruktur, $R/I$
+\end{definition}
+
+\begin{satz}
+Für ein Ideal $I\subset R$
+erhält die Faktorgruppe $R/I$ eine natürliche Ringstruktur, $R/I$
heisst der {\em Quotientenring}.
\index{Quotientenring}%
-\end{definition}
+\end{satz}
\begin{beispiel}
Die Menge $n\mathbb{Z}\subset\mathbb{Z}$ besteht aus den durch $n$ teilbaren
diff --git a/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex
index c1a873d..47cb2ba 100644
--- a/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex
+++ b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex
@@ -7,8 +7,8 @@
\label{buch:section:skalarprodukt}}
\rhead{Skalarprodukt}
In der bisher dargestellten Form ist die lineare Algebra nicht
-in der Lage, unsere vom Abstandsbegriff dominierte Geometrie adäquat
-darzustellen.
+in der Lage, unsere vom Abstandsbegriff dominierte, anschauliche Geometrie
+adäquat darzustellen.
Als zusätzliches Hilfsmittel wird eine Methode benötigt, Längen
und Winkel auszudrücken.
Das Skalarprodukt passt in den algebraischen Rahmen der
@@ -18,8 +18,8 @@ der genau der geometrischen Intuition entspricht.
\subsection{Bilinearformen und Skalarprodukte
\label{buch:subsection:bilinearformen}}
Damit man mit einem Skalarprodukt wie mit jedem anderen Produkt
-rechnen kann, müssen man auf beiden Seiten des Zeichesn ausmultiplizieren
-können:
+rechnen kann, müssen man auf beiden Seiten des Multiplikationszeichens
+ausmultiplizieren können:
\begin{align*}
(\lambda x_1 + \mu x_2)\cdot y &= \lambda x_1\cdot y + \mu x_2\cdot y\\
x\cdot (\lambda y_1 + \mu y_2) &= \lambda x\cdot y_1 + \mu x\cdot y_2.
@@ -46,7 +46,7 @@ Eine bilineare Funktion mit Werten in $\Bbbk$ heisst auch {\em Bilinearform}.
\subsubsection{Symmetrische bilineare Funktionen}
Das Skalarprodukt hängt nicht von der Reihenfolge der Faktoren ab.
-In Frage dafür kommen daher nur Bilnearformen $f\colon V\times V\to\Bbbk$,
+In Frage dafür kommen daher nur Bilinearformen $f\colon V\times V\to\Bbbk$,
die zusätzlich $f(x,y)=f(y,x)$ erfüllen.
Solche Bilinearformen heissen {\em symmetrisch}.
Für eine symmetrische Bilinearform gilt die binomische Formel
@@ -115,7 +115,7 @@ die Dreiecksungleichung ausgedrückt wird.
In diesem Abschnitt soll gezeigt werden, dass die $l^2$-Norm
diese immer erfüllt.
Dazu sei $V$ ein $\mathbb{R}$-Vektorraum mit Skalarprodukt
-$\langle\;,\;\rangle$.
+$\langle\;\,,\;\rangle$.
\begin{satz}[Cauchy-Schwarz-Ungleichung]
\label{buch:skalarprodukt:satz:cauchy-schwarz-ungleichung}
@@ -131,7 +131,7 @@ mit Gleichheit genau dann, wenn $x$ und $y$ linear abhängig sind.
\index{Cauchy-Schwarz-Ungleichung}%
\begin{proof}[Beweis]
-Wir die Norm von $z=x-ty$:
+Wir berechnen die Norm von $z=x-ty$:
\begin{align}
\|x-ty\|_2^2
&=
@@ -230,12 +230,12 @@ zu beinhalten, als die symmetrische Bilinearform, aus der sie
hervorgegangen ist.
Dem ist aber nicht so, denn die Bilinearform lässt sich aus der
Norm zurückgewinnen.
-Dies ist der Inhalt der sogenannte Polarformel.
+Dies ist der Inhalt der sogenannte {\em Polarformel}.
\begin{satz}[Polarformel]
\label{buch:skalarprodukt:satz:polarformel}
Ist $\|\cdot\|_2$ eine Norm, die aus einer symmetrischen Bilinearform
-$\langle\;,\;\rangle$ hervorgegangen ist, dann kann die Bilinearform
+$\langle\;\,,\;\rangle$ hervorgegangen ist, dann kann die Bilinearform
mit Hilfe der Formel
\begin{equation}
\langle x,y\rangle
@@ -312,7 +312,7 @@ Für die Norm $\|x\|_2^2=\langle x,x\rangle$ bedeutet dies jetzt
\|\lambda x\|_2 = |\lambda|\, \|x\|_2.
\]
-\subsection{Orthognormalbasis
+\subsection{Orthonormalbasis
\label{buch:subsection:orthonormalbasis}}
\index{orthonormierte Basis}%
Sowohl die Berechnung von Skalarprodukten wie auch der Basis-Wechsel
@@ -322,7 +322,7 @@ sind und Länge $1$ haben.
\subsubsection{Orthogonale Vektoren}
In der Vektorgeometrie definiert man den Zwischenwinkel $\alpha$
zwischen zwei von $0$ verschiedene Vektoren $u$ und $v$ mit Hilfe
-des Skalarproduktes und er Formel
+des Skalarproduktes und der Formel
\[
\cos\alpha = \frac{\langle u,v\rangle}{\|u\|_2\cdot\|v\|_2}.
\]
@@ -419,14 +419,18 @@ Mit Hilfe des Gram-Schmidtschen Orthonormalisierungsprozesses kann aus
einer beliebige Basis $\{a_1,a_2,\dots,a_n\}\subset V$ eines Vektorraums
mit einem Skalarprodukt eine orthonormierte Basis
$\{b_1,b_2,\dots,b_n\}$ gefunden werden derart, dass für alle $k$
-$\langle b_1,\dots,b_k\rangle = \langle a_1,\dots ,a_k\rangle$.
+die aufgespannten Räume
+$\langle b_1,\dots,b_k\rangle = \langle a_1,\dots ,a_k\rangle$
+gleich sind.
\index{Gram-Schmidt-Orthonormalisierung}%
+Mit den Vektoren $b_1,\dots,b_k$ kann man also die gleichen Vektoren
+linear kombinieren wie mit den Vektoren $a_1,\dots,a_k$.
Der Zusammenhang zwischen den Basisvektoren $b_i$ und $a_i$ ist
gegeben durch
\begin{align*}
-b_1&=\frac{a_1}{\|a_1\|_2}
+b_1&=\frac{a_1}{\|a_1\|_2},
\\
-b_2&=\frac{a_2-b_1\langle b_1,a_2\rangle}{\|a_2-b_1\langle b_1,a_2\rangle\|_2}
+b_2&=\frac{a_2-b_1\langle b_1,a_2\rangle}{\|a_2-b_1\langle b_1,a_2\rangle\|_2},
\\
b_3&=\frac{a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle}{\|a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle\|_2}
\\
@@ -454,9 +458,9 @@ immer noch möglich, aus einer Basis $\{a_1,\dots,a_n\}$ eine orthogonale
Basis zu konstruieren.
Man verwendet dazu die Formeln
\begin{align*}
-b_1&=a_1
+b_1&=a_1,
\\
-b_2&=a_2-b_1\langle b_1,a_2\rangle
+b_2&=a_2-b_1\langle b_1,a_2\rangle,
\\
b_3&=a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle
\\
@@ -528,7 +532,7 @@ als von der Basis unabhängige Eigenschaften betrachtet werden können.
Ziel dieses Abschnitts ist, Eigenschaften wie Symmetrie oder
hermitesch auf basisunabhängige Eigenschaften von
linearen Abbildungen in einem Vektorraum $V$ mit Skalarprodukt
-$\langle\;,\;\rangle$ zu verstehen.
+$\langle\;\,,\;\rangle$ zu verstehen.
\subsubsection{Reelle selbstadjungierte Abbildungen}
Sei $f\colon V\to V$ eine lineare Abbildung.
@@ -577,7 +581,8 @@ x^tAy
x^tA^ty = x^tAy\quad\forall x,y\in\mathbb{R}^n,
\]
was gleichbedeutend ist mit $A^t=A$.
-Der Begriff der selbstadjungierten Abbildung ist also eine natürliche
+Der Begriff der selbstadjungierten Abbildung ist also die natürliche,
+basisunabhängige
Verallgemeinerung des Begriffs der symmetrischen Matrix.
\subsubsection{Selbstadjungierte komplexe Abbildungen}
@@ -614,7 +619,7 @@ heisst die {\em Adjungierte} von $f$.
\end{definition}
Eine selbstadjungierte Abbildung ist also eine lineare Abbildung,
-die mit ihrer Adjungierte übereinstimmt, als $f^* = f$.
+die mit ihrer Adjungierte übereinstimmt, also $f^* = f$.
In einer orthonormierten Basis $\{b_1,\dots,b_n\}$ hat die Abbildung
$f$ die Matrixelemente $a_{i\!j}=\langle b_i,fb_j\rangle$.
Die adjungierte Abbildung hat dann die Matrixelemente
@@ -636,18 +641,18 @@ die die Norm nicht verändern.
Aus der Polarformel~\eqref{buch:grundlagen:eqn:polarformel}
folgt dann, dass auch das Skalarprodukt erhalten ist, aus dem
Winkel berechnet werden können.
-Abbildungen, die die Norm erhalten, sind daher auch winkeltreu.
+Lineare Abbildungen, die die Norm erhalten, sind daher auch winkeltreu.
\begin{definition}
Eine lineare Abbildung $f\colon V\to V$ in einem reellen
-Vektorraum mit heisst {\em orthogonal}, wenn
+Vektorraum mit Skalarprodukt heisst {\em orthogonal}, wenn
$\langle fx,fy\rangle = \langle x,y\rangle$ für alle
$x,y\in V$ gilt.
\index{orthogonale Abbildung}%
\index{orthogonale Matrix}%
\end{definition}
-Die adjungierte einer orthogonalen Abbildung erfüllt
+Die Adjungierte einer orthogonalen Abbildung erfüllt
$\langle x,y\rangle = \langle fx,fy\rangle = \langle f^*f x, y\rangle$
für alle $x,y\in V$, also muss $f^*f$ die identische Abbildung sein,
deren Matrix die Einheitsmatrix ist.
@@ -672,11 +677,12 @@ Die Matrix einer unitären Abbildung in einer orthonormierten Basis ist unitär.
\subsection{Orthogonale Unterräume
\label{buch:subsection:orthogonale-unterraeume}}
-Die Orthogonalitätsrelation lässt sich auch auf Unterräume ausdehnen.
+Die Orthogonalitätsrelation lässt sich von einzelnen Vektoren auf ganze
+auf Unterräume ausdehnen.
Zwei Unterräume $U\subset V$ und $W\subset V$ eines Vektorraums mit
Skalarprodukt heissen orthogonal, wenn gilt
\(
-u\perp w\forall u\in U,w\in W
+u\perp w\;\forall u\in U,w\in W
\).
\subsubsection{Orthogonalkomplement}
@@ -883,7 +889,7 @@ Norm ausgestattet werden, wenn $U$ und $V$ jeweils eine Norm haben.
\begin{definition}
Seien $U$ und $V$ Vektorräume über $\mathbb{R}$ oder $\mathbb{C}$ und
$f\colon U\to V$ eine lineare Abbildung.
-Die {\em Operatorname} der linearen Abbildung ist
+Die {\em Operatornorm} der linearen Abbildung ist
\index{Operatornorm}%
\[
\|f\|
@@ -986,7 +992,7 @@ Die $L^1$-Norm ist dagegen definiert als.
\]
Die drei Normen stimmen nicht überein.
Beschränkte Funktionen sind zwar immer integrierbar und quadratintegrierbar.
-Es gibt integrierbare Funktionen, die nicht quadratintegrierbar sind, zum
+Es gibt aber integrierbare Funktionen, die nicht quadratintegrierbar sind, zum
Beispiel ist die Funktion $f(x)=1/\sqrt{x}$ auf dem Interval $[0,1]$
\begin{align*}
\|f\|_1
diff --git a/buch/chapters/10-vektorenmatrizen/strukturen.tex b/buch/chapters/10-vektorenmatrizen/strukturen.tex
index 2ad7b88..2dec00e 100644
--- a/buch/chapters/10-vektorenmatrizen/strukturen.tex
+++ b/buch/chapters/10-vektorenmatrizen/strukturen.tex
@@ -25,7 +25,7 @@ additive oder multiplikative Inverse nicht selbstverständlich
sind.
Sinnvolle Mathematik lässt sich aber erst betreiben, wenn zusammen
mit den vorhandenen Operationen auch einige Regeln erfüllt sind.
-Die schränkt die Menge der sinnvollen Gruppierungen von Eigenschaften
+Dies schränkt die Menge der sinnvollen Gruppierungen von Eigenschaften
ein.
In diesem Abschnitten sollen diesen sinnvollen Gruppierungen von
Eigenschaften Namen gegeben werden.