aboutsummaryrefslogtreecommitdiffstats
diff options
context:
space:
mode:
authorAndreas Müller <andreas.mueller@ost.ch>2021-10-18 19:52:32 +0200
committerAndreas Müller <andreas.mueller@ost.ch>2021-10-18 19:52:32 +0200
commitd732a94f72bcb414ada8f8f638fc2a034426686f (patch)
tree6fe47b05a2426394c16480cb6d62e70acdb41758
parenttypos chapter 1 (diff)
downloadSeminarMatrizen-d732a94f72bcb414ada8f8f638fc2a034426686f.tar.gz
SeminarMatrizen-d732a94f72bcb414ada8f8f638fc2a034426686f.zip
typos chapters 1-5
-rw-r--r--buch/chapters/05-zahlen/natuerlich.tex2
-rw-r--r--buch/chapters/10-vektorenmatrizen/algebren.tex2
-rw-r--r--buch/chapters/10-vektorenmatrizen/gruppen.tex9
-rw-r--r--buch/chapters/10-vektorenmatrizen/hadamard.tex2
-rwxr-xr-xbuch/chapters/10-vektorenmatrizen/linear.tex44
-rw-r--r--buch/chapters/10-vektorenmatrizen/ringe.tex2
-rw-r--r--buch/chapters/10-vektorenmatrizen/skalarprodukt.tex21
-rw-r--r--buch/chapters/10-vektorenmatrizen/uebungsaufgaben/1001.tex8
-rw-r--r--buch/chapters/20-polynome/chapter.tex2
-rw-r--r--buch/chapters/20-polynome/definitionen.tex18
-rw-r--r--buch/chapters/20-polynome/vektoren.tex13
-rw-r--r--buch/chapters/30-endlichekoerper/euklid.tex8
-rw-r--r--buch/chapters/30-endlichekoerper/galois.tex6
-rw-r--r--buch/chapters/30-endlichekoerper/wurzeln.tex8
-rw-r--r--buch/chapters/40-eigenwerte/eigenwerte.tex6
-rw-r--r--buch/chapters/40-eigenwerte/grundlagen.tex5
-rw-r--r--buch/chapters/40-eigenwerte/normalformen.tex4
-rw-r--r--buch/chapters/40-eigenwerte/spektralradius.tex8
-rw-r--r--buch/chapters/40-eigenwerte/spektraltheorie.tex18
-rw-r--r--buch/chapters/40-eigenwerte/uebungsaufgaben/4003.m4
-rw-r--r--buch/chapters/40-eigenwerte/uebungsaufgaben/4003.tex19
-rw-r--r--buch/chapters/40-eigenwerte/uebungsaufgaben/4005.tex5
-rw-r--r--buch/chapters/40-eigenwerte/uebungsaufgaben/4006.tex2
23 files changed, 112 insertions, 104 deletions
diff --git a/buch/chapters/05-zahlen/natuerlich.tex b/buch/chapters/05-zahlen/natuerlich.tex
index def03ac..b3098e4 100644
--- a/buch/chapters/05-zahlen/natuerlich.tex
+++ b/buch/chapters/05-zahlen/natuerlich.tex
@@ -181,7 +181,7 @@ Sie gelten immer für Matrizen.
Die Lösbarkeit von Gleichungen der Form $ax=b$ mit $a,b\in\mathbb{N}$
gibt Anlass zum sehr nützlichen Konzept der Teilbarkeit.
\index{Teilbarkeit}%
-Die Zahl $b$ heisst {\em teilbar} durch $a$, in Formeln $a\mid b$,
+Die Zahl $b$ heisst {\em teilbar} durch $a$, in Formeln $a|b$,
wenn die Gleichung $ax=b$ eine Lösung in $\mathbb{N}$ hat.
\index{teilbar}%
Jede natürlich Zahl $n$ ist durch $1$ und durch sich selbst teilbar,
diff --git a/buch/chapters/10-vektorenmatrizen/algebren.tex b/buch/chapters/10-vektorenmatrizen/algebren.tex
index 718e693..8e00983 100644
--- a/buch/chapters/10-vektorenmatrizen/algebren.tex
+++ b/buch/chapters/10-vektorenmatrizen/algebren.tex
@@ -78,7 +78,7 @@ die konstante Funktion
mit Wert $1$ erfüllt
\[
(1\cdot f)(x) = 1(x) f(x) = f(x)
-\qquad\Rightarrow\qquad 1\cdot f = f,
+\quad\Rightarrow\quad 1\cdot f = f,
\]
die Eigenschaft einer Eins in der Algebra.
diff --git a/buch/chapters/10-vektorenmatrizen/gruppen.tex b/buch/chapters/10-vektorenmatrizen/gruppen.tex
index d7c9266..594b95b 100644
--- a/buch/chapters/10-vektorenmatrizen/gruppen.tex
+++ b/buch/chapters/10-vektorenmatrizen/gruppen.tex
@@ -10,9 +10,9 @@ Eine solche besteht aus einer Menge $G$ mit einer Verknüpfung,
die additiv
\index{additive Verknüpfung}%
\begin{align*}
-G\times G \to G&: (g,h) = g+h
+G\times G \to G&: (g,h) \mapsto g+h
\intertext{oder multiplikativ }
-G\times G \to G&: (g,h) = gh
+G\times G \to G&: (g,h) \mapsto gh
\end{align*}
\index{multiplikative Verknüpfung}%
geschrieben werden kann.
@@ -72,7 +72,7 @@ Das additive Inverse eines Elementes $a$ ist $-a$.
\begin{beispiel}
Die von Null verschiedenen Elemente $\Bbbk^*=\Bbbk\setminus\{0\}$ (definiert
auf Seite~\pageref{buch:zahlen:def:bbbk*})
-eines Zahlekörpers bilden
+eines Zahlkörpers bilden
bezüglich der Multiplikation eine Gruppe mit neutralem Element $1$.
Das multiplikative Inverse eines Elementes $a\in \Bbbk$ mit $a\ne 0$
ist $a^{-1}=\frac1{a}$.
@@ -255,7 +255,7 @@ der {\em Konjugation}, in sich abgebildet.
\begin{definition}
Eine Untergruppe $H \subset G$ heisst ein {\em Normalteiler},
-geschrieben $H \triangleleft G$
+geschrieben $H \triangleleft G$,
wenn $gHg^{-1}\subset H$ für jedes $g\in G$.
\index{Normalteiler}%
\end{definition}
@@ -324,6 +324,7 @@ genauer untersucht.
Das Beispiel suggeriert, dass man sich die Elemente von $G/H$
als Reste vorstellen kann.
+Der Quotient $G/H$ wird daher auch die Restklassengruppe genannt.
\subsubsection{Darstellungen}
Abstrakt definierte Gruppen können schwierig zu verstehen sein.
diff --git a/buch/chapters/10-vektorenmatrizen/hadamard.tex b/buch/chapters/10-vektorenmatrizen/hadamard.tex
index 6991457..c6380dc 100644
--- a/buch/chapters/10-vektorenmatrizen/hadamard.tex
+++ b/buch/chapters/10-vektorenmatrizen/hadamard.tex
@@ -116,7 +116,7 @@ a\colon [m]\times [n] : (i,j) \mapsto a_{i\!j}
zu.
Dabei gehen die Algebraoperationen von $H_{m\times n}(\Bbbk)$ über
in die Algebraoperationen der Funktionenalgebra $\Bbbk^{[m]\times [n]}$.
-Aus der Einsmatrix der Hadamard-Algebra wird dabei zur konstanten
+Die Einsmatrix der Hadamard-Algebra wird dabei zur konstanten
Funktion $1$ auf $[m]\times[n]$.
\subsection{Hadamard-Produkt und Matrizenalgebra
diff --git a/buch/chapters/10-vektorenmatrizen/linear.tex b/buch/chapters/10-vektorenmatrizen/linear.tex
index dcb2e8a..26dfcec 100755
--- a/buch/chapters/10-vektorenmatrizen/linear.tex
+++ b/buch/chapters/10-vektorenmatrizen/linear.tex
@@ -62,7 +62,7 @@ u = \begin{pmatrix}u_1&u_2&\dots&u_m\end{pmatrix} \in \Bbbk^m.
Für Vektoren gleicher Dimension sind zwei Rechenoperationen definiert.
Die {\em Addition von Vektoren} $a,b\in\Bbbk^n$ und die Multiplikation
\index{Addition von Vektoren}%
-eines Vektors mit einem Skalar $\lambda\in\Bbbk$ erfolgt elementweise:
+eines Vektors mit einem Skalar $\lambda\in\Bbbk$ erfolgen elementweise:
\[
a+b
=
@@ -161,7 +161,7 @@ kann als (abstrakter) Vektor betrachtet werden.
\begin{definition}
Eine Menge $V$ von Objekten, auf der zwei Operationen definiert sind,
-nämlich die Addition, geschrieben $a+b$ für $a,b\in V$ und die
+nämlich die Addition, geschrieben $a+b$ für $a,b\in V$, und die
Multiplikation mit Skalaren, geschrieben $\lambda a$ für $a\in V$ und
$\lambda\in \Bbbk$, heisst ein {\em $\Bbbk$-Vektorraum} oder {\em Vektorraum
über $\Bbbk$} (oder
@@ -205,7 +205,7 @@ Die Vektorraum-Rechenregeln
\end{beispiel}
Die Beispiele zeigen, dass der Begriff des Vektorraums die algebraischen
-Eigenschaften eine grosse Zahl sehr verschiedenartiger mathematischer
+Eigenschaften einer grossen Zahl sehr verschiedenartiger mathematischer
Objekte beschreiben kann.
Alle Erkenntnisse, die man ausschliesslich aus Vektorraumeigenschaften
gewonnen hat, sind auf alle diese Objekte übertragbar.
@@ -315,7 +315,7 @@ $\lambda_1,\dots,\lambda_n\in\Bbbk$ gibt, die nicht alle $0$ sind, so dass
\lambda_1a_1+\dots+\lambda_na_n = 0.
\label{buch:vektoren-und-matrizen:eqn:linabhdef}
\end{equation}
-Die Vektoren heissen linear abhängig, wenn aus
+Die Vektoren heissen {\em linear abhängig}, wenn aus
\eqref{buch:vektoren-und-matrizen:eqn:linabhdef}
folgt, dass alle $\lambda_1=0,\dots,\lambda_n=0$ sind.
\end{definition}
@@ -412,8 +412,8 @@ $M_n(\Bbbk) = M_{n\times n}(\Bbbk)$ ab.
\end{definition}
Die $m$-dimensionalen Spaltenvektoren $v\in \Bbbk^m$ sind $m\times 1$-Matrizen
-$v\in M_{n\times 1}(\Bbbk)$, die $n$-dimensionalen Zeilenvektoren $u\in\Bbbk^n$
-sind $1\times n$-Matrizen $v\in M_{1\times n}(\Bbbk)$.
+$v\in M_{n\times 1}(\Bbbk)$, die $n$-dimensio\-nalen Zeilenvektoren
+$u\in\Bbbk^n$ sind $1\times n$-Matrizen $v\in M_{1\times n}(\Bbbk)$.
Eine $m\times n$-Matrix $A$ mit den Koeffizienten $a_{i\!j}$ besteht aus
den $n$ Spaltenvektoren
\[
@@ -428,7 +428,7 @@ Sie besteht auch aus den $m$ Zeilenvektoren
mit $k=1,\dots,m$.
\subsubsection{Addition und Multiplikation mit Skalaren}
-Die $m\times n$-Matrizen $M_{m\times n}(\Bbbk)$ bilden eine Vektorraum,
+Die $m\times n$-Matrizen $M_{m\times n}(\Bbbk)$ bilden einen Vektorraum,
die Addition von Matrizen und die Multiplikation wird wie folgt definiert.
\begin{definition}
@@ -479,15 +479,15 @@ Die Koeffizienten $a_{ik}$ kommen aus der Zeile $i$ von $A$, die Koeffizienten
$b_{k\!j}$ stehen in der Spalte $j$ von $B$, die Multiplikationsregel
\eqref{buch:vektoren-und-matrizen:eqn:matrixmultiplikation}
besagt also, dass das Element $c_{i\!j}$ als das Produkt
-der Zeile $i$ von $A$ mit der Spalte $j$ von $C$ entsteht.
+der Zeile $i$ von $A$ mit der Spalte $j$ von $B$ entsteht.
\subsubsection{Einheitsmatrix}
Welche $m\times m$-Matrix $I\in M_{m}(\Bbbk)$ hat die Eigenschaft, dass
-$IA=A$ für jede beliebige Matrix $A\in M_{m\times n}(\Bbbk)$.
+$IA=A$ für jede beliebige Matrix $A\in M_{m\times n}(\Bbbk)$?
Wir bezeichnen die Einträge von $I$ mit $\delta_{i\!j}$.
Die Bedingung $IA=A$ bedeutet
\[
-a_{i\!j} = \delta_{i1}a_{1j} + \dots + \delta_{im}a_{mj},
+a_{i\!j} = \delta_{i1}a_{1j} + \dots + \delta_{im}a_{mj}.
\]
Da auf der linken Seite nur $a_{i\!j}$ vorkommt, müssen
auf der rechten Seite alle Terme
@@ -605,12 +605,12 @@ a_{m1}&\dots &a_{mn}&b_m \\
eingetragen.
Die vertikale Linie erinnert an die Position des Gleichheitszeichens.
Das Tableau beinhaltet alle Informationen zur Durchführung des Algorithmus.
-Der Algorithmus is so gestaltet, dass er nicht mehr Speicher als
+Der Algorithmus ist so gestaltet, dass er nicht mehr Speicher als
das Tableau benötigt, alle Schritte operieren direkt auf den Daten
des Tableaus.
In jedem Schritt des Algorithmus wird zunächst eine Zeile $i$ und
-Spalte $j$ ausgewählt, das Elemente $a_{i\!j}$ heisst das {\em Pivotelement}.
+Spalte $j$ ausgewählt, das Element $a_{i\!j}$ heisst das {\em Pivotelement}.
\index{Pivotelement}%
Die {\em Pivotdivision}
\index{Pivotdivision}
@@ -698,7 +698,7 @@ Der Lösungsvektor kann also in der Spalte ganz rechts abgelesen werden.
Falls in einer Spalte kein weiteres von $0$ verschiedenes Pivotelement
zur Verfügung steht, wird die Zeile übersprungen.
Weisse Felder enthalten $0$, dunkelgraue $1$.
-Die roten Kreise bezeichnen Pivot-Elemente, die blauen Felder
+Die roten Kreise bezeichnen Pivot-Elemente, die blauen Felder,
die mit einer Zeilensubtraktion zu $0$ gemacht werden sollen.
\label{buch:grundlagen:fig:gaussalgorithmus}}
\end{figure}
@@ -954,7 +954,7 @@ wird auch der Wert der Determinanten mit $\lambda$ multipliziert.
\item
\label{buch:linear:determinante:asymetrisch}
Die Determinante ist eine lineare Funktion der Zeilen von $A$.
-Zusammen mit der Eigeschaft~\ref{buch:linear:determinante:vorzeichen}
+Zusammen mit der Eigenschaft~\ref{buch:linear:determinante:vorzeichen}
folgt, dass die Determinante eine antisymmetrische lineare Funktion
der Zeilen ist.
\item
@@ -1049,7 +1049,8 @@ Die Inverse der $n\times n$-Matrix $A$ ist gegeben durch
\index{Formel für die inverse Matrix}%
\index{inverse Matrix, Formel für}%
\begin{equation}
-(A^{-1})_{i\!j}
+%(A^{-1})_{i\!j}
+A^{-1}
=
\frac{1}{\det(A)}
\begin{pmatrix}
@@ -1059,7 +1060,7 @@ Die Inverse der $n\times n$-Matrix $A$ ist gegeben durch
& (-1)^{2+n} \det(A_{n2}) \\
\vdots & \vdots & \ddots & \vdots & \ddots & \vdots \\
(-1)^{1+j}\det(A_{1j}) & (-1)^{2+j}\det(A_{2j}) & \dots
- & (-1)^{i+j} \det(A_{ji})
+ & (-1)^{i+j} \det(A_{ij})
& \dots & (-1)^{j+n} \det(A_{nj}) \\
\vdots & \vdots & \ddots & \vdots & \ddots & \vdots \\
(-1)^{1+n}\det(A_{1n}) & (-1)^{2+n}\det(A_{2n}) & \dots
@@ -1072,6 +1073,7 @@ Die Transponierte der Matrix auf der rechten Seite (ohne den Vorfaktor
$1/\det(A)$)
heisst die {\em Adjunkte} $\operatorname{adj}A$ von $A$.
\index{Adjunkte}%
+Die Matrixelemente sind $(A^{-1})_{ji} = (-1)^{i+j}\det A_{ij}/\det A$.
\end{satz}
Der Satz~\ref{buch:linalg:inverse:adjunkte} liefert eine algebraische
@@ -1378,8 +1380,8 @@ A' = T_VAT_U^{-1}.
\end{equation}
\subsubsection{Umkehrabbbildung}
-Sei $f$ eine umkehrbare lineare Abbildung $f\colon U\to V$ und $g\colon V\to U$.
-die zugehörige Umkehrabbildung.
+Sei $f$ eine umkehrbare lineare Abbildung $f\colon U\to V$ und
+$g\colon V\to U$ die zugehörige Umkehrabbildung.
\index{Umkehrabbildung}%
Für zwei Vektoren $u$ und $w$ in $U$ setzen wir $a=g(u)\in V$
und $b=g(w)\in V$.
@@ -1443,7 +1445,7 @@ Wir definieren daher das Bild einer linearen Abbildung oder Matrix
wie folgt.
\begin{definition}
-Ist $f\colon V\to U$ eine lineare Abbildung dann ist das Bild von $f$
+Ist $f\colon V\to U$ eine lineare Abbildung dann ist das {\em Bild} von $f$
der Unterraum
\[
\operatorname{im}f = \{ f(v) \mid v\in V\} \subset U
@@ -1468,7 +1470,7 @@ a+b &= f(u)+f(v)=f(u+v) && \Rightarrow & a+b &\in\operator
also ist auch das Bild $\operatorname{im}f$ ein Unterraum von $U$.
Das Bild der Matrix $A$ ist der Unterraum
\[
-\{ x_1f(b_1) + \dots x_n f(b_n) \,|\, x_i\in\Bbbk\}
+\{ x_1f(b_1) + \dots x_n f(b_n) \mid x_i\in\Bbbk\}
=
\langle f(b_1),\dots,f(b_n)\rangle
=
@@ -1511,7 +1513,7 @@ Dimension des Lösungsraumes des homogenen Gleichungssystems mit
Koeffizientenmatrix $A$.
Dies ist auch die Anzahl der frei wählbaren Variablen nach
der Durchführung des Gaussalgorithmus
-Die behauptete Bezieung kann man jetzt unmittelbar aus dem
+Die behauptete Beziehung kann man jetzt unmittelbar aus dem
Schlusstableau
\begin{center}
\begin{tikzpicture}[>=latex,thick,scale=0.5]
diff --git a/buch/chapters/10-vektorenmatrizen/ringe.tex b/buch/chapters/10-vektorenmatrizen/ringe.tex
index 33626bf..4e58686 100644
--- a/buch/chapters/10-vektorenmatrizen/ringe.tex
+++ b/buch/chapters/10-vektorenmatrizen/ringe.tex
@@ -224,7 +224,7 @@ also $s\not\in R^*$, ein Widerspruch.
\begin{definition}
\label{buch:grundlagen:def:nullteiler}
Ein Element $r\in R^*$ heisst ein {\em Nullteiler} in $R$,
-wenn es ein $s\in R^*$ gibt mit $rs=0$
+wenn es ein $s\in R^*$ gibt mit $rs=0$.
Ein Ring ohne Nullteiler heisst {\em nullteilerfrei}.
\end{definition}
\index{Nullteiler}%
diff --git a/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex
index aa0bf17..aa06501 100644
--- a/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex
+++ b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex
@@ -71,7 +71,7 @@ f(x,y) = \frac12 \bigl(g(x,y)+g(x,y)\bigr)
setzt.
Dieser Prozess heisst auch {\em Symmetrisieren}.
\index{symmetrisieren}%
-Ist $g$ bereits symmetrische, dann ist $g(x,y)=f(x,y)$.
+Ist $g$ bereits symmetrisch, dann ist $g(x,y)=f(x,y)$.
\subsubsection{Positiv definite Bilinearformen und Skalarprodukt}
Bilinearität allein genügt nicht, um einen Vektorraum mit einem
@@ -315,7 +315,7 @@ Für die Norm $\|x\|_2^2=\langle x,x\rangle$ bedeutet dies jetzt
\subsection{Orthonormalbasis
\label{buch:subsection:orthonormalbasis}}
\index{orthonormierte Basis}%
-Sowohl die Berechnung von Skalarprodukten wie auch der Basis-Wechsel
+Sowohl die Berechnung von Skalarprodukten wie auch der Basiswechsel
werden besonders einfach, wenn die verwendeten Basisvektoren orthogonal
sind und Länge $1$ haben.
@@ -432,7 +432,7 @@ b_1&=\frac{a_1}{\|a_1\|_2},
\\
b_2&=\frac{a_2-b_1\langle b_1,a_2\rangle}{\|a_2-b_1\langle b_1,a_2\rangle\|_2},
\\
-b_3&=\frac{a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle}{\|a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle\|_2}
+b_3&=\frac{a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle}{\|a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle\|_2},
\\
&\phantom{n}\vdots\\
b_n
@@ -513,7 +513,7 @@ der folgenden Definition.
Sei $A$ eine komplexe Matrix mit Einträgen $a_{i\!j}$, dann ist
$\overline{A}$ die Matrix mit komplex konjugierten Elementen
$\overline{a}_{i\!j}$.
-Die {\em adjungierte} Matrix ist $A^*=\overline{A}^t$.
+Die {\em hermitesch konjugierte} Matrix ist $A^*=\overline{A}^t$.
\index{adjungiert}%
Eine Matrix heisst {\em hermitesch}, wenn $A^*=A$.
\index{hermitesch}%
@@ -749,7 +749,7 @@ Das Orthogonalkomplement des Bildes von $f$ ist
v\in V
\,|\,
\langle v, fu\rangle=0\forall u\in U
-\}
+\}.
\end{align*}
Ein Vektor $v$ ist genau dann in $(\operatorname{im}f)^\perp$ enthalten,
wenn für alle $u$
@@ -796,7 +796,7 @@ Auch die $l^1$-Norm erfüllt die Dreiecksungleichung
\|x\|_1 + \|y\|_1.
\]
-Die $l^1$-Norm kommt nicht von einem Skalarprodukt her.
+Die $l^1$-Norm kommt in Dimension $n\ge 2$ nicht von einem Skalarprodukt her.
Wenn es ein Skalarprodukt gäbe, welches auf diese Norm führt, dann
müsste
\[
@@ -819,7 +819,7 @@ bedeutet dies
\langle e_1,\pm e_2\rangle
=
\frac12( 2^2 - 1^2 - 1^2)
-=1
+=1.
\]
Die Linearität des Skalarproduktes verlangt aber, dass
$1=\langle e_1,-e_2\rangle = -\langle e_1,e_2\rangle = -1$,
@@ -829,6 +829,7 @@ ein Widerspruch.
\begin{definition}
Die $l^\infty$-Norm in $V=\mathbb{R}^n$ und $V=\mathbb{C}^n$ ist definiert
+durch
\[
\|v\|_\infty
=
@@ -863,7 +864,7 @@ Es ist
\|e_1\pm e_2\|_\infty &= 1
\end{aligned}
\right\}
-\qquad\Rightarrow\qquad
+\quad\Rightarrow\quad
\langle e_1,\pm e_2\rangle
=
\frac12(\|e_1\pm e_2\|_\infty^2 - \|e_1\|_\infty^2 - \|e_2\|_\infty^2)
@@ -985,7 +986,7 @@ Die $L^2$-Norm wird erzeugt von dem Skalarprodukt
\qquad\Rightarrow\qquad
\|f\|_2^2 = \frac{1}{b-a}\int_a^b |f(x)|^2\,dx.
\]
-Die $L^1$-Norm ist dagegen definiert als.
+Die $L^1$-Norm ist dagegen definiert als
\[
\|f\|_1
=
@@ -994,7 +995,7 @@ Die $L^1$-Norm ist dagegen definiert als.
Die drei Normen stimmen nicht überein.
Beschränkte Funktionen sind zwar immer integrierbar und quadratintegrierbar.
Es gibt aber integrierbare Funktionen, die nicht quadratintegrierbar sind, zum
-Beispiel ist die Funktion $f(x)=1/\sqrt{x}$ auf dem Interval $[0,1]$
+Beispiel ist die Funktion $f(x)=1/\sqrt{x}$ auf dem Interval $[0,1]$:
\begin{align*}
\|f\|_1
&=
diff --git a/buch/chapters/10-vektorenmatrizen/uebungsaufgaben/1001.tex b/buch/chapters/10-vektorenmatrizen/uebungsaufgaben/1001.tex
index 199b481..e9c24e3 100644
--- a/buch/chapters/10-vektorenmatrizen/uebungsaufgaben/1001.tex
+++ b/buch/chapters/10-vektorenmatrizen/uebungsaufgaben/1001.tex
@@ -12,8 +12,8 @@ A
\end{pmatrix}.
\]
\begin{teilaufgaben}
-\item Berechnen Sie $\det A$
-\item Finden Sie die inverse Matrix $A^{-1}$
+\item Berechnen Sie $\det A$.
+\item Finden Sie die inverse Matrix $A^{-1}$.
\item Nehmen Sie an, dass $a_{in}\in\mathbb{Z}$.
Formulieren Sie eine Bedingung an die Koeffizienten $a_{in}$, die garantiert,
dass $A^{-1}$ eine Matrix mit ganzzahligen Koeffizienten ist.
@@ -49,7 +49,7 @@ Die inverse Matrix kann am einfachsten mit Hilfe des Gauss-Algorithmus
gefunden werden.
Dazu schreiben wir die Matrix $A$ in die linke Hälfte eines Tableaus
und die Einheitsmatrix in die rechte Hälfte und führen den Gauss-Algorithmus
-durch.
+durch:
\[
\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
\hline
@@ -77,7 +77,7 @@ ganz nach unten schieben:
\]
Mit einer einzigen Gauss-Operationen kann man jetzt die inverse Matrix
finden.
-Dazu muss man zunächst durch das Pivot-Elemente $a_{1n}$ dividieren,
+Dazu muss man zunächst durch das Pivot-Elemente $a_{1n}$ dividieren
und dann in der Zeile $k$ das $a_{k+1,n}$-fache der letzten Zeile
subtrahieren.
Dies hat nur eine Auswirkung auf die erste Spalte in der rechten Hälfte:
diff --git a/buch/chapters/20-polynome/chapter.tex b/buch/chapters/20-polynome/chapter.tex
index 5920991..ae3903b 100644
--- a/buch/chapters/20-polynome/chapter.tex
+++ b/buch/chapters/20-polynome/chapter.tex
@@ -109,11 +109,11 @@ a_{n}b_{m}X^{n+m}
(a_1b_0+a_0b_1)X
+
a_0b_0
+\label{buch:eqn:polynome:faltung}
\\
&=
\sum_{i + j = k}a_ib_j X^k.
\notag
-\label{buch:eqn:polynome:faltung}
\end{align}
Dies ist aber nur möglich, wenn die Koeffizienten selbst miteinander
multipliziert werden können, wenn also die Koeffizienten mindestens
diff --git a/buch/chapters/20-polynome/definitionen.tex b/buch/chapters/20-polynome/definitionen.tex
index b58c0dd..152589a 100644
--- a/buch/chapters/20-polynome/definitionen.tex
+++ b/buch/chapters/20-polynome/definitionen.tex
@@ -23,8 +23,8 @@ Zahl zu multiplizieren.
Die Struktur, die wir hier beschrieben haben, hängt davon ab, was wir uns
unter einer ``Zahl'' vorstellen.
-Wir bezeichnen die Menge, aus der die ``Zahlen'' kommen können mit $R$ und
-nennen sie die Menge der Skalare.
+Wir bezeichnen die Menge, aus der die ``Zahlen'' kommen können, mit $R$ und
+nennen sie die Menge der {\em Skalare}.
\index{Skalar}%
Wenn wir uns vorstellen, dass man die Elemente von $R$ an Stelle von $X$
in das Polynom einsetzen kann, dann muss es möglich sein, in $R$ zu
@@ -73,7 +73,7 @@ Ein Polynom heisst {\em normiert} oder auch {\em monisch}, wenn der
\index{Polynom!normiert}%
\index{normiertes Polynom}%
\index{Polynom!monisch}%
-\index{normiertes Polynom}
+\index{normiertes Polynom}%
höchste Koeffizient oder auch {\em Leitkoeffizient} des Polynoms $1$ ist,
also $a_n=1$.
\index{Leitkoeffizient}%
@@ -201,8 +201,8 @@ sein als die grössere von den beiden Zahlen $n$ und $m$ angibt, dies
beweist \eqref{buch:eqn:polynome:gradsumme}.
Ebenso kann der höchste Koeffizient im Produkt nach der
Formel~\eqref{buch:eqn:polynome:faltung} nicht ``weiter oben'' als bei
-$n+m$ liegen, dies beweist
-beweist \eqref{buch:eqn:polynome:gradprodukt}.
+$n+m$ liegen, dies
+beweist~\eqref{buch:eqn:polynome:gradprodukt}.
In einem Ring mit Nullteilern
(Siehe Definition~\ref{buch:grundlagen:def:nullteiler})
könnte es passieren, dass $a_nb_m=0$ ist, d.~h.~es ist durchaus möglich,
@@ -245,9 +245,9 @@ Betrachten wir $\lambda$ wieder als ein Polynom, dann folgt aus
\eqref{buch:eqn:polynome:gradsummeexakt}, dass
\[
\begin{aligned}
-\lambda&\ne 0 &&\Rightarrow& \deg (\lambda p) &= \deg\lambda + \deg p = 0+\deg p
+\lambda&\ne 0 &&\Rightarrow& \deg (\lambda p) &= \deg\lambda + \deg p = 0+\deg p,
\\
-\lambda&=0 &&\Rightarrow& \deg (0 p) &= \deg 0 + \deg p = \deg 0
+\lambda&=0 &&\Rightarrow& \deg (0 p) &= \deg 0 + \deg p = \deg 0.
\end{aligned}
\]
Diese Gleichung kann also nur aufrechterhalten werden, wenn die ``Zahl'' $\deg 0$ die Eigenschaft besitzt, dass man immer noch $\deg 0$ bekommt,
@@ -405,7 +405,7 @@ In $\mathbb{Q}[X]$ ist die Division $a:b$ für die Polynome
\begin{equation}
\begin{aligned}
a(X) &= X^4 - X^3 -7X^2 + X + 6\\
-b(X) &= 2X^2+X+1,
+b(X) &= 2X^2+X+1
\end{aligned}
\label{buch:polynome:eqn:divisionsaufgabe2}
\end{equation}
@@ -500,7 +500,7 @@ Wir erwarten daher die entsprechenden Eigenschaften auch in einem
Polynomring.
Allerdings ist eine Faktorzerlegung nicht ganz eindeutig.
Wenn das Polynom $f\in\mathbb{Z}[X]$ die Faktorisierung
-$f=g\cdot h$ mit $g,h\mathbb{Z}[X]$ hat, dann
+$f=g\cdot h$ mit $g,h\in\mathbb{Z}[X]$ hat, dann
ist $rg\cdot r^{-1}h$ ebenfalls eine Faktorisierung für jedes $r =\pm1$.
Dasselbe gilt in $\mathbb{Q}$ für jedes $r\in \mathbb{Q}^*$.
Faktorisierung ist also nur eindeutig bis auf Elemente der
diff --git a/buch/chapters/20-polynome/vektoren.tex b/buch/chapters/20-polynome/vektoren.tex
index 535b896..9f0dee2 100644
--- a/buch/chapters/20-polynome/vektoren.tex
+++ b/buch/chapters/20-polynome/vektoren.tex
@@ -29,7 +29,7 @@ R^{n+1}.
\]
Diese Darstellung eines Polynoms gibt auch die Addition von Polynomen
und die Multiplikation von Polynomen mit Skalaren aus $R$ korrekt wieder.
-Die Abbildung von Vektoren auf Polynome
+Die Abbildung
\[
\varphi
\colon R^{n+1} \to R[X]
@@ -38,6 +38,7 @@ Die Abbildung von Vektoren auf Polynome
\mapsto
a_nX^n + a_{n-1}X^{n-1}+\dots+a_1X+a_0
\]
+von Vektoren auf Polynome
erfüllt also
\[
\varphi( \lambda a) = \lambda \varphi(a)
@@ -62,7 +63,7 @@ um Multiplikation mit Skalaren geht, ist also diese vektorielle Darstellung
mit Hilfe von $\varphi$ eine zweckmässige Darstellung.
In zwei Bereichen ist die Beschreibung von Polynomen mit Vektoren allerdings
-ungenügend: einerseits können Polynome können beliebig hohen Grad haben,
+ungenügend: einerseits können Polynome beliebig hohen Grad haben,
während Vektoren in $R^{n+1}$ höchstens $n+1$ Komponenten haben können.
Andererseits geht bei der vektoriellen Beschreibung die multiplikative
Struktur vollständig verloren.
@@ -159,12 +160,12 @@ Multiplikationsoperator
betrachten.
Diese Operatoren setzen sich zusammen zu einem Operator
\[
-{X\cdot} \colon R^\infty \to \infty,
+{X\cdot} : R^\infty \to \infty,
\]
der die Multiplikation mit $X$ beschreibt.
Ist $p(X)$ ein Polynom, dann lässt sich die Multiplikation
-in von Polynome mit $R[X]$ ebenfalls als Operator schreiben.
+von $p(X)$ mit Polynomen in $R[X]$ ebenfalls als Operator schreiben.
Die Potenz $X^k$ wirkt durch $k$-fache Iteration des Operators
$X\cdot$.
Das Polynom $p(X)$ wirkt als Linearkombination der Operatoren $(X\cdot)^k$,
@@ -174,7 +175,7 @@ in das Polynom erhalten kann:
p(X\cdot)
=
a_n(X\cdot)^n + a_{n-1}(X\cdot)^{n+1} + \dots + a_1(X\cdot) + a_0
-\colon
+:
R^\infty \to R^\infty
:
q(X)
@@ -235,7 +236,7 @@ die Beobachtung, dass sich eine ganz allgemeine Algebra
wie die der Polynome auf sehr direkte Art und Weise
abbilden lässt in eine Algebra von Matrizen auf einem
geeigneten Vektorraum.
-Im vorliegenden Fall sind das zwar ``undendliche''
+Im vorliegenden Fall sind das zwar ``unendliche''
Matrizen, in zukünftigen Beispielen werden wir das
selbe Prinzip jedoch in Aktion sehen in Situationen,
wo eine Operation auf einem endlichen Vektorraum
diff --git a/buch/chapters/30-endlichekoerper/euklid.tex b/buch/chapters/30-endlichekoerper/euklid.tex
index 7586273..775128b 100644
--- a/buch/chapters/30-endlichekoerper/euklid.tex
+++ b/buch/chapters/30-endlichekoerper/euklid.tex
@@ -168,7 +168,7 @@ kann man als die Matrixoperation
schreiben.
Der Algorithmus bricht ab, wenn die zweite Komponente des Vektors $=0$ ist,
in der ersten steht dann der grösste gemeinsame Teiler.
-Hier die Durchführung des Algorithmus in Matrix-Schreibweise:
+Hier die Durchführung des Algorithmus in Matrixschreibweise:
\begin{align*}
\begin{pmatrix} 23205 \\ 6800 \end{pmatrix}
&=
@@ -358,7 +358,7 @@ dargestellt werden, die leichter als Programm zu implementieren ist.
In Abschnitt~\ref{buch:endlichekoerper:subsection:matrixschreibweise}
wurde gezeigt, dass das Produkt der aus den Quotienten $q_k$ gebildeten
Matrizen $Q(q_k)$ berechnet werden muss.
-Im Folgenden soll ein rekursiver Algorithmus zu seiner Berechnung
+Im Folgenden soll ein iterativer Algorithmus zu seiner Berechnung
hergeleitet werden.
Dazu beachten wir zunächst, dass die Multiplikation mit der Matrix
$Q(q_k)$ die zweite Zeile in die erste Zeile verschiebt:
@@ -453,7 +453,7 @@ berechnet.
\begin{beispiel}
Wir erweitern das Beispiel von Seite~\pageref{buch:endlichekoerper:beispiel1}
zur Bestimmung des grössten gemeinsamen Teilers von $76415$ und $23205$
-um die Spalten zur Berechnung der Koeffizienten $c_k$ und $d_k$
+um die Spalten zur Berechnung der Koeffizienten $c_k$ und $d_k$.
Wir schreiben die gefundenen Zahlen in eine Tabelle:
\begin{center}
\label{buch:endlichekoerper:beispiel1erweitert}
@@ -814,7 +814,7 @@ f_{k+1} &= q_kf_k + f_{k-1}
\end{align*}
für $k=0,1,\dots ,n$.
Damit können $e_k$ und $f_k$ gleichzeitig mit den Zahlen $c_k$ und $d_k$
-in einer Tabelle berechnen.
+in einer Tabelle berechnet werden.
\begin{beispiel}
Wir erweitern das Beispiel von
diff --git a/buch/chapters/30-endlichekoerper/galois.tex b/buch/chapters/30-endlichekoerper/galois.tex
index 7b0c1f3..1175e96 100644
--- a/buch/chapters/30-endlichekoerper/galois.tex
+++ b/buch/chapters/30-endlichekoerper/galois.tex
@@ -292,7 +292,7 @@ Sei $G$ die Menge der nicht einfarbigen, geschlossenen
Perlenketten, die sich nicht nur um eine Drehung unterscheiden.
Die Abbildung $s_i\colon G\to A$
-in Abbildung~\ref{buch:endliche-koerper:satz:fermat}
+in Abbildung~\ref{buch:endliche-koerper:fig:fermat}
schneidet die Perlenkette in $G$ an der Stelle $i$ auf.
Diese Abbildungen sind ganz offensichtlich injektiv.
Die Bildmengen $A_i = s_i(G)$ haben daher alle gleich
@@ -563,7 +563,7 @@ Sei $p$ eine Primzahl, dann ist
\binom{p^k}{m} \equiv 0\mod p
\label{buch:endliche-koerper:eqn:a+b^p^k}
\end{equation}
-für $0<m<p^k$
+für $0<m<p^k$.
\end{satz}
Die Aussage von Satz~\ref{buch:endliche-koerper:satz:binomk} kann man
@@ -638,7 +638,7 @@ Daher gilt
\begin{satz}[Frobenius-Automorphismus]
\label{buch:endliche-koerper:satz:frobenius}
In einem Körper $\Bbbk$ der Charakteristik $p$ ist die Abbildung
-$x\mapsto x^p$ ist ein Automorphismus, der den Primkörper
+$x\mapsto x^p$ ein Automorphismus, der den Primkörper
$\mathbb{F}_p\subset\Bbbk$ fest lässt.
\end{satz}
diff --git a/buch/chapters/30-endlichekoerper/wurzeln.tex b/buch/chapters/30-endlichekoerper/wurzeln.tex
index c968f1d..8fff30e 100644
--- a/buch/chapters/30-endlichekoerper/wurzeln.tex
+++ b/buch/chapters/30-endlichekoerper/wurzeln.tex
@@ -112,7 +112,7 @@ Also ist $f(X) = X^2 - 2$ ein irreduzibles Polynom über $\mathbb Q$.
Man kann das Polynom aber auch als Polynom in $\mathbb{F}_{23}[X]$
betrachten.
-Im Körper $\mathbb{F}_{23}$ kann man durch probieren zwei Nullstellen
+Im Körper $\mathbb{F}_{23}$ kann man durch Probieren zwei Nullstellen
finden:
\begin{align*}
5^2 &= 25\equiv 2\mod 23
@@ -131,10 +131,10 @@ X^2 -2 \mod 23,
\begin{beispiel}
Die Zahl
-\[
+\begin{equation}
\alpha = \frac{-1+i\sqrt{3}}2\in\mathbb{C}
-\]
\label{buch:endliche-koerper:eqn:1iwurzel3}
+\end{equation}
ist eine Nullstelle des Polynoms $f(X)=X^3-1\in\mathbb{Z}[X]$.
Der Ausdruck für
$\alpha$ enthält aber nur Quadratwurzeln, man würde also eigentlich
@@ -340,7 +340,7 @@ Diese Abbildung ist ein Algebrahomomorphismus.
Die Menge $\Bbbk(M_\alpha)$ ist also das Bild des
Körpers $\Bbbk(\alpha)$ in der Matrizenalgebra $M_n(\Bbbk)$.
-\subsubsection{Inverse mit der inversen Matrix}
+\subsubsection{Inverse in $\Bbbk(\alpha)$ mit der inversen Matrix}
Im Moment wissen wir noch nicht, wie wir Elemente in $\Bbbk(\alpha)$
invertieren sollen.
%$\alpha^{-1}$ berechnen sollten.
diff --git a/buch/chapters/40-eigenwerte/eigenwerte.tex b/buch/chapters/40-eigenwerte/eigenwerte.tex
index 745dd5f..2a27eea 100644
--- a/buch/chapters/40-eigenwerte/eigenwerte.tex
+++ b/buch/chapters/40-eigenwerte/eigenwerte.tex
@@ -131,7 +131,7 @@ untersuchen.
\subsection{Verallgemeinerte Eigenräume
\label{buch:subsection:verallgemeinerte-eigenraeume}}
Wenn $\lambda$ ein Eigenwert der Matrix $A$ ist, dann ist
-ist $A-\lambda I$ injektiv und $\ker(A-\lambda I)\ne 0$.
+$A-\lambda I$ nicht injektiv und $\ker(A-\lambda I)\ne 0$.
Man kann daher die invarianten Unterräume $\mathcal{K}(A-\lambda I)$
und $\mathcal{J}(A-\lambda I)$ bilden.
@@ -269,7 +269,7 @@ A'
& &0& 1
\end{array}\right),
\]
-die Blöcke gehören zu den invarianten Unterräumen $\mathcal{K}(A-I)$
+die Blöcke gehören zu den invarianten Unterräumen $\mathcal{J}(A-I)$
und $\mathcal{K}(A-I)$.
Die aus $A-I$ gewonnenen invarianten Unterräume sind offenbar auch invariante
Unterräume für $A$.
@@ -312,7 +312,7 @@ in invariante Unterräume,
wobei $\mathcal{E}_{\lambda_1}(A)\ne 0$ ist.
Die Matrix $A-\lambda_1 I$ eingeschränkt auf $\mathcal{E}_{\lambda_1}(A)$ ist
nilpotent.
-Man kann daher sagen, auf dem Unterraum $\mathcal{E}_{\lambda_i}(A)$ hat
+Man kann daher sagen, auf dem Unterraum $\mathcal{E}_{\lambda_1}(A)$ hat
$A$ die Form $\lambda_1 I + N$, wobei $N$ nilpotent ist.
Die Zerlegung in invariante Unterräume ist zwar mit Hilfe von $A-\lambda_1I$
diff --git a/buch/chapters/40-eigenwerte/grundlagen.tex b/buch/chapters/40-eigenwerte/grundlagen.tex
index fa924c8..c204653 100644
--- a/buch/chapters/40-eigenwerte/grundlagen.tex
+++ b/buch/chapters/40-eigenwerte/grundlagen.tex
@@ -343,7 +343,7 @@ In $\mathcal{K}(A)$ und $\mathcal{J}(A)$ kann man unabhängig voneinander
jeweils eine Basis wählen.
Die Basen von $\mathcal{K}(A)$ und $\mathcal{J}(A)$ zusammen ergeben
eine Basis von $V$.
-Die Matrix $A'$ in dieser Basis wird die Blockform
+In dieser Basis wird die Matrix $A'$ die Blockform
\[
A'
=
@@ -391,7 +391,7 @@ Obere (oder untere) Dreiecksmatrizen mit Nullen auf der Diagonalen
sind nilpotent.
\index{Dreiecksmatrix}%
Wir rechnen dies wie folgt nach.
-Die Matrix $A$ mit Einträgen $a_{i\!j}$
+Die Matrix
\[
A=\begin{pmatrix}
0 &a_{12}&a_{13}&\dots &a_{1,n-1}&a_{1n} \\
@@ -402,6 +402,7 @@ A=\begin{pmatrix}
0 & 0 & 0 &\dots & 0 & 0
\end{pmatrix}
\]
+mit Einträgen $a_{i\!j}$
erfüllt $a_{i\!j}=0$ für $i\ge j$.
Wir zeigen jetzt, dass sich bei der Multiplikation die nicht
verschwinden Elemente bei der Multiplikation noch rechts oben
diff --git a/buch/chapters/40-eigenwerte/normalformen.tex b/buch/chapters/40-eigenwerte/normalformen.tex
index c69329b..132947f 100644
--- a/buch/chapters/40-eigenwerte/normalformen.tex
+++ b/buch/chapters/40-eigenwerte/normalformen.tex
@@ -336,9 +336,9 @@ Es ist das Polynom geringsten Grades über $\Bbbk'$, welches $m(A)=0$ erfüllt.
\subsection{Reelle Normalform
\label{buch:subsection:reelle-normalform}}
-Wenn eine reelle Matrix $A$ komplexe Eigenwerte hat, ist die Jordansche
+Wenn eine reelle Matrix $A$ nicht reelle Eigenwerte hat, ist die Jordansche
Normalform zwar möglich, aber die zugehörigen Basisvektoren werden ebenfalls
-komplexe Komponenten haben.
+nicht reelle Komponenten haben.
Für eine rein reelle Rechnung ist dies nachteilig, da der Speicheraufwand
dadurch verdoppelt und der Rechenaufwand für Multiplikationen vervierfacht
wird.
diff --git a/buch/chapters/40-eigenwerte/spektralradius.tex b/buch/chapters/40-eigenwerte/spektralradius.tex
index 1ac50a2..470c7f0 100644
--- a/buch/chapters/40-eigenwerte/spektralradius.tex
+++ b/buch/chapters/40-eigenwerte/spektralradius.tex
@@ -216,7 +216,7 @@ A^3=
-4& 108& -48\\
-12& -36& 28\\
-24&-126& 83
-\end{pmatrix}
+\end{pmatrix},
\label{buch:eigenwerte:eqn:A2A3}
\end{equation}
und daraus kann man jetzt $p(A)$ berechnen:
@@ -250,7 +250,7 @@ p(A)
=
\begin{pmatrix}1\\1\\2\end{pmatrix}
\begin{pmatrix}1&-9&4\end{pmatrix}
-\ne 0
+\ne 0.
\label{buch:eigenwerte:eqn:nichtminimalpolynom}
\end{equation}
Daher kann $p(X)$ nicht das Minimalpolynom $A$
@@ -345,7 +345,7 @@ A^{i-k}A^k
=
A^{i-k}(-a_{k-1}A^{k-1}+ \dots + a_1 A + a_0I)
\]
-auf einer Linearkombination kleinerer Potenzen reduzieren.
+auf eine Linearkombination kleinerer Potenzen reduzieren.
Jedes Polynom vom Grad $\ge k$ kann also reduziert werden in
ein Polynom vom Grad $<k$ mit dem gleichen Wert auf $A$.
@@ -374,7 +374,7 @@ Wie misst man, ob ein Polynom eine Funktion gut approximiert?
Was bedeutet es genau, dass zwei Matrizen ``nahe beeinander'' sind?
\item
In welchem Sinne müssen Polynome ``nahe'' beeinander sein, damit
-auch die Werte auf $A$ nahe beeinander sind.
+auch die Werte auf $A$ nahe beeinander sind?
\end{enumerate}
Wir wissen bereits, dass nur die Werte und gewisse Ableitungen des
diff --git a/buch/chapters/40-eigenwerte/spektraltheorie.tex b/buch/chapters/40-eigenwerte/spektraltheorie.tex
index 649fcd7..d1a2954 100644
--- a/buch/chapters/40-eigenwerte/spektraltheorie.tex
+++ b/buch/chapters/40-eigenwerte/spektraltheorie.tex
@@ -362,7 +362,7 @@ Abbildung~\ref{buch:eigenwerte:fig:wurzelverfahren}
visualisierte Verfahren, mit dem für jede Zahl $a\in[0,1]$
die Wurzel $\sqrt{a}$ berechnet werden kann.
Sei $u < \sqrt{a}$ eine Approximation der Wurzel.
-Die Approximation ist der exakte Wert der Lösung, wenn $a-u^2=0$.
+Die Approximation ist der exakte Wert, wenn $a-u^2=0$.
In jedem anderen Fall muss $u$ um einen Betrag $d$ vergrössert werden.
Natürlich muss immer noch $u+d<\sqrt{a}$ sein.
Man kann die maximal zulässige Korrektur $d$ geometrisch abschätzen,
@@ -534,7 +534,7 @@ und hermitesche Matrizen erhalten.
Ist $A$ symmetrische oder hermitesche Matrix und $f$ eine Funktion
auf dem Spektrum $\operatorname{Sp}(A)$ von $A$.
Dann gibt es genau eine Matrix $f(A)$, die Grenzwert jeder beliebigen
-Folge $p_n(A)$ für Polynomfolgen, die auf $\operatorname{Sp}(A)$
+Folge $p_n(A)$ mit Polynomen $p_n(x)$ ist, die auf $\operatorname{Sp}(A)$
gleichmässig gegen $f$ konvergieren.
\end{satz}
@@ -586,7 +586,7 @@ gleichmässig approximieren, muss daher verworfen werden.
\subsubsection{Der Satz von Stone-Weierstrass für komplexe Funktionen}
Der Satz von Stone-Weierstrass kann nach dem vorangegangene Abschnitt
-also für komplexe Funktionen nicht gelten, wir haben eine Funktion
+für komplexe Funktionen nicht gelten, denn wir haben eine Funktion
gefunden, die sich nicht approximieren lässt.
Um den Beweis des Satzes~\ref{buch:satz:stone-weierstrass}
auf komplexe Zahlen zu übertragen, muss im ersten Schritt ein Weg
@@ -601,7 +601,7 @@ und Imaginärteil.
Zum Beispiel kann man Real- und Imaginärteil als
$\Re z= \frac12(z+\overline{z})$ und $\Im z = \frac12(z-\overline{z})$
bestimmen.
-Kenntnis von Real- und Imaginärteil ist als gleichbedeutend mit
+Die Kenntnis von Real- und Imaginärteil ist gleichbedeutend mit
der Kenntnis der komplex Konjugierten $\overline{z}$.
Der Betrag lässt sich daraus als $|z|^2 = z\overline{z}$ finden.
Beide Beispiele zeigen, dass man den im Beweis benötigten Betrag
@@ -676,13 +676,13 @@ A\overline{A}
\]
zeigt.
Eine positive Matrix entsteht dagegen immer, wenn man statt
-$A$ die Adjungierte $A^*=\overline{A}^t$ verwendet.
+$A$ die hermitesche Konjugierte $A^*=\overline{A}^t$ verwendet.
Die Substitution von $A$ für $z$ und $A^*$ für $\overline{z}$
in einem Polynom $p(z,\overline{z})$ ist nicht unbedingt eindeutig.
Schon das Polynom $p(z,\overline{z})=z\overline{z}$ kann man auch
als $\overline{z}z$ schreiben.
-Damit die Substition eindeutig wird, muss man also fordern, dass
+Damit die Substitution eindeutig wird, muss man also fordern, dass
$AA^* = A^*A$ ist.
\begin{definition}
@@ -770,11 +770,11 @@ Der Beweis, dass $A+B$ normal ist, erfolgt durch Nachrechnen:
\begin{align*}
(A+B)(A+B)^*
&=
-AA^* + {\color{red}AB^*} + {\color{blue}BA^*}+BB^*
+AA^* + {\color{red}AB^*} + {\color{blue}BA^*}+BB^*,
\\
(A+B)^*(A+B)
&=
-A^*A + {\color{blue}A^*B} + {\color{red}B^*A} + B^*B
+A^*A + {\color{blue}A^*B} + {\color{red}B^*A} + B^*B.
\end{align*}
Die ersten und letzten Terme auf der rechten Seite stimmen überein, weil
$A$ und $B$ normal sind.
@@ -796,7 +796,7 @@ was zeigt, dass auch $AB$ normal ist.
\subsubsection{Spektralsatz für normale Matrizen}
Mit dem Begriff der normalen Matrix lässt sich der Spektralsatz nun
-abschliessen formulieren.
+abschliessend formulieren.
Die vorangegangene Diskussion hat gezeigt, dass man einen solchen
Satz für nicht normale Matrizen nicht erwarten kann.
diff --git a/buch/chapters/40-eigenwerte/uebungsaufgaben/4003.m b/buch/chapters/40-eigenwerte/uebungsaufgaben/4003.m
index e6e94db..8f3d795 100644
--- a/buch/chapters/40-eigenwerte/uebungsaufgaben/4003.m
+++ b/buch/chapters/40-eigenwerte/uebungsaufgaben/4003.m
@@ -14,13 +14,13 @@ A = [
eig(A)
-lambda = 2
+lambda = 3
B = A - lambda*eye(4)
rref(B)
D = B*B*B*B
-lambda = 3
+lambda = 2
B = A - lambda*eye(4)
rref(B)
diff --git a/buch/chapters/40-eigenwerte/uebungsaufgaben/4003.tex b/buch/chapters/40-eigenwerte/uebungsaufgaben/4003.tex
index b749356..b0753a4 100644
--- a/buch/chapters/40-eigenwerte/uebungsaufgaben/4003.tex
+++ b/buch/chapters/40-eigenwerte/uebungsaufgaben/4003.tex
@@ -20,11 +20,11 @@ einiger Rechnung oder mit Hilfe einer Software für symbolische Rechnung:
=
x^4-9x^3+30x^2-44x+24
=
-(x-3)^3(x-2),
+(x-3)(x-2)^2,
\]
Eigenwerte sind also $\lambda=3$ und $\lambda=2$.
-Der Eigenwert $\lambda=2$ ist ein einfacher Eigenwert, der zugehörige
+Der Eigenwert $\lambda=3$ ist ein einfacher Eigenwert, der zugehörige
Eigenraum ist daher eindimensional.
Ein Eigenvektor kann mit Hilfe des linearen Gleichungssystems
\begin{align*}
@@ -48,10 +48,10 @@ Ein Eigenvektor kann mit Hilfe des linearen Gleichungssystems
\to
\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
\hline
-1&0&0& 0\\
-0&1&0& 0\\
+1&0&0&0\\
+0&1&0&0\\
0&0&1&-1\\
-0&0&0& 0\\
+0&0&0&0\\
\hline
\end{tabular}
\end{align*}
@@ -78,7 +78,8 @@ Ab_1 =
3b_1
\]
ab.
-Diesen Vektor können wir auch finden, indem wir $\mathcal{J}(A-2I)$
+
+Den Vektor $b_1$ können wir auch finden, indem wir $\mathcal{J}(A-2I)$
bestimmen.
Die vierte Potenz von $A-2I$ ist
\begin{equation}
@@ -111,10 +112,10 @@ b_4
für den Kern $\mathcal{K}(A-2I)$ ablesen.
Da $\lambda=2$ der einzige andere Eigenwert ist, muss $\mathcal{K}(A-2I)
= \mathcal{J}(A-3I)$ sein.
-Dies lässt sich überprüfen, indem wir die vierte Potenz von $A-2I$
+Dies lässt sich überprüfen, indem wir die vierte Potenz von $A-3I$
berechnen, sie ist
\[
-(A-2I)^4
+(A-3I)^4
=
\begin{pmatrix}
79& -26& 152& -152\\
@@ -124,7 +125,7 @@ berechnen, sie ist
\end{pmatrix}.
\]
Die Spaltenvektoren lassen sich alle durch die Vektoren $b_2$, $b_3$
-und $b_4$ ausdrücken, also ist $\mathcal{J}(A-2I)=\langle b_2,b_3,b_4\rangle$.
+und $b_4$ ausdrücken, also ist $\mathcal{J}(A-3I)=\langle b_2,b_3,b_4\rangle$.
Indem die Vektoren $b_i$ als Spalten in eine Matrix $T$ schreibt, kann man
jetzt berechnen, wie die Matrix der linearen Abbildung in dieser neuen
diff --git a/buch/chapters/40-eigenwerte/uebungsaufgaben/4005.tex b/buch/chapters/40-eigenwerte/uebungsaufgaben/4005.tex
index ec76c34..40a69af 100644
--- a/buch/chapters/40-eigenwerte/uebungsaufgaben/4005.tex
+++ b/buch/chapters/40-eigenwerte/uebungsaufgaben/4005.tex
@@ -94,7 +94,7 @@ Es gilt also $AA^t=A^tA$, die Matrix ist also normal.
\notag
\end{align}
Mit einem Taschenrechner kann man die Nullstellen finden,
-aber man kann das auch die Form \eqref{4005:charpoly}
+aber man kann auch die Form \eqref{4005:charpoly}
des charakteristischen Polynoms direkt faktorisieren:
\begin{align*}
\chi_A(\lambda)
@@ -124,6 +124,7 @@ man mit der Lösungsformel für quadratische Gleichungen finden kann:
\frac{3}{2} \pm\frac{\sqrt{-3}}{2}
=
\frac{3}{2} \pm i\frac{\sqrt{3}}{2}
+&|lambda_{\pm}&=\sqrt{3}.
\end{align*}
\item
Wir müssen $z=A$ und $\overline{z}=A^t$ im Polynom $p(z,\overline{z})$
@@ -139,7 +140,7 @@ B
2.1547005& 0.42264973& 0.42264973 \\
0.4226497& 2.15470053& 0.42264973 \\
0.4226497& 0.42264973& 2.15470053
-\end{pmatrix}
+\end{pmatrix}.
\end{align*}
\item
Tatsächlich gibt die Berechnung der Eigenwerte
diff --git a/buch/chapters/40-eigenwerte/uebungsaufgaben/4006.tex b/buch/chapters/40-eigenwerte/uebungsaufgaben/4006.tex
index 7ccc065..69ca9bc 100644
--- a/buch/chapters/40-eigenwerte/uebungsaufgaben/4006.tex
+++ b/buch/chapters/40-eigenwerte/uebungsaufgaben/4006.tex
@@ -1,4 +1,4 @@
-Man findet eine Basis, in der die Matrix
+Man finde eine Basis, in der die Matrix
\[
A=\begin{pmatrix*}[r]
-5& 2& 6& 0\\