aboutsummaryrefslogtreecommitdiffstats
path: root/buch/chapters/10-vektorenmatrizen
diff options
context:
space:
mode:
authorAndreas Müller <andreas.mueller@ost.ch>2021-10-18 19:52:32 +0200
committerAndreas Müller <andreas.mueller@ost.ch>2021-10-18 19:52:32 +0200
commitd732a94f72bcb414ada8f8f638fc2a034426686f (patch)
tree6fe47b05a2426394c16480cb6d62e70acdb41758 /buch/chapters/10-vektorenmatrizen
parenttypos chapter 1 (diff)
downloadSeminarMatrizen-d732a94f72bcb414ada8f8f638fc2a034426686f.tar.gz
SeminarMatrizen-d732a94f72bcb414ada8f8f638fc2a034426686f.zip
typos chapters 1-5
Diffstat (limited to '')
-rw-r--r--buch/chapters/10-vektorenmatrizen/algebren.tex2
-rw-r--r--buch/chapters/10-vektorenmatrizen/gruppen.tex9
-rw-r--r--buch/chapters/10-vektorenmatrizen/hadamard.tex2
-rwxr-xr-xbuch/chapters/10-vektorenmatrizen/linear.tex44
-rw-r--r--buch/chapters/10-vektorenmatrizen/ringe.tex2
-rw-r--r--buch/chapters/10-vektorenmatrizen/skalarprodukt.tex21
-rw-r--r--buch/chapters/10-vektorenmatrizen/uebungsaufgaben/1001.tex8
7 files changed, 46 insertions, 42 deletions
diff --git a/buch/chapters/10-vektorenmatrizen/algebren.tex b/buch/chapters/10-vektorenmatrizen/algebren.tex
index 718e693..8e00983 100644
--- a/buch/chapters/10-vektorenmatrizen/algebren.tex
+++ b/buch/chapters/10-vektorenmatrizen/algebren.tex
@@ -78,7 +78,7 @@ die konstante Funktion
mit Wert $1$ erfüllt
\[
(1\cdot f)(x) = 1(x) f(x) = f(x)
-\qquad\Rightarrow\qquad 1\cdot f = f,
+\quad\Rightarrow\quad 1\cdot f = f,
\]
die Eigenschaft einer Eins in der Algebra.
diff --git a/buch/chapters/10-vektorenmatrizen/gruppen.tex b/buch/chapters/10-vektorenmatrizen/gruppen.tex
index d7c9266..594b95b 100644
--- a/buch/chapters/10-vektorenmatrizen/gruppen.tex
+++ b/buch/chapters/10-vektorenmatrizen/gruppen.tex
@@ -10,9 +10,9 @@ Eine solche besteht aus einer Menge $G$ mit einer Verknüpfung,
die additiv
\index{additive Verknüpfung}%
\begin{align*}
-G\times G \to G&: (g,h) = g+h
+G\times G \to G&: (g,h) \mapsto g+h
\intertext{oder multiplikativ }
-G\times G \to G&: (g,h) = gh
+G\times G \to G&: (g,h) \mapsto gh
\end{align*}
\index{multiplikative Verknüpfung}%
geschrieben werden kann.
@@ -72,7 +72,7 @@ Das additive Inverse eines Elementes $a$ ist $-a$.
\begin{beispiel}
Die von Null verschiedenen Elemente $\Bbbk^*=\Bbbk\setminus\{0\}$ (definiert
auf Seite~\pageref{buch:zahlen:def:bbbk*})
-eines Zahlekörpers bilden
+eines Zahlkörpers bilden
bezüglich der Multiplikation eine Gruppe mit neutralem Element $1$.
Das multiplikative Inverse eines Elementes $a\in \Bbbk$ mit $a\ne 0$
ist $a^{-1}=\frac1{a}$.
@@ -255,7 +255,7 @@ der {\em Konjugation}, in sich abgebildet.
\begin{definition}
Eine Untergruppe $H \subset G$ heisst ein {\em Normalteiler},
-geschrieben $H \triangleleft G$
+geschrieben $H \triangleleft G$,
wenn $gHg^{-1}\subset H$ für jedes $g\in G$.
\index{Normalteiler}%
\end{definition}
@@ -324,6 +324,7 @@ genauer untersucht.
Das Beispiel suggeriert, dass man sich die Elemente von $G/H$
als Reste vorstellen kann.
+Der Quotient $G/H$ wird daher auch die Restklassengruppe genannt.
\subsubsection{Darstellungen}
Abstrakt definierte Gruppen können schwierig zu verstehen sein.
diff --git a/buch/chapters/10-vektorenmatrizen/hadamard.tex b/buch/chapters/10-vektorenmatrizen/hadamard.tex
index 6991457..c6380dc 100644
--- a/buch/chapters/10-vektorenmatrizen/hadamard.tex
+++ b/buch/chapters/10-vektorenmatrizen/hadamard.tex
@@ -116,7 +116,7 @@ a\colon [m]\times [n] : (i,j) \mapsto a_{i\!j}
zu.
Dabei gehen die Algebraoperationen von $H_{m\times n}(\Bbbk)$ über
in die Algebraoperationen der Funktionenalgebra $\Bbbk^{[m]\times [n]}$.
-Aus der Einsmatrix der Hadamard-Algebra wird dabei zur konstanten
+Die Einsmatrix der Hadamard-Algebra wird dabei zur konstanten
Funktion $1$ auf $[m]\times[n]$.
\subsection{Hadamard-Produkt und Matrizenalgebra
diff --git a/buch/chapters/10-vektorenmatrizen/linear.tex b/buch/chapters/10-vektorenmatrizen/linear.tex
index dcb2e8a..26dfcec 100755
--- a/buch/chapters/10-vektorenmatrizen/linear.tex
+++ b/buch/chapters/10-vektorenmatrizen/linear.tex
@@ -62,7 +62,7 @@ u = \begin{pmatrix}u_1&u_2&\dots&u_m\end{pmatrix} \in \Bbbk^m.
Für Vektoren gleicher Dimension sind zwei Rechenoperationen definiert.
Die {\em Addition von Vektoren} $a,b\in\Bbbk^n$ und die Multiplikation
\index{Addition von Vektoren}%
-eines Vektors mit einem Skalar $\lambda\in\Bbbk$ erfolgt elementweise:
+eines Vektors mit einem Skalar $\lambda\in\Bbbk$ erfolgen elementweise:
\[
a+b
=
@@ -161,7 +161,7 @@ kann als (abstrakter) Vektor betrachtet werden.
\begin{definition}
Eine Menge $V$ von Objekten, auf der zwei Operationen definiert sind,
-nämlich die Addition, geschrieben $a+b$ für $a,b\in V$ und die
+nämlich die Addition, geschrieben $a+b$ für $a,b\in V$, und die
Multiplikation mit Skalaren, geschrieben $\lambda a$ für $a\in V$ und
$\lambda\in \Bbbk$, heisst ein {\em $\Bbbk$-Vektorraum} oder {\em Vektorraum
über $\Bbbk$} (oder
@@ -205,7 +205,7 @@ Die Vektorraum-Rechenregeln
\end{beispiel}
Die Beispiele zeigen, dass der Begriff des Vektorraums die algebraischen
-Eigenschaften eine grosse Zahl sehr verschiedenartiger mathematischer
+Eigenschaften einer grossen Zahl sehr verschiedenartiger mathematischer
Objekte beschreiben kann.
Alle Erkenntnisse, die man ausschliesslich aus Vektorraumeigenschaften
gewonnen hat, sind auf alle diese Objekte übertragbar.
@@ -315,7 +315,7 @@ $\lambda_1,\dots,\lambda_n\in\Bbbk$ gibt, die nicht alle $0$ sind, so dass
\lambda_1a_1+\dots+\lambda_na_n = 0.
\label{buch:vektoren-und-matrizen:eqn:linabhdef}
\end{equation}
-Die Vektoren heissen linear abhängig, wenn aus
+Die Vektoren heissen {\em linear abhängig}, wenn aus
\eqref{buch:vektoren-und-matrizen:eqn:linabhdef}
folgt, dass alle $\lambda_1=0,\dots,\lambda_n=0$ sind.
\end{definition}
@@ -412,8 +412,8 @@ $M_n(\Bbbk) = M_{n\times n}(\Bbbk)$ ab.
\end{definition}
Die $m$-dimensionalen Spaltenvektoren $v\in \Bbbk^m$ sind $m\times 1$-Matrizen
-$v\in M_{n\times 1}(\Bbbk)$, die $n$-dimensionalen Zeilenvektoren $u\in\Bbbk^n$
-sind $1\times n$-Matrizen $v\in M_{1\times n}(\Bbbk)$.
+$v\in M_{n\times 1}(\Bbbk)$, die $n$-dimensio\-nalen Zeilenvektoren
+$u\in\Bbbk^n$ sind $1\times n$-Matrizen $v\in M_{1\times n}(\Bbbk)$.
Eine $m\times n$-Matrix $A$ mit den Koeffizienten $a_{i\!j}$ besteht aus
den $n$ Spaltenvektoren
\[
@@ -428,7 +428,7 @@ Sie besteht auch aus den $m$ Zeilenvektoren
mit $k=1,\dots,m$.
\subsubsection{Addition und Multiplikation mit Skalaren}
-Die $m\times n$-Matrizen $M_{m\times n}(\Bbbk)$ bilden eine Vektorraum,
+Die $m\times n$-Matrizen $M_{m\times n}(\Bbbk)$ bilden einen Vektorraum,
die Addition von Matrizen und die Multiplikation wird wie folgt definiert.
\begin{definition}
@@ -479,15 +479,15 @@ Die Koeffizienten $a_{ik}$ kommen aus der Zeile $i$ von $A$, die Koeffizienten
$b_{k\!j}$ stehen in der Spalte $j$ von $B$, die Multiplikationsregel
\eqref{buch:vektoren-und-matrizen:eqn:matrixmultiplikation}
besagt also, dass das Element $c_{i\!j}$ als das Produkt
-der Zeile $i$ von $A$ mit der Spalte $j$ von $C$ entsteht.
+der Zeile $i$ von $A$ mit der Spalte $j$ von $B$ entsteht.
\subsubsection{Einheitsmatrix}
Welche $m\times m$-Matrix $I\in M_{m}(\Bbbk)$ hat die Eigenschaft, dass
-$IA=A$ für jede beliebige Matrix $A\in M_{m\times n}(\Bbbk)$.
+$IA=A$ für jede beliebige Matrix $A\in M_{m\times n}(\Bbbk)$?
Wir bezeichnen die Einträge von $I$ mit $\delta_{i\!j}$.
Die Bedingung $IA=A$ bedeutet
\[
-a_{i\!j} = \delta_{i1}a_{1j} + \dots + \delta_{im}a_{mj},
+a_{i\!j} = \delta_{i1}a_{1j} + \dots + \delta_{im}a_{mj}.
\]
Da auf der linken Seite nur $a_{i\!j}$ vorkommt, müssen
auf der rechten Seite alle Terme
@@ -605,12 +605,12 @@ a_{m1}&\dots &a_{mn}&b_m \\
eingetragen.
Die vertikale Linie erinnert an die Position des Gleichheitszeichens.
Das Tableau beinhaltet alle Informationen zur Durchführung des Algorithmus.
-Der Algorithmus is so gestaltet, dass er nicht mehr Speicher als
+Der Algorithmus ist so gestaltet, dass er nicht mehr Speicher als
das Tableau benötigt, alle Schritte operieren direkt auf den Daten
des Tableaus.
In jedem Schritt des Algorithmus wird zunächst eine Zeile $i$ und
-Spalte $j$ ausgewählt, das Elemente $a_{i\!j}$ heisst das {\em Pivotelement}.
+Spalte $j$ ausgewählt, das Element $a_{i\!j}$ heisst das {\em Pivotelement}.
\index{Pivotelement}%
Die {\em Pivotdivision}
\index{Pivotdivision}
@@ -698,7 +698,7 @@ Der Lösungsvektor kann also in der Spalte ganz rechts abgelesen werden.
Falls in einer Spalte kein weiteres von $0$ verschiedenes Pivotelement
zur Verfügung steht, wird die Zeile übersprungen.
Weisse Felder enthalten $0$, dunkelgraue $1$.
-Die roten Kreise bezeichnen Pivot-Elemente, die blauen Felder
+Die roten Kreise bezeichnen Pivot-Elemente, die blauen Felder,
die mit einer Zeilensubtraktion zu $0$ gemacht werden sollen.
\label{buch:grundlagen:fig:gaussalgorithmus}}
\end{figure}
@@ -954,7 +954,7 @@ wird auch der Wert der Determinanten mit $\lambda$ multipliziert.
\item
\label{buch:linear:determinante:asymetrisch}
Die Determinante ist eine lineare Funktion der Zeilen von $A$.
-Zusammen mit der Eigeschaft~\ref{buch:linear:determinante:vorzeichen}
+Zusammen mit der Eigenschaft~\ref{buch:linear:determinante:vorzeichen}
folgt, dass die Determinante eine antisymmetrische lineare Funktion
der Zeilen ist.
\item
@@ -1049,7 +1049,8 @@ Die Inverse der $n\times n$-Matrix $A$ ist gegeben durch
\index{Formel für die inverse Matrix}%
\index{inverse Matrix, Formel für}%
\begin{equation}
-(A^{-1})_{i\!j}
+%(A^{-1})_{i\!j}
+A^{-1}
=
\frac{1}{\det(A)}
\begin{pmatrix}
@@ -1059,7 +1060,7 @@ Die Inverse der $n\times n$-Matrix $A$ ist gegeben durch
& (-1)^{2+n} \det(A_{n2}) \\
\vdots & \vdots & \ddots & \vdots & \ddots & \vdots \\
(-1)^{1+j}\det(A_{1j}) & (-1)^{2+j}\det(A_{2j}) & \dots
- & (-1)^{i+j} \det(A_{ji})
+ & (-1)^{i+j} \det(A_{ij})
& \dots & (-1)^{j+n} \det(A_{nj}) \\
\vdots & \vdots & \ddots & \vdots & \ddots & \vdots \\
(-1)^{1+n}\det(A_{1n}) & (-1)^{2+n}\det(A_{2n}) & \dots
@@ -1072,6 +1073,7 @@ Die Transponierte der Matrix auf der rechten Seite (ohne den Vorfaktor
$1/\det(A)$)
heisst die {\em Adjunkte} $\operatorname{adj}A$ von $A$.
\index{Adjunkte}%
+Die Matrixelemente sind $(A^{-1})_{ji} = (-1)^{i+j}\det A_{ij}/\det A$.
\end{satz}
Der Satz~\ref{buch:linalg:inverse:adjunkte} liefert eine algebraische
@@ -1378,8 +1380,8 @@ A' = T_VAT_U^{-1}.
\end{equation}
\subsubsection{Umkehrabbbildung}
-Sei $f$ eine umkehrbare lineare Abbildung $f\colon U\to V$ und $g\colon V\to U$.
-die zugehörige Umkehrabbildung.
+Sei $f$ eine umkehrbare lineare Abbildung $f\colon U\to V$ und
+$g\colon V\to U$ die zugehörige Umkehrabbildung.
\index{Umkehrabbildung}%
Für zwei Vektoren $u$ und $w$ in $U$ setzen wir $a=g(u)\in V$
und $b=g(w)\in V$.
@@ -1443,7 +1445,7 @@ Wir definieren daher das Bild einer linearen Abbildung oder Matrix
wie folgt.
\begin{definition}
-Ist $f\colon V\to U$ eine lineare Abbildung dann ist das Bild von $f$
+Ist $f\colon V\to U$ eine lineare Abbildung dann ist das {\em Bild} von $f$
der Unterraum
\[
\operatorname{im}f = \{ f(v) \mid v\in V\} \subset U
@@ -1468,7 +1470,7 @@ a+b &= f(u)+f(v)=f(u+v) && \Rightarrow & a+b &\in\operator
also ist auch das Bild $\operatorname{im}f$ ein Unterraum von $U$.
Das Bild der Matrix $A$ ist der Unterraum
\[
-\{ x_1f(b_1) + \dots x_n f(b_n) \,|\, x_i\in\Bbbk\}
+\{ x_1f(b_1) + \dots x_n f(b_n) \mid x_i\in\Bbbk\}
=
\langle f(b_1),\dots,f(b_n)\rangle
=
@@ -1511,7 +1513,7 @@ Dimension des Lösungsraumes des homogenen Gleichungssystems mit
Koeffizientenmatrix $A$.
Dies ist auch die Anzahl der frei wählbaren Variablen nach
der Durchführung des Gaussalgorithmus
-Die behauptete Bezieung kann man jetzt unmittelbar aus dem
+Die behauptete Beziehung kann man jetzt unmittelbar aus dem
Schlusstableau
\begin{center}
\begin{tikzpicture}[>=latex,thick,scale=0.5]
diff --git a/buch/chapters/10-vektorenmatrizen/ringe.tex b/buch/chapters/10-vektorenmatrizen/ringe.tex
index 33626bf..4e58686 100644
--- a/buch/chapters/10-vektorenmatrizen/ringe.tex
+++ b/buch/chapters/10-vektorenmatrizen/ringe.tex
@@ -224,7 +224,7 @@ also $s\not\in R^*$, ein Widerspruch.
\begin{definition}
\label{buch:grundlagen:def:nullteiler}
Ein Element $r\in R^*$ heisst ein {\em Nullteiler} in $R$,
-wenn es ein $s\in R^*$ gibt mit $rs=0$
+wenn es ein $s\in R^*$ gibt mit $rs=0$.
Ein Ring ohne Nullteiler heisst {\em nullteilerfrei}.
\end{definition}
\index{Nullteiler}%
diff --git a/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex
index aa0bf17..aa06501 100644
--- a/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex
+++ b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex
@@ -71,7 +71,7 @@ f(x,y) = \frac12 \bigl(g(x,y)+g(x,y)\bigr)
setzt.
Dieser Prozess heisst auch {\em Symmetrisieren}.
\index{symmetrisieren}%
-Ist $g$ bereits symmetrische, dann ist $g(x,y)=f(x,y)$.
+Ist $g$ bereits symmetrisch, dann ist $g(x,y)=f(x,y)$.
\subsubsection{Positiv definite Bilinearformen und Skalarprodukt}
Bilinearität allein genügt nicht, um einen Vektorraum mit einem
@@ -315,7 +315,7 @@ Für die Norm $\|x\|_2^2=\langle x,x\rangle$ bedeutet dies jetzt
\subsection{Orthonormalbasis
\label{buch:subsection:orthonormalbasis}}
\index{orthonormierte Basis}%
-Sowohl die Berechnung von Skalarprodukten wie auch der Basis-Wechsel
+Sowohl die Berechnung von Skalarprodukten wie auch der Basiswechsel
werden besonders einfach, wenn die verwendeten Basisvektoren orthogonal
sind und Länge $1$ haben.
@@ -432,7 +432,7 @@ b_1&=\frac{a_1}{\|a_1\|_2},
\\
b_2&=\frac{a_2-b_1\langle b_1,a_2\rangle}{\|a_2-b_1\langle b_1,a_2\rangle\|_2},
\\
-b_3&=\frac{a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle}{\|a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle\|_2}
+b_3&=\frac{a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle}{\|a_3-b_1\langle b_1,a_3\rangle-b_2\langle b_2,a_3\rangle\|_2},
\\
&\phantom{n}\vdots\\
b_n
@@ -513,7 +513,7 @@ der folgenden Definition.
Sei $A$ eine komplexe Matrix mit Einträgen $a_{i\!j}$, dann ist
$\overline{A}$ die Matrix mit komplex konjugierten Elementen
$\overline{a}_{i\!j}$.
-Die {\em adjungierte} Matrix ist $A^*=\overline{A}^t$.
+Die {\em hermitesch konjugierte} Matrix ist $A^*=\overline{A}^t$.
\index{adjungiert}%
Eine Matrix heisst {\em hermitesch}, wenn $A^*=A$.
\index{hermitesch}%
@@ -749,7 +749,7 @@ Das Orthogonalkomplement des Bildes von $f$ ist
v\in V
\,|\,
\langle v, fu\rangle=0\forall u\in U
-\}
+\}.
\end{align*}
Ein Vektor $v$ ist genau dann in $(\operatorname{im}f)^\perp$ enthalten,
wenn für alle $u$
@@ -796,7 +796,7 @@ Auch die $l^1$-Norm erfüllt die Dreiecksungleichung
\|x\|_1 + \|y\|_1.
\]
-Die $l^1$-Norm kommt nicht von einem Skalarprodukt her.
+Die $l^1$-Norm kommt in Dimension $n\ge 2$ nicht von einem Skalarprodukt her.
Wenn es ein Skalarprodukt gäbe, welches auf diese Norm führt, dann
müsste
\[
@@ -819,7 +819,7 @@ bedeutet dies
\langle e_1,\pm e_2\rangle
=
\frac12( 2^2 - 1^2 - 1^2)
-=1
+=1.
\]
Die Linearität des Skalarproduktes verlangt aber, dass
$1=\langle e_1,-e_2\rangle = -\langle e_1,e_2\rangle = -1$,
@@ -829,6 +829,7 @@ ein Widerspruch.
\begin{definition}
Die $l^\infty$-Norm in $V=\mathbb{R}^n$ und $V=\mathbb{C}^n$ ist definiert
+durch
\[
\|v\|_\infty
=
@@ -863,7 +864,7 @@ Es ist
\|e_1\pm e_2\|_\infty &= 1
\end{aligned}
\right\}
-\qquad\Rightarrow\qquad
+\quad\Rightarrow\quad
\langle e_1,\pm e_2\rangle
=
\frac12(\|e_1\pm e_2\|_\infty^2 - \|e_1\|_\infty^2 - \|e_2\|_\infty^2)
@@ -985,7 +986,7 @@ Die $L^2$-Norm wird erzeugt von dem Skalarprodukt
\qquad\Rightarrow\qquad
\|f\|_2^2 = \frac{1}{b-a}\int_a^b |f(x)|^2\,dx.
\]
-Die $L^1$-Norm ist dagegen definiert als.
+Die $L^1$-Norm ist dagegen definiert als
\[
\|f\|_1
=
@@ -994,7 +995,7 @@ Die $L^1$-Norm ist dagegen definiert als.
Die drei Normen stimmen nicht überein.
Beschränkte Funktionen sind zwar immer integrierbar und quadratintegrierbar.
Es gibt aber integrierbare Funktionen, die nicht quadratintegrierbar sind, zum
-Beispiel ist die Funktion $f(x)=1/\sqrt{x}$ auf dem Interval $[0,1]$
+Beispiel ist die Funktion $f(x)=1/\sqrt{x}$ auf dem Interval $[0,1]$:
\begin{align*}
\|f\|_1
&=
diff --git a/buch/chapters/10-vektorenmatrizen/uebungsaufgaben/1001.tex b/buch/chapters/10-vektorenmatrizen/uebungsaufgaben/1001.tex
index 199b481..e9c24e3 100644
--- a/buch/chapters/10-vektorenmatrizen/uebungsaufgaben/1001.tex
+++ b/buch/chapters/10-vektorenmatrizen/uebungsaufgaben/1001.tex
@@ -12,8 +12,8 @@ A
\end{pmatrix}.
\]
\begin{teilaufgaben}
-\item Berechnen Sie $\det A$
-\item Finden Sie die inverse Matrix $A^{-1}$
+\item Berechnen Sie $\det A$.
+\item Finden Sie die inverse Matrix $A^{-1}$.
\item Nehmen Sie an, dass $a_{in}\in\mathbb{Z}$.
Formulieren Sie eine Bedingung an die Koeffizienten $a_{in}$, die garantiert,
dass $A^{-1}$ eine Matrix mit ganzzahligen Koeffizienten ist.
@@ -49,7 +49,7 @@ Die inverse Matrix kann am einfachsten mit Hilfe des Gauss-Algorithmus
gefunden werden.
Dazu schreiben wir die Matrix $A$ in die linke Hälfte eines Tableaus
und die Einheitsmatrix in die rechte Hälfte und führen den Gauss-Algorithmus
-durch.
+durch:
\[
\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|}
\hline
@@ -77,7 +77,7 @@ ganz nach unten schieben:
\]
Mit einer einzigen Gauss-Operationen kann man jetzt die inverse Matrix
finden.
-Dazu muss man zunächst durch das Pivot-Elemente $a_{1n}$ dividieren,
+Dazu muss man zunächst durch das Pivot-Elemente $a_{1n}$ dividieren
und dann in der Zeile $k$ das $a_{k+1,n}$-fache der letzten Zeile
subtrahieren.
Dies hat nur eine Auswirkung auf die erste Spalte in der rechten Hälfte: