diff options
Diffstat (limited to '')
21 files changed, 1150 insertions, 161 deletions
diff --git a/buch/chapters/10-vektorenmatrizen/linear.tex b/buch/chapters/10-vektorenmatrizen/linear.tex index ac2b85d..3ad51f1 100644..100755 --- a/buch/chapters/10-vektorenmatrizen/linear.tex +++ b/buch/chapters/10-vektorenmatrizen/linear.tex @@ -33,7 +33,7 @@ aber mit Punkten kann man trotzdem noch nicht rechnen. Ein Vektor fasst die Koordinaten eines Punktes in einem Objekt zusammen, mit dem man auch rechnen und zum Beispiel Parallelverschiebungen algebraisieren kann. -Um auch Streckungen ausdrücken zu können, wird auch eine Menge von +Um auch Streckungen ausdrücken zu können, wird auch eine Menge von Streckungsfaktoren benötigt, mit denen alle Komponenten eines Vektors multipliziert werden können. Sie heissen auch {\em Skalare} und liegen in $\Bbbk$. @@ -73,7 +73,7 @@ a+b = \begin{pmatrix}\lambda a_1\\\vdots\\\lambda a_n\end{pmatrix}. \] -Die üblichen Rechenregeln sind erfüllt, nämlich +Die üblichen Rechenregeln sind erfüllt, nämlich \begin{equation} \begin{aligned} &\text{Kommutativität:} @@ -149,7 +149,7 @@ kann als (abstrakter) Vektor betrachtet werden. \begin{definition} Eine Menge $V$ von Objekten, auf der zwei Operationen definiert, nämlich die Addition, geschrieben $a+b$ für $a,b\in V$ und die -Multiplikation mit Skalaren, geschrieben $\lambda a$ für $a\in V$ und +Multiplikation mit Skalaren, geschrieben $\lambda a$ für $a\in V$ und $\lambda\in \Bbbk$, heisst ein {\em $\Bbbk$-Vektorraum} oder {\em Vektorraum über $\Bbbk$} (oder einfach nur {\em Vektorraum}, wenn $\Bbbk$ aus dem Kontext klar sind), @@ -172,7 +172,7 @@ $\mathbb{C}$ ein Vektorraum über $\mathbb{R}$. \end{beispiel} \begin{beispiel} -Die Menge $C([a,b])$ der stetigen Funktionen $[a,b]\to\mathbb{Re}$ +Die Menge $C([a,b])$ der stetigen Funktionen $[a,b]\to\mathbb{Re}$ bildet ein Vektorraum. Funktionen können addiert und mit reellen Zahlen multipliziert werden: \[ @@ -188,7 +188,7 @@ Die Vektorraum-Rechenregeln \end{beispiel} Die Beispiele zeigen, dass der Begriff des Vektorraums die algebraischen -Eigenschaften eine grosse Zahl sehr verschiedenartiger mathematischer +Eigenschaften eine grosse Zahl sehr verschiedenartiger mathematischer Objekte beschreiben kann. Alle Erkenntnisse, die man ausschliesslich aus Vekotorraumeigenschaften gewonnen hat, sind auf alle diese Objekte übertragbar. @@ -300,7 +300,7 @@ folgt, dass alle $\lambda_1,\dots,\lambda_n=0$ sind. Lineare Abhängigkeit der Vektoren $a_1,\dots,a_n$ bedeutet auch, dass man einzelne der Vektoren durch andere ausdrücken kann. Hat man nämlich eine -Linearkombination~\eqref{buch:vektoren-und-matrizen:eqn:linabhdef} und +Linearkombination~\eqref{buch:vektoren-und-matrizen:eqn:linabhdef} und ist der Koeffizient $\lambda_k\ne 0$, dann kann man nach $a_k$ auflösen: \[ a_k = -\frac{1}{\lambda_k}(\lambda_1a_1+\dots+\widehat{\lambda_ka_k}+\dots+\lambda_na_n). @@ -323,7 +323,7 @@ offenbar eine besondere Bedeutung. Eine linear unabhängig Menge von Vektoren $\mathcal{B}=\{a_1,\dots,a_n\}\subset V$ heisst {\em Basis} von $V$. -Die maximale Anzahl linear unabhängiger Vektoren in $V$ heisst +Die maximale Anzahl linear unabhängiger Vektoren in $V$ heisst {\em Dimension} von $V$. \end{definition} @@ -331,7 +331,7 @@ Die Standardbasisvektoren bilden eine Basis von $V=\Bbbk^n$. \subsubsection{Unterräume} Die Mengen $\langle a_1,\dots,a_n\rangle$ sind Teilmengen -von $V$, in denen die Addition von Vektoren und die Multiplikation mit +von $V$, in denen die Addition von Vektoren und die Multiplikation mit Skalaren immer noch möglich ist. \begin{definition} @@ -352,7 +352,7 @@ gilt. % \subsection{Matrizen \label{buch:grundlagen:subsection:matrizen}} -Die Koeffizienten eines linearen Gleichungssystems finden in einem +Die Koeffizienten eines linearen Gleichungssystems finden in einem Zeilen- oder Spaltenvektor nicht Platz. Wir erweitern das Konzept daher in einer Art, dass Zeilen- und Spaltenvektoren Spezialfälle sind. @@ -378,14 +378,14 @@ M_{m\times n}(\Bbbk) = \{ A\;|\; \text{$A$ ist eine $m\times n$-Matrix}\}. \] Falls $m=n$ gilt, heisst die Matrix $A$ auch {\em quadratisch} \index{quadratische Matrix}% -Man kürzt die Menge der quadratischen Matrizen als +Man kürzt die Menge der quadratischen Matrizen als $M_n(\Bbbk) = M_{n\times n}(\Bbbk)$ ab. \end{definition} -Die $m$-dimensionalen Spaltenvektoren $v\in \Bbbk^m$ sind $m\times 1$-Matrizen +Die $m$-dimensionalen Spaltenvektoren $v\in \Bbbk^m$ sind $m\times 1$-Matrizen $v\in M_{n\times 1}(\Bbbk)$, die $n$-dimensionalen Zeilenvetoren $u\in\Bbbk^n$ sind $1\times n$-Matrizen $v\in M_{1\times n}(\Bbbk)$. -Eine $m\times n$-Matrix $A$ mit den Koeffizienten $a_{ij}$ besteht aus +Eine $m\times n$-Matrix $A$ mit den Koeffizienten $a_{ij}$ besteht aus den $n$ Spaltenvektoren \[ a_1 = \begin{pmatrix} a_{11} \\ a_{21} \\ \vdots \\ a_{m1} \end{pmatrix},\quad @@ -435,7 +435,7 @@ werden kann. \begin{definition} Eine $m\times n$-Matrix $A\in M_{m\times n}(\Bbbk)$ und eine $n\times l$-Matrix $B\in M_{n\times l}(\Bbbk)$ haben als Produkt -eine $n\times l$-Matrix $C=AB\in M_{n\times l}(\Bbbk)$ mit den +eine $m\times l$-Matrix $C=AB\in M_{m\times l}(\Bbbk)$ mit den Koeffizienten \begin{equation} c_{ij} = \sum_{k=1}^n a_{ik} b_{kj}. @@ -483,7 +483,7 @@ I 1 &0 &\dots &0 \\ 0 &1 &\dots &0 \\[-2pt] \vdots&\vdots&\ddots&\vdots\\ -0 &0 &\dots &1 +0 &0 &\dots &1 \end{pmatrix}. \] @@ -521,10 +521,10 @@ Ein Gleichungssystem mit $0$ auf der rechten Seite ist also bereits ausreichend um zu entscheiden, ob die Lösung eindeutig ist. Ein Gleichungssystem mit rechter Seite $0$ heisst {\em homogen}. \index{homogenes Gleichungssystem}% -Zu jedem {\em inhomogenen} Gleichungssystem $Ax=b$ mit $b\ne 0$ +Zu jedem {\em inhomogenen} Gleichungssystem $Ax=b$ mit $b\ne 0$ ist $Ax=0$ das zugehörige homogene Gleichungssystem. -Ein homogenes Gleichungssytem $Ax=0$ hat immer mindestens die +Ein homogenes Gleichungssytem $Ax=0$ hat immer mindestens die Lösung $x=0$, man nennt sie auch die {\em triviale} Lösung. Eine Lösung $x\ne 0$ heisst auch eine nichttriviale Lösung. Die Lösungen eines inhomgenen Gleichungssystem $Ax=b$ ist also nur dann @@ -535,7 +535,7 @@ Lösung hat. Der Gauss-Algorithmus oder genauer Gausssche Eliminations-Algorithmus löst ein lineare Gleichungssystem der Form~\eqref{buch:vektoren-und-matrizen:eqn:vektorform}. -Die Koeffizienten werden dazu in das Tableau +Die Koeffizienten werden dazu in das Tableau \[ \begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}|>{$}c<{$}|} \hline @@ -552,7 +552,7 @@ Der Algorithmus is so gestaltet, dass er nicht mehr Speicher als das Tableau benötigt, alle Schritte operieren direkt auf den Daten des Tableaus. -In jedem Schritt des Algorithmus wird zunächst eine Zeile $i$ und +In jedem Schritt des Algorithmus wird zunächst eine Zeile $i$ und Spalte $j$ ausgewählt, das Elemente $a_{ij}$ heisst das Pivotelement. \index{Pivotelement}% Die {\em Pivotdivision} @@ -646,7 +646,7 @@ In der Phase der {\em Vorwärtsreduktion} werden Pivotelemente von links nach rechts möglichst auf der Diagonale gewählt und mit Zeilensubtraktionen die darunterliegenden Spalten freigeräumt. \index{Vorwärtsreduktion}% -Während des Rückwärtseinsetzens werden die gleichen Pivotelemente von +Während des Rückwärtseinsetzens werden die gleichen Pivotelemente von rechts nach links genutzt, um mit Zeilensubtraktionen auch die Spalten über den Pivotelemnten frei zu räumen. \index{Rückwärtseinsetzen}% @@ -800,7 +800,7 @@ $x = b_1c_1+b_2c_2+\dots+b_nc_n$ konstruieren. Tatsächlich gilt \begin{align*} Ax -&= +&= A( b_1c_1+b_2c_2+\dots+b_nc_n) \\ &= @@ -837,7 +837,178 @@ Seite~\pageref{buch:vektorenmatrizen:satz:gruppenregeln} die Eigenschaft $A^{-1}A=I$ ganz allgemein gezeigt. \subsubsection{Determinante} -XXX TODO +Ein Gleichungssystem mit $n$ Gleichungen und $n$ Unbekannten ist genau +dann lösbar, wenn sich der Gauss-Algorithmus bis zum Ende durchführen lässt. +Das ist gleichbedeutend damit, dass keines der Pivot-Elemente verschwindet. +Das Produkt der Pivot-Elemente ist also eine aus der Koeffizientenmatrix +$A$ berechnete Kennzahl, die zu entscheiden erlaubt, ob ein Gleichungssystem +lösbar ist. + +\begin{definition} +\label{buch:linear:determinate:def} +Das Produkt der Pivot-Elemente bei der Durchführung des Gauss-Algorithmus +für eine Gleichungssystem mit quadratischer Koeffizientenmatrix $A$ +heisst die Determinante $\det(A)$ der Matrix $A$. +\end{definition} + +Aus den Regeln für die Durchführung des Gauss-Algorithmus kann man die +folgenden Regeln für die Determinante ableiten. +Wir stellen die Eigenschaften hier nur zusammen, detaillierte Herleitungen +kann man in jedem Kurs zur linearen Algebra finden, zum Beispiel im +Kapitel~2 des Skripts \cite{buch:linalg}. +\begin{enumerate} +\item +\label{buch:linear:determinante:einheitsmatrix} +Die Determinante der Einheitsmatrix ist $\det(I)=1$. +\item +Sind zwei Zeilen einer Matrix gleich, dann tritt beim Gauss-Algorithmus +eine Nullzweile auf, die Matrix kann also nicht regulär sein und die +Determinante ist $0$. +\item +\label{buch:linear:determinante:vorzeichen} +Vertauscht man zwei Zeilen einer Matrix, dann kehrt das Vorzeichen der +Determinante. +\item +Addiert man ein Vielfaches einer Zeile der Matrix zu einer anderen Zeile, +dann ändert der Wert der Determinante nicht. +\item +Wird eine Zeile der Matrix mit einer Zahl $\lambda$ multipliziert, dann +wird auch der Wert der Determinanten mit $\lambda$ multipliziert. +\item +\label{buch:linear:determinante:asymetrisch} +Die Determinante ist eine lineare Funktion der Zeilen von $A$. +Zusammen mit der Eigeschaft~\ref{buch:linear:determinante:vorzeichen} +folgt, dass die Determinante eine antisymmetrische lineare Funktion +der Zeilen ist. +\item +Die Determinante ist durch die Eigenschaften +\ref{buch:linear:determinante:einheitsmatrix} +und +\ref{buch:linear:determinante:asymetrisch} +eindeutig bestimmt. +\item +Der Entwicklungssatz von Laplace. +\index{Entwicklungssatz Laplace}% +Die Determinante der $n\times n$-Matrix $A$ kann mit der Formel +\begin{equation} +\det(A) += +\sum_{i=1}^n (-1)^{i+j} a_{ij} \cdot \det(A_{ij}) +\end{equation} +wobei die $(n-1)\times(n-1)$-Matrix $A_{ij}$ die Matrix $A$ ist, aus der +man Zeile $i$ und Spalte $j$ entfernt hat. +$A_{ij}$ heisst ein {\em Minor} der Matrix $A$. +\index{Minor einer Matrix}% +\end{enumerate} + +Die bekannte Formel $\det\begin{pmatrix}a&b\\c&d\end{pmatrix}=ad-bc$ +ist ein Spezialfall des Entwicklungssatzes von Laplace. +Auch für $3\times 3$-Matrizen ist eine übersichtliche Form möglich, +die als die Sarrus-Formel bekannt ist. +\index{Sarrus-Formel}% + +\begin{satz}[Sarrus] +\label{buch:linear:determinate:sarrus} +Die Determinante einer $3\times 3$-Matrix ist +\[ +\left|\begin{matrix} +a&b&c\\ +d&e&f\\ +g&h&i +\end{matrix}\right| += +aei + bfg + cdh - ceg - bdi - afh. +\] +\end{satz} + +\subsubsection{Die Regel von Cramer} +Die Determinanten ermöglicht auch, eine Formel für die Lösung eines +Gleichungssystems zu geben. +Dies ist bekannt als die {\em Regel von Cramer}. + +\begin{satz} +\label{buch:linear:determinante:cramer} +Die Lösung $x_k$ eines $n\times n$-Gleichungssystem $Ax=b$ mit +Koeffizientenmatrix $A$ und rechter Seite $b$ hat die Lösungen +\begin{equation} +x_k += +\frac{ +\left|\begin{matrix} +a_{11}&a_{12}&\dots &b_1 &\dots &a_{1n}\\ +a_{21}&a_{22}&\dots &b_2 &\dots &a_{2n}\\ +\vdots&\vdots&\ddots&\vdots&\vdots&\vdots\\ +a_{n1}&a_{n2}&\dots &b_n &\dots &a_{nn} +\end{matrix}\right| +}{ +\det(A), +} +\end{equation} +wobei im Zähler die Spalte $k$ der Matrix $A$ durch den Vektor $b$ +der rechten Seiten ersetzt worden ist. +\end{satz} + +Die Cramersche Formel ist besonders nützlich, wenn die Abhängigkeit +einer Lösungsvariablen von den Einträgen der Koeffizientenmatrix +untersucht werden soll. +Für die Details der Herleitung sei wieder auf \cite{buch:linalg} +verwiesen. + +\subsubsection{Die inverse Matrix mit Hilfe der Determinanten} +Die inverse Matrix löst ein quadratisches Gleichungssystem $Ax=b$ mit +Hilfe der Formel $x=A^{-1}b$. +Man kann daher auch erwarten, dass sich die inverse Matrix dank +der Cramerschen Regel mit Hilfe von Determinanten ausdrücken lässt. +Tatsächlich gilt der folgende Satz. + +\begin{satz} +\label{buch:linalg:inverse:adjunkte} +Die Inverse der $n\times n$-Matrix $A$ ist gegeben durch +\index{Formel für die inverse Matrix}% +\index{inverse Matrix, Formel für}% +\begin{equation} +(A^{-1})_{ij} += +\frac{1}{\det(A)} +\begin{pmatrix} +\det(A_{11}) & -\det(A_{21}) & \dots & (-1)^{i+1}\det(A_{i1}) & \dots + & (-1)^{1+n} \det(A_{n1}) \\ +-\det(A_{12}) & \det(A_{22}) & \dots & (-1)^{i+2}\det(A_{i2}) & \dots + & (-1)^{2+n} \det(A_{n2}) \\ +\vdots & \vdots & \ddots & \vdots & \ddots & \vdots \\ +(-1)^{1+j}\det(A_{1j}) & (-1)^{2+j}\det(A_{2j}) & \dots + & (-1)^{i+j} \det(A_{ji}) + & \dots & (-1)^{j+n} \det(A_{nj}) \\ +\vdots & \vdots & \ddots & \vdots & \ddots & \vdots \\ +(-1)^{1+n}\det(A_{1n}) & (-1)^{2+n}\det(A_{2n}) & \dots + & (-1)^{i+n}\det(A_{in}) + & \dots & \det(A_{nn}) +\end{pmatrix} +\label{buch:linalg:inverse:formel} +\end{equation} +Die Transponierte der Matrix auf der rechten Seite (ohne den Vorfaktor +$1/\det(A)$ +heisst die {\em Adjunkte} $\operatorname{adj}A$ von $A$. +\index{Adjunkte}% +\end{satz} + +Der Satz~\ref{buch:linalg:inverse:adjoint} liefert eine algebraische +Formel für die Elemente der inversen Matrix. +Für kleine Matrizen wie im nachfolgenden Beispiel ist die +Formel~\eqref{buch:linalg:inverse:formel} oft einfachter anzuwenden. +Besonders einfach wird die Formel für eine $2\times 2$-Matrix, +wo man +\[ +\begin{pmatrix} +a&b\\c&d +\end{pmatrix}^{-1} += +\frac{1}{ad-bc}\begin{pmatrix} +d&-b\\ +-c&a +\end{pmatrix} +\] +erhält. \begin{beispiel} Die Inverse der Matrix @@ -852,21 +1023,22 @@ a&a&1 ist mit Hilfe von Determinanten besonders einfach zu invertieren. Die Determinante von $A$ ist nach der Sarrus-Formel \[ -\det A +\operatorname{adj}A = 1 + 2a^3 - 3a^2. \] -Die adjungiert Matrix ist +Die Adjunkte ist \begin{align*} -A^{-1} +(\operatorname{adj}A)^t &= -\frac{1}{\det{A}} -\begin{pmatrix} -\det A_{11} & \det A_{21} & \det A_{31} \\ -\det A_{12} & \det A_{22} & \det A_{32} \\ -\det A_{13} & \det A_{23} & \det A_{33} -\end{pmatrix} -\\ +%\frac{1}{\det{A}} +\begin{pmatrix*}[r] + \det A_{11} & -\det A_{21} & \det A_{31} \\ +-\det A_{12} & \det A_{22} & -\det A_{32} \\ + \det A_{13} & -\det A_{23} & \det A_{33} +\end{pmatrix*} +\intertext{und damit ist die inverse Matrix} +A^{-1} &= \frac{1}{2a^3-3a^2+1} \renewcommand\arraystretch{1.1} @@ -896,7 +1068,7 @@ A^{-1} 1-a^2 & a^2-a & a^2-a\\ a^2-a & 1-a^2 & a^2-a\\ a^2-a & a^2-a & 1-a^2 -\end{pmatrix} +\end{pmatrix}. \end{align*} Mit $1-a^2=(1+a)(1-a)$ und $a^2-a=a(a-1)$ kann man dies noch etwas vereinfachen, indem man den gemeinsamen Faktor $1-a$ ausklammern. @@ -912,10 +1084,19 @@ A^{-1} \end{pmatrix}. \label{buch:vektoren-und-matrizen:abeispiel:eqn2} \end{equation} -für die Inverse einer Matrix der Form +für die Inverse einer Matrix der Form \eqref{buch:vektoren-und-matrizen:abeispiel:eqn1}. \end{beispiel} +\subsubsection{Produktregel für die Determinante} +Aus der Charakterisierung der Determinanten kann man auch ableiten, +dass die Produktregel +\[ +\det (AB) = \det(A) \cdot \det(B) +\] +gilt. +Daraus folgt auch, dass $\det(A^{-1})=\det(A)^{-1}$. + % % Lineare Abbildungen % @@ -937,7 +1118,7 @@ Eine Abbildung $f\colon V\to U$ zwischen Vektorräumen $V$ und $U$ heisst linear, wenn \[ \begin{aligned} -f(v+w) &= f(v) + f(w)&&\forall v,w\in V +f(v+w) &= f(v) + f(w)&&\forall v,w\in V \\ f(\lambda v) &= \lambda f(v) &&\forall v\in V,\lambda \in \Bbbk \end{aligned} @@ -948,16 +1129,16 @@ gilt. Lineare Abbildungen sind in der Mathematik sehr verbreitet. \begin{beispiel} -Sie $V=C^1([a,b])$ die Menge der stetig differenzierbaren Funktionen +Sie $V=C^1([a,b])$ die Menge der stetig differenzierbaren Funktionen auf dem Intervall $[a,b]$ und $U=C([a,b])$ die Menge der -stetigen Funktion aif $[a,b]$. +stetigen Funktion aif $[a,b]$. Die Ableitung $\frac{d}{dx}$ macht aus einer Funktion $f(x)$ die Ableitung $f'(x)$. -Die Rechenregeln für die Ableitung stellen sicher, dass +Die Rechenregeln für die Ableitung stellen sicher, dass \[ \frac{d}{dx} \colon -C^1([a,b]) \to C([a,b]) +C^1([a,b]) \to C([a,b]) : f \mapsto f' \] @@ -976,7 +1157,7 @@ eine lineare Abbildung. \end{beispiel} \subsubsection{Matrix} -Um mit linearen Abbildungen rechnen zu können, ist eine Darstellung +Um mit linearen Abbildungen rechnen zu können, ist eine Darstellung mit Hilfe von Matrizen nötig. Sei also $\mathcal{B}=\{b_1,\dots,b_n\}$ eine Basis von $V$ und $\mathcal{C} = \{ c_1,\dots,c_m\}$ eine Basis von $U$. @@ -984,12 +1165,12 @@ Das Bild des Basisvektors $b_i$ kann als Linearkombination der Vektoren $c_1,\dots,c_m$ dargestellt werden. Wir verwenden die Bezeichnung \[ -f(b_i) +f(b_i) = a_{1i} c_1 + \dots + a_{mi} c_m. \] Die lineare Abbildung $f$ bildet den Vektor $x$ mit Koordinaten -$x_1,\dots,x_n$ ab auf +$x_1,\dots,x_n$ ab auf \begin{align*} f(x) &= @@ -1012,7 +1193,7 @@ x_n(a_{1n} c_1 + \dots + a_{mn} c_m) + ( a_{m1} x_1 + \dots + a_{mn} x_n ) c_m \end{align*} -Die Koordinaten von $f(x)$ in der Basis $\mathcal{C}$ in $U$ sind +Die Koordinaten von $f(x)$ in der Basis $\mathcal{C}$ in $U$ sind also gegeben durch das Matrizenprodukt $Ax$, wenn $x$ der Spaltenvektor aus den Koordinaten in der Basis $\mathcal{B}$ in $V$ ist. @@ -1050,7 +1231,7 @@ b_{m1}x_1&+& \dots &+&b_{mn}x_n&=&b_{m1}'x_1'&+& \dots &+&b_{mn}'x_n' \end{linsys} \] Dieses Gleichungssystem kann man mit Hilfe eines Gauss-Tableaus lösen. -Wir schreiben die zugehörigen Variablen +Wir schreiben die zugehörigen Variablen \[ \renewcommand{\arraystretch}{1.1} \begin{tabular}{|>{$}c<{$} >{$}c<{$} >{$}c<{$}|>{$}c<{$}>{$}c<{$}>{$}c<{$}|} @@ -1096,7 +1277,7 @@ Für zwei Vektoren $u$ und $w$ in $U$ gibt es daher Vektoren $a=g(u)$ und $b=g(w)$ in $V$ derart, dass $f(a)=u$ und $f(b)=w$. Weil $f$ linear ist, folgt daraus $f(a+b)=u+w$ und $f(\lambda a)=\lambda a$ für jedes $\lambda\in\Bbbk$. -Damit kann man jetzt +Damit kann man jetzt \begin{align*} g(u+w)&=g(f(a)+f(b)) = g(f(a+b)) = a+b = g(u)+g(w) \\ @@ -1134,7 +1315,7 @@ Der Kern oder Nullraum der Matrix $A$ ist die Menge \] \end{definition} -Der Kern ist ein Unterraum, denn für zwei Vektoren $u,w\in \ker f$ +Der Kern ist ein Unterraum, denn für zwei Vektoren $u,w\in \ker f$ \[ \begin{aligned} f(u+v)&=f(u) + f(v) = 0+0 = 0 &&\Rightarrow& u+v&\in\ker f\\ @@ -1150,7 +1331,7 @@ Wir definieren daher das Bild einer linearen Abbildung oder Matrix. \begin{definition} Ist $f\colon V\to U$ eine lineare Abbildung dann ist das Bild von $f$ -der Unterraum +der Unterraum \[ \operatorname{im}f = \{ f(v)\;|\;v\in V\} \subset U \] @@ -1194,7 +1375,7 @@ $\operatorname{def}A=\dim\ker A$. \end{definition} Da der Kern mit Hilfe des Gauss-Algorithmus bestimmt werden kann, -können Rang und Defekt aus dem Schlusstableau +können Rang und Defekt aus dem Schlusstableau eines homogenen Gleichungssystems mit $A$ als Koeffizientenmatrix abgelesen werden. @@ -1210,8 +1391,3 @@ n-\operatorname{def}A. \subsubsection{Quotient} TODO: $\operatorname{im} A \simeq \Bbbk^m/\ker A$ - - - - - diff --git a/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex index d951221..408bfeb 100644 --- a/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex +++ b/buch/chapters/10-vektorenmatrizen/skalarprodukt.tex @@ -197,7 +197,7 @@ mit Gleichheit genau dann, wenn $x=ty$ ist für ein $t\ge 0$. &= (\|x\|_2 + \|y\|_2)^2 \\ -\|x\|_2 + \|y\|_2 +\|x + y\|_2 &\le \|x\|_2 + \|y\|_2, \end{align*} Gleichheit tritt genau dann ein, wenn diff --git a/buch/chapters/50-permutationen/determinante.tex b/buch/chapters/50-permutationen/determinante.tex index c440caf..805235d 100644 --- a/buch/chapters/50-permutationen/determinante.tex +++ b/buch/chapters/50-permutationen/determinante.tex @@ -7,3 +7,105 @@ \section{Determinante \label{buch:section:determinante}} \rhead{Determinante} +Das Signum einer Permutationsmatrizen lässt sich +gemäss~\eqref{buch:permutationen:determinante} +mit der Determinanten berechnen. +Umgekehrt sollte es auch möglich sein, eine Formel +für die Determinante zu finden. +Die Basis dafür ist der +Entwicklungssatz +\begin{equation} +\det(A) += +\sum_{i=1}^n (-1)^{i+j} a_{ij} \cdot \det(A_{ij}) +\label{buch:permutationen:entwicklungssatz} +\end{equation} +von Laplace für die Determinante. +In den Produkten $a_{ij}\cdot\det(A_{ij})$ enthält +die Untermatrix $A_{ij}$ weder Elemente der Zeile $i$ noch der +Zeile $j$. +Die Summanden auf der rechten Seite von +\eqref{buch:permutationen:entwicklungssatz} +sind daher Produkte der Form +\[ +a_{1i_1} +a_{2i_2} +a_{3i_3} +\dots +a_{ni_n}, +\] +in denen nur Faktoren aus verschiedenen Spalten der Matrix $A$ +vorkommen. +Das ist gleichbedeutend damit, dass unter den Spaltenindizes +$i_1,i_2,i_3,\dots,i_n$ keine zwei gleich sind, dass also +\[ +\sigma += +\begin{pmatrix} +1&2&3&\dots&n\\ +i_1&i_2&i_3&\dots&i_n +\end{pmatrix} +\] +eine Permutation ist. + +Die Determinante muss sich daher als Summe über alle Permutationen +in der Form +\begin{equation} +\det(A) += +\sum_{\sigma\in S_n} +c(\sigma) +a_{1\sigma(1)} +a_{2\sigma(2)} +\dots +a_{n\sigma(n)} +\label{buch:permutationen:cformel} +\end{equation} +schreiben lassen, wobei die Koeffizienten $c(\sigma)$ noch zu bestimmen +sind. +Setzt man in +\eqref{buch:permutationen:cformel} +eine Permutationsmatrix $P_\tau$ ein, dann verschwinden alle +Terme auf der rechten Seite ausser dem zur Permutation $\tau$, +also +\[ +\det(P_\tau) += +\sum_{\sigma \in S_n} +c(\sigma) +(P_\tau)_{1\sigma(1)} +(P_\tau)_{2\sigma(2)} +\dots +(P_\tau)_{n\sigma(n)} += +c(\tau) +1\cdot 1\cdot\dots\cdot 1 += +c(\tau). +\] +Der Koeffizientn $c(\tau)$ ist also genau das Vorzeichen +der Permutation $\tau$. +Damit erhalten wir den folgenden Satz: + +\begin{satz} +Die Determinante einer $n\times n$-Matrix $A$ kann berechnet werden als +\[ +\det(A) += +\sum_{\sigma\in S_n} +\operatorname{sgn}(\sigma) +a_{1\sigma(1)} +a_{2\sigma(2)} +\dots +a_{n\sigma(n)} += +\sum_{\tau\in S_n} +\operatorname{sgn}(\tau) +a_{\tau(1)1} +a_{\tau(2)2} +\dots +a_{\tau(n)n}. +\] +Insbesondere folgt auch $\det(A)=\det(A^t)$. +\end{satz} + diff --git a/buch/chapters/50-permutationen/matrizen.tex b/buch/chapters/50-permutationen/matrizen.tex index 7e55364..f7e9e31 100644 --- a/buch/chapters/50-permutationen/matrizen.tex +++ b/buch/chapters/50-permutationen/matrizen.tex @@ -181,7 +181,7 @@ Die Determinante einer solchen Permutationsmatrix ist Nach der Produktregel für die Determinante folgt für eine Darstellung der Permutation $\sigma=\tau_1\dots\tau_l$ als Produkt von Transpositionen, dass -\[ +\begin{equation} \det P_{\sigma} = \det P_{\tau_1} \dots \det P_{\tau_l} @@ -189,7 +189,8 @@ dass (-1)^l = \operatorname{sgn}(\sigma). -\] +\label{buch:permutationen:determinante} +\end{equation} Das Vorzeichen einer Permutation ist also identisch mit der Determinante der zugehörigen Permutationsmatrix. diff --git a/buch/chapters/60-gruppen/symmetrien.tex b/buch/chapters/60-gruppen/symmetrien.tex index 7364c85..aee3b41 100644 --- a/buch/chapters/60-gruppen/symmetrien.tex +++ b/buch/chapters/60-gruppen/symmetrien.tex @@ -714,8 +714,8 @@ Kurve so zu definieren, dass dabei Längen und Winkel erhalten bleiben. Dieser Ansatz ist die Basis der Theorie der Krümmung sogenannter Riemannscher Mannigfaltigkeiten. -\subsection{Der Satz von Noether -\label{buch:subsection:noether}} +%\subsection{Der Satz von Noether +%\label{buch:subsection:noether}} diff --git a/buch/chapters/70-graphen/wavelets.tex b/buch/chapters/70-graphen/wavelets.tex index ef1520e..8baa88c 100644 --- a/buch/chapters/70-graphen/wavelets.tex +++ b/buch/chapters/70-graphen/wavelets.tex @@ -10,7 +10,7 @@ In Abschnitt~\ref{buch:subsection:standardbasis-und-eigenbasis} wurde gezeigt dass die Standardbasis den Zusammenhang zwischen den einzelnen Teilen des Graphen völlig ignoriert, während die Eigenbasis Wellen beschreibt, die mit vergleichbarer Amplitude sich über den ganzen -Graphen entsprechen. +Graphen erstrecken. Die Eigenbasis unterdrückt also die ``Individualität'' der einzelnen Knoten fast vollständig. diff --git a/buch/chapters/90-crypto/Makefile.inc b/buch/chapters/90-crypto/Makefile.inc index 9543ce1..508add5 100644 --- a/buch/chapters/90-crypto/Makefile.inc +++ b/buch/chapters/90-crypto/Makefile.inc @@ -8,5 +8,4 @@ CHAPTERFILES = $(CHAPTERFILES) \ chapters/90-crypto/arith.tex \ chapters/90-crypto/ff.tex \ chapters/90-crypto/aes.tex \ - chapters/90-crypto/rs.tex \ chapters/90-crypto/chapter.tex diff --git a/buch/chapters/90-crypto/arith.tex b/buch/chapters/90-crypto/arith.tex index dcc31b8..b05110f 100644 --- a/buch/chapters/90-crypto/arith.tex +++ b/buch/chapters/90-crypto/arith.tex @@ -91,6 +91,7 @@ Die Berechnung der Quadratwurzel lässt sich in Hardware effizient implementieren. \begin{algorithmus} +\label{buch:crypto:teile-und-hersche} Der folgende Algorithmus berechnet $a^k$ in $O(\log_2(k))$ Multiplikationen \begin{enumerate} diff --git a/buch/chapters/90-crypto/ff.tex b/buch/chapters/90-crypto/ff.tex index 535b359..a1cb747 100644 --- a/buch/chapters/90-crypto/ff.tex +++ b/buch/chapters/90-crypto/ff.tex @@ -7,6 +7,15 @@ \section{Kryptographie und endliche Körper \label{buch:section:kryptographie-und-endliche-koerper}} \rhead{Kryptographie und endliche Körper} +In diesem Abschnitt soll illustriert werden, wie die Arithmetik in +endlichen Körpern Algorithmen zu konstruieren erlaubt, mit denen sich +zum Beispiel sehr effizient kryptographische Schlüssel aushandeln +lassen. +Der klassische Diffie-Hellmann-Algorithmus in einem Galois-Körper +$\mathbb{F}_p$ wird in Abschnitt~\ref{buch:subsection:elliptische-kurven} +verallgemeinert auf eine sogenannte elliptische Kurve. +Diese Version des Algorithmus ist sehr effizient was die Bitlänge der +Schlüssel betrifft. \subsection{Potenzen in $\mathbb{F}_p$ und diskreter Logarithmus \label{buch:subsection:potenzen-diskreter-logarithmus}} @@ -439,6 +448,7 @@ Das Polynom ist \[ p(t) = +XXX \] Nach Division durch $t(t-1)$ erhält man als den Quotienten \begin{align*} @@ -652,13 +662,44 @@ Diese Operationen machen $E_{a,b}(\mathbb{F}_{p^l})$ zu einer endlichen abelschen Gruppe. \end{satz} -\subsubsection{Beispiele} -% XXX -TODO: elliptische Kurven in IPsec: Oakley Gruppen - \subsubsection{Diffie-Hellman in einer elliptischen Kurve} -% XXX -TODO: $g^x$ in einer elliptischen Kurve +Der klassische Diffie-Hellmann-Schlüsselalgorithmus in einem Körper +$\mathbb{F}_p$ basiert darauf, dass man beliebige Potenzen eines +Elementes berechnen kann, und dass es schwierig ist, diese Operation +umzukehren. +Die Addition in $\mathbb{F}_p$ wird für diesen Algorithmus überhaupt +nicht benötigt. + +In einer elliptischen Kurve gibt es ebenfalls eine Multiplikation, +aus der sich mit dem +Algorithmus~\ref{buch:crypto:teile-und-hersche} eine effizienter +Potenzieralgorithmus konstruieren lässt. + +Die im Internet Key Exchange Protokol +in RFC 2409 +\cite{buch:rfc2409} +definierte Oakley-Gruppe 4 +zum Beispiel verwendet einen Galois-Körper $\mathbb{F}_{2^{185}}$ +mit dem Minimalpolynom $m(x)=x^{185}+x^{69}+1\in \mathbb{F}_2[x]$ +und den Koeffizienten +\begin{align*} +a&=0\\ +b&=x^{12}+x^{11} + x^{10} + x^9 + x^7 + x^6 + x^5 + x^3 +1, +\end{align*} +die die elliptische Kurve definieren. + +Als Elemente $g$ für den Diffie-Hellmann-Algorithmus wird ein Punkt +der elliptischen Kurve verwendet, dessen $X$-Koordinaten durch das +Polynom $g_x = x^4+x^3$ gegeben ist. +Der Standard spezifiziert die $Y$-Koordinate nicht, diese kann aus +den gegebenen Daten abgeleitet werden. +Die entstehende Gruppe hat etwa $4.9040\cdot10^{55}$ Elemente, die +für einen brute-force-Angriff durchprobiert werden müssten. + + + + + diff --git a/buch/chapters/90-crypto/rs.tex b/buch/chapters/90-crypto/rs.tex deleted file mode 100644 index ec8ec8c..0000000 --- a/buch/chapters/90-crypto/rs.tex +++ /dev/null @@ -1,41 +0,0 @@ -% -% rs.tex -- Reed-Solomon-Code -% -% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil -% -\section{Fehlerkorrigierende Codes nach Reed-Solomon -\label{buch:section:reed-solomon}} -\rhead{Fehlerkorrigierende Codes} -Jede Art von Datenübertragung muss sich mit dem Problem der Fehler befassen, -die auf dem Übertragungskanal entstehen können. -Die einfachste Lösung dieses Problem versucht, Fehler zu erkennen und -dann eine erneute Übermittelung zu veranlassen. -Dies ist zum Beispiel bei der Datenübertragung von einer Raumsonde -wie Voyager~1 nicht möglich, die Signallaufzeit von der Sonde und wieder -zurück ist über 40 Stunden. -Es ist auch nicht sinnvoll beim Lesen eines optischen Mediums wie einer -CD oder DVD, wenn ein Fehler durch eine Beschädigung der Oberfläche -des Mediums verursacht wird. -Erneutes Lesen würde das Resultat auch nicht ändern. -Es wird also eine Möglichkeit gesucht, die Daten so zu codieren, dass -ein Fehler nicht nur erkannt sondern auch korrigiert werden kann. - -In diesem Abschnitt werden die algebraisch besonders interessanten -Reed-Solmon-Codes beschrieben. -Ihren ersten Einsatz hatten Sie bei den Voyager-Raumsonden, die 1977 -gestartet wurden. -Sie befinden sich im Moment in einer Entfernung von -Zum ersten mal kommerziell verwendet wurden sie für die optischen -Medien CD und DVD. - -% https://www.youtube.com/watch?v=uOLW43OIZJ0 -% https://www.youtube.com/watch?v=4BfCmZgOKP8 - -\subsection{Was ist ein Code? -\label{buch:subsection:was-ist-ein-code}} - -\subsection{Reed-Solomon-Code -\label{buch:subsection:reed-solomon-code}} - -\subsection{Decodierung -\label{buch:subsection:decodierung}} diff --git a/buch/chapters/95-homologie/Makefile.inc b/buch/chapters/95-homologie/Makefile.inc index 7e6f1e7..41b1569 100644 --- a/buch/chapters/95-homologie/Makefile.inc +++ b/buch/chapters/95-homologie/Makefile.inc @@ -8,7 +8,6 @@ CHAPTERFILES = $(CHAPTERFILES) \ chapters/95-homologie/simplex.tex \ chapters/95-homologie/komplex.tex \ chapters/95-homologie/homologie.tex \ - chapters/95-homologie/mayervietoris.tex \ chapters/95-homologie/fixpunkte.tex \ chapters/95-homologie/chapter.tex diff --git a/buch/chapters/95-homologie/chapter.tex b/buch/chapters/95-homologie/chapter.tex index eaa56c4..994c400 100644 --- a/buch/chapters/95-homologie/chapter.tex +++ b/buch/chapters/95-homologie/chapter.tex @@ -38,7 +38,7 @@ Damit wird es möglich, das Dreieck vom Rand des Dreiecks zu unterschieden. \input{chapters/95-homologie/simplex.tex} \input{chapters/95-homologie/komplex.tex} \input{chapters/95-homologie/homologie.tex} -\input{chapters/95-homologie/mayervietoris.tex} +%\input{chapters/95-homologie/mayervietoris.tex} \input{chapters/95-homologie/fixpunkte.tex} diff --git a/buch/chapters/95-homologie/fixpunkte.tex b/buch/chapters/95-homologie/fixpunkte.tex index 1ed51ef..a03d4b5 100644 --- a/buch/chapters/95-homologie/fixpunkte.tex +++ b/buch/chapters/95-homologie/fixpunkte.tex @@ -11,15 +11,78 @@ selbst gehört die zugehörige lineare Abbildung $f_*\colon H_*(X)\to H_*(X)$ der Homologiegruppen. Diese linearen Abbildungen sind im Allgemeinen viel einfacher zu analysieren. -Zum Beispiel soll in Abschnitt~\ref{buch:subsection:lefshetz} -die Lefshetz-Spurformel abgeleitet werden, die eine Aussagen darüber -ermöglicht, ob eine Abbildung einen Fixpunkt haben kann. -In Abschnitt~\ref{buch:subsection:brower} wird gezeigt wie man damit -den Browerschen Fixpunktsatz beweisen kann, der besagt, dass jede -Abbildung eines Einheitsballs in sich selbst immer einen Fixpunkt hat. - -\subsection{Lefshetz-Spurformel -\label{buch:subsection:lefshetz}} - -\subsection{Brower-Fixpunktsatz -\label{buch:subsection:brower}} +%Zum Beispiel soll in Abschnitt~\ref{buch:subsection:lefshetz} +%die Lefshetz-Spurformel abgeleitet werden, die eine Aussagen darüber +%ermöglicht, ob eine Abbildung einen Fixpunkt haben kann. +%In Abschnitt~\ref{buch:subsection:brower} wird gezeigt wie man damit +%den Browerschen Fixpunktsatz beweisen kann, der besagt, dass jede +%Abbildung eines Einheitsballs in sich selbst immer einen Fixpunkt hat. + +%\subsection{Brower-Fixpunktsatz +%\label{buch:subsection:brower}} +% +%\begin{satz}[Brower] +%\end{satz} + +%\subsection{Lefshetz-Fixpunktsatz +%\label{buch:subsection:lefshetz}} +Eine Selbstabbildung $f_*\colon C_*\to C_*$ von Kettenkomplexen führt auf +eine Selbstabbiludng der Homologiegruppen $H(f)\colon H(C)\to H(C)$. +Da sowohl $H_k$ wie auch $C_k$ endlichdimensionale Vektorräume sind, +ist die Spur von $H_k(f)$ wohldefiniert. + +\begin{definition} +Die {\em Lefshetz-Zahl} einer Abbildung $f$ von Kettenkomplexen ist +\[ +\lambda(f) += +\sum_{k=0}^\infty +(-1)^k \operatorname{Spur}f_k += +\sum_{k=0}^\infty +(-1)^k \operatorname{Spur}(H_k(f)). +\] +\end{definition} + +Die zweite Darstellung der Lefshetz-Zahl auf der rechten Seite ist +meistens viel leichter zu berechnen als die erste. +Die einzelnen Vektorräume eines Kettenkomplexes können haben typischerweise +eine hohe Dimension, so hoch wie die Anzahl der Simplizes der Triangulation. +Die Homologiegruppen dagegen haben typischerweise sehr viel kleinere +Dimension, die Matrizen $H_k(F)$ sind also relativ klein. +Es ist aber nicht klar, dass beide Berechnungsmethoden für die +Lefshetz-Zahl auf das gleiche Resultat führen müssen. + +\begin{proof}[Beweis] +\end{proof} + +Die Lefshetz-Zahl ist eine Invariante einer topologischen Abbildung, +die Aussagen über Fixpunkte zu machen erlaubt. + +\begin{satz} +Ist $f\colon X\to X$ eine Selbstabbildung eines kompakten Polyeders und +ist $\lambda(f) \ne 0$, dann hat $f$ einen Fixpunkt. +\end{satz} + +Im Folgenden soll nur ein heuristisches Argument gegeben werden, warum +ein solcher Satz wahr sein könnte. + +Wenn eine Abbildung keinen Fixpunkt hat, dann ist $f(x) \ne x$ für alle +Punkte von $X$. +Da $X$ kompakt ist, gibt es einen minimalen Abstand $d$ zwischen $f(x)$ und $x$. +Wenn man also für $X$ eine Triangulation wählt, die wesentlich feiner ist +als dieser minimale Abstand, dann wird kein Simplex der Triangulation auf +Punkte im selben Simplex oder in einem Nachbarsimplex abgebildet wird. +Indem man nötigenfalls die Triangulation nochmals verfeinert, kann man auch +genügend Platz schaffen, dass man die Abbildung $f$ etwas modifizieren kann, +so dass auch die deformierte Abbildung immer noch diese Eigenschaft hat. + +Die zugehörige Abbildung des Kettenkomplexes der Triangulation hat damit +die Eigenschaft, dass kein Basisvektor auf sich selbst abgebildet wird. +Die Matrix der Abbildung hat daher keine Nullen auf der Diagonalen, und +damit ist auch die Spur dieser Abbildung Null: $\operatorname{Spur}(H_k(f))=0$ +für alle $k$. +Erst recht ist die Lefshetz-Zahl $\lambda(f)=0$. +Wenn also die Lefshetz-Zahl verschieden ist von Null, dann muss $f$ +notwendigerweise einen Fixpunkt haben. + diff --git a/buch/chapters/95-homologie/homologie.tex b/buch/chapters/95-homologie/homologie.tex index 2b80a17..905ecc3 100644 --- a/buch/chapters/95-homologie/homologie.tex +++ b/buch/chapters/95-homologie/homologie.tex @@ -6,13 +6,349 @@ \section{Homologie \label{buch:section:homologie}} \rhead{Homologie} +Die Idee der Trangulation ermöglicht, komplizierte geometrische +Objekte mit einem einfachen ``Gerüst'' auszustatten und so zu +analysieren. +Projiziert man ein mit einer Kugel konzentrisches Tetraeder auf die +Kugel, entsteht eine Triangulation der Kugeloberfläche. +Statt eine Kugel zu studieren, kann man also auch ein Tetraeder untersuchen. + +Das Gerüst kann natürlich nicht mehr alle Eigenschaften des ursprünglichen +Objektes wiedergeben. +Im Beispiel der Kugel geht die Information darüber, dass es sich um eine +glatte Mannigfaltigkeit handelt, verloren. +Was aber bleibt, sind Eigenschaften des Zusammenhangs. +Wenn sich zwei Punkte mit Wegen verbinden lassen, dann gibt es auch eine +Triangulation mit eindimensionalen Simplices, die diese Punkte als Ecken +enthalten, die sich in der Triangulation mit einer Folge von Kanten +verbinden lassen. +Algebraisch bedeutet dies, dass die beiden Punkte der Rand eines +Weges sind. +Fragen der Verbindbarkeit von Punkten mit Wegen lassen sich also +dadurch studieren, dass man das geometrische Objekt auf einen Graphen +reduziert. + +In diesem Abschnitt soll gezeigt werden, wie diese Idee auf höhere +Dimensionen ausgedehnt werden. +Es soll möglich werden, kompliziertere Fragen des Zusammenhangs, zum +Beispiel das Vorhandensein von Löchern mit algebraischen Mitteln +zu analysieren. \subsection{Homologie eines Kettenkomplexes \label{buch:subsection:homologie-eines-kettenkomplexes}} +Wegzusammenhang lässt sich untersuchen, indem man in der Triangulation +nach Linearkombinationen von Kanten sucht, die als Rand die beiden Punkte +haben. +Zwei Punkte sind also nicht verbindbar und liegen damit in verschiedenen +Komponenten, wenn die beiden Punkte nicht Rand irgend einer +Linearkombination von Kanten sind. +Komponenten können also identifiziert werden, indem man unter allen +Linearkombinationen von Punkten, also $C_0$ all diejenigen ignoriert, +die Rand einer Linearkombinationv on Kanten sind, also $\partial_1C_1$. +Der Quotientenraum $H_0=C_0/\partial_1C_1$ enthält also für jede Komponente +eine Dimension. + +Eine Dimension höher könnten wir danach fragen, ob sich ein geschlossener +Weg zusammenziehen lässt. +In der Triangulation zeichnet sich ein geschlossener Weg dadurch aus, +dass jedes Ende einer Kante auch Anfang einer Folgekante ist, dass also +der Rand der Linearkombination von Kanten 0 ist. +Algebraisch bedeutet dies, dass wir uns für diejenigen Linearkombinationen +$z\in C_1$ interessieren, die keinen Rand haben, für die also $\partial_1z=0$ +gilt. + +\begin{definition} +Die Elemente von +\[ +Z_k += +Z_k^C += +\{z\in C_k\;|\; \partial_k z = 0\} += +\ker \partial_k +\] +heissen die {\em ($k$-dimensionalen) Zyklen} von $C_*$. +\end{definition} + +In einem Dreieck ist der Rand ein geschlossener Weg, der sich zusammenziehen +lässt, indem man ihn durch die Dreiecksfläche deformiert. +Entfernt man aber die Dreiecksfläche, ist diese Deformation nicht mehr +möglich. +Einen zusammenziehbaren Weg kann man sich also als den Rand eines Dreiecks +einer vorstellen. +``Löcher'' sind durch geschlossene Wege erkennbar, die nicht Rand eines +Dreiecks sein können. +Wir müssen also ``Ränder'' ignorieren. + +\begin{definition} +Die Elemente von +\[ +B_k += +B_k^C += +\{\partial_{k+1}z\;|\; C_{k+1}\} += +\operatorname{im} \partial_{k+1} +\] +heissen die {\em ($k$-dimensionalen) Ränder} von $C_*$. +\end{definition} + +Algebraisch ausgedrückt interessieren uns also nur Zyklen, die selbst +keine Ränder sind. +Der Quotientenraum $Z_1/B_1$ ignoriert unter den Zyklen diejenigen, die +Ränder sind, drückt also algebraisch die Idee des eindimensionalen +Zusammenhangs aus. +Wir definieren daher + +\begin{definition} +Die $k$-dimensionale Homologiegruppe des Kettenkomplexes $C_*$ ist +\[ +H_k(C) = Z_k/B_k = \ker \partial_k / \operatorname{im} \partial_{k+1}. +\] +Wenn nur von einem Kettenkomplex die Rede ist, kann auch $H_k(C)=H_k$ +abgekürzt werden. +\end{definition} + +Die folgenden zwei ausführlichen Beispiele sollen zeigen, wie die +Homologiegruppe $H_2$ die Anwesenheit eines Hohlraumes detektieren kann, +der entsteht, wenn man aus einem Tetraeder das innere entfernt. + +\begin{beispiel} +\begin{figure} +\centering +XXX Bild eines Tetraeders mit Bezeichnung der Ecken und Kanten +\caption{Triangulation eines Tetraeders, die Orientierung von Kanten +und Seitenflächen ist immer so gewählt, dass die Nummern der Ecken +aufsteigend sind. +\label{buch:homologie:tetraeder:fig}} +\end{figure} +Ein Tetraeder ist ein zweidmensionales Simplex, wir untersuchen seinen +Kettenkomplex und bestimmen die zugehörigen Homologiegruppen. +Zunächst müssen wir die einzelnen Mengen $C_k$ beschreiben und verwenden +dazu die Bezeichnungen gemäss Abbildung~\ref{buch:homologie:tetraeder:fig}. +$C_0$ ist der vierdimensionale Raum aufgespannt von den vier Ecken +$0$, $1$, $2$ und $3$ des Tetraeders. +$C_1$ ist der sechsdimensionale Vektorraum der Kanten +\[ +k_0 = [0,1],\quad +k_1 = [0,2],\quad +k_2 = [0,3],\quad +k_3 = [1,2],\quad +k_4 = [1,3],\quad +k_5 = [2,3] +\] +Der Randoperator $\partial_1$ hat die Matrix +\[ +\partial_1 += +\begin{pmatrix*}[r] +-1&-1&-1& 0& 0& 0\\ + 1& 0& 0&-1&-1& 0\\ + 0& 1& 0& 1& 0&-1\\ + 0& 0& 1& 0& 1& 1 +\end{pmatrix*}. +\] + +Wir erwarten natürlich, dass sich zwei beliebige Ecken verbinden lassen, +dass es also nur eine Komponente gibt und dass damit $H_1=\Bbbk$ ist. +Dazu beachten wir, dass das Bild von $\partial_1$ genau aus den Vektoren +besteht, deren Komponentensumme $0$ ist. +Das Bild $B_0$ von $\partial_1$ ist daher die Lösungsmenge der einen +Gleichung +\( +x_0+x_1+x_2+x_3=0. +\) +Der Quotientenraum $H_0=Z_0/B_0 = C_0/\operatorname{im}\partial_1$ +ist daher wie erwartet eindimensional. + +Wir bestimmen jetzt die Homologiegruppe $H_1$. +Da sich im Tetraeder jeder geschlossene Weg zusammenziehen lässt, +erwarten wir $H_1=0$. + +Die Menge der Zyklen $Z_1$ wird bestimmt, indem man die Lösungsmenge +des Gleichungssystems $\partial_1z=0$ bestimmt. +Der Gauss-Algorithmus für die Matrix $\partial_1$ liefert das +Schlusstableau +\[ +\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|} +\hline +k_0&k_1&k_2&k_3&k_4&k_5\\ +\hline + 1& 0& 0& -1& -1& 0\\ + 0& 1& 0& 1& 0& -1\\ + 0& 0& 1& 0& 1& 1\\ + 0& 0& 0& 0& 0& 0\\ +\hline +\end{tabular} +\] +Daraus lassen sich drei linear unabhängig eindimensionale Zyklen ablesen, +die zu den Lösungsvektoren +\[ +z_1 += +\begin{pmatrix*}[r] +1\\ +-1\\ +0\\ +1\\ +0\\ +0 +\end{pmatrix*}, +\qquad +z_2 += +\begin{pmatrix*}[r] +1\\ +0\\ +-1\\ +0\\ +1\\ +0 +\end{pmatrix*}, +\qquad +z_3 += +\begin{pmatrix*}[r] +0\\ +1\\ +-1\\ +0\\ +0\\ +1 +\end{pmatrix*} +\] +gehören. + +$C_2$ hat die vier Seitenflächen +\[ +f_0=[0,1,2],\quad +f_1=[0,1,3],\quad +f_2=[0,2,3],\quad +f_3=[1,2,3] +\] +als Basis. +Der zweidimensionale Randoperator ist die $6\times 4$-Matrix +\[ +\partial_2 += +\begin{pmatrix*}[r] + 1& 1& 0& 0\\ +-1& 0& 1& 0\\ + 0&-1&-1& 0\\ + 1& 0& 0& 1\\ + 0& 1& 0&-1\\ + 0& 0& 1& 1 +\end{pmatrix*}. +\] +Man kann leicht nachrechnen, dass $\partial_1\partial_2=0$ ist, wie es +für einen Kettenkomplex sein muss. + +Um nachzurechnen, dass die Homologiegruppe $H_1=0$ ist, müssen wir jetzt +nachprüfen, ob jeder Zyklus in $Z_1$ auch Bild der Randabbildung $\partial_2$ +ist. +Die ersten drei Spalten von $\partial_2$ sind genau die drei Zyklen +$z_1$, $z_2$ und $z_3$. +Insbesondere lassen sich alle Zyklen als Ränder darstellen, die +Homologiegruppe $H_1=0$ verschwindet. + +Die Zyklen in $C_2$ sind die Lösungen von $\partial_2z=0$. +Der Gauss-Algorithmus für $\partial_2$ liefert das -Tableau +\[ +\begin{tabular}{|>{$}c<{$}>{$}c<{$}>{$}c<{$}>{$}c<{$}|} +\hline +f_0&f_1&f_2&f_3\\ +\hline +1&0&0& 1\\ +0&1&0&-1\\ +0&0&1& 1\\ +0&0&0& 0\\ +0&0&0& 0\\ +0&0&0& 0\\ +\hline +\end{tabular} +\] +Daraus liest man ab, dass es genau einen Zyklus nämlich +\[ +z += +\begin{pmatrix} +-1\\1\\-1\\1 +\end{pmatrix} +\] +$Z_2$ besteht also aus Vielfachen des Vektors $z$. + +Da es nur ein zweidimensionales Simplex gibt, ist $C_3$ eindimensional. +Die Randabbildung $\partial_3$ hat die Matrix +\[ +\partial_3 += +\begin{pmatrix} +1\\ +-1\\ +1\\ +-1 +\end{pmatrix}. +\] +Die Zyklen $Z_2$ und die Ränder $B_2$ bilden also dieselbe Menge, auch +die Homologie-Gruppe $H_2$ ist $0$. + +Da es keine vierdimensionalen Simplizes gibt, ist $B_3=0$. +Die Zyklen $Z_3$ bestehen aus den Lösungen von $\partial_3w=0$, da +aber $\partial_3$ injektiv ist, ist $Z_3=0$. +Daher ist auch $H_3=0$. +\end{beispiel} + +\begin{beispiel} +Für dieses Beispiel entfernen wir das Innere des Tetraeders, es entsteht +ein Hohlraum. +Am Kettenkomplex der Triangulation ändert sich nur, dass $C_3$ jetzt +nur noch den $0$-Vektor enthält. +Das Bild $B_2=\operatorname{im}\partial_3$ wird damit auch $0$-dimensional, +während es im vorigen Beispiel eindimensional war. +Die einzige Änderung ist also in der Homologiegruppe +$H_2 = Z_2/B_2 = Z_2 / \{0\} \simeq \Bbbk$. +Die Homologiegruppe $H_2$ hat jetzt Dimension $1$ und zeigt damit den +Hohlraum an. +\end{beispiel} \subsection{Induzierte Abbildung \label{buch:subsection:induzierte-abbildung}} +Früher haben wurde eine Abbildung $f_*$ zwischen Kettenkomplexen $C_*$ und +$D_*$ so definiert, +dass sie mit den Randoperatoren verträglich sein muss. +Diese Forderung bewirkt, dass sich auch eine lineare Abbildung +\[ +H_k(f) \colon H_k(C) \to H_k(D) +\] +zwischen den Homologiegruppen ergibt, wie wir nun zeigen wollen. + +Um eine Abbildung von $H_k(C)$ nach $H_k(D)$ zu definieren, müssen wir +zu einem Element von $H_k(C)$ ein Bildelement konstruieren. +Ein Element in $H_k(C)$ ist eine Menge von Zyklen in $Z^C_k$, die sich +nur um einen Rand in $B_k$ unterscheiden. +Wir wählen also einen Zyklus $z\in Z_k$ und bilden ihn auf $f_k(z)$ ab. +Wegen $\partial^D_kf(z)=f\partial^C_kz = f(0) =0 $ ist auch $f_k(z)$ +ein Zyklus. +Wir müssen jetzt aber noch zeigen, dass eine andere Wahl des Zyklus +das gleiche Element in $H_k(D)$ ergibt. +Dazu genügt es zu sehen, dass sich $f(z)$ höchstens um einen Rand +ändert, wenn man $z$ um einen Rand ändert. +Sei also $b\in B^C_k$ ein Rand, es gibt also ein $w\in C_{k+1}$ mit +$\partial^C_{k+1}w=b$. +Dann gilt aber auch +\[ +f_k(z+b) += +f_k(z) + f_k(b) += +f_k(z) + f_k(\partial^C_{k+1}w) += +f_k(z) + \partial^D_{k+1}(f_k(w)). +\] +Der letzte Term ist ein Rand in $D_k$, somit ändert sich $f_k(z)$ nur +um diesen Rand, wenn man $z$ um einen Rand ändert. +$f_k(z)$ und $f_k(z+b)$ führen auf die selbe Homologieklasse. -\subsection{Homologie eines simplizialen Komplexes -\label{buch:subsection:simplizialekomplexe}} diff --git a/buch/chapters/95-homologie/images/Makefile b/buch/chapters/95-homologie/images/Makefile index 82f1285..ac964ff 100644 --- a/buch/chapters/95-homologie/images/Makefile +++ b/buch/chapters/95-homologie/images/Makefile @@ -3,8 +3,11 @@ # # (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule # -all: dreieck.pdf +all: dreieck.pdf polyeder.pdf dreieck.pdf: dreieck.tex pdflatex dreieck.tex +polyeder.pdf: polyeder.tex + pdflatex polyeder.tex + diff --git a/buch/chapters/95-homologie/images/polyeder.pdf b/buch/chapters/95-homologie/images/polyeder.pdf Binary files differnew file mode 100644 index 0000000..3a8ba60 --- /dev/null +++ b/buch/chapters/95-homologie/images/polyeder.pdf diff --git a/buch/chapters/95-homologie/images/polyeder.tex b/buch/chapters/95-homologie/images/polyeder.tex new file mode 100644 index 0000000..9a900cc --- /dev/null +++ b/buch/chapters/95-homologie/images/polyeder.tex @@ -0,0 +1,109 @@ +% +% tikztemplate.tex -- template for standalon tikz images +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\documentclass[tikz]{standalone} +\usepackage{amsmath} +\usepackage{times} +\usepackage{txfonts} +\usepackage{pgfplots} +\usepackage{csvsimple} +\usetikzlibrary{arrows,intersections,math,calc} +\begin{document} +\def\skala{1} +\begin{tikzpicture}[>=latex,thick,scale=\skala] + +% add image content here +\begin{scope}[xshift=-3.5cm,scale=0.5] +\coordinate (A) at (0,0); +\coordinate (B) at (4,0); +\coordinate (C) at (5,-2); +\coordinate (D) at (8,-1); +\coordinate (E) at (7,1); +\coordinate (F) at (7,3); +\coordinate (G) at (1,3); +\coordinate (H) at (5,4); +\coordinate (I) at (9,5); +\coordinate (J) at (4,7); +\coordinate (K) at (-1,9); +\coordinate (L) at (7,11); +\coordinate (M) at (6,-0.5); + +\fill[color=gray,opacity=0.5] (A)--(B)--(H)--(G)--cycle; +\fill[color=gray,opacity=0.5] (G)--(I)--(K)--cycle; +\fill[color=gray,opacity=0.5] (G)--(L)--(K)--cycle; + +\draw (K)--(G)--(A)--(B)--(D); +\draw (C)--(E); +\draw (G)--(I)--(K); +\draw (G)--(L)--(K); +\draw (B)--(H); +\draw (B)--(F); + +\fill (A) circle[radius=0.1]; +\fill (B) circle[radius=0.1]; +\fill (C) circle[radius=0.1]; +\fill (D) circle[radius=0.1]; +\fill (E) circle[radius=0.1]; +\fill (F) circle[radius=0.1]; +\fill (G) circle[radius=0.1]; +\fill (H) circle[radius=0.1]; +\fill (I) circle[radius=0.1]; +%\fill (J) circle[radius=0.1]; +\fill (K) circle[radius=0.1]; +\fill (L) circle[radius=0.1]; +%\fill (M) circle[radius=0.1]; + +\draw[color=red] (H) circle[radius=0.5]; +\draw[color=red] (J) circle[radius=0.5]; +\draw[color=red] (M) circle[radius=0.5]; +\draw[color=red] ($0.25*(A)+0.25*(B)+0.25*(G)+0.25*(H)$) circle[radius=0.5]; + +\end{scope} + +\begin{scope}[xshift=3.5cm,scale=0.5] +\coordinate (A) at (0,0); +\coordinate (B) at (4,0); +\coordinate (C) at (5,-2); +\coordinate (D) at (8,-1); +\coordinate (E) at (7,1); +\coordinate (F) at (7,3); +\coordinate (G) at (1,3); +\coordinate (H) at (5,4); +\coordinate (I) at (9,5); +\coordinate (J) at (4,7); +\coordinate (K) at (-1,9); +\coordinate (L) at (7,11); +\coordinate (M) at (6,-0.5); + +\fill[color=gray!50] (A)--(B)--(H)--(I)--(J)--(L)--(K)--(G)--cycle; + +\draw (K)--(G)--(A)--(B)--(D); +\draw (C)--(E); +\draw (G)--(I)--(K); +\draw (G)--(L)--(K); +\draw (B)--(H); +\draw (B)--(F); +\draw (H)--(J); +\draw (A)--(H); + +\fill (A) circle[radius=0.1]; +\fill (B) circle[radius=0.1]; +\fill (C) circle[radius=0.1]; +\fill (D) circle[radius=0.1]; +\fill (E) circle[radius=0.1]; +\fill (F) circle[radius=0.1]; +\fill (G) circle[radius=0.1]; +\fill (H) circle[radius=0.1]; +\fill (I) circle[radius=0.1]; +\fill (J) circle[radius=0.1]; +\fill (K) circle[radius=0.1]; +\fill (L) circle[radius=0.1]; +\fill (M) circle[radius=0.1]; + +\end{scope} + +\end{tikzpicture} +\end{document} + diff --git a/buch/chapters/95-homologie/komplex.tex b/buch/chapters/95-homologie/komplex.tex index 6dd8efb..fa2d8e1 100644 --- a/buch/chapters/95-homologie/komplex.tex +++ b/buch/chapters/95-homologie/komplex.tex @@ -6,9 +6,105 @@ \section{Kettenkomplexe \label{buch:section:komplex}} \rhead{Kettenkomplexe} +Die algebraische Struktur, die in Abschnitt~\ref{buch:subsection:triangulation} +konstruiert wurde, kann noch etwas abstrakter konstruiert werden. +Es ergibt sich das Konzept eines Kettenkomplexes. +Die Triangulation gibt also Anlass zu einem Kettenkomplex. +So lässt sich zu einem geometrischen Objekt ein algebraisches +Vergleichsobjekt konstruieren. +Im Idealfall lassens ich anschliessend geometrische Eigenschaften mit +algebraischen Rechnungen zum Beispiel in Vektorräumen mit Matrizen +beantworten. -\subsection{Randoperator von Simplexen -\label{buch:subsection:randoperator-von-simplexen}} +\subsection{Definition +\label{buch:subsection:kettenkomplex-definition}} +Die Operation $\partial$, die für Simplizes konstruiert worden ist, +war linear und hat die Eigenschaft $\partial^2$ gehabt. +Diese Eigenschaften reichen bereits für Definition eines Kettenkomplexes. + +\begin{definition} +Eine Folge $C_0,C_1,C_2,\dots$ von Vektorräumen über dem Körper $\Bbbk$ +mit einer Folge von linearen Abbildungen +$\partial_k\colon C_k \to C_{k-1}$, dem {\em Randoperator}, +heisst ein Kettenkomplex, wenn $\partial_{k-1}\partial_k=0$ gilt +für alle $k>0$. +\end{definition} + +Die aus den Triangulationen konstruieren Vektorräme von +Abschnitt~\ref{buch:subsection:triangulation} bilden einen +Kettenkomplex. + +XXX nachrechnen: $\partial^2 = 0$ ? + +\subsection{Abbildungen +\label{buch:subsection:abbildungen}} +Wenn man verschiedene geometrische Objekte mit Hilfe von Triangulationen +vergleichen will, dann muss man auch das Konzept der Abbildungen zwischen +den geometrischen Objekten in die Kettenkomplexe transportieren. + +Eine Abbildung zwischen Kettenkomplexen muss einerseits eine lineare +Abbildung der Vektorräume $C_k$ sein, andererseits muss sich eine +solche Abbildung mit dem Randoperator vertragen. +Wir definieren daher + +\begin{definition} +Eine Abbildung $f_*$ zwischen zwei Kettenkomplexe $(C_*,\partial^C_*)$ und +$(D_*,\partial^D_*)$ heisst eine Abbildung von Kettenkomplexen, wenn +für jedes $k$ +\begin{equation} +\partial^D_k +\circ +f_{k} += +f_{k+1} +\circ +\partial^C_k +\label{buch:komplex:abbildung} +\end{equation} +gilt. +\end{definition} + +Die Beziehung~\eqref{buch:komplex:abbildung} kann übersichtlich als +kommutatives Diagramm dargestellt werden. +\begin{equation} +\begin{tikzcd} +0 + & C_0 \arrow[l, "\partial_0^C"] + \arrow[d, "f_0"] + & C_1 \arrow[l,"\partial_1^C"] + \arrow[d, "f_1"] + & C_2 \arrow[l,"\partial_2^C"] + \arrow[d, "f_2"] + & \dots \arrow[l] + \arrow[l, "\partial_{k-1}^C"] + & C_k + \arrow[l, "\partial_k^C"] + \arrow[d, "f_k"] + & C_{k+1}\arrow[l, "\partial_{k+1}^C"] + \arrow[d, "f_{k+1}"] + & \dots +\\ +0 + & D_0 \arrow[l, "\partial_0^D"] + & D_1 \arrow[l,"\partial_1^D"] + & D_2 \arrow[l,"\partial_2^D"] + & \dots \arrow[l] + \arrow[l, "\partial_{k-1}^D"] + & D_k + \arrow[l, "\partial_k^D"] + & D_{k+1}\arrow[l, "\partial_{k+1}^D"] + & \dots +\end{tikzcd} +\label{buch:komplex:abbcd} +\end{equation} +Die Relation~\eqref{buch:komplex:abbildung} drückt aus, dass man jeden +den Pfeilen im Diagram~\eqref{buch:komplex:abbcd} folgen kann und +dabei zwischen zwei Vektorräumen unabhängig vom Weg die gleiche Abbildung +resultiert. + +Die Verfeinerung einer Triangulation erzeugt eine solche Abbildung von +Komplexen. + + +% XXX simpliziale Approximation -\subsection{Kettenkomplexe und Morphismen -\label{buch:subsection:kettenkomplex}} diff --git a/buch/chapters/95-homologie/mayervietoris.tex b/buch/chapters/95-homologie/mayervietoris.tex deleted file mode 100644 index 57105f8..0000000 --- a/buch/chapters/95-homologie/mayervietoris.tex +++ /dev/null @@ -1,28 +0,0 @@ -% -% mayervietoris.tex -% -% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule -% -\section{Exaktheit und die Mayer-Vietoris-Folge -\label{buch:section:mayervietoris}} -\rhead{Exaktheit und die Mayer-Vietoris-Folge} -Die Berechnung der Homologie-Gruppen ist zwar im Wesentlichen ein -kombinatorisches Problem, trotzdem ist eher aufwändig. -Oft weiss man, wie sich toplogische Räume aus einfacheren Räumen -zusammensetzen lassen. -Eine Mannigkfaltigkeit zum Beispiel wird durch die Karten -definiert, also zusammenziehbare Teilmengen von $\mathbb{R}^n$, -die die Mannigkfaltigkeit überdecken. -Das Ziel dieses Abschnittes ist, Regeln zusammenzustellen, mit denen -man die Homologie eines solchen zusammengesetzten Raumes aus der -Homologie der einzelnen Teile und aus den ``Verklebungsabbildungen'', -die die Teile verbinden, zu berechnen. - -\subsection{Kurze exakte Folgen von Kettenkomplexen -\label{buch:subsection:exaktefolgen}} - -\subsection{Schlangenlemma und lange exakte Folgen -\label{buch:subsection:schlangenlemma}} - -\subsection{Mayer-Vietoris-Folge -\label{buch:subsection:mayervietoris}} diff --git a/buch/chapters/95-homologie/simplex.tex b/buch/chapters/95-homologie/simplex.tex index 5ca2ca8..0cf4aa7 100644 --- a/buch/chapters/95-homologie/simplex.tex +++ b/buch/chapters/95-homologie/simplex.tex @@ -1,17 +1,17 @@ % -% simplex.tex -- simplizes und simpliziale Komplexe +% simplex.tex -- simplizes und Polyeder % % (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule % -\section{Simplexe und simpliziale Komplexe +\section{Simplices \label{buch:section:simplexe}} -\rhead{Simplexe und simpliziale Komplexe} +\rhead{Simplices} Die Idee, das Dreieck und seinen Rand zu unterscheiden verlangt, dass wir zunächst Dreiecke und deren höherdimensionale Verallgemeinerungen, die sogenannten Simplizes entwickeln müssen. -\subsection{Simplexe und Rand -\label{buch:subsection:simplexe}} +\subsection{Simplices und Rand +\label{buch:subsection:simplices}} \subsubsection{Rand eines Dreiecks} Die Inzidenz-Matrix eines Graphen hat einer Kante die beiden Endpunkte @@ -231,8 +231,127 @@ Vorzeichen zu, die Matrix ist \] \end{definition} +\subsection{Polyeder} +\begin{figure} +\centering +\includegraphics{chapters/95-homologie/images/polyeder.pdf} +\caption{Aufbau eines zweidimensionalen Polyeders aus +verschiedenen Simplizes. +Die Schnittmenge zweier Simplizes muss ein Untersimplex beider Simplizes +sein. +Die roten Kreise im linken Bild weisen auf verschiedene Situationen +hin, wo das diese Bedingung nicht erfüllt ist. +In rechten Bild sind zusätzliche Simlizes hinzugefügt worden, um +die Bedingungen eines Polyeders zu erfüllen. +\label{buch:homologie:figure:polyeder}} +\end{figure} +Aus einzelnen Simplizes können jetzt kompliziertere geometrische +Objekte gebaut werden. +Ein Graph ist ein Beispiel für ein geometrisches Objekt, welches +als Vereinigung von 1-Simplizes entsteht. +Die Vereinigung ist aber nicht beliebig, vielmehr ist die Schnittmenge +zweier beliebiger 1-Simplizes immer entweder leer, eine Menge +mit nur einem Vertex oder ein ganzes 1-Simplex. + +Dies reicht aber nicht, wie Abbildung~\ref{buch:homologie:polyeder} +zeigt. +In einem Graphen dürfen sich Kanten nicht in einem inneren Punkt treffen, +sondern nur in Endpunkten. +Verallgemeinert auf höherdimensionale Simplizes kann man dies als die +Bedingung formulieren, dass die Schnittmenge zweier beliebiger +Simplizes immer Untersimplizes beider Simplizes sein müssen. +Wir fassen dies zusammen in der folgenden Definition. + +\begin{definition} +\index{Polyeder}% +\index{Dimension eines Polyeders}% +\index{Polyeder, Dimension eines}% +Ein {\em Polyeder} ist eine Vereingung von endlich vielen Simplizes derart, +dass die Schnittmenge zweier beliebiger Simplizes immer ein Untersimplex +beider Simplizes ist. +Die {\em Dimension} des Polyeders ist die grösste Dimension der darin +enthaltenen Simplizes. +\end{definition} + +Ein Graph ist nach dieser Definition ein eindimensionales Polyeder. +Die Mengen in der Abbildung~\ref{buch:homologie:figure:polyeder} +ist kein Polyeder, kann aber leicht zu einem Polyeder gemacht werden, +indem man einzelne Kanten mit zusätzlichen Punkten unterteilt. +Auch müssen die zweidimensionalen Simplizes aufgeteilt werden. + +Die Abbildung~\ref{buch:homologie:figure:polyeder} zeigt auch, dass +die Darstellung einer Punktmenge als Polyeder nicht eindeutig ist. +Man kann die Kanten und Flächen jederzeit weiter unterteilen, ohne +dass sich die Gestalt der gesamten Menge dadurch ändert. \subsection{Triangulation -\label{buch:subsection:}} +\label{buch:subsection:triangulation}} +Unser Ziel ist, geometrische Objekte besser verstehen zu können. +Dabei sind uns Deformationen ja sogar Knicke egal, es interessiert uns +nur die ``Gestalt'' des Objekts. +Entfernungen zwischen Punkten sind ebenfalls von untergeordneter +Bedeutung, da sie bei Deformation nicht erhalten bleiben. +Der Begriff des ``topologischen Raumes'' fasst diese Ideen mathematisch +präzise ein, eine genaue Definition würde aber an dieser Stelle zu weit +führen. +Stattdessen beschränken wir uns auf eine Klasse von Punktmengen, die man +mit Simplizes beschreiben kann. + +Ein topologischer Raum zeichnet sich durch einen Nachbarschaftsbegriff +von Punkte aus, der erlaubt zu definieren, was eine stetige Abbildung ist. +Ein stetige Abbildungen bildet nahe beeinander liegende Punkte wieder +auf nahe beeinander liegende Punkte ab. +Dass nahe liegende Punkte nicht plötzlich auf weit auseinander liegende +Punkte abgebildet werden gibt die Intuition wieder, dass Deformationen +möglich sein sollen, dass der Raum dabei aber nicht ``reissen'' darf. +Zwei topologische Räume $X$ und $Y$ können daher als ``gleichgestaltig'' +betrachtet werden, wenn es zwei stetige Abbildungen $f\colon X\to Y$ +und $g\colon Y\to X$ gibt, die zu einander invers sein. +Oder wenn sich $X$ stetig auf $Y$ abbilden lässt, so dass auch die +Umkehrabbildung stetig ist. +Eine solche Abbildung heisst ein {\em Homöomorphismus}, die beiden Räume +$X$ und $Y$ heissen {\em homomorph}. + +Eine Kugel ist natürlich kein Polyeder, aber sie kann leicht homöomorph +auf ein dreidimensionales Simplex abgebildet werden. + +\begin{beispiel} +Sei $T$ ein reguläres Tetraeder mit den Ecken auf der dreidimensionalen +Einheitskugel $B^3$. +Für jeden Richtungsvektor $x\ne 0$ sei $l(x)$ Entfernung vom Mittelpunkt des +Tetraeders bis zum Durchstosspunkt einer Geraden durch den Mittelpunkt +mit Richtungsvektor $x$ durch die Oberfläche des Tetraeders. +Dann sind die Abbildungen +\[ +f\colon +T\to B^3 +: +x \mapsto\begin{cases} +\displaystyle +\frac{x}{l(x)}&\quad\text{für $x\ne 0$}\\ +0&\quad\text{für $x=0$} +\end{cases} +\qquad\text{und}\qquad +g\colon +B^3\to T +: +x \mapsto\begin{cases} +l(x) x&\quad\text{für $x\ne 0$}\\ +0&\quad\text{für $x=0$} +\end{cases} +\] +zueinander inverse stetige Abbildungen oder Homöomorphismen. +\end{beispiel} + +Im Folgenden sollen daher nur solche topologischen Räume untersucht werden, +die homöomorph sind zu einem Polyeder. +Man nennt die homöomorphe Abbildung eines Polyeders auf so einen Raum +auch eine Triangulation. +Durch Unterteilung der Simplizes in kleiner Simplizes kann eine solche +Triangulation beliebig verfeinert werden. + + + + diff --git a/buch/chapters/references.bib b/buch/chapters/references.bib index a5d0201..977bf81 100644 --- a/buch/chapters/references.bib +++ b/buch/chapters/references.bib @@ -20,6 +20,12 @@ keywords = "World Wide Web, Search engines, Information retrieval, PageRank, Goo abstract = "In this paper, we present Google, a prototype of a large-scale search engine which makes heavy use of the structure present in hypertext. Google is designed to crawl and index the Web efficiently and produce much more satisfying search results than existing systems. The prototype with a full text and hyperlink database of at least 24 million pages is available at http://google.stanford.edu/ To engineer a search engine is a challenging task. Search engines index tens to hundreds of millions of Web pages involving a comparable number of distinct terms. They answer tens of millions of queries every day. Despite the importance of large-scale search engines on the Web, very little academic research has been done on them. Furthermore, due to rapid advance in technology and Web proliferation, creating a Web search engine today is very different from three years ago. This paper provides an in-depth description of our large-scale Web search engine — the first such detailed public description we know of to date. Apart from the problems of scaling traditional search techniques to data of this magnitude, there are new technical challenges involved with using the additional information present in hypertext to produce better search results. This paper addresses this question of how to build a practical large-scale system which can exploit the additional information present in hypertext. Also we look at the problem of how to effectively deal with uncontrolled hypertext collections where anyone can publish anything they want." } +@book{buch:linalg, + title = {Lineare Algebra}, + author = {Andreas M"uller}, + url = {https://github.com/AndreasFMueller/LinAlg.git}, + year = {2010} +} @book{buch:mathsem-wavelets, title = {Mathematisches Seminar Wavelets}, @@ -33,6 +39,13 @@ abstract = "In this paper, we present Google, a prototype of a large-scale searc year = {2016}, } +@online{buch:rfc2409, + title = {The Internet Key Exchange (IKE)}, + author = { D. Harkins and D. Carrel}, + url = {https://datatracker.ietf.org/doc/html/rfc2409}, + year = {1998} +} + @online{buch:fftw, title = {Fastest Fourier Transform in the West}, url = {http://www.fftw.org/}, |