aboutsummaryrefslogtreecommitdiffstats
path: root/buch/papers/multiplikation
diff options
context:
space:
mode:
authorLukaszogg <82384106+Lukaszogg@users.noreply.github.com>2021-09-11 09:37:10 +0200
committerLukaszogg <82384106+Lukaszogg@users.noreply.github.com>2021-09-11 09:37:10 +0200
commitafbb1ff480ce5b57826b01806c2abd79230fc58b (patch)
treedcf6e53d43aec69c022e0beff6662a1ec0445f7d /buch/papers/multiplikation
parentÄnderungen vom Nachmittag (diff)
parentadd combined images (diff)
downloadSeminarMatrizen-afbb1ff480ce5b57826b01806c2abd79230fc58b.tar.gz
SeminarMatrizen-afbb1ff480ce5b57826b01806c2abd79230fc58b.zip
Merge remote-tracking branch 'upstream/master'
Diffstat (limited to 'buch/papers/multiplikation')
-rwxr-xr-xbuch/papers/multiplikation/einlteung.tex2
-rwxr-xr-xbuch/papers/multiplikation/loesungsmethoden.tex3
2 files changed, 3 insertions, 2 deletions
diff --git a/buch/papers/multiplikation/einlteung.tex b/buch/papers/multiplikation/einlteung.tex
index 3ffc24c..7637854 100755
--- a/buch/papers/multiplikation/einlteung.tex
+++ b/buch/papers/multiplikation/einlteung.tex
@@ -17,7 +17,7 @@ C_{ij} = \sum_{k=1}^n A_{ik} B_{kj}.
\label{multiplikation:eq:MM}
\end{equation}
Grafisch kann die Matrizenmultiplikation $\mathbf{AB}=\mathbf{C}$ wie in Abbildung \ref{multiplikation:fig:mm_viz} visualisiert werden.
-\index{Matrizenmultiplikation}%
+\index{Matrixmultiplikation}%
\index{Multiplikation, Matrizen-}%
Im Fall einer Matrizengr\"osse von $2\times 2$ kann die Matrixgleichung
\begin{equation}
diff --git a/buch/papers/multiplikation/loesungsmethoden.tex b/buch/papers/multiplikation/loesungsmethoden.tex
index 2531bbb..578833b 100755
--- a/buch/papers/multiplikation/loesungsmethoden.tex
+++ b/buch/papers/multiplikation/loesungsmethoden.tex
@@ -517,7 +517,6 @@ Die Hardwareinformationen des verwendeten Computers sind in der Tabelle \ref{mul
\end{figure}
\section{Fazit}
-\rhead{Fazit}
Wie man im Abschnitt \ref{multiplikation:section:Implementation} sehen kann, sind die gezeigten Algorithmen trotz der theoretisch geringeren Zeitkomplexitäten den Implementationen der numerischen Bibliotheken klar unterlegen.
Ein optimierter Speicherzugriff hat einen weitaus grösseren Einfluss auf die Laufzeit als die Zeitkomplexität des Algorithmus.
@@ -528,3 +527,5 @@ Denke man an sehr kleine Mikrocontroller ohne Floatingpoint Recheneinheiten oder
Der Overhead der gezeigten Algorithmen ist in allen Fällen grösser als bei der Standardmethode (z.B. sieben rekursive Aufrufe gegenüber drei \texttt{for}-Schleifen).
Um diesem entgegenzuwirken muss der Laufzeitunterschied zwischen Addition und Multiplikation gross genug sein.
Wenn dies gegeben ist und dazu noch grosse Matritzen multipliziert werden, kann die Verwendung der Algorithmen von Strassen oder Winograd zu einer Senkung der Laufzeit führen.
+
+\rhead{Fazit}