diff options
author | Lukaszogg <82384106+Lukaszogg@users.noreply.github.com> | 2021-09-11 09:37:10 +0200 |
---|---|---|
committer | Lukaszogg <82384106+Lukaszogg@users.noreply.github.com> | 2021-09-11 09:37:10 +0200 |
commit | afbb1ff480ce5b57826b01806c2abd79230fc58b (patch) | |
tree | dcf6e53d43aec69c022e0beff6662a1ec0445f7d /buch/papers/multiplikation | |
parent | Änderungen vom Nachmittag (diff) | |
parent | add combined images (diff) | |
download | SeminarMatrizen-afbb1ff480ce5b57826b01806c2abd79230fc58b.tar.gz SeminarMatrizen-afbb1ff480ce5b57826b01806c2abd79230fc58b.zip |
Merge remote-tracking branch 'upstream/master'
Diffstat (limited to '')
-rwxr-xr-x | buch/papers/multiplikation/einlteung.tex | 2 | ||||
-rwxr-xr-x | buch/papers/multiplikation/loesungsmethoden.tex | 3 |
2 files changed, 3 insertions, 2 deletions
diff --git a/buch/papers/multiplikation/einlteung.tex b/buch/papers/multiplikation/einlteung.tex index 3ffc24c..7637854 100755 --- a/buch/papers/multiplikation/einlteung.tex +++ b/buch/papers/multiplikation/einlteung.tex @@ -17,7 +17,7 @@ C_{ij} = \sum_{k=1}^n A_{ik} B_{kj}. \label{multiplikation:eq:MM} \end{equation} Grafisch kann die Matrizenmultiplikation $\mathbf{AB}=\mathbf{C}$ wie in Abbildung \ref{multiplikation:fig:mm_viz} visualisiert werden. -\index{Matrizenmultiplikation}% +\index{Matrixmultiplikation}% \index{Multiplikation, Matrizen-}% Im Fall einer Matrizengr\"osse von $2\times 2$ kann die Matrixgleichung \begin{equation} diff --git a/buch/papers/multiplikation/loesungsmethoden.tex b/buch/papers/multiplikation/loesungsmethoden.tex index 2531bbb..578833b 100755 --- a/buch/papers/multiplikation/loesungsmethoden.tex +++ b/buch/papers/multiplikation/loesungsmethoden.tex @@ -517,7 +517,6 @@ Die Hardwareinformationen des verwendeten Computers sind in der Tabelle \ref{mul \end{figure} \section{Fazit} -\rhead{Fazit} Wie man im Abschnitt \ref{multiplikation:section:Implementation} sehen kann, sind die gezeigten Algorithmen trotz der theoretisch geringeren Zeitkomplexitäten den Implementationen der numerischen Bibliotheken klar unterlegen. Ein optimierter Speicherzugriff hat einen weitaus grösseren Einfluss auf die Laufzeit als die Zeitkomplexität des Algorithmus. @@ -528,3 +527,5 @@ Denke man an sehr kleine Mikrocontroller ohne Floatingpoint Recheneinheiten oder Der Overhead der gezeigten Algorithmen ist in allen Fällen grösser als bei der Standardmethode (z.B. sieben rekursive Aufrufe gegenüber drei \texttt{for}-Schleifen). Um diesem entgegenzuwirken muss der Laufzeitunterschied zwischen Addition und Multiplikation gross genug sein. Wenn dies gegeben ist und dazu noch grosse Matritzen multipliziert werden, kann die Verwendung der Algorithmen von Strassen oder Winograd zu einer Senkung der Laufzeit führen. + +\rhead{Fazit} |