From ec5b3622ecf0b27b5e7344b1aacf9b0a1e71170a Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?Andreas=20M=C3=BCller?= Date: Mon, 3 Jan 2022 20:28:34 +0100 Subject: add section on hyperbolic functions --- buch/chapters/030-geometrie/hyperbolisch.tex | 507 ++++++++++++++++++++++++ buch/chapters/030-geometrie/laenge.tex | 6 +- buch/chapters/030-geometrie/trigonometrisch.tex | 49 ++- 3 files changed, 556 insertions(+), 6 deletions(-) diff --git a/buch/chapters/030-geometrie/hyperbolisch.tex b/buch/chapters/030-geometrie/hyperbolisch.tex index 439e82e..f060243 100644 --- a/buch/chapters/030-geometrie/hyperbolisch.tex +++ b/buch/chapters/030-geometrie/hyperbolisch.tex @@ -6,4 +6,511 @@ \section{Hyperbolische Funktionen \label{buch:geometrie:section:hyperbolisch}} \rhead{Hyperbolische Funktionen} +Drehmatrizen werden durch die Eigenschaft charakterisiert, dass +sie Längen von und Winkel zwischen Vektoren in der Ebene nicht +ändern. +Die trigonometrischen Funktionen ermöglichten, alle Drehungen +zu parametrisieren. +% +% Das Minkowski-Skalarprodukt +% +\subsection{Das Minkowski-Skalarprodukt in der Ebene} + +\begin{definition} +Das Minkowski-Skalarprodukt in der Ebene ist definiert als +\[ +\langle x,y\rangle += +-x_0y_0+x_1y_1 +\] +für $x,y\in\mathbb{R}$. +\end{definition} + +Das Minkowski-Skalarprodukt ist nicht definit, es gibt Vektoren, die +``Länge'' $0$ haben, zum Beispiel ist +\[ +\biggl\langle +\begin{pmatrix}1\\1\end{pmatrix}, +\begin{pmatrix}1\\1\end{pmatrix} +\biggr\rangle += +0 +\qquad\text{und}\qquad +\biggl\langle +\begin{pmatrix}1\\0\end{pmatrix}, +\begin{pmatrix}1\\0\end{pmatrix} +\biggr\rangle += +-1, +\] +es ist daher nicht einfach möglich, eine Vektorlänge mit +$\sqrt{\langle x,x\rangle}$ zu definieren. +Die Gram-Matrix des Skalarproduktes ist +\[ +G += +\begin{pmatrix} +\langle e_0,e_0\rangle& \langle e_0,e_1\rangle\\ +\langle e_1,e_0\rangle& \langle e_1,e_1\rangle +\end{pmatrix} += +\begin{pmatrix*}[r] +-1&0\\ + 0&1 +\end{pmatrix*} +\] +wobei $e_0$ und $e_1$ die Standardbasisvektoren der Ebene sind. + +% +% Matrizen, die das Skalarprodukt invariant lassen +% +\subsection{Matrizen, die das Skalarprodukt invariant lassen} +In Anlehnung an das Vorgehen bei den Drehmatrizen suchen wir jetzt nach +Matrizen +\[ +A += +\begin{pmatrix} +a_{00}&a_{01}\\ +a_{10}&a_{11} +\end{pmatrix} +, +\] +die das Minkowski-Skalarprodukt nicht ändern. + +\subsubsection{Gleichungen für $A$} +Erhaltung des Skalarproduktes bedeutet, dass +\[ +AGA^t = G +\] +gelten muss. +Durch Ausmultiplizieren findet man +\begin{align*} +AG&= +\begin{pmatrix*}[r] +-a_{00}& a_{01}\\ +-a_{10}& a_{11} +\end{pmatrix*}, +\\ +AGA^t +&= +\begin{pmatrix*}[r] +-a_{00}& a_{01}\\ +-a_{10}& a_{11} +\end{pmatrix*} +\begin{pmatrix} +a_{00}&a_{10}\\ +a_{01}&a_{11} +\end{pmatrix} += +\begin{pmatrix} +-a_{00}^2+a_{01}^2 & -a_{00}a_{10} +a_{01}a_{11} \\ +-a_{00}a_{10} +a_{01}a_{11} & -a_{10}^2+a_{11}^2 +\end{pmatrix}. +\end{align*} +Daraus ergeben sich die folgenden Gleichungen für die Koeffizienten +der Matrix $A$ +\begin{align*} +-1 &= -a_{00}^2+a_{01}^2 & 0 &= -a_{00}a_{10} +a_{01}a_{11} \\ + 0 &= -a_{00}a_{10} +a_{01}a_{11} & 1 &= -a_{10}^2+a_{11}^2 +\end{align*} +Die beiden Gleichungen in der linken unteren und der rechten oberen Ecke +sind identisch. +Aus der Gleichung in der linken oberen Ecke folgt, dass $|a_{00}|\ge 1$ +sein muss. +Ebenso folgt aus der Gleichung in der rechten unteren Ecke, dass +$|a_{11}| \ge 1$ sein muss. +Insbesondere kann man die anderen beiden Gleichungen durch die +$a_{00}a_{11}$ teilen und erhält +\begin{equation} +\frac{a_{10}}{a_{11}} = \frac{a_{01}}{a_{00}} +\label{buch:geometrie:hyperbolisch:eqn:aaaa} +\end{equation} + +\subsubsection{Orientierungstreue Abbildungen} +Wir verlangen jetzt zusätzlich, dass $\det A= a_{00}a_{11}-a_{01}{a_{10}} = 1$ +ist. +Löst man \eqref{buch:geometrie:hyperbolisch:eqn:aaaa} nach $a_{10}$ aus +und setzt in die Determinante ein, erhält man +\[ +1 += +a_{00}a_{11} - a_{01} \frac{a_{01}a_{11}}{a_{00}} += +\frac{ a_{00}^2-a_{01}^2}{a_{00}} a_{11} += +\frac{a_{11}}{a_{00}}, +\] +woraus $a_{00}=a_{11}$ folgt, wir schreiben dafür zur Abkürzung $c=a_{00}$. +Durch Umstellen der Gleichung \eqref{buch:geometrie:hyperbolisch:eqn:aaaa} +folgt jetzt auch +\[ +\frac{a_{01}}{a_{10}} = \frac{a_{11}}{a_{00}} = 1 +\qquad\Rightarrow\qquad +a_{01}=a_{10}, +\] +wir schreiben dafür $s=a_{01}=a_{10}$. +Die Gleichungen reduzieren sich jetzt auf +\begin{equation} +1= c^2-s^2, +\label{buch:geometrie:hyperbolish:eqn:cs} +\end{equation} +die anderen Gleichungen sind automatisch erfüllt. + +\subsubsection{Erhaltung der Zeitrichtung} +In der speziellen Relativitätstheorie spielt das Minkowski-Skalarprodukt +eine besondere Rolle. +Die Koordinaten $x_0$ hat darin die Bedeutung der Zeit, +man weiss aus Experimenten wie dem Michelson-Morley-Experiment, +dass die Grösse $\langle x,x\rangle$ ist eine Invariante ist. +Die Transformationen mit der Matrix $A$ beschreiben also zulässige +Koordinatentransformationenn, die Invariante erhalten. + +Für Transformationen, die zusätzlich die Zeitrichtung erhalten sollen, +muss $a_{00}=a_{11}=c>0$ verlangt werden. + +\subsubsection{Parametrisierung mit $t=s/c$} +Unter der Annahme $c>0$ lässt sich die Matrix vollständig +durch den Parameter $t=s/c$ beschreiben. +Dividiert man \eqref{buch:geometrie:hyperbolish:eqn:cs} durch $c^2$, +kann $c$ durch $t$ ausdrücken: +\[ +\frac{1}{c^2} += + 1-\frac{s^2}{c^2} += +1-t^2 +\qquad\Rightarrow\qquad +c = \frac{1}{\sqrt{1-t^2}}. +\] +Daraus kann man jetzt auch +\[ +s=\frac{t}{\sqrt{1-t^2}} +\] +bestimmen. +Wir schreiben +\[ +H_t += +\frac{1}{\sqrt{1+t^2}} +\begin{pmatrix} +1&t\\ +t&1 +\end{pmatrix}. +\] +Diese Formeln erinnern natürlich and die Formeln, mit denen +der hyperbolische Sinus und Kosinus aus dem hyperbolischen +Tangens berechnet werden kann. +Dieser Zusammenhang und soll im nächsten Abschnitt hergestellt +werden. + +% +% Hyperbolische Funktionen +% +\subsection{Hyperbolische Funktionen} +Die trigonometrischen Funktionen ermöglichten eine Parametrisierung +der Drehmatrizen $D_\alpha$ derart, dass +$D_{\alpha+\beta}=D_\alpha D_\beta$. +Die Parametrisierung der Matrizen $H_t$ mit $t=s/c$ erfüllt diese +Bedingung nicht. + +\subsubsection{Additionstheoreme} +Die Additionsregeln für $t$, $s$ und $c$ ergeben sich, indem die +Matrizen $H_{t_1}$ und $H_{t_2}$ ausmultipliziert werden: +\begin{align*} +H_{t_1}H_{t_2} +&= +\begin{pmatrix} +c_1&s_1\\ +s_1&c_1 +\end{pmatrix} +\begin{pmatrix} +c_2&s_2\\ +s_2&c_2 +\end{pmatrix} +\\ +&= +\begin{pmatrix} +c_1c_2+s_1s_2 & c_1s_2 + s_1c_2 \\ +s_1c_2+c_1s_2 & s_1s_2 + c_1c_2 +\end{pmatrix} += +H_t. +\end{align*} +Für die Parameter der Matrix $H_t$ folgt damit +\[ +\left. +\begin{aligned} +c&=c_1c_2+s_1s_2 +\\ +s&=c_1s_2+s_1c_2 +\end{aligned} +\quad\right\} +\qquad\Rightarrow\qquad +t += +\frac{c_1s_2+s_1c_2}{c_1c_2+s_1s_2} += +\frac{\frac{s_2}{c_2}+\frac{s_1}{c_1}}{1+\frac{s_1}{c_1}\frac{s_2}{c_2}} += +\frac{t_1+t_2}{1+t_1t_2}. +\] +Auch diese Formel ist aus der Theorie der hyperbolischen Funktionen +als das Additionstheorem für den hyperbolischen Tangens bekannt. + +\subsubsection{Matrixexponentialform} +Die Reihenentwicklung der trigonometrischen Funktionen in +Abschnitt~\ref{buch:geometrie:trigo:matrixexp} hat gezeigt, +dass eine Lösung für die Drehmatrix, die das Additionstheorem +erfüllt, besonders einfach mit Hilfe der Matrixexponentialfunktion +gefunden werden kann. +Die Grundlage dafür war die Matrix $J$. + +Für die hyperbolischen Funktionen verwenden wir die Matrix +\[ +K += +\begin{pmatrix} +0&1\\ +1&0 +\end{pmatrix}, +\] +damit lässt sich $H_t$ als +\[ +H_t += +c E + s K += +\frac{1}{\sqrt{1+t^2}} E + \frac{t}{\sqrt{1+t^2}} K +\] +schreiben. +Die Matrix $K$ hat die Potenzen +\[ +E += +K^2 = K^4 = \dots = K^{2j} +\qquad\text{und}\qquad +K += K^3 = K^5 = \dots = K^{2j+1}, +\] +für $j\in\mathbb{N}$. + +Die Exponentialreihe von $\tau K$ ist +\begin{align*} +\exp(\tau K) +&= +\sum_{k=0}^\infty \frac{\tau^k}{k!} K^k +\\ +&= +\biggl( +\sum_{k=0}^\infty \frac{\tau^{2j}}{(2j)!} +\biggr) +E ++ +\biggl( +\sum_{k=0}^\infty \frac{\tau^{2j+1}}{(2j+1)!} +\biggr) +K +\end{align*} +Dies ist eine Matrix der Form $H_t$, wenn man +\begin{equation} +\begin{aligned} +s(\tau)&= +\sum_{k=0}^\infty \frac{\tau^{2j+1}}{(2j+1)!} +\\ +c(\tau)&= +\sum_{k=0}^\infty \frac{\tau^{2j}}{(2j)!} +\end{aligned} +\label{buch:geometrie:hyperbolisch:hypreihen} +\end{equation} +schreibt. + +\subsubsection{Definition der hyperbolischen Funktionen} +Die beiden Reihen~\eqref{buch:geometrie:hyperbolisch:hypreihen} +kann man auch direkt aus der Exponentialfunktion bekommen. +Wir definieren + +\begin{definition} +\label{buch:geometrie:hyperbolisch:def} +Die Funktionen +\[ +\begin{aligned} +\sinh(\tau)&=\frac{e^\tau-e^{-\tau}}2 +&&\text{und}& +\cosh(\tau)&=\frac{e^\tau+e^{-\tau}}2. +\end{aligned} +\] +heissen der {\em hyperbolische Sinus} und der {\em hyperbolische Kosinus}. +Die Quotienten +\[ +\begin{aligned} +\tanh\tau &= \frac{\sinh \tau}{\cosh \tau} +&&\text{und}& +\coth\tau &= \frac{\cosh \tau}{\sinh \tau} +\end{aligned} +\] +heissen der {\em hyperbolische Tangens} und der {\em hyperbolische Kotangens}. +\end{definition} + +\subsubsection{Elementare Eigenschaften} +Es ist nachzuprüfen, dass $\cosh^2 \tau-\sinh^2\tau=1$ ist. +Das kann man ebenfalls direkt nachrechnen: +\begin{align*} +\cosh^2\tau - \sinh^2\tau +&= +\biggl( +\frac{e^{\tau}+e^{-\tau}}2 +\biggr)^2 +- +\biggl( +\frac{e^{\tau}-e^{-\tau}}2 +\biggr)^2 +\\ +&= +\frac14\bigl( +e^{2\tau}+2+e^{-2\tau} +- +e^{2\tau}-2+e^{-2\tau} +\bigr) +=1. +\end{align*} +Damit liefern die Funktionen $\cosh\tau$ und $\sinh\tau$ +tatsächlich eine Parametrisierung der Matrizen +\[ +\tau \mapsto H_{\tau} += +\begin{pmatrix} +\cosh\tau & \sinh\tau \\ +\sinh\tau & \cosh\tau +\end{pmatrix}, +\] +die das Minkowski-Skalarprodukt invariant lassen. + +\subsubsection{Additionstheoreme} +Für die Definition~\ref{buch:geometrie:hyperbolisch:def} kann man die +Additionstheoreme auch direkt verifizieren. +Es gilt +\begin{align*} +\cosh(\tau_1+\tau_2) +&= +\frac{e^{\tau_1+\tau_2}+e^{-\tau_1-\tau_2}}{2} +\\ +&= +\frac{e^{\tau_1}e^{\tau_2}+e^{-\tau_1}e^{-\tau_2}}{2} +\\ +&= +\frac{2e^{\tau_1}e^{\tau_2} ++ +{\color{darkred}e^{\tau_1}e^{-\tau_2}} +- +{\color{orange}e^{\tau_1}e^{-\tau_2}} ++ +{\color{blue}e^{\tau_1}e^{-\tau_2}} +- +{\color{darkgreen}e^{\tau_1}e^{-\tau_2}} ++ +2e^{-\tau_1}e^{-\tau_2}}{4} +\\ +&= +\frac{ +(e^{\tau_1}e^{\tau_2} ++ +{\color{darkred}e^{\tau_1}e^{-\tau_2}} ++ +{\color{blue}e^{\tau_1}e^{-\tau_2}} ++ +e^{-\tau_1}e^{-\tau_2} +) ++ +( +e^{\tau_1}e^{\tau_2} +- +{\color{orange}e^{-\tau_1}e^{-\tau_2}} +- +{\color{darkgreen}e^{\tau_1}e^{-\tau_2}} ++ +e^{-\tau_1}e^{-\tau_2}) +}{4} +\\ +&= +\frac{ +(e^{\tau_1}+e^{-\tau_1}) +(e^{\tau_2}+e^{-\tau_2}) ++ +(e^{\tau_1}-e^{-\tau_1}) +(e^{\tau_2}-e^{-\tau_2}) +}{4} +\\ +&= +\frac{ e^{\tau_1}+e^{-\tau_1} }{2} +\frac{ e^{\tau_2}+e^{-\tau_2} }{2} ++ +\frac{e^{\tau_1}-e^{-\tau_1}}{2} +\frac{e^{\tau_2}-e^{-\tau_2}}{2} +\\ +&= +\cosh\tau_1 \cosh\tau_2 + \sinh\tau_1\sinh\tau_2 +\\ +\sinh(\tau_1+\tau_2) +&= +\frac{e^{\tau_1+\tau_2}-e^{-\tau_1-\tau_2}}{2} +\\ +&= +\frac{e^{\tau_1}e^{\tau_2}-e^{-\tau_1}e^{-\tau_2}}{2} +\\ +&= +\frac{2e^{\tau_1}e^{\tau_2} +- +{\color{darkred}e^{\tau_1}e^{-\tau_2}} ++ +{\color{orange}e^{\tau_1}e^{-\tau_2}} ++ +{\color{blue}e^{\tau_1}e^{-\tau_2}} +- +{\color{darkgreen}e^{\tau_1}e^{-\tau_2}} +- +2e^{-\tau_1}e^{-\tau_2}}{4} +\\ +&= +\frac{ +(e^{\tau_1}e^{\tau_2} +- +{\color{darkred}e^{\tau_1}e^{-\tau_2}} ++ +{\color{blue}e^{-\tau_1}e^{\tau_2}} +- +e^{-\tau_1}e^{-\tau_2} +) ++ +( +e^{\tau_1}e^{\tau_2} ++ +{\color{orange}e^{\tau_1}e^{-\tau_2}} +- +{\color{darkgreen}e^{-\tau_1}e^{\tau_2}} +- +e^{-\tau_1}e^{-\tau_2}) +}{4} +\\ +&= +\frac{ +(e^{\tau_1}+e^{-\tau_1}) +(e^{\tau_2}-e^{-\tau_2}) ++ +(e^{\tau_1}-e^{-\tau_1}) +(e^{\tau_2}+e^{-\tau_2}) +}{4} +\\ +&= +\frac{ e^{\tau_1}+e^{-\tau_1} }{2} +\frac{ e^{\tau_2}-e^{-\tau_2} }{2} ++ +\frac{e^{\tau_1}-e^{-\tau_1}}{2} +\frac{e^{\tau_2}+e^{-\tau_2}}{2} +\\ +&= +\cosh\tau_1 \sinh\tau_2 + \sinh\tau_1\cosh\tau_2. +\end{align*} +Damit sind die Additionstheoreme für die hyperbolischen Funktionen +bewiesen. diff --git a/buch/chapters/030-geometrie/laenge.tex b/buch/chapters/030-geometrie/laenge.tex index 93cba0a..6b3c507 100644 --- a/buch/chapters/030-geometrie/laenge.tex +++ b/buch/chapters/030-geometrie/laenge.tex @@ -456,12 +456,12 @@ Etwas allgemeiner wird eine Hyperbel durch die Gleichung \end{equation} beschrieben. Die hyperbolischen Funktionen parametrisieren alle Paare von Zahlen -$(X,Y=(\cosh t,\sinh t)$ mit der Eigenschaft $X^2-Y^2=1$. +$(X,Y)=(\cosh t,\sinh t)$ mit der Eigenschaft $X^2-Y^2=1$. Aus \eqref{buch:geometrie:hyperbel:eqn} folgt daher, dass \[ -\frac{x}{a} = \cosh t, \frac{y}{b} = \sinh t +\frac{x}{a} = \cosh t,\quad \frac{y}{b} = \sinh t \qquad\Rightarrow\qquad -x=a\cosh t, y=b\sinh t. +x=a\cosh t,\quad y=b\sinh t. \] Somit ist \[ diff --git a/buch/chapters/030-geometrie/trigonometrisch.tex b/buch/chapters/030-geometrie/trigonometrisch.tex index 2e02404..dc1f46a 100644 --- a/buch/chapters/030-geometrie/trigonometrisch.tex +++ b/buch/chapters/030-geometrie/trigonometrisch.tex @@ -18,6 +18,9 @@ Ausdrücke berechnen lässt. Es ist daher notwendig, neue spezielle Funktionen zu definieren, die trigonometrischen Funktionen. +% +% Definition der trigonometrischen Funktionen +% \subsection{Definition der trigonometrischen Funktionen} % XXX Abbildung Jakobsstab Eines der ältesten Messgeräte für Winkel ist der Jakobsstab, @@ -727,7 +730,7 @@ Zum Beispiel kann man das Newton-Verfahren verwenden mit dem Startwert $s_0=\pi/180$ für die Iteration, die $\sin 1^\circ$ liefern soll, und $c_0=\sqrt{1-s_0^2}$ für die Kosinus-Iteration. Die Konvergenz ist sehr schnell, bereits nach zwei Iterationen hat -man einen auf 16 Stellen genauen wert, wie man in +man einen auf 16 Stellen genauen Wert, wie man in Tabelle~\ref{buch:geometrie:trigo:newtontabelle} sieht. Mit einer einzigen Anwendung des Additionstheorems kann man jetzt aus den Werten der Tabelle~\ref{buch:geometrie:trigo:tabelle} @@ -769,8 +772,48 @@ ermöglicht. \label{buch:trigo:table:sinus}} \end{table} - - +% +% Trigonometrische Funktionen und Matrixexponentialfunktion +% +\subsection{Trigonometrische Funktionen und Matrixexponentialfunktion +\label{buch:geometrie:trigo:matrixexp}} +Die Exponentialfunktion erfüllt auf ganz natürlich Art eine +Additionsgesetz, es ist $\exp(t_1+t_2)=\exp(t_1)\exp(t_2)$. +Diese Eigenschaft bleibt erhalten, wenn man als Argumente der +Potenzreihe Matrizen verwendet, wenigstens wenn diese Matrizen +vertauschen. +Insbesondere gilt +\[ +\exp(\alpha J+\beta J) += +\exp(\alpha J) \exp(\beta J). +\] +Setzt man $\alpha J$ in die Potenzreihe der Exponentialfunktion ein, +bekommt man +\begin{align*} +\exp(\alpha J) +&= +\sum_{k=0}^\infty \frac{\alpha^k}{k!}J^k +\\ +&= +\biggl( +\sum_{j=0}^\infty \frac{\alpha^{2j}}{(2j)!}(-1)^j +\biggr)E ++ +\biggl( +\sum_{j=0}^\infty \frac{\alpha^{2j+1}}{(2j+1)!}(-1)^j +\biggr)J, +\end{align*} +somit folgt +\begin{align*} +\cos\alpha +&= +\sum_{j=0}^\infty (-1)^j\frac{\alpha^{2j}}{(2j)!} +\\ +\sin\alpha +&= +\sum_{j=0}^\infty (-1)^j\frac{\alpha^{2j+1}}{(2j+1)!} +\end{align*} -- cgit v1.2.1