aboutsummaryrefslogtreecommitdiffstats
path: root/buch/papers
diff options
context:
space:
mode:
Diffstat (limited to 'buch/papers')
-rw-r--r--buch/papers/kra/anwendung.tex92
-rw-r--r--buch/papers/kra/einleitung.tex2
-rw-r--r--buch/papers/kra/images/multi_mass_spring.tex2
-rw-r--r--buch/papers/kra/images/phase_space.tex2
-rw-r--r--buch/papers/kra/loesung.tex69
-rw-r--r--buch/papers/kugel/packages.tex4
-rw-r--r--buch/papers/kugel/preliminaries.tex7
-rw-r--r--buch/papers/kugel/proofs.tex4
-rw-r--r--buch/papers/kugel/references.bib9
-rw-r--r--buch/papers/kugel/sections/Introduction.tex318
-rw-r--r--buch/papers/kugel/spherical-harmonics.tex355
-rw-r--r--buch/papers/parzyl/teil0.tex2
-rw-r--r--buch/papers/parzyl/teil1.tex5
-rw-r--r--buch/papers/parzyl/teil2.tex4
-rw-r--r--buch/papers/parzyl/teil3.tex15
-rw-r--r--buch/papers/sturmliouville/Makefile.inc1
-rw-r--r--buch/papers/sturmliouville/beispiele.tex14
-rw-r--r--buch/papers/sturmliouville/eigenschaften.tex151
-rw-r--r--buch/papers/sturmliouville/einleitung.tex166
-rw-r--r--buch/papers/sturmliouville/main.tex22
-rw-r--r--buch/papers/sturmliouville/tschebyscheff_beispiel.tex139
-rw-r--r--buch/papers/sturmliouville/waermeleitung_beispiel.tex300
22 files changed, 1229 insertions, 454 deletions
diff --git a/buch/papers/kra/anwendung.tex b/buch/papers/kra/anwendung.tex
index 6383984..704de43 100644
--- a/buch/papers/kra/anwendung.tex
+++ b/buch/papers/kra/anwendung.tex
@@ -2,23 +2,25 @@
\rhead{Anwendung}
\newcommand{\dt}[0]{\frac{d}{dt}}
-Die Matrix-Riccati Differentialgleichung findet unter anderem Anwendung in der Regelungstechnik beim RQ- und RQG-Regler oder aber auch beim Kalmanfilter.
-Im folgenden Abschnitt möchten wir uns an einem Beispiel anschauen wie wir mit Hilfe der Matrix-Riccati Differentialgleichung (\ref{kra:equation:matrixriccati}) ein Feder-Masse-System untersuchen können \cite{kra:riccati}.
+Die Matrix-Riccati Differentialgleichung findet unter anderem Anwendung in der Regelungstechnik beim RQ- und RQG-Regler oder aber auch beim Kalman-Filter.
+Im folgenden Abschnitt möchten wir uns an einem Beispiel anschauen wie wir mit Hilfe der Matrix-Riccati-Differentialgleichung (\ref{kra:equation:matrixriccati}) ein Feder-Masse-System untersuchen können \cite{kra:riccati}.
\subsection{Feder-Masse-System}
-Die einfachste Form eines Feder-Masse-Systems ist dargestellt in Abbildung \ref{kra:fig:simple_mass_spring}.
-Es besteht aus einer reibungsfrei gelagerten Masse $m$ ,welche an eine Feder mit der Federkonstante $k$ gekoppelt ist.
+\label{kra:subsection:feder-masse-system}
+Die einfachste Form eines Feder-Masse-Systems ist dargestellt in Abbildung~\ref{kra:fig:simple_mass_spring}.
+Es besteht aus einer reibungsfrei gelagerten Masse $m$, welche an eine Feder mit der Federkonstante $k$ gekoppelt ist.
Die im System wirkenden Kräfte teilen sich auf in die auf dem hookeschen Gesetz basierenden Rückstellkraft $F_R = k \Delta_x$ und der auf dem Aktionsprinzip basierenden Kraft $F_a = am = \ddot{x} m$.
Das Kräftegleichgewicht fordert $F_R = F_a$ woraus folgt, dass
\begin{equation*}
- k \Delta_x = \ddot{x} m \Leftrightarrow \ddot{x} = \frac{k \Delta_x}{m}
+ k \Delta_x = \ddot{x} m \Leftrightarrow \ddot{x} = \frac{k \Delta_x}{m}.
\end{equation*}
Die Funktion die diese Differentialgleichung löst, ist die harmonische Schwingung
\begin{equation}
- x(t) = A \cos(\omega_0 t + \Phi), \quad \omega_0 = \sqrt{\frac{k}{m}}
+ x(t) = A \cos(\omega_0 t + \varphi), \quad \omega_0 = \sqrt{\frac{k}{m}}.
\end{equation}
\begin{figure}
+ \centering
% move image to standalone because the physics package is
% incompatible with underbrace
\includegraphics{papers/kra/images/simple.pdf}
@@ -27,38 +29,40 @@ Die Funktion die diese Differentialgleichung löst, ist die harmonische Schwingu
\label{kra:fig:simple_mass_spring}
\end{figure}
\begin{figure}
+ \centering
\input{papers/kra/images/multi_mass_spring.tex}
\caption{Feder-Masse-System mit zwei Massen und drei Federn.}
\label{kra:fig:multi_mass_spring}
\end{figure}
\subsection{Hamilton-Funktion}
+\label{kra:subsection:hamilton-funktion}
Die Bewegung der Masse $m$ kann mit Hilfe der hamiltonschen Mechanik im Phasenraum untersucht werden.
Die hamiltonschen Gleichungen verwenden dafür die verallgemeinerten Ortskoordinaten
$q = (q_{1}, q_{2}, ..., q_{n})$ und die verallgemeinerten Impulskoordinaten $p = (p_{1}, p_{2}, ..., p_{n})$, wobei der Impuls definiert ist als $p_k = m_k \cdot v_k$.
-Liegen keine zeitabhängigen Zwangsbedingungen vor, so entspricht die Hamitlon-Funktion der Gesamtenergie des Systems \cite{kra:hamilton}.
+Liegen keine zeitabhängigen Zwangsbedingungen vor, so entspricht die Hamilton-Funktion der Gesamtenergie des Systems \cite{kra:hamilton}.
Im Falle des einfachen Feder-Masse-Systems, Abbildung \ref{kra:fig:simple_mass_spring}, setzt sich die Hamilton-Funktion aus kinetischer und potentieller Energie zusammen.
\begin{equation}
- \label{kra:harmonischer_oszillator}
+ \label{kra:equation:harmonischer_oszillator}
\begin{split}
- \mathcal{H}(q, p) &= T(p) + V(q) = E \\
- &= \underbrace{\frac{p^2}{2m}}_{E_{kin}} + \underbrace{\frac{k q^2}{2}}_{E_{pot}}
+ H(q, p) &= T(p) + V(q) = E \\
+ &= \underbrace{\frac{p^2}{2m}}_{\displaystyle{E_{kin}}} + \underbrace{\frac{k q^2}{2}}_{\displaystyle{E_{pot}}}
\end{split}
\end{equation}
Die Hamiltonschen Bewegungsgleichungen liefern \cite{kra:kanonischegleichungen}
\begin{equation}
- \label{kra:hamilton:bewegungsgleichung}
- \dot{q_{k}} = \frac{\partial \mathcal{H}}{\partial p_k}
+ \label{kra:equation:bewegungsgleichung}
+ \dot{q_{k}} = \frac{\partial H}{\partial p_k}
\qquad
- \dot{p_{k}} = -\frac{\partial \mathcal{H}}{\partial q_k}
+ \dot{p_{k}} = -\frac{\partial H}{\partial q_k},
\end{equation}
daraus folgt
\[
\dot{q} = \frac{p}{m}
\qquad
- \dot{p} = -kq
+ \dot{p} = -kq.
\]
-in Matrixschreibweise erhalten wir also
+In Matrixschreibweise erhalten wir also
\[
\begin{pmatrix}
\dot{q} \\
@@ -73,10 +77,11 @@ in Matrixschreibweise erhalten wir also
q \\
p
\end{pmatrix}
+ .
\]
Für das erweiterte Federmassesystem, Abbildung \ref{kra:fig:multi_mass_spring}, können wir analog vorgehen.
Die kinetische Energie setzt sich nun aus den kinetischen Energien der einzelnen Massen $m_1$ und $m_2$ zusammen.
-Die Potentielle Energie erhalten wir aus der Summe der kinetischen Energien der einzelnen Federn mit den Federkonstanten $k_1$, $k_c$ und $k_2$.
+Die potentielle Energie erhalten wir aus der Summe der kinetischen Energien der einzelnen Federn mit den Federkonstanten $k_1$, $k_c$ und $k_2$.
\begin{align*}
\begin{split}
T &= T_1 + T_2 \\
@@ -85,19 +90,19 @@ Die Potentielle Energie erhalten wir aus der Summe der kinetischen Energien der
\\
\begin{split}
V &= V_1 + V_c + V_2 \\
- &= \frac{k_1 q_1^2}{2} + \frac{k_c (q_2 - q_1)^2}{2} + \frac{k_2 q_2^2}{2}
+ &= \frac{k_1 q_1^2}{2} + \frac{k_c (q_2 - q_1)^2}{2} + \frac{k_2 q_2^2}{2}.
\end{split}
\end{align*}
Die Hamilton-Funktion ist also
\begin{align*}
\begin{split}
- \mathcal{H} &= T + V \\
+ H &= T + V \\
&= \frac{p_1^2}{2m_1} + \frac{p_2^2}{2m_2} + \frac{k_1 q_1^2}{2} + \frac{k_c (q_2 - q_1)^2}{2} + \frac{k_2 q_2^2}{2}
\end{split}
\end{align*}
-Die Bewegungsgleichungen \ref{kra:hamilton:bewegungsgleichung} liefern
+Die Bewegungsgleichungen \eqref{kra:equation:bewegungsgleichung} liefern
\begin{align*}
- \frac{\partial \mathcal{H}}{\partial p_k} & = \dot{q_k}
+ \frac{\partial H}{\partial p_k} & = \dot{q_k}
\Rightarrow
\left\{
\begin{alignedat}{2}
@@ -106,18 +111,18 @@ Die Bewegungsgleichungen \ref{kra:hamilton:bewegungsgleichung} liefern
\end{alignedat}
\right.
\\
- -\frac{\partial \mathcal{H}}{\partial q_k} & = \dot{p_k}
+ -\frac{\partial H}{\partial q_k} & = \dot{p_k}
\Rightarrow
\left\{
\begin{alignedat}{2}
\dot{p_1} &= -(\frac{2k_1q_1}{2} - \frac{2k_c(q_2-q_1)}{2}) &&= -q_1(k_1+k_c) + q_2k_c \\
- \dot{p_1} &= -(\frac{2k_c(q_2-q_1)}{2} - \frac{2k_2q_2}{2}) &&= q_1k_c - (k_c + k_2)
+ \dot{p_1} &= -(\frac{2k_c(q_2-q_1)}{2} - \frac{2k_2q_2}{2}) &&= q_1k_c - (k_c + k_2).
\end{alignedat}
\right.
\end{align*}
In Matrixschreibweise erhalten wir
\begin{equation}
- \label{kra:hamilton:multispringmass}
+ \label{kra:equation:hamilton-multispringmass}
\begin{pmatrix}
\dot{q_1} \\
\dot{q_2} \\
@@ -153,30 +158,38 @@ In Matrixschreibweise erhalten wir
\begin{pmatrix}
Q \\
P \\
- \end{pmatrix}
+ \end{pmatrix}.
\end{equation}
\subsection{Phasenraum}
-Der Phasenraum erlaubt die eindeutige Beschreibung aller möglichen Bewegungszustände eines mechanischen Systems durch einen Punkt.
+\subsubsection{Motivation}
+Die Beschreibung eines klassischen physikalischen Systems führt in der Newtonschen-Mechanik, wie wir in \ref{kra:subsection:feder-masse-system} gesehen haben, auf eine DGL 2. Ordung der Dimension $n$.
+Zur Betrachung des Systems verwenden wir dabei den Konfigurationsraum, ein Raum $\mathbb{R}^n$, bei dem ein einziger Punkt die Position aller $n$ Teilchen festlegt.
+Der Nachteil des Konfigurationsraums ist dabei, dass dieser nur die Positionen der Teilchen widerspiegelt.
+Um den Zustand eines Systems vollständig zu beschreiben, muss man aber nicht nur wissen wo sich die Teilchen zu einem bestimmten Zeitpunkt befinden, sondern auch wie sie sich bewegen.
+
+Im Gegensatz dazu führt die Beschreibung des Systems mit Hilfe der Hamilton-Mechanik \ref{kra:subsection:hamilton-funktion}, auf eine DGL 1. Ordnung der Dimension $2n$.
+Die Betrachtung erfolgt im einem Raum $\mathbb{R}^{2n}$, bei dem ein einzelner Punkt den Bewegungszustand vollständig beschreibt, dem sogennanten Phasenraum.
Die Phasenraumdarstellung eignet sich somit sehr gut für die systematische Untersuchung der Feder-Masse-Systeme.
\subsubsection{Harmonischer Oszillator}
-Die Hamiltonfunktion des harmonischen Oszillators \ref{kra:harmonischer_oszillator} führt auf eine Lösung der Form
+Die Hamiltonfunktion des harmonischen Oszillators \eqref{kra:equation:harmonischer_oszillator} führt auf eine Lösung der Form
\begin{equation*}
- q(t) = A \cos(\omega_0 T + \Phi), \quad p(t) = -m \omega_0 A \sin(\omega_0 t + \Phi)
+ q(t) = A \cos(\omega_0 T + \Phi), \quad p(t) = -m \omega_0 A \sin(\omega_0 t + \Phi),
\end{equation*}
die Phasenraumtrajektorien bilden also Ellipsen mit Zentrum $q=0, p=0$ und Halbachsen $A$ und $m \omega A$.
-Abbildung \ref{kra:fig:phasenraum} zeigt Phasenraumtrajektorien mit den Energien $E_{x \in \{A, B, C, D\}}$ und verschiedenen Werten von $\omega$.
+Abbildung~\ref{kra:fig:phasenraum} zeigt Phasenraumtrajektorien mit den Energien $E_{x \in \{A, B, C, D\}}$ und verschiedenen Werten von $\omega$.
\begin{figure}
+ \centering
\input{papers/kra/images/phase_space.tex}
\caption{Phasenraumdarstellung des einfachen Feder-Masse-Systems.}
\label{kra:fig:phasenraum}
\end{figure}
\subsubsection{Erweitertes Feder-Masse-System}
-Wir intressieren uns nun dafür wie der Phasenwinkel $U = PQ^{-1}$ von der Zeit abhängt,
+Wir interessieren uns nun dafür, wie der Phasenwinkel $U = PQ^{-1}$ von der Zeit abhängt,
wir suchen also die Grösse $\Theta = \dt U$.
-Ersetzten wir in der Gleichung \ref{kra:hamilton:multispringmass} die Matrix $G$ mit $\tilde{G}$ so erhalten wir
+Ersetzten wir in der Gleichung \eqref{kra:equation:hamilton-multispringmass} die Matrix $G$ mit $\tilde{G}$ so erhalten wir
\begin{equation}
\dt
\begin{pmatrix}
@@ -189,27 +202,30 @@ Ersetzten wir in der Gleichung \ref{kra:hamilton:multispringmass} die Matrix $G$
A & B \\
C & D
\end{pmatrix}
- }_{\tilde{G}}
+ }_{\displaystyle{\tilde{G}}}
\begin{pmatrix}
Q \\
P
- \end{pmatrix}
+ \end{pmatrix}.
\end{equation}
-Mit einsetzten folgt
+Ausgeschrieben folgt
\begin{align*}
\dot{Q} = AQ + BP \\
\dot{P} = CQ + DP
\end{align*}
\begin{equation}
+ \label{kra:equation:feder-masse-riccati-matrix}
\begin{split}
\dt U &= \dot{P} Q^{-1} + P \dt Q^{-1} \\
&= (CQ + DP) Q^{-1} - P (Q^{-1} \dot{Q} Q^{-1}) \\
- &= C\underbrace{QQ^{-1}}_\text{I} + D\underbrace{PQ^{-1}}_\text{U} - P(Q^{-1} (AQ + BP) Q^{-1}) \\
- &= C + DU - \underbrace{PQ^{-1}}_\text{U}(A\underbrace{QQ^{-1}}_\text{I} + B\underbrace{PQ^{-1}}_\text{U}) \\
+ &= C\underbrace{QQ^{-1}}_\text{$I$} + D\underbrace{PQ^{-1}}_\text{$U$} - P(Q^{-1} (AQ + BP) Q^{-1}) \\
+ &= C + DU - \underbrace{PQ^{-1}}_\text{$U$}(A\underbrace{QQ^{-1}}_\text{$I$} + B\underbrace{PQ^{-1}}_\text{$U$}) \\
&= C + DU - UA - UBU
\end{split}
\end{equation}
-was uns auf die Matrix-Riccati Gleichung \ref{kra:equation:matrixriccati} führt.
+was uns direkt auf die Matrix-Riccati Gleichung \eqref{kra:equation:matrixriccati} führt.
+Wir sehen das sich die Dimension der DGL reduziert, dabei aber gleichzeitig der Grad erhöht.
-% @TODO Einfluss auf anfangsbedingungen, plots?
-% @TODO Fazit ?
+\subsection{Fazit}
+Wir haben gezeigt wie wir ein Federmassesystem mit Hilfe der Hamilton-Funktion Beschreiben und im Phasenraum untersuchen können.
+Ausserdem haben wir gesehen, dass sich bei der Entstehung der Riccati-Gleichung \eqref{kra:equation:feder-masse-riccati-matrix} die Dimension auf Kosten des Grades reduziert wird. \ No newline at end of file
diff --git a/buch/papers/kra/einleitung.tex b/buch/papers/kra/einleitung.tex
index cde2e66..0503742 100644
--- a/buch/papers/kra/einleitung.tex
+++ b/buch/papers/kra/einleitung.tex
@@ -11,4 +11,4 @@ Als Riccati Gleichung werden auch Matrixgleichungen der Form
\label{kra:equation:matrixriccati}
\dot{X}(t) = C + DX(t) - X(t)A -X(t)BX(t)
\end{equation}
-bezeichnet, welche aufgrund ihres quadratischen Terms eine gewisse Ähnlichkeit aufweisen \cite{kra:ethz} \cite{kra:riccati}.
+bezeichnet, welche aufgrund ihres quadratischen Terms eine gewisse Ähnlichkeit aufweisen \cite{kra:riccati} \cite{kra:ethz}.
diff --git a/buch/papers/kra/images/multi_mass_spring.tex b/buch/papers/kra/images/multi_mass_spring.tex
index f255cc8..f31db4c 100644
--- a/buch/papers/kra/images/multi_mass_spring.tex
+++ b/buch/papers/kra/images/multi_mass_spring.tex
@@ -5,7 +5,7 @@
\tikzstyle{mass}=[line width=0.6,red!30!black,fill=red!40!black!10,rounded corners=1,top color=red!40!black!20,bottom color=red!40!black!10,shading angle=20]
\tikzstyle{spring}=[line width=0.8,blue!7!black!80,snake=coil,segment amplitude=5,line cap=round]
-\begin{tikzpicture}[scale=2]
+\begin{tikzpicture}[scale=2, >=latex]
\newcommand{\ticks}[3]
{
% x, y coordinates
diff --git a/buch/papers/kra/images/phase_space.tex b/buch/papers/kra/images/phase_space.tex
index cd51ea4..be445ca 100644
--- a/buch/papers/kra/images/phase_space.tex
+++ b/buch/papers/kra/images/phase_space.tex
@@ -8,7 +8,7 @@
}
}
-\begin{tikzpicture}[scale=0.6]
+\begin{tikzpicture}[scale=0.6, >=latex]
% p(t=0) = 0, q(t=0) = A, max(p) = mwA
\tikzmath{
\axh = 5.2;
diff --git a/buch/papers/kra/loesung.tex b/buch/papers/kra/loesung.tex
index 4e0da1c..18ac853 100644
--- a/buch/papers/kra/loesung.tex
+++ b/buch/papers/kra/loesung.tex
@@ -7,47 +7,75 @@ Es gibt aber Spezialfälle, in denen sich die Gleichung vereinfachen lässt und
Diese wollen wir im folgenden Abschnitt genauer anschauen.
\subsubsection{Fall 1: Konstante Koeffizienten}
-Sind die Koeffizienten $f(x), g(x), h(x)$ Konstanten, so lässt sich die DGL separieren und reduziert sich auf die Lösung des Integrals \ref{kra:equation:case1_int}.
+Im Fall von konstanten Koeffizienten $f(x), g(x), h(x)$, wird die Gleichung \eqref{kra:equation:riccati} zu
\begin{equation}
- y' = fy^2 + gy + h
+ y' = fy^2 + gy + h.
\end{equation}
+Durch Ausschreiben des Differentialquotienten
\begin{equation}
\frac{dy}{dx} = fy^2 + gy + h
\end{equation}
+erkennt man, dass die DGL separierbar ist. Die Lösung findet man nun durch die Berechnung des Integrals
\begin{equation} \label{kra:equation:case1_int}
- \int \frac{dy}{fy^2 + gy + h} = \int dx
+ \int \frac{dy}{fy^2 + gy + h} = \int dx.
\end{equation}
\subsubsection{Fall 2: Bekannte spezielle Lösung}
-Kennt man eine spezielle Lösung $y_p$ so kann die riccatische DGL mit Hilfe einer Substitution auf eine lineare Gleichung reduziert werden.
+Kennt man eine spezielle Lösung $y_p$, so kann die riccatische DGL mit Hilfe einer Substitution auf eine lineare Gleichung reduziert werden.
Wir wählen als Substitution
\begin{equation} \label{kra:equation:substitution}
- z = \frac{1}{y - y_p}
+ z = \frac{1}{y - y_p},
\end{equation}
-durch Umstellen von \ref{kra:equation:substitution} folgt
+durch Umstellen von \eqref{kra:equation:substitution} folgt
\begin{equation}
y = y_p + \frac{1}{z^2} \label{kra:equation:backsubstitution}
\end{equation}
\begin{equation}
- y' = y_p' - \frac{1}{z^2}z'
+ y' = y_p' - \frac{1}{z^2}z',
\end{equation}
-mit Einsetzten in die DGL \ref{kra:equation:riccati} folgt
+mit Einsetzten in die DGL \eqref{kra:equation:riccati} resultiert
\begin{equation}
y_p' - \frac{1}{z^2}z' = f(x)(y_p + \frac{1}{z}) + g(x)(y_p + \frac{1}{z})^2 + h(x)
\end{equation}
\begin{equation}
- -z^{2}y_p' + z' = -z^2\underbrace{(y_{p}f(x) + g(x)y_p^2 + h(x))}_{y_p'} - z(f(x) + 2y_{p}g(x)) - g(x)
+ -z^{2}y_p' + z' = -z^2\underbrace{(y_{p}f(x) + g(x)y_p^2 + h(x))}_{\displaystyle{y_p'}} - z(f(x) + 2y_{p}g(x)) - g(x)
\end{equation}
-was uns direkt auf eine lineare Differentialgleichung 1.Ordnung führt.
+was uns direkt auf die lineare Differentialgleichung 1. Ordnung
\begin{equation}
z' = -z(f(x) + 2y_{p}g(x)) - g(x)
\end{equation}
-Diese kann nun mit den Methoden zur Lösung von linearen Differentialgleichungen 1.Ordnung gelöst werden.
-Durch die Rücksubstitution \ref{kra:equation:backsubstitution} erhält man dann die Lösung von \ref{kra:equation:riccati}.
+führt.
+Diese kann nun mit den Methoden zur Lösung von linearen Differentialgleichungen 1. Ordnung gelöst werden.
+Durch die Rücksubstitution \eqref{kra:equation:backsubstitution} erhält man dann die Lösung von \eqref{kra:equation:riccati}.
-\subsection{Matrix-Riccati Differentialgleichung} \label{kra:loesung:riccati}
-% Lösung matrix riccati
-Die Lösung der Matrix-Riccati Gleichung \ref{kra:equation:matrixriccati} erhalten wir nach \cite{kra:kalmanisae} folgendermassen
+\subsection{Matrix-Riccati-Differentialgleichung} \label{kra:loesung:riccati}
+Im Folgenden wollen wir uns anschauen wie die Matrix-Riccati-DGL entsteht und wie sie gelöst werden kann.
+Der Ausgangspunkt bildet die Matrix-Differentialgleichung
+\begin{equation}
+ \label{kra:equation:matrix-dgl}
+ \begin{pmatrix}
+ \dot{X}(t) \\
+ \dot{Y}(t)
+ \end{pmatrix}
+ =
+ \underbrace{
+ \begin{pmatrix}
+ A & B \\
+ C & D
+ \end{pmatrix}
+ }_{\displaystyle{H}},
+\end{equation}
+mit den allgemeinen quadratischen Matrizen $A, B, C$ und $D$ welche zusammen die sogennante Hamilonsche-Matrix bilden.
+Betrachten wir das Verhältniss von $Y$ zu $X$
+\[
+ P(t) = Y(t)X^{-1}
+\]
+und deren Ableitung $\dot{P}(t)$, so erhalten wir die Riccati-Matrix-DGL
+\[
+ \dot{P}(t) = C + DU - UA - UBU.
+\]
+
+Die Lösung erhalten wir dann mit
\begin{equation}
\label{kra:matrixriccati-solution}
\begin{pmatrix}
@@ -58,7 +86,7 @@ Die Lösung der Matrix-Riccati Gleichung \ref{kra:equation:matrixriccati} erhalt
\Phi(t_0, t)
\begin{pmatrix}
I(t) \\
- U_0(t)
+ P_0(t)
\end{pmatrix}
=
\begin{pmatrix}
@@ -67,11 +95,11 @@ Die Lösung der Matrix-Riccati Gleichung \ref{kra:equation:matrixriccati} erhalt
\end{pmatrix}
\begin{pmatrix}
I(t) \\
- U_0(t)
+ P_0(t)
\end{pmatrix}
\end{equation}
\begin{equation}
- U(t) =
+ P(t) =
\begin{pmatrix}
\Phi_{21}(t_0, t) + \Phi_{22}(t_0, t)
\end{pmatrix}
@@ -80,7 +108,4 @@ Die Lösung der Matrix-Riccati Gleichung \ref{kra:equation:matrixriccati} erhalt
\end{pmatrix}
^{-1}
\end{equation}
-wobei $\Phi(t, t_0)$ die sogenannte Zustandsübergangsmatrix ist.
-\begin{equation}
- \Phi(t_0, t) = e^{H(t - t_0)}
-\end{equation}
+wobei $\Phi(t_0, t) = e^{H(t - t_0)}$ die sogenannte Zustandsübergangsmatrix von \eqref{kra:equation:matrix-dgl} ist \cite{kra:kalmanisae}.
diff --git a/buch/papers/kugel/packages.tex b/buch/papers/kugel/packages.tex
index ead7653..c02589f 100644
--- a/buch/papers/kugel/packages.tex
+++ b/buch/papers/kugel/packages.tex
@@ -16,5 +16,5 @@
\node[gray, anchor = center] at ({#1 / 2}, {#2 / 2}) {\Huge \ttfamily \bfseries TODO};
\end{tikzpicture}}
-\DeclareMathOperator{\sphlaplacian}{\nabla^2_{\mathit{S}}}
-\DeclareMathOperator{\surflaplacian}{\nabla^2_{\partial \mathit{S}}}
+\DeclareMathOperator{\sphlaplacian}{\nabla^2_{S}}
+\DeclareMathOperator{\surflaplacian}{\nabla^2_{\partial S}}
diff --git a/buch/papers/kugel/preliminaries.tex b/buch/papers/kugel/preliminaries.tex
index e48abe4..1fa78d7 100644
--- a/buch/papers/kugel/preliminaries.tex
+++ b/buch/papers/kugel/preliminaries.tex
@@ -1,6 +1,6 @@
% vim:ts=2 sw=2 et spell tw=78:
-\section{Preliminaries}
+\section{Preliminaries}\label{kugel:sec:preliminaries}
The purpose of this section is to dust off some concepts that will become
important later on. This will enable us to be able to get a richer and more
@@ -318,11 +318,12 @@ convergence.
\end{definition}
\begin{theorem}[Fourier Theorem]
- \[
+ \label{fourier-theorem-1D}
+ \begin{equation*}
\lim_{N \to \infty} \left \|
f(x) - \sum_{n = -N}^N \hat{f}(n) E_n(x)
\right \|_2 = 0
- \]
+ \end{equation*}
\end{theorem}
\begin{lemma}
diff --git a/buch/papers/kugel/proofs.tex b/buch/papers/kugel/proofs.tex
index 143caa8..93b3857 100644
--- a/buch/papers/kugel/proofs.tex
+++ b/buch/papers/kugel/proofs.tex
@@ -1,5 +1,5 @@
% vim:ts=2 sw=2 et spell tw=80:
-\section{Proofs}
+\section{(long) Proofs}
\subsection{Legendre Functions} \label{kugel:sec:proofs:legendre}
@@ -166,7 +166,7 @@
\end{proof}
-\begin{lemma}
+\begin{lemma}\label{kugel:lemma:sol_associated_leg_eq}
If $Z_n(z)$ is a solution of the Legendre equation \eqref{kugel:eqn:legendre},
then
\begin{equation*}
diff --git a/buch/papers/kugel/references.bib b/buch/papers/kugel/references.bib
index e5d6452..984d555 100644
--- a/buch/papers/kugel/references.bib
+++ b/buch/papers/kugel/references.bib
@@ -17,6 +17,15 @@
file = {Submitted Version:/Users/npross/Zotero/storage/SN4YUNQC/Carvalhaes and de Barros - 2015 - The surface Laplacian technique in EEG Theory and.pdf:application/pdf},
}
+@article{usecase_recursion_paper,
+ title = {New Implementation of Legendre Polynomials for Solving Partial Differential Equations},
+ issn = {272767969},
+ url = {https://www.researchgate.net/publication/272767969_New_Implementation_of_Legendre_Polynomials_for_Solving_Partial_Differential_Equations},
+ shorttitle = {Implementation og Legendre Polynom},
+ date = {2013-12},
+ author = {Ali Davari, Abozar Ahmadi}
+}
+
@video{minutephysics_better_2021,
title = {A Better Way To Picture Atoms},
url = {https://www.youtube.com/watch?v=W2Xb2GFK2yc},
diff --git a/buch/papers/kugel/sections/Introduction.tex b/buch/papers/kugel/sections/Introduction.tex
new file mode 100644
index 0000000..cdefea7
--- /dev/null
+++ b/buch/papers/kugel/sections/Introduction.tex
@@ -0,0 +1,318 @@
+
+\section{Introduction \label{kugel:section:intro}}
+This is the part of the book devoted to the set of functions called spherical harmonics.
+However, before we dive into the topic, we want to make a few preliminary remarks that will avoid ``upsetting'' certain types of readers. \newline
+Since this is a purely mathematical topic, we felt it was appropriate to specify the mathematical style with which we will approach the various topics covered.\newline
+While writing we decided to try giving demonstrations for every theorem and statement we make. However, we would like to specify that the authors of this chapter are not mathematicians and our aim is not to prove as rigorously as possible everything we say. \newline
+A demonstration, to be rigorous, should consist of several simple steps using fundamental axioms. In our case, demonstrations are often not performed in this way, but rather we try to convince the reader that what we are saying stays well within the boundaries of a logical reasoning.\newline
+Sometimes we might also come across more handy demonstrations based on intuitive arguments, which can serve as intuition for the reader but would never be accepted in a mathematical context.\newline
+That being said, we can get on with the interesting topics.\newline
+When talking about Spherical Harmonics, one could start by describing the name. The latter could cause some confusion because of the various misleading translations into other languages, which do not fully reflect the meaning implied by the English name.\newline
+As an example, the German name for this function set is ``Kugelfunktionen'', which might imply functions defined in a spherical context, since ``Kugel'' is the german name for sphere.\newline
+In contrast, the English name contains the concept of ``harmonic,'' which fits well in this context.\newline
+In fact, harmonic analysis is the branch of mathematics that deals with the representation of functions using other fundamental ones, which are often easier to consider. These are called harmonics, and during the course of this chapter, you will learn that spherical harmonics belong to this class of functions, as indeed the name suggests.\newline
+The structure of this chapter is organized in such a way that some mathematical concepts introduced at the beginning, will later help the reader to understand the big picture of the subject discussed.\newline
+We could have performed the whole derivation without writing the chapter \ref{kugel:ssection:preleminary}. But we thought it might enhance the theory with interesting insights.\newline
+The first introductory sub-chapter is devoted to the topic of vector space.\newline
+In this section, vectors of finite dimensions. In addition, various mathematical operations defined in this space, including linear transformations, will be considered.\newline
+We will then try to extend the concept of vectors to functions. It may sound strange that we call a function a vector, but in this context it should not be understood only in terms of its geometric sense, as we will try to explain.\newline
+Having established these theoretical foundations, we may go on to the sub-chapter devoted to a well-known problem, namely, the calculation of the Eigenfunctions of the Laplace operator. This will in fact be the mathematical derivation of the spherical harmonics.\newline
+This derivation will allow us to understand in a deeper way some concepts underlying the Fourier theorem, a beloved and extensively used theorem in engineering.\newline
+In the third chapter we will study in more detail these special functions, defined in the previous chapter as spherical harmonics.\newline
+Some of the properties we found most beautiful, interesting and useful will be thoroughly presented.\newline
+To conclude this journey we decided to include some real-world applications of these functions, since being an engineer, as we are, usually means loving to make bridges between theory and practice.
+
+\subsection{Preleminary \label{kugel:ssection:preleminary}}
+The purpose of this chapter is to give a dusting off of some of the basic themes that underlie what you will read in the following subchapters.\newline
+This will enable the reader to be able to get a richer view on the topic that is presented in this chapter of the book. By not limiting it to the specific example we will cover.
+
+\subsubsection{Vector space \label{kugel:ssection:vector_space}}
+A vector space, is a mathematical space in which there are entities, which we will call vectors, and some very simple rules that govern life in this world. These rules are called axioms.
+
+Moreover, in this space, some mathematical operations are also defined, namely, addition, subtraction and linear transformations in general.\newline
+The basic axioms, listed below, are responsible for ruling the behavior and interaction of these vectors.\newline
+A vector space is a non-empty set $\mathcal{V}$ with a special element $\mathbf{0}$. The objects contained in this set are called vector.\newline
+We can define mathematical operations as well
+\begin{enumerate}
+ \item \textbf{Addition}\newline
+ Given two vectors $v_1, v_2 \in \mathcal{V}$, then
+ \begin{equation*}
+ v_3 = v_2 + v_1 \implies v_3 \in \mathcal{V}
+ \end{equation*}
+
+ \item \textbf{Scalar multiplication}\newline
+ Given a vector $v_1 \in \mathcal{V}$ and a scalar $\alpha \in \mathbb{R}$, then
+ \begin{equation*}
+ v_2 = \alpha v_1 \implies v_2 \in \mathcal{V}
+ \end{equation*}
+\end{enumerate}
+
+These operations have to satisfy the following axioms, for every $v_1,v_2,v_3 \in \mathcal{V}$ and $\alpha, \beta \in \mathbb{R}$
+\begin{enumerate}
+ \item \textbf{Additive axioms}
+ \begin{itemize}
+ \item $v_1 + v_2 = v_2 + v_1$
+ \item $(v_1+v_2)+v_3 = v_1+(v_2+v_3)$
+ \item $v_1 + \mathbf{0} = v_1$
+ \item $v_1 + (-v_1) = \mathbf{0}$
+ \end{itemize}
+
+ \item \textbf{Multiplicative axioms}
+ \begin{itemize}
+ \item $\mathbf{0}v_1= v_1$
+ \item $\mathbf{1}v_1 = v_1$
+ \item $(\alpha \beta) v_1 = \alpha (\beta v_1)$
+ \end{itemize}
+
+ \item \textbf{Distributive axioms}
+ \begin{itemize}
+ \item $\alpha (v_1 + v_2) = \alpha v_1 + \alpha v_2$
+ \item $(\alpha + \beta)v_1 = \alpha v_1 + \beta v_1$
+ \end{itemize}
+\end{enumerate}
+Therefore any mathematical environment in which these rules are met can be called a vector space.
+
+For this sub-chapter we will use vectors in the sense of geoemetric vectors but, as written earlier this concept is not limited to geometry and can be easily extended. In the next two points we want to define two fundamental concepts present in this world, namely span and independence.
+
+\paragraph{Span}
+The span of a vector space can be seen as the set of vectors that we can build using a linear combination of the basis vectors $v_1, v_2, \hdots, v_N$.
+\begin{figure}[!h]
+\centering
+\begin{tikzpicture}
+ \draw[thin,gray!40] (-1,-1) grid (4,4);
+ \draw[->] (-1,0)--(4,0);
+ \draw[->] (0,-1)--(0,4);
+ \draw[line width=1pt,-stealth](0,0)--(0,1) node[anchor=north west]{$\hat{\mathbf{x}}$};
+ \draw[line width=1pt,-stealth](0,0)--(1,0) node[anchor=north east]{$\hat{\mathbf{y}}$};
+ \draw[line width=1pt, gray,-stealth](0,0)--(1,1) node[anchor=north west]{$\hat{\mathbf{x}}'$};
+ \draw[line width=1pt, gray,-stealth](0,0)--(-1,1) node[anchor=north east]{$\hat{\mathbf{y}}'$};
+ \draw[line width=2pt,-stealth, blue](0,0)--(2,3) node[anchor=south east]{$\mathbf{P}$};
+ \draw [blue, decorate,decoration={brace, amplitude=5pt,mirror,raise=4ex}] (0,0) -- (2,0) node[midway,yshift=-3em]{2};
+ \draw [blue, decorate,decoration={brace, amplitude=5pt,raise=4ex}] (0,0) -- (0,3) node[midway,xshift=-3em]{3};
+\end{tikzpicture}
+\caption{Example of the two basis $\{\hat{\mathbf{x}}, \hat{\mathbf{x}}\}$ and $\{\hat{\mathbf{x}}', \hat{\mathbf{y}}'\}$ with a generic vector $\mathbf{P}$. \label{fig:span}}
+\end{figure}
+If we consider Fig.\ref{fig:span}, an example in $\mathbb{R}^2$ can be seen. In this case, the vector $\mathbf{P}$, can in fact be constructed using a linear combination of $\hat{\mathbf{x}}$ and $\hat{\mathbf{y}}$. One can write
+\begin{equation*}
+ \mathbf{P} = 2\hat{\mathbf{x}} + 3\hat{\mathbf{y}}
+\end{equation*}
+Potentially, the vector $\mathbf{P}$, can also be represented by a combination vectors of the $\hat{\mathbf{x}}'$ and $\hat{\mathbf{y}}'$.
+We can further extend this reasoning, because any point described using $\{\hat{\mathbf{x}},\hat{\mathbf{y}}\}$, can be described using $\{\hat{\mathbf{x}}',\hat{\mathbf{y}}'\}$ as well.
+More generally, every point in $\mathbb{R}^2$ can be reached using both basis. We can therefore state that
+\begin{equation*}
+ \text{span}\{\hat{\mathbf{x}},\hat{\mathbf{y}}\} = \text{span}\{\hat{\mathbf{x}}',\hat{\mathbf{y}}'\}.
+\end{equation*}
+This means that the span does not uniquely determine the base, but multiple bases can lead to the same span.\newline
+To summarize, we can say that any vector $v_p$, belongs to a span if it can be constructed using a linear combination of its basis vectors. In mathematical terms:
+\begin{equation}
+ v_P \in \text{span}\{v_1,v_2, \hdots, v_N\} \iff v_P = \sum_{i=1}^N \alpha_i v_i.
+\end{equation}\label{eq:def:span}
+Thus, we can say that a span is the set of all the vectors that satisfy the summation in Eq.(\ref{eq:def:span}).\newline
+An interesting remark is that, according to Eq.(\ref{eq:def:span}), a span always contains the $\mathbf{0}$ vector. That is beacuse by setting $\alpha_i = 0$, $\forall i$, we get $v_p=\mathbf{0}$.
+
+\paragraph{Independence}
+If we define a span of $N$ dimensions, consisting of $\{v_1,v_2, \hdots,v_{N}\}$, and the vector $v_N$ can be constructed using the other vectors of the span, i.e., if the vector $v_N$ does not provide any extra degrees of freedom, we can say that $v_N$ is linearly dependent, and it can be proved that
+\begin{equation*}
+ \text{span}\{v_1,v_2,..,v_{N-1}, v_{N}\} = \text{span}\{v_1,v_2,..,v_{N-1}\}.
+\end{equation*}
+Furthermore:
+\begin{equation*}
+ \#\text{dimensions of a span} = \#\text{linearly independent vectors}.
+\end{equation*}
+
+\paragraph{Inner product}
+This operation was already introduced in the chapter \ref{}. However, in this sub-section, we wanted to recall some fundamental concepts.\newline
+So far we have only considered the operations of addition and multiplication within a vector space. However, we can now introduce a third operation, namely the inner product.\newline
+In this case we will no longer speak of a simple vector space but of an \emph{inner product space}.
+This new operation is simply a function that receives two vectors as input and maps them to a scalar. This mathematical operation is represented as follows
+\begin{equation*}
+ \langle v_1,v_2 \rangle = k, \quad k \in \mathbb{R}
+\end{equation*}
+The scalar product allows us to introduce some new concepts
+\begin{itemize}
+\item \textbf{The norm}\newline
+The norm is a way to calculate the length of a vector. It can be indeed seen as a general measure for the length, that is defined as
+\begin{equation*}
+ ||v_p|| := \sqrt{\langle v_p,v_p \rangle}
+\end{equation*}
+\item \textbf{Orthogonality}\newline
+This is a concept that will be very important in the next sections.\newline
+Two vectors, $v_1$ and $v_2$, are said to be orthogonal if and only if the inner product of them is equal to zero. More formally:
+\begin{equation*}
+ \text{$v_1$ is orthogonal to $v_2$} \iff \langle v_1,v_2 \rangle = 0
+\end{equation*}
+\end{itemize}
+From the concept of orthogonality, it follows that an orthogonal basis can be defined as a set of vectors, whereby
+\begin{equation*}
+\{v_1,v_2,..., v_N\} \text{ is an orthogonal basis } \iff <v_n, v_m> = 0, \quad \text{if } m \neq n.
+\end{equation*}
+We can also consider a more restrictive case. For example, if we are dealing with a set of orthogonal \emph{unit} vectors, we can speak of an \emph{ortonormal} basis. The conditions will then become
+\begin{equation*}
+\{v_1,v_2,..., v_N\} \text{ is an orthonormal basis } \iff
+\begin{cases}
+ <v_n, v_m>=0, &\text{if } m \neq n \\
+ <v_n, v_m>=1, &\text{if } m = n
+\end{cases}.
+\end{equation*}
+
+\paragraph{Projection of a space into a subspace}
+A subspace is simply a vector space that is a subset of a larger (higher-dimensional) vector space, which is thus contained in it.\newline
+For example, all vectors that are on a line passing through the origin form a subspace of $\mathbb{R}^2$. The same holds for all vectors defined on a plane passing through the origin, which itself forms a subspace of $\mathbb{R}^3$.\newline
+It can be shown that a subspace is also a vector space, which can consequently be represented with an orthonormal vector span.\newline
+Suppose now that we have a vector $\mathbf{P}$ in three dimensions (we still remain in the geometric context to give examples) and suppose further that we want to compute its projection in a subspace of two dimensions.\newline
+Suppose now that we have a vector P in three dimensions (we still remain in the geometric context
+to give examples) and that we want to compute its projection in a subspace of two
+dimensions.
+In a nutshell we want to take a vector, represented with the basis vectors $\{\hat{\mathbf{x}}', \hat{\mathbf{y}}', \hat{\mathbf{z}}'\}$, and project it into the plane spanned by $\{\hat{\mathbf{x}}, \hat{\mathbf{y}}\}$.\newline
+It can easily be seen that $\{\hat{\mathbf{x}}', \hat{\mathbf{y}}', \hat{\mathbf{z}}'\}$ spans $\mathbb{R}^3$. Thus we want to go from a span in three dimensions to one in two.
+\begin{figure}[!h]
+\centering
+\begin{tikzpicture}[scale=3]
+ \filldraw[
+ draw=gray,%
+ fill=gray!20,%
+ ] (0,0,0)
+ -- (1.5,0,0)
+ -- (1.5,0,1.5)
+ -- (0,0,1.5)
+ -- cycle;
+ \draw[thick,->] (0,0,0) -- (1.7,0,0) node[anchor=north east]{$y$};
+ \draw[thick,->] (0,0,0) -- (0,1,0) node[anchor=north west]{$z$};
+ \draw[thick,->] (0,0,0) -- (0,0,1.7) node[anchor=south, xshift=-0.5em]{$x$};
+ \draw[line width=1.6pt, -stealth] (0,0,0)--(1,1,1) node[anchor=south]{$\mathbf{P}$};
+ \draw[line width=0.8pt, -stealth] (0,0,0)--(1,0,1) node[anchor=north west, yshift=0.5em]{$\tilde{\mathbf{P}}$};
+ \draw[line width=1.1pt, -stealth] (0,0,0)--(0,0,1) node[anchor=south east]{$\alpha_1 \hat{\mathbf{x}}$};
+ \draw[line width=1.1pt, -stealth] (0,0,0)--(1,0,0) node[anchor=south]{$\alpha_2 \hat{\mathbf{y}}$};
+ \draw[dashed, -] (1,0,1)--(0,0,1);
+ \draw[dashed, -] (1,0,1)--(1,0,0);
+ \draw[dashed, -] (1,0,1)--(1,1,1);
+
+ \draw[line width=1.1pt, -stealth, blue] (0,0,0)--(2*0.15,0.15,0) node[anchor=west]{$\hat{\mathbf{y}}'$};
+ \draw[line width=1.1pt, -stealth, blue] (0,0,0)--(0,0.15,2*0.15) node[anchor=east]{$\hat{\mathbf{x}}'$};
+ \draw[line width=1.1pt, -stealth, blue] (0,0,0)--(0.15,2*0.15,0) node[anchor=south]{$\hat{\mathbf{z}}'$};
+\end{tikzpicture}
+\caption{ \label{fig:projection_example}}
+\end{figure}
+If we consider Fig.(\ref{fig:projection_example}), we can visualize the problem by asking ourself: having $\mathbf{P}, \hat{\mathbf{x}}$ and $\hat{\mathbf{y}}$, how do we calculate $\alpha_1$ and $\alpha_2$?\newline
+Let's say the vector $\mathbf{P}$ in $\mathbb{R}^3$ is defined as follows:
+\begin{equation*}
+\mathbf{P} = \alpha_1' \hat{\mathbf{x}}' + \alpha_2' \hat{\mathbf{y}}' + \alpha_3' \hat{\mathbf{z}}',
+\end{equation*}
+with
+\begin{align*}
+ \hat{\mathbf{x}}' &= \frac{\hat{\mathbf{x}}+\hat{\mathbf{z}}}{\sqrt{2}},\\
+ \hat{\mathbf{y}}' &= \frac{2\hat{\mathbf{y}}+\hat{\mathbf{z}}}{\sqrt{3}},\\
+ \hat{\mathbf{z}}' &= \frac{\hat{\mathbf{y}}+2\hat{\mathbf{z}}}{\sqrt{3}}.
+\end{align*}
+Then, a way to project the vector $\mathbf{P}$ without knowing the coefficients of its basis vectors a priori (in this case the coefficients $\alpha_i'$) must be find.\newline
+This can be done using the inner product defined above.\newline
+The idea is to take $\mathbf{P}$, and project it onto the various axes we have available. Assuming that the basis we want to use in $\mathbb{R}^2$ is also orthonormal, we can write
+\begin{align*}
+\tilde{\mathbf{P}} &= \langle \mathbf{P}, \hat{\mathbf{x}} \rangle \hat{\mathbf{x}} + \langle \mathbf{P}, \hat{\mathbf{y}} \rangle \hat{\mathbf{y}}\\
+&= \alpha_1 \hat{\mathbf{x}} + \alpha_2 \hat{\mathbf{y}}
+\end{align*}
+In an unformal way we might say that we want to know ``how much of each axis'' is contained in $\mathbf{P}$. That is, how much information contained in $\mathbf{P}$, we can describe, using $\hat{\mathbf{x}}$ and $\hat{\mathbf{y}}$, respectively.\newline
+It can be shown that the projection we obtain is the representation in fewer dimensions, which is closest to the original vector $\mathbf{P}$, meaning
+\begin{equation*}
+\text{min} \big\{ ||\mathbf{P}-v|| \big\} = ||\mathbf{P}-\tilde{\mathbf{P}}||,\quad v \in \text{span}\{ \hat{\mathbf{x}},\hat{\mathbf{y}} \}.
+\end{equation*}
+
+The theory just expla
+ined applies to any projection of a space into its subspace. As long as the vectors of both bases are orthonormal.\newline
+In the case they were orthogonal with minor adjustments the same result can be obtained.
+In the most general case we can say that:\newline
+a vector $\mathbf{v}$, can be represented in any orthogonal basis $\{v_1,v_2,\hdots,v_N\}$ as follows:
+\begin{equation}
+\mathbf{v} = \sum_{i=1}^N \alpha_i v_i
+\label{eq:projection}
+\end{equation}
+To calculate the coefficient $\alpha_i$, we can apply a scalar product on both sides of Eq.(\ref{eq:projection}), obtaining
+\begin{align*}
+\langle \mathbf{v}, v_j \rangle &= \left\langle \sum_{i=1}^N \alpha_i v_i, v_j \right\rangle \\
+&= \sum_{i=1}^N \langle \alpha_i v_i, v_j \rangle \\
+&= \alpha_j \langle v_j, v_j \rangle \implies \alpha_i = \frac{\langle \mathbf{v}, v_j \rangle}{\langle v_i, v_i \rangle}
+\end{align*}
+We then have a way to represent a vector in $n$ dimensions, using fewer dimensions, in the closest possible way.
+
+Up to this point we have not yet defined the specific operation of inner product, that is, how it is practically calculated.\newline
+As written earlier the inner product is an operation that maps two vectors to a real number. It is additionally defined according to these axioms
+\begin{enumerate}
+\item \textbf{Linearity}
+\begin{align*}
+\langle \alpha v_1 + \beta v_2, v_3 \rangle &= \alpha \langle v_1, v_3 \rangle + \beta \langle v_2, v_3 \rangle \\
+\langle v_1, \alpha v_2 + \beta v_3 \rangle &= \overline{\alpha} \langle v_1, v_2 \rangle + \overline{\beta} \langle v_1, v_3 \rangle
+\end{align*}
+\item \textbf{Conjugate Symmetry}
+\begin{equation*}
+\langle v_1, v_2 \rangle = \overline{ \langle v_2, v_1 \rangle}
+\end{equation*}
+\item \textbf{Positive-definiteness}
+\begin{align*}
+\langle v_1, v_1 \rangle &\geq 0 \\
+\langle v_1, v_1 \rangle &= 0 \iff v_1= \mathbf{0}
+\end{align*}
+\end{enumerate}
+These axioms do not imply a uniqueness of the inner product. We can therefore define it as we think best.\newline
+One possible definition, which meets all the axioms, in the case of vectors of finite size is the vector product, i.e.
+\begin{equation*}
+\langle v_1,v_2 \rangle := v_1 \cdot \overline{v_2}
+\end{equation*}
+We might note that when we talk about functions this operation will have to be redefined.
+
+\subsubsection{Eigenvector \label{kugel:ssection:eigenvector}}
+We do not want to spend much time on this concept, since at the bachelor's level we assume it has been explained and much used in almost all engineering fields.
+In a nutshell, an eigenvecotor of a linear transformation $\mathcal{T}\{\cdot\}$, in the context of linear algebra, is a nonzero vector that, when the linear transformation $\mathcal{T}\{\cdot\}$ is applied on it, satisfies the following equation
+\begin{equation}
+\mathcal{T}\{v_1\} = \lambda v_1
+\label{eq:eigvec}
+\end{equation}
+Where $\lambda$ is called eigenvalue.\newline
+Linear transformations can be viewed in general as a mapping between two vector spaces. This mapping preserves the operation of scalar multiplication and satisfies the distributive property.\newline
+Recall that, if we consider a finite dimensional vector space, a linear transformation can be represented using a projection matrix, let's say $\mathbf{A}$.
+Thus, finding a vector $\mathbf{v}$, which satisfies Eq.(\ref{eq:eigvec}) is equivalent to solving the following matrix equation
+\begin{equation*}
+\text{det}(\mathbf{A} - \lambda \mathbf{I} ) = 0
+\end{equation*}
+This concept will then be extended to vector spaces of infinite dimensions in the next subsection.
+
+\subsubsection{Function space \label{kugel:ssection:function_space}}
+Up to this point, for each example, we have considered vectors in a geometric context. However, if we consider each axiom defined above, it is very general and not at all specific, as mathematicians like.\newline
+We can see that not only geometric vectors satisfy these axioms. In fact, another mathematical entity that does are functions.\newline
+So we can say that the set of all mathematical functions is a vector space.\newline
+We can at least check whether this statement makes sense.\newline
+Let us consider two functions $f_1(x), f_2(x)$, both with support on $\mathbb{R}$, then $f(x) = f_1(x) + f_2(x)$, still a function defined in $\mathbb{R}$.\newline
+The same is true if we multiply $f(x)$ by a constant, we remain in the space of functions defined in $\mathbb{R}$.\newline
+With these two statements we have verified that the operations of sum and scalar multiplication still have the closure property. The addition, multiplication and distributive axioms can also be verified. However, we will not do that here.\newline
+Therefore, the power of linear algebra allows us to consider functions as vectors. It follows that all the concepts defined earlier in \ref{kugel:ssection:vector_space} can be extended to functions.\newline
+We can then have a set of basis functions, we can project functions into subspaces, have the concept of orthogonality, etc.\newline
+The most famous application of this generalization of vector spaces into function spaces is probably \emph{Fourier} (at least for engineers).\newline
+What is done with \emph{Fourier} is to take a function, defined in a function space with specific basis functions and project it to another basis, where the basis functions are sines and cosines. Fourier is thus a simple change of basis.
+
+\subsubsection{Eigenfunction \label{kugel:ssection:eigenfuntion}}
+As in the case of vector spaces we have the possibility of defining linear operators.\newline
+Suppose we have two vector spaces $\mathcal{A}$ and $\mathcal{B}$ (complex or real). A mapping between $\mathcal{A}$ and $\mathcal{B}$, defined as $\mathcal{T}\{\cdot\}$, is called linear if
+\begin{itemize}
+\item it is homogeneous, i.e:
+\begin{equation*}
+ \mathcal{T}\{\lambda x\} = \lambda \mathcal{T}\{x\},
+\end{equation*}
+\item it is additive, i.e:
+\begin{equation*}
+ \mathcal{T}\{x+y\} = \mathcal{T}\{x\}+\mathcal{T}\{y\}.
+\end{equation*}
+\end{itemize}
+In the case of finite-dimensional vector spaces, as written earlier, we can consider these linear transformations as matrices, in fact we can map, for example, a vector space $\mathbb{R}^n$ onto $\mathbb{R}^m$, using a matrix of dimension $n \times m$.\newline
+However, we can define operators for vector spaces of infinite dimensions (in this case, function spaces) too.\newline
+For example, the derivative is an operator that maps functions from $C^1\to C$, where $C^1$ is the set of all once differentiable functions and $C$ denotes the set of continuous and real functions.\newline
+In the case of operators defined in finite-dimensional vector spaces, we can compute eigenvectors. In function spaces we have mathematical objects with the same properties, we will refer to them as \emph{eigenfunctions}.\newline
+An eigenfunction of an operator $\mathcal{T}\{\cdot\}$, analogous to the eigenvector, is a function that satisfies the following equation:
+\begin{equation*}
+\mathcal{T}\{f(x)\} = \lambda f(x).
+\end{equation*}
+A couple of examples are
+\begin{itemize}
+\item For the differential operator $\dfrac{d}{dx}\{\cdot\}$, the function $e^{ax}$ is an eigenfunction.
+\item For the fourier operator $\mathcal{F}\{\cdot\}$, the \emph{Gaussian function} $e^{-\frac{(x-\mu)^2}{2\sigma^2}}$.
+\item $\hdots$
+\end{itemize}
+Another example of a linear operator is the \emph{Laplace operator} $\nabla^2$, which is very important in engineering and mathematics. Its eigenfunctions will not be discussed in this subsection because the next section is devoted entirely to them. \ No newline at end of file
diff --git a/buch/papers/kugel/spherical-harmonics.tex b/buch/papers/kugel/spherical-harmonics.tex
index bff91ef..9349b61 100644
--- a/buch/papers/kugel/spherical-harmonics.tex
+++ b/buch/papers/kugel/spherical-harmonics.tex
@@ -111,7 +111,10 @@ that satisfy the equation
\surflaplacian f = -\lambda f.
\end{equation}
Perhaps it may not be obvious at first glance, but we are in fact dealing with a
-partial differential equation (PDE) \kugeltodo{Boundary conditions?}. If we
+partial differential equation (PDE)\footnote{
+ Considering the fact that we are dealing with a PDE,
+ you may be wondering what are the boundary conditions. Well, since this eigenvalue problem is been developed on
+ the spherical surface (boundary of a sphere), the boundary in this case are empty, i.e no boundary condition has to be considered.}.
unpack the notation of the operator $\nabla^2_{\partial S}$ according to
definition
\ref{kugel:def:surface-laplacian}, we get:
@@ -283,7 +286,7 @@ representation} which are
\end{equation*}
respectively, both of which we will not prove (see chapter 3 of
\cite{bell_special_2004} for a proof). Now that we have a solution for the
-Legendre equation, we can make use of the following lemma patch the solutions
+Legendre equation, we can make use of the following lemma to patch the solutions
such that they also become solutions of the associated Legendre equation
\eqref{kugel:eqn:associated-legendre}.
@@ -313,24 +316,19 @@ obtain the \emph{associated Legendre functions}.
The functions
\begin{equation}
P^m_n (z) = (1-z^2)^{\frac{m}{2}}\frac{d^{m}}{dz^{m}} P_n(z)
- = \frac{1}{2^n n!}(1-z^2)^{\frac{m}{2}}\frac{d^{m+n}}{dz^{m+n}}(1-z^2)^n
+ = \frac{1}{2^n n!}(1-z^2)^{\frac{m}{2}}\frac{d^{m+n}}{dz^{m+n}}(1-z^2)^n, \quad |m|<n
\end{equation}
are known as Ferrers or associated Legendre functions.
\end{definition}
+The constraint $|m|<n$, can be justified by considering eq.\eqref{kugel:eq:associated_leg_func}, where we differentiate $m+n$ times. We all know that a differentiation, to be well defined, must have an order that is greater than zero \kugeltodo{is that always true?}. Furthermore, it can be seen that this derivative is applied on a polynomial of degree $2n$. As is known from Calculus 1, if you derive a polynomial of degree $2n$ more than $2n$ times, you get zero, that would be a trivial solution. This is the power of zero: It is almost always a (boring) solution.
-\kugeltodo{Discuss $|m| \leq n$.}
-
-\if 0
-The constraint $|m|<n$, can be justified by considering Eq.\eqref{kugel:eq:associated_leg_func}, in which the derivative of degree $m+n$ is present. A derivative to be well defined must have an order that is greater than zero. Furthermore, it can be seen that this derivative is applied on a polynomial of degree $2n$. As is known from Calculus 1, if you derive a polynomial of degree $2n$ more than $2n$ times, you get zero, which is a trivial solution in which we are not interested.\newline
We can thus summarize these two conditions by writing:
\begin{equation*}
\begin{rcases}
m+n \leq 2n &\implies m \leq n \\
m+n \geq 0 &\implies m \geq -n
- \end{rcases} |m| \leq n.
+ \end{rcases} \; |m| \leq n.
\end{equation*}
-The set of functions in Eq.\eqref{kugel:eq:sph_harm_0} is named \emph{Spherical Harmonics}, which are the eigenfunctions of the Laplace operator on the \emph{spherical surface domain}, which is exactly what we were looking for at the beginning of this section.
-\fi
\subsection{Spherical Harmonics}
@@ -339,13 +337,13 @@ section \ref{kugel:sec:construction:eigenvalue}. We had left off in the middle
of the separation, were we had used the Ansatz $f(\vartheta, \varphi) =
\Theta(\vartheta) \Phi(\varphi)$ to find that $\Phi(\varphi) = e^{im\varphi}$,
and we were solving for $\Theta(\vartheta)$. As you may recall, previously we
-performed the substitution $z = \cos \vartheta$. Now we can finally to bring back the
+performed the substitution $z = \cos \vartheta$. Now we can finally bring back the
solution to the associated Legendre equation $P^m_n(z)$ into the $\vartheta$
domain and combine it with $\Phi(\varphi)$ to get the full result:
\begin{equation*}
f(\vartheta, \varphi)
= \Theta(\vartheta)\Phi(\varphi)
- = P^m_n (\cos \vartheta) e^{im\varphi}.
+ = P^m_n (\cos \vartheta) e^{im\varphi}, \quad |m|<n.
\end{equation*}
This family of functions, which recall are the solutions of the eigenvalue
problem of the surface spherical Laplacian, are the long anticipated
@@ -356,9 +354,9 @@ $Y^m_n(\vartheta, \varphi)$.
\label{kugel:def:spherical-harmonics}
The functions
\begin{equation*}
- Y^m_n (\vartheta, \varphi) = P^m_n(\cos \vartheta) e^{im\varphi},
+ Y^m_n (\vartheta, \varphi) = P^m_n(\cos \vartheta) e^{im\varphi}, \quad |m|<n
\end{equation*}
- where $m, n \in \mathbb{Z}$ and $|m| < n$ are called (unnormalized) spherical
+ where $m, n \in \mathbb{Z}$ are called (unnormalized) spherical
harmonics.
\end{definition}
@@ -507,7 +505,7 @@ product:
\begin{definition}[Inner product in $S^2$]
\label{kugel:def:inner-product-s2}
- For 2 complex valued functions $f(\vartheta, \varphi)$ and $g(\vartheta,
+ For two complex valued functions $f(\vartheta, \varphi)$ and $g(\vartheta,
\varphi)$ on the surface of the sphere the inner product is defined to be
\begin{equation*}
\langle f, g \rangle
@@ -520,36 +518,35 @@ product:
\begin{theorem} For the (unnormalized) spherical harmonics
\label{kugel:thm:spherical-harmonics-ortho}
- \begin{align*}
+ \begin{align}
\langle Y^m_n, Y^{m'}_{n'} \rangle
&= \int_{0}^\pi \int_0^{2\pi}
Y^m_n(\vartheta, \varphi) \overline{Y^{m'}_{n'}(\vartheta, \varphi)}
\sin \vartheta \, d\varphi \, d\vartheta
- \\
+ \label{kugel:eq:spherical-harmonics-inner-prod} \\
&= \frac{4\pi}{2n + 1} \frac{(m + n)!}{(n - m)!} \delta_{nn'} \delta_{mm'}
= \begin{cases}
\frac{4\pi}{2n + 1} \frac{(m + n)!}{(n - m)!}
- & \text{if } n = n' \text{ and } m = m', \\
+ & \text{if } n = n' \text{ and } m = m', \nonumber \\
0 & \text{otherwise}.
\end{cases}
- \end{align*}
+ \end{align}
\end{theorem}
\begin{proof}
We will begin by doing a bit of algebraic maipulaiton:
\begin{align*}
\int_{0}^\pi \int_0^{2\pi}
- Y^m_n(\vartheta, \varphi) \overline{Y^{m'}_{n'}(\vartheta, \varphi)}
+ Y^m_n(\vartheta, \varphi) \overline{Y^{m'}_{n'}(\vartheta, \varphi)}
\sin \vartheta \, d\varphi \, d\vartheta
&= \int_{0}^\pi \int_0^{2\pi}
e^{im\varphi} P^m_n(\cos \vartheta)
e^{-im'\varphi} P^{m'}_{n'}(\cos \vartheta)
- \, d\varphi \sin \vartheta \, d\vartheta
+ \, d\varphi \sin \vartheta \, d\vartheta
\\
&= \int_{0}^\pi
- P^m_n(\cos \vartheta) P^{m'}_{n'}(\cos \vartheta)
+ P^m_n(\cos \vartheta) P^{m'}_{n'}(\cos \vartheta) \sin \vartheta \, d\vartheta
\int_0^{2\pi} e^{i(m - m')\varphi}
- \, d\varphi \sin \vartheta \, d\vartheta
- .
+ \, d\varphi.
\end{align*}
First, notice that the associated Legendre polynomials are assumed to be real,
and are thus unaffected by the complex conjugation. Then, we can see that when
@@ -564,12 +561,15 @@ product:
\end{equation*}
where in the second step we performed the substitution $z = \cos\vartheta$;
$d\vartheta = \frac{d\vartheta}{dz} dz= - dz / \sin \vartheta$, and then we
- used lemma \ref{kugel:thm:associated-legendre-ortho}. We are allowed to use
- the lemma because $m = m'$.
-
+ used lemma \ref{kugel:thm:associated-legendre-ortho}.
+ We are allowed to use
+ the lemma because $m = m'$. After the just mentioned substitution we can write eq.\eqref{kugel:eq:spherical-harmonics-inner-prod} in this form
+ \begin{equation*}
+ \langle Y^m_n, Y^{m'}_{n'} \rangle_{\partial S} = \langle P^m_n, P^{m'}_{n'} \rangle_z \; \langle e^{im\varphi}, e^{-im'\varphi} \rangle_\varphi.
+ \end{equation*}
Now we just need look at the case when $m \neq m'$. Fortunately this is
easier: the inner integral is $\int_0^{2\pi} e^{i(m - m')\varphi} d\varphi$,
- or in other words we are integrating a complex exponetial over the entire
+ or in other words we are integrating a complex exponential over the entire
period, which always results in zero. Thus, we do not need to do anything and
the proof is complete.
\end{proof}
@@ -619,11 +619,9 @@ regrettably sometimes even ourselves, would write instead:
reader.
\end{proof}
-Lemma \ref{kugel:thm:legendre-poly-ortho} has a very similar
-proof, while the theorem \ref{kugel:thm:spherical-harmonics-ortho} for the
-spherical harmonics is proved by the following argument. The spherical harmonics
-are the solutions to the eigenvalue problem $\surflaplacian f = -\lambda f$,
-which as discussed in the previous section is solved using separation. So to
+Lemma \ref{kugel:thm:legendre-poly-ortho} has a very similar proof, while the theorem \ref{kugel:thm:spherical-harmonics-ortho} for the spherical harmonics is proved by the following argument.
+The spherical harmonics are the solutions to the eigenvalue problem $\surflaplacian f = -\lambda f$,
+which as discussed in the previous section is solved using the separation Ansatz. So to
prove their orthogonality using the Sturm-Liouville theory we argue that
\begin{equation*}
\surflaplacian = L_\vartheta L_\varphi \iff
@@ -687,26 +685,196 @@ harmonics, so from now on, unless specified otherwise when we say spherical
harmonics or write $Y^m_n$, we mean the orthonormal spherical harmonics of
definition \ref{kugel:def:spherical-harmonics-orthonormal}.
-\subsection{Recurrence Relations}
+\subsection{Recurrence Relations}\kugeltodo{replace x with z}
+The idea of this subsection is to introduce first some recursive relations regarding the Associated Legendre Functions, defined in eq.\eqref{kugel:def:ferrers-functions}. Subsequently we will extend them, in order to derive recurrence formulas for the case of Spherical Harmonic functions as well.
+\subsubsection{Associated Legendre Functions}
+To start this journey, we can first write the following equations, which relate the Associated Legendre functions of different indeces $m$ and $n$ recursively:
+\begin{subequations}
+ \begin{align}
+ P^m_n(z) &= \dfrac{1}{(2n+1)x} \left[ (m+n) P^m_{n-1}(z) + (n-m+1) P^m_{n+1}(z) \right] \label{kugel:eq:rec-leg-1} \\
+ P^m_n(z) &= \dfrac{\sqrt{1-z^2}}{2mz} \left[ P^{m+1}_n(z) + [n(n+1)-m(m-1)] P^{m-1}_n(z) \right] \label{kugel:eq:rec-leg-2} \\
+ P^m_n(z) &= \dfrac{1}{(2n+1)\sqrt{1-z^2}} \left[ P^{m+1}_{n+1}(z) - P^{m+1}_{n-1}(z) \right] \label{kugel:eq:rec-leg-3} \\
+ P^m_n(z) &= \dfrac{1}{(2n+1)\sqrt{1-z^2}} \left[ (n+m)(n+m-1)P^{m-1}_{n-1}(z) - (n-m+1)(n-m+2)P^{m-1}_{n+1}(z) \right] \label{kugel:eq:rec-leg-4}
+ \end{align}
+\end{subequations}
+Much of the effort will be proving this bunch of equalities. Then, in the second part, where we will derive the recursion equations for $Y^m_n(\vartheta,\varphi)$, we will basically reuse the ones presented above.
+
+Maybe it is worth mentioning at least one use case for these relations: In some software implementations (that include lighting computations in computer graphics, antenna modelling softwares, 3-D modelling in medical applications, etc.)
+they are widely used, as they lead to better numerical accuracy and computational cost lower by a factor of six\cite{usecase_recursion_paper}.
+\begin{enumerate}[(i)]
+ \item
+ \begin{proof}
+ This is the relation that links the associated Legendre functions with the same $m$ index but different $n$. Using \ref{} \kugeltodo{search the general equation of recursion for orthogonal polynomials (is somewhere in the book)}, we have
+ \begin{equation*}
+ (n+1)P_{n+1}(z)-(2n+1)xP_n(z)+nP_{n-1}(z)=0,
+ \end{equation*}
+ that can be differentiated $m$ times, obtaining
+ \begin{equation}\label{kugel:eq:rec_1}
+ (n+1)\frac{d^mP_{n+1}}{dz^m}-(2n+1) \left[z \frac{d^m P_n}{dz^m}+ m\frac{d^{m-1}P_{n-1}}{dz^{m-1}} \right] + n\frac{d^m P_{n-1}}{dz^m}=0.
+ \end{equation}
+ To continue this derivation, we need the following relation:
+ \begin{equation}\label{kugel:eq:rec_2}
+ \frac{dP_{n+1}}{dz} - \frac{dP_{n-1}}{dz} = (2n+1)P_n.
+ \end{equation}
+ The latter will not be derived, because it suffices to use the definition of the Legendre Polynomials $P_n(x)$ to check it.
+
+ We can now differentiate the just presented eq.\eqref{kugel:eq:rec_2} $m-1$ times, that will become
+ \begin{equation}\label{kugel:eq:rec_3}
+ \frac{d^mP_{n+1}}{dx^m} - \frac{d^mP_{n-1}}{dx^m} = (2n+1)\frac{d^{m-1}P_n}{dx^{m-1}}.
+ \end{equation}
+ Then, using eq.\eqref{kugel:eq:rec_3} in eq.\eqref{kugel:eq:rec_1}, we will have
+ \begin{equation}\label{kugel:eq:rec_4}
+ (n+1)\frac{d^mP_{n+1}}{dx^m}- (2n+1)\frac{d^mP_{n+1}}{dx^m} -m\left[\frac{d^m P_{n+1}}{dx^m}+ \frac{d^{m}P_{n-1}}{dx^m}\right] + n\frac{d^m P_{n-1}}{dx^m}=0.
+ \end{equation}
+ Finally, multiplying both sides by $(1-x^2)^{\frac{m}{2}}$ and simplifying the expression, we can rewrite eq.\eqref{kugel:eq:rec_4} in terms of $P^m_n(x)$, namely
+ \begin{equation*}
+ (n+1-m)P^m_{n+1}(x)-(2n+1)xP^m_n(x)+(m+n)P^m_{n-1}(x)=0,
+ \end{equation*}
+ that rearranged, will be
+ \begin{equation*}
+ (2n+1) x P^m_n(x)= (m+n) P^m_{n-1}(x) + (n-m+1) P^m_{n+1}(x).
+ \end{equation*}
+ \end{proof}
+
+ \item
+ \begin{proof}
+ This relation, unlike the previous one, link three expression with the same $n$ index but different $m$.
+
+ In the proof of Lemma \ref{kugel:lemma:sol_associated_leg_eq}, at some point we ran into this expression.
+ \begin{equation*}
+ (1-x^2)\frac{d^{m+2}P_n}{dx^{m+2}} - 2(m+1)x \frac{d^{m+1}P_n}{dx^{m+1}} + [n(n+1)-m(m+1)]\frac{d^mP_n}{dx^m} = 0,
+ \end{equation*}
+ that, if multiplied by $(1-x^2)^{\frac{m}{2}}$, will be
+ \begin{equation*}
+ (1-x^2)^{\frac{m}{2}+1}\frac{d^{m+2}P_n}{dx^{m+2}} - 2(m+1)x (1-x^2)^{\frac{m}{2}}\frac{d^{m+1}P_n}{dx^{m+1}} + [n(n+1)-m(m+1)](1-x^2)^{\frac{m}{2}}\frac{d^mP_n}{dx^m} = 0.
+ \end{equation*}
+ Therefore, as before, expressing it in terms of $P^m_n(x)$:
+ \begin{equation*}
+ P^{m+2}_n(x) - \frac{2(m+1)x}{\sqrt{1-x^2}}P^{m+1}_n(x) + [n(n+1)-m(m+1)]P^m_n(x)=0.
+ \end{equation*}
+ Further, we can adjust the indeces and terms, obtaining
+ \begin{equation*}
+ \frac{2mx}{\sqrt{(1-x^2)}} P^m_n(x) = P^{m+1}_n(x) + [n(n+1)-m(m-1)] P^{m-1}_n(x).
+ \end{equation*}
+
+ \end{proof}
+
+ \item
+ \begin{proof}
+ To derive this expression, we can multiply eq.\eqref{kugel:eq:rec_3} by $(1-x^2)^{\frac{m}{2}}$ and, as always, we could express it in terms of $P^m_n(x)$:
+ \begin{equation*}
+ P^m_{n+1}(x) - P^m_{n-1}(x) = (2n+1)\sqrt{1-x^2}P^{m-1}_n(x).
+ \end{equation*}
+ Afer that we can divide by $2n+1$ resulting in
+ \begin{equation}\label{kugel:eq:helper}
+ \frac{1}{2n+1}[P^m_{n+1}(x) - P^m_{n-1}(x)] = \sqrt{1-x^2}P^{m-1}_n(x).
+ \end{equation}
+ To conclude, we arrange the indeces differently:
+ \begin{equation*}
+ \sqrt{1-x^2}P^{m}_n(x)=\frac{1}{2n+1}[P^{m+1}_{n+1}(x) - P^{m+1}_{n-1}(x)].
+ \end{equation*}
+ \end{proof}
+
+ \item
+ \begin{proof}
+ For this proof we can rely on eq.\eqref{kugel:eq:rec-leg-1}, and therefore rewrite eq.\eqref{kugel:eq:rec-leg-2} as
+ \begin{equation*}
+ \frac{2m}{(2n+1)\sqrt{1-x^2}} \left[ (m+n)P^m_{n-1}(x) + (n-m+1)P^m_{n+1}(x) \right] = P^{m+1}_n(x) + [ n(n+1)-m(m-1) ]P^{m-1}_n(x).
+ \end{equation*}
+ Rewriting then $P^{m-1}_n(x)$ using eq.\eqref{kugel:eq:helper}, we will have
+ \begin{align*}
+ \frac{2m}{(2n+1)\sqrt{1-x^2}} &\left[ (m+n)P^m_{n-1}(x) + (n-m+1)P^m_{n+1}(x) \right] = P^{m+1}_n(x) \\
+ &+ \frac{n(n+1)-m(m-1)}{(2n+1)\sqrt{1-x^2}} \left[ P^m_{n+1}(x)-P^m_{n-1}(x) \right].
+ \end{align*}
+ The last equation, after some algebric rearrangements, it is easy to show that it is equivalent to
+ \begin{equation*}
+ \sqrt{1-x^2} P^m_n(x) = \dfrac{1}{2n+1} \left[ (n+m)(n+m-1)P^{m-1}_{n-1}(x) - (n-m+1)(n-m+2)P^{m-1}_{n+1}(x) \right]
+ \end{equation*}
+ \end{proof}
+
+\end{enumerate}
+
+\subsubsection{Spherical Harmonics}
+The goal of this subsection's part is to apply the recurrence relations of the $P^m_n(z)$ functions to the Spherical Harmonics.
+With some little adjustments we will be able to have recursion equations for them too. As previously written the most of the work is already done. Now it is only a matter of minor mathematical operations/rearrangements.
+
+We can start by listing all of them:
+\begin{subequations}
+ \begin{align}
+ Y^m_n(\vartheta, \varphi) &= \dfrac{1}{(2n+1)\cos \vartheta} \left[ (m+n)Y^m_{n-1}(\vartheta, \varphi) + (m-n+1)Y^m_{n+1}(\vartheta, \varphi) \right] \label{kugel:eq:rec-sph_harm-1} \\
+ Y^m_n(\vartheta, \varphi) &= \dfrac{\tan \vartheta}{2m}\left[ Y^{m+1}_n(\vartheta, \varphi)e^{-i\varphi} + [n(n+1)-m(m-1)]Y^{m-1}_n(\vartheta, \varphi)e^{i\varphi} \right] \label{kugel:eq:rec-sph_harm-2} \\
+ Y^m_n(\vartheta, \varphi) &= \dfrac{e^{-i\varphi}}{ (2n+1)\sin \vartheta } \left[ Y^{m+1}_{n+1}(\vartheta, \varphi) - Y^{m+1}_{n-1}(\vartheta, \varphi) \right] \label{kugel:eq:rec-sph_harm-3} \\
+ Y^m_n(\vartheta, \varphi) &= \dfrac{e^{i\varphi}}{(2n+1)\sin \vartheta} \left[ (n+m)(n+m-1)Y^{m-1}_{n-1}(\vartheta, \varphi) - (n-m+1)(n-m+2)Y^{m-1}_{n+1}(\vartheta, \varphi) \right] \label{kugel:eq:rec-sph_harm-4}
+ \end{align}
+\end{subequations}
-\section{Series Expansions in $L^2(S^2)$}
+\begin{enumerate}[(i)]
+ \item
+ \begin{proof}
+ We can multiply both sides of equality in eq.\eqref{kugel:eq:rec-leg-1} by $e^{im \varphi}$ and perform the substitution $z=\cos \vartheta$. After a few simple algebraic steps, we will obtain the relation we are looking for
+ \end{proof}
+ \item
+ \begin{proof}
+ In this proof, as before, we can perform the substitution $z=\cos \vartheta$, and notice that $\sqrt{1-z^2}=\sin \vartheta$, hence, the relation in eq.\eqref{kugel:eq:rec-leg-2} will be
+ \begin{equation*}
+ \frac{2m \cos \vartheta}{\sin \vartheta} P^m_n(\cos \vartheta) = P^{m+1}_n(\cos \vartheta) + [n(n+1)-m(m-1)]P^{m-1}_n P^m_n(\cos \vartheta).
+ \end{equation*}
+ The latter, multiplied by $e^{im\varphi}$, becomes
+ \begin{align*}
+ \frac{2m \cos \vartheta}{\sin \vartheta} P^m_n(\cos \vartheta)e^{im\varphi} &= P^{m+1}_n(\cos \vartheta)e^{im\varphi} + [n(n+1)-m(m-1)]P^{m-1}_n P^m_n(\cos \vartheta)e^{im\varphi} \\
+ &= P^{m+1}_n(\cos \vartheta)e^{i(m+1)\varphi}e^{-i\varphi} + [n(n+1)-m(m-1)]P^{m-1}_n (\cos \vartheta)e^{i(m-1)\varphi}e^{i\varphi} \\
+ &= Y^{m+1}_n(\vartheta, \varphi)e^{-i\varphi} + [n(n+1)-m(m-1)]Y^{m-1}_n(\vartheta, \varphi)e^{i\varphi}.
+ \end{align*}
+ Finally, after some ``cleaning''
+ \begin{equation*}
+ Y^m_n(\vartheta, \varphi) = \frac{\tan \vartheta}{2m} \left[ Y^{m+1}_n(\vartheta, \varphi)e^{-i\varphi} + [n(n+1)-m(m-1)]Y^{m-1}_n(\vartheta, \varphi)e^{i\varphi} \right]
+ \end{equation*}
+ \end{proof}
+ \item
+ \begin{proof}
+ Now we can consider eq.\eqref{kugel:eq:rec-leg-3}, and multiply it by $e^{im\varphi}$. After the usual substitution $z=\cos \vartheta$, we have
+ \begin{align*}
+ \sin \vartheta P^m_n(\cos \vartheta)e^{im\varphi} &= \dfrac{e^{im\varphi}}{2n+1}\left[ P^{m+1}_{n+1}(\cos \vartheta) - P^{m+1}_{n-1}(\cos \vartheta)\right] \\
+ &= \dfrac{e^{-i\varphi}}{2n+1}\left[ P^{m+1}_{n+1}(\cos \vartheta)e^{i(m+1)\varphi} - P^{m+1}_{n-1}(\cos \vartheta)e^{i(m+1)\varphi}\right].
+ \end{align*}
+ A few manipulations later, we will obtain
+ \begin{equation*}
+ Y^m_n(\vartheta, \varphi) = \frac{e^{-i\varphi}}{(2n+1)\sin \vartheta} \left[ Y^{m+1}_{n+1}(\vartheta, \varphi)-Y^{m+1}_{n-1}(\vartheta, \varphi) \right].
+ \end{equation*}
+ \end{proof}
+ \item
+ \begin{proof}
+ This proof is very similar to the previous one. We just have to perform the substitution $z = \cos \vartheta$, as always. Secondly we can multiply the right side by $e^{im\varphi}$ and the left one too but in a different form, namely $e^{im\varphi}=e^{i(m-1)\varphi}e^{i\varphi}$. Then it is only a question of recalling the definition of $Y^m_n(\vartheta, \varphi)$.
+ \end{proof}
+\end{enumerate}
-We have now reached a point were we have all of the tools that are necessary to
-build something truly amazing: a general series expansion formula for functions
-on the surface of the sphere. Using the jargon: we will now see that the
-spherical harmonics together with the inner product of definition
-\ref{kugel:def:inner-product-s2}
+\section{Series Expansions in $L^2(S^2)$}
+We have now reach a point where we have all the tools that are necessary to build something truly amazing: a general series expansion formula for
+function on the surface of the sphere.
+Before starting we want to recall the definition of the inner product on the spherical surface of definition \ref{kugel:def:inner-product-s2}
\begin{equation*}
\langle f, g \rangle
= \int_{0}^\pi \int_0^{2\pi}
f(\vartheta, \varphi) \overline{g(\vartheta, \varphi)}
- \sin \vartheta \, d\varphi \, d\vartheta
+ \sin \vartheta \, d\varphi \, d\vartheta.
\end{equation*}
-form a Hilbert space over the space of complex valued $L^2$ functions $S^2 \to
-\mathbb{C}$. We will see later that this fact is very consequential and is
-extremely useful for many types of applications. If the jargon was too much, no
-need to worry, we will now go back to normal words and explain it again in more
-detail.
+To be a bit technical we can say that the set of spherical harmonic functions, toghether with the inner product just showed,
+form something that we call Hilbert Space\footnote{For more details about Hilber space you can take a look in section \ref{kugel:sec:preliminaries}}.
+This function space is defined over the space of ``well-behaved'' \footnote{The definitions of ``well-behaved'' is pretty ambigous, even for mathematicians.
+It depends basically on the context.
+You can sumarize it by saying: functions for which the theory we are considering (Fourier theorem) is always true. In our case we can say that well-behaved functions
+are functions that follow some convergence contraints (pointwise, uniform, absolute, ...) that we don't want to consider further anyway.} functions.
+We can say that the theory we are about to show can be applied on all twice differentiable complex valued functions,
+to be more concise: complex valued $L^2$ functions $S^2 \to \mathbb{C}$.
+
+All these jargons are not really necessary for the practical applications of us mere mortals, namely physicists and engineers.
+From now on we will therefore assume that the functions we will dealing with fulfill these ``minor'' conditions.
+
+The insiders could turn up their nose, but we don't want to dwell too much on the concept of Hilbert space, convergence, metric, well-behaved functions etc.
+We simply think that this rigorousness could be at the expense of the possibility to appreciate the beauty and elegance of this theory.
+Furthermore, the risk of writing 300+ pages to prove that $1+1=2$\cite{principia-mathematica} is just around the corner (we apologize in advance to Mr. Whitehead and Mr. Russel for using their effort with a negative connotation).
+
+Despite all, if you desire having definitions a bit more rigorous (as rigorous as two engineers can be), you could take a look at the chapter \ref{}.
\subsection{Spherical Harmonics Series}
@@ -714,11 +882,96 @@ To talk about a \emph{series expansion} we first need a series, so we shall
build one using the spherical harmonics.
\begin{definition}[Spherical harmonic series]
+ \label{kugel:definition:spherical-harmonics-series}
+ \begin{equation}
+ f(\vartheta, \varphi)
+ = \sum_{n=0}^\infty \sum_{m =-n}^n
+ c_{m,n} Y^m_n(\vartheta, \varphi). \label{kugel:definition:spherical-harmonics-series}
+ \end{equation}
+\end{definition}
+
+With this definition we are basically saying that any function defined on the spherical surface can be represented as a linear combination of spherical harmonics.
+Does eq.\eqref{kugel:definition:spherical-harmonics-series} sound familiar? Well that is prefectly normal, since this is analog to the classical Fourier theory.
+In the latter is stated that ``any'' $T$-periodic function $f(x)$, on any interval $[x_0-T/2,x_0+T/2]$, can be represented as a linear combination of complex exponentials. More compactly:
+\begin{equation*}
+ f(x) = \sum_{n \in \mathbb{Z}} c_n e^{i \omega_0 x}, \quad \omega_0=\frac{2\pi}{T}
+\end{equation*}
+In the case of definition \ref{kugel:definition:spherical-harmonics-series} the kernels, instead of $e^{i\omega_0x}$, have become $Y^m_n$. In addition, the sum is now over the two indices $m$ and $n$.
+
+\begin{lemma}[Spherical harmonic coefficients]
+ \label{kugel:lemma:spherical-harmonic-coefficient}
+ \begin{align*}
+ c_{m,n}
+ &= \langle f, Y^m_n \rangle_{\partial S} \\
+ &= \int_0^\pi \int_0^{2\pi} f(\vartheta,\varphi) \overline{Y^m_n(\vartheta,\varphi)} \sin\vartheta \,d\varphi\,d\vartheta
+ \end{align*}
+\end{lemma}
+\begin{proof}
+ To develop this proof we will take advantage of the orthogonality property of the Spherical Harmonics. We can start and finish by applying the inner product on both sides of eq.\eqref{kugel:definition:spherical-harmonics-series}:
+ \begin{align*}
+ \langle f, Y^{m}_{n} \rangle_{\partial S}
+ &= \left\langle \sum_{n'=0}^\infty \sum_{m' =-n'}^{n'}
+ c_{m',n'} Y^{m'}_{n'}(\vartheta, \varphi) \right\rangle_{\partial S} \\
+ &= \sum_{n'=0}^\infty \sum_{m' =-n'}^{n'}
+ \langle c_{m',n'} Y^{m'}_{n'}, Y^{m}_{n} \rangle_{\partial S} \\
+ &= \sum_{n'=0}^\infty \sum_{m' =-n'}^{n'} c_{m',n'} \langle Y^{m'}_{n'}, Y^{m}_{n} \rangle_{\partial S} = c_{m,n}
+ \end{align*}
+ We omitted the $\vartheta, \varphi$ dependency to avoid overloading the notation.
+\end{proof}
+Thanks to Lemma \ref{kugel:lemma:spherical-harmonic-coefficient} we can now calculate the series expansion defined in \ref{kugel:definition:spherical-harmonics-series}.
+
+It can be shown that, for the famous ``well-behaved functions'' $f(\vartheta, \varphi)$ mentioned before, theorem \ref{fourier-theorem-spherical-surface} is true
+\begin{theorem}[Fourier Theorem on $\partial S$]
+ \label{fourier-theorem-spherical-surface}
\begin{equation*}
- \hat{f}(\vartheta, \varphi)
- = \sum_{n \in \mathbb{Z}} \sum_{m \in \mathbb{Z}}
- c_{m,n} Y^m_n(\vartheta, \varphi)
+ \lim_{N \to \infty}
+ \int_0^\pi \int_0^{2\pi} \left\| f(\vartheta,\varphi) - \sum_{n=0}^N\sum_{m=-n}^n c_{m,n} Y^m_n(\vartheta,\varphi)
+ \right\|_2 \sin\vartheta \,d\varphi\,d\vartheta = 0
\end{equation*}
-\end{definition}
+\end{theorem}
+The connection to Theorem \ref{fourier-theorem-1D} is pretty obvious.
+
+\subsection{Spectrum}
+
+\begin{figure}
+ \centering
+ \kugelplaceholderfig{.8\textwidth}{5cm}
+ \caption{\kugeltodo{Rectangular signal and his spectrum.}}
+ \label{kugel:fig:1d-fourier}
+\end{figure}
+
+In the case of the classical one-dimensional Fourier theory, we call \emph{Spectrum} the relation between the fourier coefficients $c_n$ and the multiple
+of the fundamental frequency $2\pi/T$, namely $n 2\pi/T$. In the most general case $c_n$ are complex numbers, so we divide the concept of spectrum in
+\emph{Amplitude Spectrum} and \emph{Phase Spectrum}. In fig.\ref{kugel:fig:1d-fourier} a function $f(x)$ is presented along with the amplitude spectrum.
+
+\begin{figure}
+ \centering
+ \kugelplaceholderfig{.8\textwidth}{7cm}
+ \caption{\kugeltodo{Confront between image reconstructed only with phase and one only with amplitued}}
+ \label{kugel:fig:phase&amplitude-2d-fourier}
+\end{figure}
+
+The thing that is easiest for us humans to visualize and understand is often the Amplitude Spectrum.
+This is a huge limitation, since for example in Image Processing can be showed in a nice way that much more information is contained in the phase part (see fig.\ref{kugel:fig:phase-2d-fourier}).
+
+\begin{figure}
+ \centering
+ \kugelplaceholderfig{.8\textwidth}{9cm}
+ \caption{\kugeltodo{fig that show fourier style reconstruction on sphere (with increasing index)}}
+ \label{kugel:fig:fourier-on-sphere-increasing-index}
+\end{figure}
+
+The same logic can be extended to the spherical harmonic coefficients $c_{m,n}$. In fig.\ref{kugel:fig:fourier-on-sphere-increasing-index} you can see the same concept as in fig.\ref{kugel:fig:1d-fourier}
+but with a spherical function $f(\vartheta, \varphi)$.
+
+\subsection{Energy of a function $f(\vartheta, \varpi)$}
+
+\begin{lemma}[Energy of a spherical function (\emph{Parseval's theorem})]
+ \begin{equation*}
+ \int_0^{2\pi}\int_0^\pi |f(\vartheta, \varphi)|^2 \sin\vartheta \, d\varphi \, d\varphi = \sum_{n=0}^\infty \frac{1}{2n+1} \sum_{m=-n}^n |c_{m,n}|^2.
+ \end{equation*}
+\end{lemma}
+\begin{proof}
+\end{proof}
-\subsection{Fourier on $S^2$}
+\subsection{Visualization} \ No newline at end of file
diff --git a/buch/papers/parzyl/teil0.tex b/buch/papers/parzyl/teil0.tex
index eb1a152..e6d27b9 100644
--- a/buch/papers/parzyl/teil0.tex
+++ b/buch/papers/parzyl/teil0.tex
@@ -202,7 +202,7 @@ Mit dem Laplace Operator aus \eqref{parzyl:eq:laplaceInParZylCor} lautet die Hel
=
\lambda f(\sigma,\tau,z).
\end{equation}
-Diese partielle Differentialgleichung kann mit Hilfe von Separation gelöst werden, dazu wird
+Diese partielle Differentialgleichung kann mit Hilfe von Separation gelöst werden. Dazu wird
\begin{equation}
f(\sigma,\tau,z) = g(\sigma)h(\tau)i(z)
\end{equation}
diff --git a/buch/papers/parzyl/teil1.tex b/buch/papers/parzyl/teil1.tex
index e6a55b2..1f9db85 100644
--- a/buch/papers/parzyl/teil1.tex
+++ b/buch/papers/parzyl/teil1.tex
@@ -6,7 +6,10 @@
\section{Lösung
\label{parzyl:section:teil1}}
\rhead{Lösung}
-\subsection{Lösung harmonischer Oszillator}
+Zur Lösung der Helmholtz-Gleichung müssen erst die Lösungen der separierten
+Differentialgleichungen \eqref{parzyl:sep_dgl_1} bis \eqref{parzyl:sep_dgl_3}
+gefunden werden.
+\subsection{Lösung der Schwingungsgleichung \eqref{parzyl:sep_dgl_3}}
\eqref{parzyl:sep_dgl_3} beschriebt einen ungedämpften harmonischen Oszillator.
Die Lösung ist somit
\begin{equation}
diff --git a/buch/papers/parzyl/teil2.tex b/buch/papers/parzyl/teil2.tex
index 1b63c8e..705dbef 100644
--- a/buch/papers/parzyl/teil2.tex
+++ b/buch/papers/parzyl/teil2.tex
@@ -14,7 +14,7 @@
Die parabolischen Zylinderfunktionen können auch als Potenzreihen geschrieben werden.
Parabolische Zylinderfunktionen sind Linearkombinationen
$A(\alpha)w_1(\alpha, x) + B(\alpha)w_2(\alpha, x)$ aus einem geraden Teil $w_1(\alpha, x)$
-und einem ungeraden Teil $w_2(\alpha, x)$, welche als Potenzreihen
+und einem ungeraden Teil $w_2(\alpha, x)$, welche als Potenzreihen geschrieben
\begin{align}
w_1(\alpha,x)
&=
@@ -75,7 +75,7 @@ Dies geschieht bei $w_1(\alpha,x)$, falls
\begin{equation}
\alpha = -n \qquad n \in \mathbb{N}_0
% \sigma = U(x,y) = \sqrt{\frac{\sqrt{x^2+y^2} + x}{2}}.
- c_1 = U(x,y) = \sqrt{\frac{\sqrt{x^2+y^2} + x}{2}}.
+% c_1 = U(x,y) = \sqrt{\frac{\sqrt{x^2+y^2} + x}{2}}.
\end{equation}
und bei $w_2(\alpha,x)$ falls
\begin{equation}
diff --git a/buch/papers/parzyl/teil3.tex b/buch/papers/parzyl/teil3.tex
index 12c28fe..4176b55 100644
--- a/buch/papers/parzyl/teil3.tex
+++ b/buch/papers/parzyl/teil3.tex
@@ -15,8 +15,9 @@ Die parabolischen Zylinderkoordinaten tauchen auf, wenn man das elektrische Feld
\caption{Semi-infinite Leiterplatte}
\label{parzyl:fig:leiterplatte}
\end{figure}
-Die Äquipotentiallinien sind dabei in rot ,die des elektrischen Feldes in grün und semi-infinite Platte ist in blau dargestellt.
-Das dies so ist kann im Zweidimensionalen mit Hilfe von komplexen Funktionen gezeigt werden. Die Platte ist dann nur eine Halbgerade, was man in Abbildung \ref{parzyl:fig:leiterplatte_2d} sieht.
+Die Äquipotentiallinien sind dabei in rot, die des elektrischen Feldes in grün und
+semi-infinite Platte ist in blau dargestellt.
+Das dies so ist, kann im Zweidimensionalen mit Hilfe von komplexen Funktionen gezeigt werden. Die Platte ist dann nur eine Halbgerade, was man in Abbildung \ref{parzyl:fig:leiterplatte_2d} sieht.
\begin{figure}
\centering
\includegraphics[width=0.6\textwidth]{papers/parzyl/img/Plane_2D.png}
@@ -95,9 +96,9 @@ Dies kann umgeformt werden zu
\begin{equation}
F(s)
=
- \underbrace{\sqrt{\frac{\sqrt{x^2+y^2} + x}{2}}}_{U(x,y)}
+ \underbrace{\sqrt{\frac{\sqrt{x^2+y^2} + x}{2}}}_{\displaystyle{U(x,y)}}
+
- i\underbrace{\sqrt{\frac{\sqrt{x^2+y^2} - x}{2}}}_{V(x,y)}
+ i\underbrace{\sqrt{\frac{\sqrt{x^2+y^2} - x}{2}}}_{\displaystyle{V(x,y)}}
.
\end{equation}
@@ -143,7 +144,11 @@ Werden diese Formeln nun nach $x$ und $y$ aufgelöst
so beschreiben sie mit $\tau = c_1 \sqrt{2}$ und $\sigma = c_2 \sqrt{2}$ die Beziehung
zwischen dem parabolischen Zylinderkoordinatensystem und dem kartesischen Koordinatensystem.
-Nun wurde gezeigt wieso sich das parabolische Zylinderkoordinatensystem am besten eignet um das Potential und das elektrische Feld einer semi-infiniten Leiterplatte zu beschreien. Falls man nun die Helmholtz-Gleichung in diesem Bereich lösen müsste, da man zum Beispiel am Verhalten einer elektromagnetischne Welle in der Nähe der Platte interessiert wäre, so würde man auf die parabolischen Zylinderfunktionen kommen.
+Nun wurde gezeigt, wieso sich das parabolische Zylinderkoordinatensystem am besten eignet, um
+das Potential und das elektrische Feld einer semi-infiniten Leiterplatte zu beschreiben.
+Um die Helmholtz-Gleichung in diesem Bereich zu lösen,
+da man zum Beispiel am Verhalten einer elektromagnetische Welle in der Nähe
+der Platte interessiert ist, kann man jetzt die parabolischen Zylinderfunktionen verwenden.
%Werden diese Formeln nun nach $x$ und $y$ aufgelöst
%\begin{equation}
% x = \sigma \tau,
diff --git a/buch/papers/sturmliouville/Makefile.inc b/buch/papers/sturmliouville/Makefile.inc
index 7ffdad2..4000fa7 100644
--- a/buch/papers/sturmliouville/Makefile.inc
+++ b/buch/papers/sturmliouville/Makefile.inc
@@ -9,6 +9,5 @@ dependencies-sturmliouville = \
papers/sturmliouville/references.bib \
papers/sturmliouville/einleitung.tex \
papers/sturmliouville/eigenschaften.tex \
- papers/sturmliouville/beispiele.tex \
papers/sturmliouville/waermeleitung_beispiel.tex \
papers/sturmliouville/tschebyscheff_beispiel.tex
diff --git a/buch/papers/sturmliouville/beispiele.tex b/buch/papers/sturmliouville/beispiele.tex
deleted file mode 100644
index 94082cf..0000000
--- a/buch/papers/sturmliouville/beispiele.tex
+++ /dev/null
@@ -1,14 +0,0 @@
-%
-% teil2.tex -- Beispiel-File für teil2
-%
-% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil
-%
-\section{Beispiele
-\label{sturmliouville:section:examples}}
-\rhead{Beispiele}
-
-% Fourier: Erik work
-\input{papers/sturmliouville/waermeleitung_beispiel.tex}
-
-% Tschebyscheff
-\input{papers/sturmliouville/tschebyscheff_beispiel.tex} \ No newline at end of file
diff --git a/buch/papers/sturmliouville/eigenschaften.tex b/buch/papers/sturmliouville/eigenschaften.tex
index bef8a39..0f1f235 100644
--- a/buch/papers/sturmliouville/eigenschaften.tex
+++ b/buch/papers/sturmliouville/eigenschaften.tex
@@ -4,80 +4,115 @@
%
% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil
%
+
\section{Eigenschaften von Lösungen
-\label{sturmliouville:section:solution-properties}}
+\label{sturmliouville:sec:solution-properties}}
\rhead{Eigenschaften von Lösungen}
-Im weiteren werden nun die Eigenschaften der Lösungen eines
-Sturm-Liouville-Problems diskutiert und aufgezeigt, wie diese Eigenschaften
-zustande kommen.
+Im Weiteren werden nun die Eigenschaften der Lösung eines
+Sturm-Liouville-Problems diskutiert.
+Im wesentlichen wird darauf eingegangen, wie die Orthogonalität der Lösungen
+zustande kommt, damit diese später in den Beispielen verwendet werden kann.
+Dazu wird zunächst das Eigenwertproblem für Matrizen wiederholt und angeschaut
+unter welchen Voraussetzungen die Lösungen dieses Problems orthogonal sind.
+Dann wird gezeigt, dass das Sturm-Liouville-Problem auch ein Eigenwertproblem
+dieser Art ist und es wird auf au die Orthogonalität der Lösungsfunktionen
+geschlossen.
+
+\subsection{Eigenwertprobleme mit symmetrischen Matrizen
+\label{sturmliouville:sec:eigenvalue-problem-matrix}}
+
+% TODO: intro
-Dazu wird der Operator $L_0$ welcher bereits in
-Kapitel~\ref{buch:integrale:subsection:sturm-liouville-problem} betrachtet
-wurde, noch etwas genauer angeschaut.
-Es wird also im Folgenden
+Angenomen es sei eine reelle, symmetrische $n \times n$-Matrix $A$ gegeben.
+Dass $A$ symmetrisch ist, bedeutet, dass
\[
- L_0
+ \langle Av, w \rangle
=
- -\frac{d}{dx}p(x)\frac{d}{dx}
+ \langle v, Aw \rangle
+ \qquad
+ v, w \in \mathbb{R}^n
\]
-zusammen mit den Randbedingungen
+erfüllt ist.
+
+Für reelle, symmetrische Matrizen zeigt dies auch direkt, dass die Matrix
+selbstadjungiert ist.
+Das ist wichtig, da der Spektralsatz~\cite{sturmliouville:spektralsatz-wiki}
+für selbstadjungierte Matrizen formuliert ist. Dieser sagt nun aus, dass die
+Matrix $A$ diagonalisierbar ist.
+In anderen Worten bilden die Eigenvektoren $v_i \in \mathbb{R}^n$ des
+Eigenwertproblems
\[
- \begin{aligned}
- k_a y(a) + h_a p(a) y'(a) &= 0 \\
- k_b y(b) + h_b p(b) y'(b) &= 0
- \end{aligned}
+ A v_i
+ =
+ \lambda_i v_i
+ \qquad \lambda_i \in \mathbb{R}
\]
-verwendet.
-Wie im Kapitel~\ref{buch:integrale:subsection:sturm-liouville-problem} bereits
-gezeigt, resultieren die Randbedingungen aus der Anforderung den Operator $L_0$
-selbsadjungiert zu machen.
-Es wurde allerdings noch nicht darauf eingegangen, welche Eigenschaften dies
-für die Lösungen des Sturm-Liouville-Problems zur Folge hat.
+eine Orthogonalbasis.
-\subsubsection{Exkurs zum Spektralsatz}
+\subsection{Das Sturm-Liouville-Problem als Eigenwertproblem}
-Um zu verstehen welche Eigenschaften der selbstadjungierte Operator $L_0$ in
-den Lösungen hervorbringt, wird der Spektralsatz benötigt.
+In Kapitel~\ref{buch:integrale:subsection:sturm-liouville-problem} wurde bereits
+der Operator
+\[
+ L
+ =
+ \frac{1}{w(x)}\left( -\frac{d}{dx}p(x) \frac{d}{dx} + q(x)\right)
+\]
+eingeführt.
+Dieser wird nun verwendet um die Differenzialgleichung
+\[
+ (p(x)y'(x))' + q(x)y(x)
+ =
+ \lambda w(x) y(x)
+\]
+in das Eigenwertproblem
+\begin{equation}
+ \label{sturmliouville:eq:eigenvalue-problem}
+ L y
+ =
+ \lambda y.
+\end{equation}
+umzuschreiben.
+
+\subsection{Orthogonalität der Lösungsfunktionen}
-Dieser wird in der linearen Algebra oft verwendet um zu zeigen, dass eine Matrix
-diagonalisierbar ist, beziehungsweise dass eine Orthonormalbasis existiert.
+Nun wird das Eigenwertproblem~\eqref{sturmliouville:eq:eigenvalue-problem} näher
+angeschaut.
+Um auf die Orthogonalität der Lösungsfunktion zu schliessen, wird dafür der
+Operator $L$ genauer betrachtet.
+Analog zur Matrix $A$ aus
+Abschnitt~\ref{sturmliouville:sec:eigenvalue-problem-matrix} kann auch für
+$L$ gezeigt werden, dass dieser Operator selbstadjungiert ist.
-Im Fall einer gegebenen $n\times n$-Matrix $A$ mit reellen Einträgen wird dazu
-zunächst gezeigt, dass $A$ selbstadjungiert ist, also dass
+Dazu wird das modifizierte Skalarprodukt
+\begin{equation}
+ \label{sturmliouville:eq:modified-dot-product}
+ \langle f, g \rangle_w
+ =
+ \int_a^b f(x)g(x)w(x)\,dx
+\end{equation}
+aus Kapitel~\ref{buch:integrale:subsection:sturm-liouville-problem} verwendet,
+welches auch die Gewichtsfunktion $w(x)$ berücksichtigt.
+Damit $L$ bezüglich dieses Skalarproduktes selbstadjungiert ist, muss also
\[
- \langle Av, w \rangle
+ \langle L u, v\rangle_w
=
- \langle v, Aw \rangle
+ \langle u, L v\rangle_w
\]
-für $ v, w \in \mathbb{R}^n$ gilt.
-Ist dies der Fall, kann die Aussage des Spektralsatzes
-\cite{sturmliouville:spektralsatz-wiki} verwended werden.
-Daraus folgt dann, dass eine Orthonormalbasis aus Eigenvektoren existiert,
-wenn $A$ nur Eigenwerte aus $\mathbb{R}$ besitzt.
-
-Dies ist allerdings nicht die Einzige Version des Spektralsatzes.
-Unter anderen gibt es den Spektralsatz für kompakte Operatoren
-\cite{sturmliouville:spektralsatz-wiki}, welcher für das
-Sturm-Liouville-Problem von Bedeutung ist.
-Welche Voraussetzungen erfüllt sein müssen, um diese Version des
-Satzes verwenden zu können, wird hier aber nicht diskutiert und kann bei den
-Beispielen in diesem Kapitel als gegeben betrachtet werden.
-Grundsätzlich ist die Aussage in dieser Version dieselbe, wie bei den Matrizen,
-also dass für ein Operator eine Orthonormalbasis aus Eigenvektoren existiert,
-falls er selbstadjungiert ist.
+gelten.
-\subsubsection{Anwendung des Spektralsatzes auf $L_0$}
+Wie in Kapitel~\ref{buch:integrale:subsection:sturm-liouville-problem} bereits
+gezeigt, ist dies durch die
+Randbedingungen~\eqref{sturmliouville:eq:randbedingungen} des
+Sturm-Liouville-Problems sicher gestellt.
-Der Spektralsatz besagt also, dass, weil $L_0$ selbstadjungiert ist, eine
-Orthonormalbasis aus Eigenvektoren existiert.
-Genauer bedeutet dies, dass alle Eigenvektoren, beziehungsweise alle Lösungen
-des Sturm-Liouville-Problems orthogonal zueinander sind bezüglich des
-Skalarprodukts, in dem $L_0$ selbstadjungiert ist.
+Um nun über den Spektralsatz~\cite{sturmliouville:spektralsatz-wiki} auf die
+Orthogonalität der Lösungsfunktion $y$ zu schliessen, muss der Operator $L$ ein
+sogenannter ''kompakter Operator'' sein.
+Bei einem regulären Sturm-Liouville-Problem ist diese Eigenschaft für $L$
+gegeben und wird im Weiteren nicht näher diskutiert.
-Erfüllt also eine Differenzialgleichung die in
-Abschnitt~\ref{sturmliouville:section:teil0} präsentierten Eigenschaften und
-erfüllen die Randbedingungen der Differentialgleichung die Randbedingungen
-des Sturm-Liouville-Problems, kann bereits geschlossen werden, dass die
-Lösungsfunktion des Problems eine Linearkombination aus orthogonalen
-Basisfunktionen ist. \ No newline at end of file
+Es kann nun also dank dem Spektralsatz darauf geschlossen werden, dass die
+Lösungsfunktion $y$ eines regulären Sturm-Liouville-Problems eine
+Linearkombination aus orthogonalen Basisfunktionen sein muss.
diff --git a/buch/papers/sturmliouville/einleitung.tex b/buch/papers/sturmliouville/einleitung.tex
index d497622..16dba19 100644
--- a/buch/papers/sturmliouville/einleitung.tex
+++ b/buch/papers/sturmliouville/einleitung.tex
@@ -1,136 +1,124 @@
%
% einleitung.tex -- Beispiel-File für die Einleitung
+% Author: Réda Haddouche
%
% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil
%
+
\section{Was ist das Sturm-Liouville-Problem\label{sturmliouville:section:teil0}}
-\rhead{Einleitung}
-Das Sturm-Liouville-Problem wurde benannt nach dem schweizerisch-französischen Mathematiker und Physiker Jacques Charles Fran\c{c}ois Sturm und dem französischen Mathematiker Joseph Liouville.
-Gemeinsam haben sie in der mathematischen Physik die Sturm-Liouville-Theorie entwickelt und gilt für die Lösung von gewöhnlichen Differentialgleichungen, jedoch verwendet man die Theorie öfters bei der Lösung von partiellen Differentialgleichungen.
-Normalerweise betrachtet man für das Strum-Liouville-Problem eine gewöhnliche Differentialgleichung 2. Ordnung, und wenn es sich um eine partielle Differentialgleichung handelt, kann man sie in mehrere gewöhnliche Differentialgleichungen umwandeln. Wie z. B. den Separationsansatz, die partielle Differentialgleichung mit mehreren Variablen.
+\rhead{Was ist das Sturm-Liouville-Problem}
+Das Sturm-Liouville-Problem wurde benannt nach dem schweizerisch-französischen
+Mathematiker und Physiker Jacques Charles Fran\c{c}ois Sturm und dem
+französischen Mathematiker Joseph Liouville.
+Gemeinsam haben sie in der mathematischen Physik die Sturm-Liouville-Theorie
+entwickelt.
+Diese gilt für die Lösung von gewöhnlichen Differentialgleichungen.
+Handelt es sich um eine partielle
+Differentialgleichung, kann man sie mittels Separation in
+mehrere gewöhnliche Differentialgleichungen umwandeln.
\begin{definition}
\index{Sturm-Liouville-Gleichung}%
Wenn die lineare homogene Differentialgleichung
-\begin{equation}
+\[
\frac{d^2y}{dx^2} + a(x)\frac{dy}{dx} + b(x)y = 0
-\end{equation}
+\]
als
\begin{equation}
- \label{eq:sturm-liouville-equation}
- \frac{d}{dx}\lbrack p(x) \frac{dy}{dx} \rbrack + \lbrack q(x) + \lambda w(x) \rbrack y = 0
+ \label{sturmliouville:eq:sturm-liouville-equation}
+ \frac{d}{dx} \biggl ( p(x) \frac{dy}{dx}\biggr ) + (q(x) +
+ \lambda w(x)) y
+ =
+ 0
\end{equation}
-geschrieben werden kann, dann wird diese Gleichung als Sturm-Liouville-Gleichung bezeichnet.
+geschrieben werden kann, dann wird die
+Gleichung~\eqref{sturmliouville:eq:sturm-liouville-equation} als
+Sturm-Liouville-Gleichung bezeichnet.
\end{definition}
-Alle homogene 2. Ordnung lineare gewöhnliche Differentialgleichungen können in die Form der Gleichung \ref{eq:sturm-liouville-equation} umgeformt werden.
-
-\subsection{Randbedingungen\label{sub:was-ist-das-slp-randbedingungen}}
-Wenn von der Funktion $y(x)$ die Werte $x$ des jeweiligen Randes des Definitionsbereiches anzunehmen sind, also
-\begin{equation}
- y(a) = y(b) = 0,
-\end{equation}
-so spricht man von einer Dirichlet-Randbedingung\footnote{Die Dirichlet-Randbedingung oder auch Randbedingung des ersten Typs genannt ist nach dem deutschen Mathematiker Peter Gstav Lejeune Dirichlet benannt. Sie findet Anwendung auf gewöhnliche oder patielle Differentialgleichungen und gibt mit der Bedingung die Werte an, die für die abgeleitete Lösung innerhalb der Domänengrenze gelten.}, und von einer Neumann-Randbedingung\footnote{Die Neumann-Randbedingung oder auch Randbedingung des zweiten Typs genannt, ist nach dem deutschen Mathematiker Carl Neumann benannt. Sie legt die Werte fest, die eine Lösung entlang der Domänengrenze annehmen muss, wenn eine gewöhnliche oder partielle Differentialgleichung gestellt wird.} spricht man, wenn
-\begin{equation}
- y'(a) = y'(b) = 0
-\end{equation}
-ergibt.
-
-Die Sturm-Liouville-Theorie besagt, dass, wenn man die Sturm-Liouville-Gleichung mit den homogenen Randbedingungen des dritten Typs\footnote{Die Randbedingung des dritten Typs, oder Robin-Randbedingungen (benannt nach dem französischen mathematischen Analytiker und angewandten Mathematiker Victor Gustave Robin), wird genannt, wenn sie einer gewöhnlichen oder partiellen Differentialgleichung auferlegt wird, so sind die Spezifikationen einer Linearkombination der Werte einer Funktion sowie die Werte ihrer Ableitung am Rande des Bereichs}
+Alle homogenen linearen gewöhnlichen Differentialgleichungen 2. Ordnung können
+in die Form der Gleichung \eqref{sturmliouville:eq:sturm-liouville-equation}
+umgewandelt werden.
+
+Damit es sich um ein Sturm-Liouville-Problem handelt, benötigt es noch die
+Randbedingungen, die im nächsten Unterkapitel behandelt werden.
+
+\subsection{Randbedingungen
+\label{sturmliouville:sub:was-ist-das-slp-randbedingungen}}
+Geeignete Randbedingungen sind erforderlich, um die Lösungen einer
+Differentialgleichung eindeutig zu bestimmen.
+Die Sturm-Liouville-Gleichung mit homogenen Randbedingungen des dritten Typs
\begin{equation}
-\begin{aligned}
- \label{eq:randbedingungen}
- k_a y(a) + h_a p(a) y'(a) &= 0 \\
- k_b y(b) + h_b p(b) y'(b) &= 0
-\end{aligned}
+ \begin{aligned}
+ \label{sturmliouville:eq:randbedingungen}
+ k_a y(a) + h_a p(a) y'(a) &= 0 \\
+ k_b y(b) + h_b p(b) y'(b) &= 0
+ \end{aligned}
\end{equation}
-kombiniert, dann bekommt man das klassische Sturm-Liouville-Problem.
+ist das klassische Sturm-Liouville-Problem.
-\subsection{Eigenwertproblem}
-Die Gleichungen \ref{eq:sturm-liouville-equation} hat die Form eines Eigenwertproblems
-Wenn bei der Sturm-Liouville-Gleichung \ref{eq:sturm-liouville-equation} alles konstant bleibt, aber der Wert von $\lambda$ sich ändert, erhält man eine andere Eigenfunktion, weil man eine andere gewöhnliche Differentialgleichung löst;
-der Parameter $\lambda$ wird als Eigenwert bezeichnet.
-Es ist genau das gleiche Prinzip wie bei den Matrizen, andere Eigenwerte ergeben andere Eigenvektoren.
-Es besteht eine Korrespondenz zwischen den Eigenwerten und den Eigenvektoren.
-Das gleiche gilt auch beim Sturm-Liouville-Problem, und zwar
-\begin{equation}
- \lambda \overset{Korrespondenz}\leftrightarrow y.
-\end{equation}
-
-Die Theorie besagt, wenn $y_m$, $y_n$ Eigenfuktionen des Sturm-Liouville-Problems sind, die verschiedene Eigenwerte $\lambda_m$, $\lambda_n$ ($\lambda_m \neq \lambda_n$) entsprechen, so sind $y_m$, $y_n$ orthogonal zu y -
-dies gilt für das Intervall (a,b).
-Somit ergibt die Gleichung
-\begin{equation}
- \label{eq:skalar-sturm-liouville}
- \int_{a}^{b} w(x)y_m y_n = 0.
-\end{equation}
-\subsection{Koeffizientenfunktionen}
-Die Funktionen $p(x)$, $q(x)$ und $w(x)$ werden als Koeffizientenfunktionen mit ihren freien Variablen $x$ bezeichnet.
-Die Funktion $w(x)$ (manchmal auch $r(x)$ genannt) wird als Gewichtsfunktion oder Dichtefunktion bezeichnet.
-Es gibt zwei verschiedene Sturm-Liouville-Probleme: das reguläre Sturm-Liouville-Problem und das singuläre Sturm-Liouville-Problem.
-Die Funktionen für das reguläre und das singuläre Sturm-Liouville-Problem sind nicht dieselben.
+\subsection{Koeffizientenfunktionen
+\label{sturmliouville:sub:koeffizientenfunktionen}}
+Die Funktionen $p(x)$, $q(x)$ und $w(x)$ werden als Koeffizientenfunktionen
+bezeichnet.
+Diese Funktionen erhält man, indem man eine Differentialgleichung in die
+Sturm-Liouville-Form bringt und dann die Koeffizientenfunktionen vergleicht.
+Die Funktion $w(x)$ (manchmal auch $r(x)$ genannt) wird als Gewichtsfunktion
+oder Dichtefunktion bezeichnet.
+Die Eigenschaften der Koeffizientenfunktionen haben
+einen großen Einfluss auf die Lösbarkeit des Sturm-Liouville-Problems und werden
+im nächsten Abschnitt diskutiert.
%
%Kapitel mit "Das reguläre Sturm-Liouville-Problem"
%
-\subsection{Das reguläre Sturm-Liouville-Problem\label{sub:reguläre_sturm_liouville_problem}}
-Damit es sich um ein reguläres Sturm-Liouville-Problem handelt, müssen einige Bedingungen beachtet werden.
+\subsection{Das reguläre und singuläre Sturm-Liouville-Problem
+\label{sturmliouville:sub:reguläre_sturm_liouville_problem}}
+Damit es sich um ein reguläres Sturm-Liouville-Problem handelt, müssen einige
+Bedingungen beachtet werden.
\begin{definition}
- \label{def:reguläres_sturm-liouville-problem}
+ \label{sturmliouville:def:reguläres_sturm-liouville-problem}
\index{regläres Sturm-Liouville-Problem}
Die Bedingungen für ein reguläres Sturm-Liouville-Problem sind:
\begin{itemize}
- \item Die Funktionen $p(x), p'(x), q(x)$ und $w(x)$ müssen stetig und reell sein.
- \item sowie müssen in einem endlichen Intervall $[a,b]$ integrierbar sein.
+ \item Die Funktionen $p(x), p'(x), q(x)$ und $w(x)$ müssen stetig und
+ reell sein
+ \item sowie in einem endlichen Intervall $[a,b]$ integrierbar
+ sein.
\item $p(x)$ und $w(x)$ sind $>0$.
- \item Es gelten die Randbedingungen \ref{eq:randbedingungen}, wobei $|k_i|^2 + |h_i|^2\ne 0$ mit $i=a,b$.
+ \item Es gelten die Randbedingungen
+ \eqref{sturmliouville:eq:randbedingungen}, wobei
+ $|k_i|^2 + |h_i|^2\ne 0$ mit $i=a,b$.
\end{itemize}
\end{definition}
-Bei einem regulären Sturm-Liouville-Problem geht es darum, wichtige Eigenschaften der Eigenfunktionen beschreiben zu können, ohne sie genau zu kennen.
-
-
-%
-%Kapitel mit "Das singuläre Sturm-Liouville-Problem"
-%
-
-
-\subsection{Das singuläre Sturm-Liouville-Problem\label{sub:singuläre_sturm_liouville_problem}}
-Von einem singulären Sturm-Liouville-Problem spricht man, wenn die Bedingungen des regulärem Problem nicht erfüllt sind.
-\begin{definition}
- \label{def:singulär_sturm-liouville-problem}
- \index{singuläres Sturm-Liouville-Problem}
-Es handelt sich um ein singuläres Sturm-Liouville-Problem, wenn:
- \begin{itemize}
- \item wenn sein Definitionsbereich auf dem Intervall $[ \ a,b] \ $ unbeschränkt ist oder
- \item wenn die Koeffizienten an den Randpunkten Singularitäten haben.
- \end{itemize}
-\end{definition}
-Allerdings kann nur eine der Bedingungen nicht erfüllt sein, so dass es sich bereits um ein singuläres Sturm-Liouville-Problem handelt.
+Wird eine oder mehrere dieser Bedingungen nicht erfüllt, so handelt es sich um
+ein singuläres Sturm-Liouville-Problem.
\begin{beispiel}
Das Randwertproblem
\begin{equation}
\begin{aligned}
- x^2y'' + xy' + (\lambda^2x^2 - m^2)y &= 0, 0<x<a,\\
+ x^2y'' + xy' + (\lambda^2x^2 - m^2)y &= 0 \qquad 0<x<a,\\
y(a) &= 0
\end{aligned}
\end{equation}
ist kein reguläres Sturm-Liouville-Problem.
- Wenn man die Gleichung in die Sturm-Liouville Form umformen, dann ergeben die Koeffizientenfunktionen $p(x) = w(x) = x$ und $q(x) = -m^2/x$.
- Schaut man jetzt die Bedingungen im Kapitel \ref{sub:reguläre_sturm_liouville_problem} an und vergleicht diese unseren Koeffizientenfunktionen, so erkennt man einige Probleme:
+ Wenn man die Gleichung in die Sturm-Liouville Form umformt, dann
+ erhält man
+ die Koeffizientenfunktionen $p(x) = w(x) = x$ und $q(x) = -m^2/x$.
+ Schaut man jetzt die Bedingungen in
+ Definition~\ref{sturmliouville:def:reguläres_sturm-liouville-problem} an und
+ vergleicht diese mit unseren Koeffizientenfunktionen, so erkennt man einige
+ Probleme:
\begin{itemize}
\item $p(x)$ und $w(x)$ sind nicht positiv, wenn $x = 0$ ist.
\item $q(x)$ ist nicht kontinuierlich, wenn $x = 0$ ist.
- \item Die Randbedingung bei $x = 0$ fehlt.
+ \item Die Randbedingung bei $x = 0$ und $x = a$ fehlt.
\end{itemize}
\end{beispiel}
-Verwendet man das reguläre Sturm-Liouville-Problem, obwohl eine oder beide Bedingungen nicht erfüllt sind, dann ist es schwierig zu sagen, ob die Lösung eindeutige Ergebnisse hat.
-Es ist schwierig, Kriterien anzuwenden, da die Formulierungen z. B. in der Lösungsfunktion liegen.
-Ähnlich wie bei der Fourier-Reihe gegenüber der Fourier-Transformation gibt es immer noch eine zugehörige Eigenfunktionsentwicklung, und zwar die Integraltransformation sowie gibt es weiterhin verallgemeinerte Eigenfunktionen.
-
+Bei einem regulärem Problem, besteht die Lösung nur aus Eigenvektoren.
+Handelt es sich um ein singuläres Problem, so besteht die Lösung im Allgemeinen
+nicht mehr nur aus Eigenvektoren.
-
-
-
diff --git a/buch/papers/sturmliouville/main.tex b/buch/papers/sturmliouville/main.tex
index 4b5b8af..b18e220 100644
--- a/buch/papers/sturmliouville/main.tex
+++ b/buch/papers/sturmliouville/main.tex
@@ -9,12 +9,26 @@
\begin{refsection}
\chapterauthor{Réda Haddouche und Erik Löffler}
-\input{papers/sturmliouville/einleitung.tex}
+In diesem Kapitel wird zunächst nochmals ein Überblick über das
+Sturm-Liouville-Problem und dessen Randbedingungen gegeben.
+Dann wird ein Zusammenhang zwischen reellen symmetrischen Matrizen und
+dem Sturm-Liouville-Operator $L$ hergestellt, um auf die Orthogonalität der
+Lösungsfunktionen zu schliessen.
+Zuletzt wird anhand von zwei Beispielen gezeigt, dass durch das
+Sturm-Liouville-Problem die Eigenschaften der Lösungen bereits vor dem
+vollständingen Lösen der Beispiele bekannt sind.
+
%einleitung "was ist das sturm-liouville-problem"
-\input{papers/sturmliouville/eigenschaften.tex}
+\input{papers/sturmliouville/einleitung.tex}
+
%Eigenschaften von Lösungen eines solchen Problems
-\input{papers/sturmliouville/beispiele.tex}
-%Beispiele sind: Wärmeleitung in einem Stab, Tschebyscheff-Polynome
+\input{papers/sturmliouville/eigenschaften.tex}
+
+% Fourier: Erik work
+\input{papers/sturmliouville/waermeleitung_beispiel.tex}
+
+% Tschebyscheff
+\input{papers/sturmliouville/tschebyscheff_beispiel.tex}
\printbibliography[heading=subbibliography]
\end{refsection}
diff --git a/buch/papers/sturmliouville/tschebyscheff_beispiel.tex b/buch/papers/sturmliouville/tschebyscheff_beispiel.tex
index 3817dc0..341a358 100644
--- a/buch/papers/sturmliouville/tschebyscheff_beispiel.tex
+++ b/buch/papers/sturmliouville/tschebyscheff_beispiel.tex
@@ -1,82 +1,107 @@
%
% tschebyscheff_beispiel.tex
+% Author: Réda Haddouche
%
% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil
%
-\subsection{Sind Tschebyscheff-Polynome orthogonal zueinander?\label{sub:tschebyscheff-polynome}}
-\subsubsection*{Definition der Koeffizientenfunktion}
-Im Kapitel \ref{sub:beispiele_sturm_liouville_problem} sind die Koeffizientenfunktionen, die man braucht, schon aufgeliste, und zwar mit
+\section{Beispiel: Tschebyscheff-Polynome
+\label{sturmliouville:sub:tschebyscheff-polynome}}
+\rhead{Tschebyscheff-Polynome}
+In diesem Unterkapitel wird anhand der
+Tschebyscheff-Differentialgleichung~\eqref{buch:potenzen:tschebyscheff:dgl}
+gezeigt, dass die Tschebyscheff-Polynome orthogonal zueinander sind.
+Zu diesem Zweck werden die Koeffizientenfunktionen nochmals dargestellt, so dass
+überprüft werden kann, ob die Randbedingungen erfüllt werden.
+Sobald feststeht, ob das Problem regulär oder singulär ist, zeigt eine
+kleine Rechnung, dass die Lösungen orthogonal sind.
+
+\subsection*{Definition der Koeffizientenfunktion}
+Im Kapitel \ref{sub:beispiele_sturm_liouville_problem} sind die
+Koeffizientenfunktionen, die man braucht, schon aufgelistet:
\begin{align*}
- w(x) &= \frac{1}{\sqrt{1-x^2}} \\
- p(x) &= \sqrt{1-x^2} \\
- q(x) &= 0
-\end{align*}.
+ w(x) &= \frac{1}{\sqrt{1-x^2}}, \\
+ p(x) &= \sqrt{1-x^2}, \\
+ q(x) &= 0.
+\end{align*}
Da die Sturm-Liouville-Gleichung
\begin{equation}
\label{eq:sturm-liouville-equation-tscheby}
- \frac{d}{dx} (\sqrt{1-x^2} \frac{dy}{dx}) + (0 + \lambda \frac{1}{\sqrt{1-x^2}}) y = 0
+ \frac{d}{dx} \biggl (\sqrt{1-x^2} \frac{dy}{dx}\biggr ) +
+ \biggl (0 + \lambda \frac{1}{\sqrt{1-x^2}}\biggr ) y
+ =
+ 0
\end{equation}
-nun mit den Koeffizientenfunktionen aufgestellt werden kann, bleibt die Frage, ob es sich um ein reguläres oder singuläres Sturm-Liouville-Problem handelt.
+nun mit den Koeffizientenfunktionen aufgestellt werden kann, bleibt die Frage,
+ob es sich um ein reguläres oder singuläres Sturm-Liouville-Problem handelt.
+Zunächst werden jedoch die Randbedingungen betrachtet.
-\subsubsection*{regulär oder singulär?}
-Für das reguläre Problem laut der Definition \ref{def:reguläres_sturm-liouville-problem} muss die funktion $p(x) = \sqrt{1-x^2}$, $p'(x) = -2x$, $q(x) = 0$ und $w(x) = \frac{1}{\sqrt{1-x^2}}$ stetig und reell sein --- und sie sind es auch.
-Auf dem Intervall $(-1,1)$ sind die Tschebyscheff-Polynome erster Art mit Hilfe von Hyperbelfunktionen
+\subsection*{Randwertproblem}
+Für die Verifizierung der Randbedingungen benötigt man erneut $p(x)$.
+Die Randwerte setzt man $a = -1$ und $b = 1$.
+Beim Einsetzen in die Randbedingung \eqref{sturmliouville:eq:randbedingungen},
+erhält man
+\begin{equation}
+ \begin{aligned}
+ k_a y(-1) + h_a p(-1) y'(-1) &= 0\\
+ k_b y(1) + h_b p(1) y'(1) &= 0.
+ \end{aligned}
+\end{equation}
+Die Funktion $y(x)$ und $y'(x)$ sind in diesem Fall die Tschebyscheff Polynome
+(siehe \ref{sub:definiton_der_tschebyscheff-Polynome}).
+Die Funktion $y(x)$ wird nun mit der Funktion $T_n(x)$ ersetzt und für die
+Verifizierung der Randbedingung wählt man $n=0$.
+Somit erhält man
\begin{equation}
- T_n(x) = \cos n (\arccos x)
-\end{equation}.
-Für $x>1$ und $x<-1$ sehen die Polynome wie folgt aus:
+ \begin{aligned}
+ k_a T_0(-1) + h_a p(-1) T_{0}'(-1) &= k_a = 0\\
+ k_b T_0(1) + h_b p(1) T_{0}'(1) &= k_b = 0.
+ \end{aligned}
+\end{equation}
+Ähnlich wie beim Beispiel der Wärmeleitung in einem homogenen Stab können,
+damit die Bedingung $|k_i|^2 + |h_i|^2\ne 0$ erfüllt ist, beliebige
+$h_a \ne 0$ und $h_b \ne 0$ gewählt werden.
+Es wurde somit gezeigt, dass die Sturm-Liouville-Randbedingungen erfüllt sind.
+
+\subsection*{Handelt es sich um ein reguläres oder singuläres Problem?}
+Für das reguläre Problem muss laut der
+Definition~\ref{sturmliouville:def:reguläres_sturm-liouville-problem} die funktion
+$p(x) = \sqrt{1-x^2}$, $p'(x) = -2x$, $q(x) = 0$ und
+$w(x) = \frac{1}{\sqrt{1-x^2}}$ stetig und reell sein.
+Auf dem Intervall $(-1,1)$ sind die Tschebyscheff-Polynome erster Art
\begin{equation}
- T_n(x) = \left\{\begin{array}{ll} \cosh (n \arccos x), & x > 1\\
- (-1)^n \cosh (n \arccos (-x)), & x<-1 \end{array}\right.
-\end{equation},
-jedoch ist die Orthogonalität nur auf dem Intervall $[ -1, 1]$ sichergestellt.
-Die nächste Bedingung beinhaltet, dass die Funktion $p(x)$ und $w(x)>0$ sein müssen.
+ T_n(x)
+ =
+ \cos n (\arccos x).
+\end{equation}
+Die nächste Bedingung, laut der Definition \ref{sturmliouville:def:reguläres_sturm-liouville-problem}, beinhaltet, dass die Funktion $p(x)$ und $w(x)>0$ sein
+müssen.
Die Funktion
\begin{equation*}
p(x)^{-1} = \frac{1}{\sqrt{1-x^2}}
\end{equation*}
ist die gleiche wie $w(x)$ und erfüllt die Bedingung.
+Es zeigt sich also, dass $p(x)$, $p'(x)$, $q(x)$ und $w(x)$
+die Bedingungen erfüllen.
+Da auch die Randbedingungen erfüllt sind, handelt es sich um ein reguläres Sturm-Liouville-Problem.
-\subsubsection*{Randwertproblem}
-Für die Verifizierung der Randbedingungen benötigt man erneut $p(x)$.
-Da sich die Polynome nur auf dem Intervall $[ -1,1 ]$ orthogonal verhalten, sind $a = -1$ und $b = 1$ gesetzt.
-Beim einsetzen in die Randbedingung \ref{eq:randbedingungen}, erhält man
-\begin{equation}
-\begin{aligned}
- k_a y(-1) + h_a y'(-1) &= 0
- k_b y(-1) + h_b y'(-1) &= 0.
-\end{aligned}
-\end{equation}
-Die Funktion $y(x)$ und $y'(x)$ sind in diesem Fall die Tschebyscheff Polynome (siehe \label{sub:definiton_der_tschebyscheff-Polynome}).
-Es gibt zwei Arten von Tschebyscheff Polynome: die erste Art $T_n(x)$ und die zweite Art $U_n(x)$.
-Jedoch beachtet man in diesem Kapitel nur die Tschebyscheff Polynome erster Art (\ref{eq:tschebyscheff-polynome}).
-Die Funktion $y(x)$ wird nun mit der Funktion $T_n(x)$ ersetzt und für die Verifizierung der Randbedingung wählt man $n=2$.
-Somit erhält man
-\begin{equation}
- \begin{aligned}
- k_a T_2(-1) + h_a T_{2}'(-1) &= k_a = 0\\
- k_b T_2(1) + h_b T_{2}'(1) &= k_b = 0.
-\end{aligned}
-\end{equation}
-Ähnlich wie beim Beispiel der Wärmeleitung in einem homogenen Stab kann man, damit die Bedingung $|k_i|^2 + |h_i|^2\ne 0$ erfüllt ist, können beliebige $h_a \ne 0$ und $h_b \ne 0$ gewählt werden.
-Somit ist erneut gezeigt, dass die Randbedingungen der Tschebyscheff-Polynome auf die Sturm-Liouville-Randbedingungen erfüllt und alle daraus resultierenden Lösungen orthogonal sind.
\begin{beispiel}
- Die Gleichung \ref{eq:skalar-sturm-liouville} mit $y_m = T_1(x)$ und $y_n(x) = T_2(x)$ eingesetzt sowie $a=-1$ und $b = 1$ ergibt
+ In diesem Beispiel wird zuletzt die Orthogonalität der Lösungsfunktion
+ illustriert.
+ Dazu verwendet man das Skalarprodukt
+ \[
+ \int_{a}^{b} w(x) y_m(x) y_n(x) = 0.
+ \]
+ mit $y_m(x) = T_1(x)$ und $y_n(x) = T_2(x)$, sowie $a=-1$ und $b = 1$.
+ Eigesetzt ergibt dies
\[
- \int_{-1}^{1} w(x) x (2x^2-1) dx = 0.
+ \begin{aligned}
+ \int_{-1}^{1} \frac{1}{\sqrt{1-x^2}} x (2x^2-1) dx &=
+ \biggl [ - \frac{\sqrt{1-x^2}(2x^2+1)}{3} \biggr ]_{-1}^{1}\\
+ &= 0.
+ \end{aligned}
\]
+ Somit ist gezeigt, dass $T_1(x)$ und $T_2(x)$ orthogonal sind.
+ Analog kann Orthogonalität für alle $y_n(x)$ und $y_m(x)$ mit $n \ne m$ gezeigt werden.
\end{beispiel}
-
-
-
-
-
-
-
-
-
-
-
-
diff --git a/buch/papers/sturmliouville/waermeleitung_beispiel.tex b/buch/papers/sturmliouville/waermeleitung_beispiel.tex
index a72c562..93a1eb0 100644
--- a/buch/papers/sturmliouville/waermeleitung_beispiel.tex
+++ b/buch/papers/sturmliouville/waermeleitung_beispiel.tex
@@ -5,31 +5,36 @@
% (c) 2020 Prof Dr Andreas Müller, Hochschule Rapperswil
%
-\subsection{Wärmeleitung in einem Homogenen Stab}
+\section{Beispiel: Wärmeleitung in homogenem Stab}
In diesem Abschnitt wird das Problem der Wärmeleitung in einem homogenen Stab
-betrachtet und wie das Sturm-Liouville-Problem bei der Beschreibung dieses
-physikalischen Phänomenes auftritt.
+betrachtet, angeschaut wie das Sturm-Liouville-Problem bei der Beschreibung
+dieses physikalischen Phänomens auftritt und hergeleitet wie die Fourierreihe
+als Lösung des Problems zustande kommt.
Zunächst wird ein eindimensionaler homogener Stab der Länge $l$ und
-Wärmeleitkoeffizient $\kappa$ betrachtet.
-Es ergibt sich für das Wärmeleitungsproblem
-die partielle Differentialgleichung
+Wärmeleitkoeffizient $\kappa$ betrachtet, dessen initiale Wärmeverteilung durch
+$u(t=0, x)$ gegeben ist.
+Es ergibt sich für das Wärmeleitungsproblem die partielle Differentialgleichung
\begin{equation}
\label{sturmliouville:eq:example-fourier-heat-equation}
- \frac{\partial u}{\partial t} =
- \kappa \frac{\partial^{2}u}{{\partial x}^{2}},
+ \frac{\partial u(t, x)}{\partial t} =
+ \kappa \frac{\partial^{2}u(t, x)}{{\partial x}^{2}},
\end{equation}
-wobei der Stab in diesem Fall auf der $X$-Achse im Intervall $[0,l]$ liegt.
-
-Da diese Differentialgleichung das Problem allgemein für einen homogenen
-Stab beschreibt, werden zusätzliche Bedingungen benötigt, um beispielsweise
-die Lösung für einen Stab zu finden, bei dem die Enden auf konstanter
-Tempreatur gehalten werden.
+wobei der Stab in diesem Fall auf der $x$-Achse im Intervall $[0,l]$ liegt.
+
+Damit die Sturm-Liouville-Theorie auf das
+Problem~\eqref{sturmliouville:eq:example-fourier-heat-equation} angewendet
+werden kann, werden noch Randbedingungen benötigt, welche in Kürze
+vorgestellt werden.
+Aus physikalischer Sicht geben diese Randbedingungen vor, ob die Enden des
+Stabes thermisch isoliert sind oder ob sie auf konstanter Temperatur gehalten
+werden.
%
% Randbedingungen für Stab mit konstanten Endtemperaturen
%
+\subsection{Randbedingungen}
\subsubsection{Randbedingungen für Stab mit Enden auf konstanter Temperatur}
Die Enden des Stabes auf konstanter Temperatur zu halten bedeutet, dass die
@@ -52,8 +57,10 @@ als Randbedingungen.
\subsubsection{Randbedingungen für Stab mit isolierten Enden}
-Bei isolierten Enden des Stabes können beliebige Temperaturen für $x = 0$ und
-$x = l$ auftreten. In diesem Fall ist es nicht erlaubt, dass Wärme vom Stab
+Bei isolierten Enden des Stabes können grundsätzlich beliebige Temperaturen für
+$x = 0$ und $x = l$ auftreten.
+Die einzige Einschränkung liefert die initiale Wärmeverteilung $u(0, x)$.
+Im Fall des isolierten Stabes ist es nicht erlaubt, dass Wärme vom Stab
an die Umgebung oder von der Umgebung an den Stab abgegeben wird.
Aus der Physik ist bekannt, dass Wärme immer von der höheren zur tieferen
@@ -76,17 +83,19 @@ als Randbedingungen.
% Lösung der Differenzialgleichung mittels Separation
%
-\subsubsection{Lösung der Differenzialgleichung}
+\subsection{Separation der Differenzialgleichung
+\label{sturmliouville:subsec:separation}}
-Da die Lösungsfunktion von zwei Variablen abhängig ist, wird als Lösungsansatz
-die Separationsmethode verwendet.
+Da die Lösungsfunktion $u$ von zwei Variablen abhängig ist, wird die
+Gleichung~\eqref{sturmliouville:eq:example-fourier-heat-equation} zunächst
+mittels Separation in zwei gewöhnliche Differentialgleichungen überführt.
Dazu wird
\[
u(t,x)
=
T(t)X(x)
\]
-in die partielle
+in die partielle
Differenzialgleichung~\eqref{sturmliouville:eq:example-fourier-heat-equation}
eingesetzt.
Daraus ergibt sich
@@ -105,7 +114,7 @@ der neuen Variablen $\mu$ gekoppelt werden:
=
\frac{X^{\prime \prime}(x)}{X(x)}
=
- \mu
+ \mu.
\]
Durch die Einführung von $\mu$ kann das Problem nun in zwei separate
Differenzialgleichungen aufgeteilt werden:
@@ -119,21 +128,44 @@ Differenzialgleichungen aufgeteilt werden:
\label{sturmliouville:eq:example-fourier-separated-t}
T^{\prime}(t) - \kappa \mu T(t)
=
- 0
+ 0.
\end{equation}
%
-% Überprüfung Orthogonalität der Lösungen
+% Überprüfung SLP, dann Orthogonalität der Lösungen
%
-Es ist an dieser Stelle zu bemerken, dass die Gleichung in $x$ in
-Sturm-Liouville-Form ist.
-Erfüllen die Randbedingungen des Stab-Problems auch die Randbedingungen des
-Sturm-Liouville-Problems, kann bereits die Aussage getroffen werden, dass alle
-Lösungen für die Gleichung in $x$ orthogonal sein werden.
+An dieser Stelle wird nun gezeigt, dass die Gleichung in $x$ ein
+Sturm-Liouville-Problem ist.
+Dazu werden zunächst die Koeffizientenfunktionen $p(x)$, $q(x)$ und $w(x)$
+benötigt.
+Um diese zu erhalten, wird die
+Gleichung~\eqref{sturmliouville:eq:example-fourier-separated-x} mit der
+Sturm-Liouville-Form~\eqref{sturmliouville:eq:sturm-liouville-equation}
+verglichen, was zu
+\[
+\begin{aligned}
+ p(x) &= 1 \\
+ q(x) &= 0 \\
+ w(x) &= 1
+\end{aligned}
+\]
+führt.
+
+Diese können bereits auf die Bedingungen in
+Definition~\ref{sturmliouville:def:reguläres_sturm-liouville-problem} geprüft
+werden.
+Es ist schnell ersichtlich, dass die ersten drei Kriterien erfüllt sind.
+Werden nun auch noch die Randbedingungen erfüllt, handelt es sich also um ein
+reguläres Sturm-Liouville-Problem und es kann bereits die Aussage gemacht
+werden, dass alle Lösungen für die Gleichung in $x$ orthogonal sein werden.
+
+Da die Bedingungen des Stab-Problems nur Anforderungen an $x$ stellen, können
+diese direkt für $X(x)$ übernomen werden.
+Es gilt also beispielsweise wegen
+\eqref{sturmliouville:eq:example-fourier-boundary-condition-ends-constant},
+dass $X(0) = X(l) = 0$.
-Da die Bedingungen des Stab-Problem nur Anforderungen an $x$ stellen, können
-diese direkt für $X(x)$ übernomen werden. Es gilt also $X(0) = X(l) = 0$.
Damit die Lösungen von $X$ orthogonal sind, müssen also die Gleichungen
\begin{equation}
\begin{aligned}
@@ -152,18 +184,10 @@ erfüllt sein und es muss ausserdem
\end{equation}
gelten.
-Um zu verifizieren, ob die Randbedingungen erfüllt sind, wird zunächst
-$p(x)$
-benötigt.
-Dazu wird die Gleichung~\eqref{sturmliouville:eq:example-fourier-separated-x}
-mit der
-Sturm-Liouville-Form~\eqref{eq:sturm-liouville-equation} verglichen, was zu
-$p(x) = 1$ führt.
-
-Werden nun $p(x)$ und die
+Es werden nun $p(x)$ und die
Randbedingungen~\eqref{sturmliouville:eq:example-fourier-boundary-condition-ends-constant}
-in \eqref{sturmliouville:eq:example-fourier-randbedingungen} eigesetzt, erhält
-man
+des Stab-Problems in \eqref{sturmliouville:eq:example-fourier-randbedingungen}
+eigesetzt und man erhält
\[
\begin{aligned}
k_a y(0) + h_a y'(0) &= h_a y'(0) = 0 \\
@@ -177,17 +201,21 @@ erfüllt sein und da $y(0) = 0$ und $y(l) = 0$ sind, können belibige $k_a \neq
und $k_b \neq 0$ gewählt werden.
Somit ist gezeigt, dass die Randbedingungen des Stab-Problems für Enden auf
-konstanter Temperatur auch die Sturm-Liouville-Randbedingungen erfüllen und
-alle daraus reultierenden Lösungen orthogonal sind.
+konstanter Temperatur auch die Sturm-Liouville-Randbedingungen erfüllen.
+
+Daraus folg zunächst, dass es sich um ein reguläres Sturm-Liouville-Problem
+handelt und weiter, dass alle daraus resultierenden Lösungen orthogonal sind.
Analog dazu kann gezeit werden, dass die Randbedingungen für einen Stab mit
-isolierten Enden ebenfalls die Sturm-Liouville-Randbedingungen erfüllen und
+isolierten
+Enden~\eqref{sturmliouville:eq:example-fourier-boundary-condition-ends-isolated}
+ebenfalls die Sturm-Liouville-Randbedingungen erfüllen und
somit auch zu orthogonalen Lösungen führen.
%
% Lösung von X(x), Teil mu
%
-\subsubsection{Lösund der Differentialgleichung in $x$}
+\subsection{Lösung der Differentialgleichung in \texorpdfstring{$x$}{x}}
Als erstes wird auf die
Gleichung~\eqref{sturmliouville:eq:example-fourier-separated-x} eingegangen.
Aufgrund der Struktur der Gleichung
@@ -230,14 +258,14 @@ ergibt dies
=
0
\]
-und durch umformen somit
+und durch Umformen somit
\[
-\alpha^{2}A\cos(\alpha x) - \beta^{2}B\sin(\beta x)
=
\mu A\cos(\alpha x) + \mu B\sin(\beta x).
\]
-Mittels Koeffizientenvergleich von
+Mittels Koeffizientenvergleich auf beiden Seiten von
\[
\begin{aligned}
-\alpha^{2}A\cos(\alpha x)
@@ -258,16 +286,20 @@ Randbedingungen~\eqref{sturmliouville:eq:example-fourier-boundary-condition-ends
und \eqref{sturmliouville:eq:example-fourier-boundary-condition-ends-isolated}
benötigt.
-Da die Koeffizienten $A$ und $B$, sowie die Parameter $\alpha$ uns $\beta$ im
-allgemeninen ungleich $0$ sind, müssen die Randbedingungen durch die
+Da die Koeffizienten $A$ und $B$, sowie die Parameter $\alpha$ und $\beta$ im
+Allgemeinen ungleich $0$ sind, müssen die Randbedingungen durch die
trigonometrischen Funktionen erfüllt werden.
+\subsubsection{Einsetzen der
+Randbedingungen~\eqref{sturmliouville:eq:example-fourier-boundary-condition-ends-constant}}
+
Es werden nun die
Randbedingungen~\eqref{sturmliouville:eq:example-fourier-boundary-condition-ends-constant}
für einen Stab mit Enden auf konstanter Temperatur in die
Gleichung~\eqref{sturmliouville:eq:example-fourier-separated-x} eingesetzt.
+
Betrachten wir zunächst die Bedingung für $x = 0$.
-Dies fürht zu
+Dies führt zu
\[
X(0)
=
@@ -288,14 +320,13 @@ sich
B \sin(\beta l)
= 0.
\]
-
$\beta$ muss also so gewählt werden, dass $\sin(\beta l) = 0$ gilt.
Es bleibt noch nach $\beta$ aufzulösen:
\[
\begin{aligned}
\sin(\beta l) &= 0 \\
- \beta l &= n \pi \qquad n \in \mathbb{N} \\
- \beta &= \frac{n \pi}{l} \qquad n \in \mathbb{N}
+ \beta l &= n \pi \qquad n \in \mathbb{N}_0 \\
+ \beta &= \frac{n \pi}{l} \qquad n \in \mathbb{N}_0.
\end{aligned}
\]
@@ -308,11 +339,14 @@ Ausserdem ist zu bemerken, dass dies auch gleich $-\alpha^{2}$ ist.
Da aber $A = 0$ gilt und der Summand mit $\alpha$ verschwindet, ist dies keine
Verletzung der Randbedingungen.
-Durch alanoges Vorgehen kann nun auch das Problem mit isolierten Enden gelöst
+\subsubsection{Einsetzen der
+Randbedingungen~\eqref{sturmliouville:eq:example-fourier-boundary-condition-ends-isolated}}
+
+Durch analoges Vorgehen kann nun auch das Problem mit isolierten Enden gelöst
werden.
-Setzt man nun die
+Setzt man die
Randbedingungen~\eqref{sturmliouville:eq:example-fourier-boundary-condition-ends-isolated}
-in $X^{\prime}$ ein, beginnend für $x = 0$. Es ergibt sich
+in $X^{\prime}$ ein, beginnend mit $x = 0$, ergibt sich
\[
X^{\prime}(0)
=
@@ -331,14 +365,14 @@ folgt nun
= 0.
\]
-Wiedrum muss über die $\sin$-Funktion sicher gestellt werden, dass der
+Wiederum muss über die $\sin$-Funktion sicher gestellt werden, dass der
Ausdruck den Randbedingungen entspricht.
Es folgt nun
\[
\begin{aligned}
\sin(\alpha l) &= 0 \\
- \alpha l &= n \pi \qquad n \in \mathbb{N} \\
- \alpha &= \frac{n \pi}{l} \qquad n \in \mathbb{N}
+ \alpha l &= n \pi \qquad n \in \mathbb{N}_0 \\
+ \alpha &= \frac{n \pi}{l} \qquad n \in \mathbb{N}_0
\end{aligned}
\]
und somit
@@ -347,7 +381,7 @@ und somit
\]
Es ergibt sich also sowohl für einen Stab mit Enden auf konstanter Temperatur
-wie auch mit isolierten Enden
+wie auch für den Stab mit isolierten Enden
\begin{equation}
\label{sturmliouville:eq:example-fourier-mu-solution}
\mu
@@ -355,16 +389,32 @@ wie auch mit isolierten Enden
-\frac{n^{2}\pi^{2}}{l^{2}}.
\end{equation}
-%
-% Lösung von X(x), Teil: Koeffizienten a_n und b_n mittels skalarprodukt.
-%
+\subsection{Fourierreihe als Lösung}
+
+Das Resultat~\eqref{sturmliouville:eq:example-fourier-mu-solution} gibt nun
+wegen der neuen Variablen $n \in \mathbb{N}_0$ vor, dass es potenziell
+unendlich viele Lösungen gibt.
+Dies bedeutet auch, dass es nicht ein $A$ und ein $B$ gibt, sondern einen
+Koeffizienten für jede Lösungsfunktion.
+Wir schreiben deshalb den Lösungsansatz zur Linearkombination
+\[
+ X(x)
+ =
+ \sum_{n = 0}^{\infty} a_n\cos\left(\frac{n\pi}{l}x\right)
+ +
+ \sum_{n = 0}^{\infty} b_n\sin\left(\frac{n\pi}{l}x\right)
+\]
+aus allen möglichen Lösungen um.
-Bisher wurde über die Koeffizienten $A$ und $B$ noch nicht viel ausgesagt.
-Zunächst ist wegen vorhergehender Rechnung ersichtlich, dass es sich bei
-$A$ und $B$ nicht um einzelne Koeffizienten handelt.
-Stattdessen können die Koeffizienten für jedes $n \in \mathbb{N}$
-unterschiedlich sein.
-Die Lösung $X(x)$ wird nun umgeschrieben zu
+Als nächstes werden noch die Summanden für $n = 0$ aus den Summen herausgezogen.
+Da
+\[
+ \begin{aligned}
+ a_0 \cos\left(\frac{0 \pi}{l}\right) &= a_0 \\
+ b_0 \sin\left(\frac{0 \pi}{l}\right) &= 0
+ \end{aligned}
+\]
+gilt, endet man somit bei
\[
X(x)
=
@@ -374,10 +424,45 @@ Die Lösung $X(x)$ wird nun umgeschrieben zu
+
\sum_{n = 1}^{\infty} b_n\sin\left(\frac{n\pi}{l}x\right).
\]
+Dies ist die allgemeine Fourierreihe, welche unsere Stab-Probleme löst.
+Wie zuvor bereits erwähnt, wissen wir, dass sämtliche Lösungsfunktionen
+orthogonal zueinander sind bezüglich des
+Skalarproduktes~\eqref{sturmliouville:eq:modified-dot-product}.
+Dieses vereinfacht sich noch etwas, da aus
+Abschnitt~\ref{sturmliouville:subsec:separation} bereits $w(x) = 1$ gegeben ist.
+Somit ist das Skalarprodukt
+\begin{equation}
+ \label{sturmliouville:eq:example-fourier-dot-product}
+ \langle f, g \rangle_w
+ =
+ \int_a^b f(x)g(x)w(x)\,dx
+ =
+ \int_a^b f(x)g(x)\,dx.
+\end{equation}
+
+Es gilt also
+\[
+\begin{aligned}
+ \int_{-l}^{l}\cos\left(\frac{n \pi}{l}x\right)
+ \cos\left(\frac{m \pi}{l}x\right)dx
+ &= 0 \qquad n \neq m \\
+ \int_{-l}^{l}\sin\left(\frac{n \pi}{l}x\right)
+ \sin\left(\frac{m \pi}{l}x\right)dx
+ &= 0 \qquad n \neq m \\
+ \int_{-l}^{l}\cos\left(\frac{n \pi}{l}x\right)
+ \sin\left(\frac{m \pi}{l}x\right)dx
+ &= 0.
+\end{aligned}
+\]
+
+\subsubsection{Berechnung der Fourierkoeffizienten}
+
+%
+% Lösung von X(x), Teil: Koeffizienten a_n und b_n mittels skalarprodukt.
+%
-Um eine eindeutige Lösung für $X(x)$ zu erhalten werden noch weitere
-Bedingungen benötigt.
-Diese sind die Startbedingungen oder $u(0, x) = X(x)$ für $t = 0$.
+Um eine eindeutige Lösung für $X(x)$ zu erhalten wird nun die initiale
+Wärmeverteilung oder $u(0, x) = X(x)$ für $t = 0$ benötigt.
Es gilt also nun die Gleichung
\begin{equation}
\label{sturmliouville:eq:example-fourier-initial-conditions}
@@ -392,7 +477,8 @@ Es gilt also nun die Gleichung
nach allen $a_n$ und $b_n$ aufzulösen.
Da aber $a_n$ und $b_n$ jeweils als Faktor zu einer trigonometrischen Funktion
gehört, von der wir wissen, dass sie orthogonal zu allen anderen
-trigonometrischen Funktionen der Lösung ist, kann direkt das Skalarprodukt
+trigonometrischen Funktionen der Lösung ist, kann direkt das
+Skalarprodukt~\eqref{sturmliouville:eq:example-fourier-dot-product}
verwendet werden um die Koeffizienten $a_n$ und $b_n$ zu bestimmen.
Es wird also die Tatsache ausgenutzt, dass die Gleichheit in
\eqref{sturmliouville:eq:example-fourier-initial-conditions} nach Anwendung des
@@ -404,26 +490,26 @@ Skalarprodukt mit der Basisfunktion $ \cos\left(\frac{m \pi}{l}x\right)$
gebildet:
\begin{equation}
\label{sturmliouville:eq:dot-product-cosine}
- \langle u(0, x), \cos\left(\frac{m \pi}{l}x\right) \rangle
+ \biggl\langle u(0, x), \cos\left(\frac{m \pi}{l}x\right) \biggr\rangle _w
=
- \langle a_0
+ \biggl\langle a_0
+
\sum_{n = 1}^{\infty} a_n\cos\left(\frac{n\pi}{l}x\right)
+
\sum_{n = 1}^{\infty} b_n\sin\left(\frac{n\pi}{l}x\right),
- \cos\left(\frac{m \pi}{l}x\right)\rangle
+ \cos\left(\frac{m \pi}{l}x\right)\biggr\rangle _w
\end{equation}
Bevor diese Form in die Integralform umgeschrieben werden kann, muss überlegt
sein, welche Integralgrenzen zu verwenden sind.
In diesem Fall haben die $\sin$ und $\cos$ Terme beispielsweise keine ganze
-Periode im Intervall $x \in [0, l]$ für ungerade $n$ und $m$.
+Periode im Intervall $x \in [0, l]$ für ungerade $n$ und ungerade $m$.
Um die Skalarprodukte aber korrekt zu berechnen, muss über ein ganzzahliges
Vielfaches der Periode der trigonometrischen Funktionen integriert werden.
Dazu werden die Integralgrenzen $-l$ und $l$ verwendet und es werden ausserdem
neue Funktionen $\hat{u}_c(0, x)$ für die Berechnung mit Cosinus und
$\hat{u}_s(0, x)$ für die Berechnung mit Sinus angenomen, welche $u(0, t)$
-gerade, respektive ungerade auf $[-l, l]$ fortsetzen:
+gerade, respektive ungerade auf $[-l, 0]$ fortsetzen:
\[
\begin{aligned}
\hat{u}_c(0, x)
@@ -444,22 +530,23 @@ gerade, respektive ungerade auf $[-l, l]$ fortsetzen:
\end{aligned}
\]
-Die Konsequenz davon ist, dass nun das Resultat der Integrale um den Faktor zwei
-skalliert wurde, also gilt nun
+Diese Funktionen wurden gerade so gewählt, dass nun das Resultat der Integrale
+um den Faktor $2$ skalliert wurde.
+Es gilt also
\[
-\begin{aligned}
\int_{-l}^{l}\hat{u}_c(0, x)\cos\left(\frac{m \pi}{l}x\right)dx
- &=
+ =
2\int_{0}^{l}u(0, x)\cos\left(\frac{m \pi}{l}x\right)dx
- \\
+\]
+und
+\[
\int_{-l}^{l}\hat{u}_s(0, x)\sin\left(\frac{m \pi}{l}x\right)dx
- &=
+ =
2\int_{0}^{l}u(0, x)\sin\left(\frac{m \pi}{l}x\right)dx.
-\end{aligned}
\]
-Zunächst wird nun das Skalaprodukt~\eqref{sturmliouville:eq:dot-product-cosine}
-berechnet:
+Als nächstes wird nun das
+Skalaprodukt~\eqref{sturmliouville:eq:dot-product-cosine} berechnet:
\[
\begin{aligned}
\int_{-l}^{l}\hat{u}_c(0, x)\cos\left(\frac{m \pi}{l}x\right)dx
@@ -508,15 +595,18 @@ orthogonal zueinander stehen und
\]
da Sinus- und Cosinus-Funktionen ebenfalls orthogonal zueinander sind.
-Es bleibt also lediglich der Summand für $a_m$ stehen, was die Gleichung zu
+Es bleibt also lediglich der Summand mit $a_m$ stehen, was die Gleichung zu
\[
2\int_{0}^{l}u(0, x)\cos\left(\frac{m \pi}{l}x\right)dx
=
a_m\int_{-l}^{l}\cos^2\left(\frac{m\pi}{l}x\right)dx
\]
-vereinfacht. Im nächsten Schritt wird nun das Integral auf der rechten Seite
-berechnet und dann nach $a_m$ aufgelöst. Am einnfachsten geht dies, wenn zuerst
-mit $u = \frac{m \pi}{l}x$ substituiert wird:
+vereinfacht.
+
+Im nächsten Schritt wird nun das Integral auf der rechten Seite
+berechnet und dann nach $a_m$ aufgelöst.
+Am einfachsten geht dies, wenn zuerst mit $u = \frac{m \pi}{l}x$ substituiert
+wird:
\[
\begin{aligned}
2\int_{0}^{l}u(0, x)\cos\left(\frac{m \pi}{l}x\right)dx
@@ -538,7 +628,7 @@ mit $u = \frac{m \pi}{l}x$ substituiert wird:
\\
a_m
&=
- \frac{2}{l} \int_{0}^{l}u(0, x)\cos\left(\frac{m \pi}{l}x\right)dx
+ \frac{2}{l} \int_{0}^{l}u(0, x)\cos\left(\frac{m \pi}{l}x\right)dx.
\end{aligned}
\]
@@ -552,7 +642,7 @@ $ \sin\left(\frac{m \pi}{l}x\right) $ gezeigt werden, dass
gilt.
Etwas anders ist es allerdings bei $a_0$.
-Wie der Name bereits suggeriert, handelt es sich hierbei um den Koeffizienten
+Wie zuvor bereits erwähnt, handelt es sich hierbei um den Koeffizienten
zur Basisfunktion $\cos\left(\frac{0 \pi}{l}x\right)$ beziehungsweise der
konstanten Funktion $1$.
Um einen Ausdruck für $a_0$ zu erhalten, wird wiederum auf beiden Seiten
@@ -580,14 +670,14 @@ Skalarprodukt mit der konstanten Basisfunktion $1$ gebildet:
\]
Hier fallen nun alle Terme, die $\sin$ oder $\cos$ beinhalten weg, da jeweils
-über ein Vielfaches der Periode integriert wird.
+über ein ganzzahliges Vielfaches der Periode integriert wird.
Es bleibt also noch
\[
2\int_{0}^{l}u(0, x)dx
=
- a_0 \int_{-l}^{l}dx
+ a_0 \int_{-l}^{l}dx,
\]
-, was sich wie folgt nach $a_0$ auflösen lässt:
+was sich wie folgt nach $a_0$ auflösen lässt:
\[
\begin{aligned}
2\int_{0}^{l}u(0, x)dx
@@ -605,7 +695,7 @@ Es bleibt also noch
\\
a_0
&=
- \frac{1}{l} \int_{0}^{l}u(0, x)dx
+ \frac{1}{l} \int_{0}^{l}u(0, x)dx.
\end{aligned}
\]
@@ -613,16 +703,22 @@ Es bleibt also noch
% Lösung von T(t)
%
-\subsubsection{Lösung der Differentialgleichung in $t$}
+\subsection{Lösung der Differentialgleichung in \texorpdfstring{$t$}{t}}
Zuletzt wird die zweite Gleichung der
Separation~\eqref{sturmliouville:eq:example-fourier-separated-t} betrachtet.
-Diese wird über das charakteristische Polynom
+Dazu nimmt man das charakteristische Polynom
\[
\lambda - \kappa \mu
=
0
\]
-gelöst.
+der Gleichung
+\[
+ T^{\prime}(t) - \kappa \mu T(t)
+ =
+ 0
+\]
+und löst dieses.
Es ist direkt ersichtlich, dass $\lambda = \kappa \mu$ gelten muss, was zur
Lösung
@@ -639,7 +735,9 @@ führt und mit dem Resultat~\eqref{sturmliouville:eq:example-fourier-mu-solution
\]
ergibt.
-Dieses Resultat kann nun mit allen vorhergehenden Resultaten zusammengesetzt
+\subsection{Lösung des Wärmeleitungsproblems}
+
+Nun können alle vorhergehenden Resultate zusammengesetzt
werden um die vollständige Lösung für das Stab-Problem zu erhalten.
\subsubsection{Lösung für einen Stab mit Enden auf konstanter Temperatur}