diff options
Diffstat (limited to 'buch/chapters/060-integral')
-rw-r--r-- | buch/chapters/060-integral/chapter.tex | 1 | ||||
-rw-r--r-- | buch/chapters/060-integral/gaussquadratur.tex | 484 | ||||
-rw-r--r-- | buch/chapters/060-integral/images/Makefile | 8 | ||||
-rw-r--r-- | buch/chapters/060-integral/images/legendre.m | 64 | ||||
-rw-r--r-- | buch/chapters/060-integral/images/legendre.pdf | bin | 47113 -> 0 bytes | |||
-rw-r--r-- | buch/chapters/060-integral/images/legendre.tex | 99 | ||||
-rw-r--r-- | buch/chapters/060-integral/images/orthogonal.pdf | bin | 25003 -> 0 bytes | |||
-rw-r--r-- | buch/chapters/060-integral/images/orthogonal.tex | 79 | ||||
-rw-r--r-- | buch/chapters/060-integral/jacobi.tex | 8 | ||||
-rw-r--r-- | buch/chapters/060-integral/legendredgl.tex | 368 | ||||
-rw-r--r-- | buch/chapters/060-integral/orthogonal.tex | 746 | ||||
-rw-r--r-- | buch/chapters/060-integral/sturm.tex | 479 |
12 files changed, 1 insertions, 2335 deletions
diff --git a/buch/chapters/060-integral/chapter.tex b/buch/chapters/060-integral/chapter.tex index 276e4f3..af4bd67 100644 --- a/buch/chapters/060-integral/chapter.tex +++ b/buch/chapters/060-integral/chapter.tex @@ -43,7 +43,6 @@ gibt darauf eine Antwort. \input{chapters/060-integral/eulertransformation.tex} \input{chapters/060-integral/differentialkoerper.tex} \input{chapters/060-integral/risch.tex} -\input{chapters/060-integral/orthogonal.tex} \section*{Übungsaufgaben} \rhead{Übungsaufgaben} diff --git a/buch/chapters/060-integral/gaussquadratur.tex b/buch/chapters/060-integral/gaussquadratur.tex deleted file mode 100644 index 27740ab..0000000 --- a/buch/chapters/060-integral/gaussquadratur.tex +++ /dev/null @@ -1,484 +0,0 @@ -% -% Anwendung: Gauss-Quadratur -% -\subsection{Anwendung: Gauss-Quadratur} -Orthogonale Polynome haben eine etwas unerwartet Anwendung in einem -von Gauss erdachten numerischen Integrationsverfahren. -Es basiert auf der Beobachtung, dass viele Funktionen sich sehr -gut durch Polynome approximieren lassen. -Wenn man also sicherstellt, dass ein Verfahren für Polynome -sehr gut funktioniert, darf man auch davon ausgehen, dass es für -andere Funktionen nicht allzu schlecht sein wird. - -\subsubsection{Interpolationspolynome} -Zu einer stetigen Funktion $f(x)$ auf dem Intervall $[-1,1]$ -ist ein Polynome vom Grad $n$ gesucht, welches in den Punkten -$x_0<x_1<\dots<x_n$ die Funktionswerte $f(x_i)$ annimmt. -Ein solches Polynom $p(x)$ hat $n+1$ Koeffizienten, die aus dem -linearen Gleichungssystem der $n+1$ Gleichungen $p(x_i)=f(x_i)$ -ermittelt werden können. - -Das Interpolationspolynom $p(x)$ lässt sich abera uch direkt -angeben. -Dazu konstruiert man zuerst die Polynome -\[ -l_i(x) -= -\frac{ -(x-x_0)(x-x_1)\cdots\widehat{(x-x_i)}\cdots (x-x_n) -}{ -(x_i-x_0)(x_i-x_1)\cdots\widehat{(x_i-x_i)}\cdots (x_i-x_n) -} -\] -vom Grad $n$, wobei der Hut bedeutet, dass diese Faktoren -im Produkt wegzulassen sind. -Die Polynome $l_i(x)$ haben die Eigenschaft -\[ -l_i(x_j) = \delta_{ij} -= -\begin{cases} -1&\qquad i=j\\ -0&\qquad\text{sonst}. -\end{cases} -\] -Die Linearkombination -\[ -p(x) = \sum_{i=0}^n f(x_i)l_i(x) -\] -ist dann ein Polynom vom Grad $n$, welches am den Stellen $x_j$ -die Werte -\[ -p(x_j) -= -\sum_{i=0}^n f(x_i)l_i(x_j) -= -\sum_{i=0}^n f(x_i)\delta_{ij} -= -f(x_j) -\] -hat, das Polynome $p(x)$ ist also das gesuchte Interpolationspolynom. - -\subsubsection{Integrationsverfahren auf der Basis von Interpolation} -Das Integral einer stetigen Funktion $f(x)$ auf dem Intervall $[-1,1]$ -kann mit Hilfe des Interpolationspolynoms approximiert werden. -Wenn $|f(x)-p(x)|<\varepsilon$ ist im Intervall $[-1,1]$, dann gilt -für die Integrale -\[ -\biggl|\int_{-1}^1 f(x)\,dx -\int_{-1}^1p(x)\,dx\biggr| -\le -\int_{-1}^1 |f(x)-p(x)|\,dx -\le -2\varepsilon. -\] -Ein Interpolationspolynom mit kleinem Fehler liefert also auch -eine gute Approximation für das Integral. - -Da das Interpolationspolynome durch die Funktionswerte $f(x_i)$ -bestimmt ist, muss auch das Integral allein aus diesen Funktionswerten -berechnet werden können. -Tatsächlich ist -\begin{equation} -\int_{-1}^1 p(x)\,dx -= -\int_{-1}^1 \sum_{i=0}^n f(x_i)l_i(x)\,dx -= -\sum_{i=0}^n f(x_i) -\underbrace{\int_{-1}^1 -l_i(x)\,dx}_{\displaystyle = A_i}. -\label{buch:integral:gaussquadratur:eqn:Aidef} -\end{equation} -Das Integral von $f(x)$ wird also durch eine mit den Zahlen $A_i$ -gewichtete Summe -\[ -\int_{-1}^1 f(x)\,dx -\approx -\sum_{i=1}^n f(x_i)A_i -\] -approximiert. - -\subsubsection{Integrationsverfahren, die für Polynome exakt sind} -Ein Polynom vom Grad $2n$ hat $2n+1$ Koeffizienten. -Um das Polynom durch ein Interpolationspolynom exakt wiederzugeben, -braucht man $2n+1$ Stützstellen. -Andererseits gilt -\[ -\int_{-1}^1 a_{2n}x^{2n} + a_{2n-1}x^{2n-1} + \dots + a_2x^2 + a_1x + a_0\,dx -= -\int_{-1}^1 a_{2n}x^{2n} + a_{2n-2}x^{2n-2}+\dots +a_2x^2 +a_0\,dx, -\] -das Integral ist also bereits durch die $n+1$ Koeffizienten mit geradem -Index bestimmt. -Es sollte daher möglich sein, aus $n+1$ Funktionswerten eines beliebigen -Polynoms vom Grad höchstens $2n$ an geeignet gewählten Stützstellen das -Integral exakt zu bestimmen. - -\begin{beispiel} -Wir versuchen dies für quadratische Polynome durchzuführen, also -für $n=1$. -Gesucht sind also zwei Werte $x_i$, $i=0,1$ und Gewichte $A_i$, $i=0,1$ -derart, dass für jedes quadratische Polynome $p(x)=a_2x^2+a_1x+a_0$ -das Integral durch -\[ -\int_{-1}^1 p(x)\,dx -= -A_0 p(x_0) + A_1 p(x_1) -\] -gebeben ist. -Indem wir für $p(x)$ die Polynome $1$, $x$, $x^2$ und $x^3$ einsetzen, -erhalten wir vier Gleichungen -\[ -\begin{aligned} -p(x)&=\rlap{$1$}\phantom{x^2}\colon& 2 &= A_0\phantom{x_0}+ A_1 \\ -p(x)&=x^{\phantom{2}}\colon& 0 &= A_0x_0 + A_1x_1 \\ -p(x)&=x^2\colon& \frac23 &= A_0x_0^2 + A_1x_1^2\\ -p(x)&=x^3\colon& 0 &= A_0x_0^3 + A_1x_1^3. -\end{aligned} -\] -Dividiert man die zweite und vierte Gleichung in der Form -\[ -\left. -\begin{aligned} -A_0x_0 &= -A_1x_1\\ -A_0x_0^2 &= -A_1x_1^2 -\end{aligned} -\quad -\right\} -\quad -\Rightarrow -\quad -x_0^2=x_1^2 -\quad -\Rightarrow -\quad -x_1=-x_0. -\] -Indem wir dies in die zweite Gleichung einsetzen, finden wir -\[ -0 = A_0x_0 + A_1x_1 = A_0x_1 -A_1x_0 = (A_0-A_1)x_0 -\quad\Rightarrow\quad -A_0=A_1. -\] -Aus der ersten Gleichung folgt jetzt -\[ -2= A_0+A_1 = 2A_0 \quad\Rightarrow\quad A_0 = 1. -\] -Damit bleiben nur noch die Werte von $x_i$ zu bestimmen, was -mit Hilfe der zweiten Gleichung geschehen kann: -\[ -\frac23 = A_0x_0^2 + A_1x_1^2 = 2x_0^2 -\quad\Rightarrow\quad -x_0 = \frac{1}{\sqrt{3}}, x_1 = -\frac{1}{\sqrt{3}} -\] -Damit ist das Problem gelöst: das Integral eines Polynoms vom Grad 3 -im Interval $[-1,1]$ ist exakt gegeben durch -\[ -\int_{-1}^1 p(x)\,dx -= -p\biggl(-\frac{1}{\sqrt{3}}\biggr) -+ -p\biggl(\frac{1}{\sqrt{3}}\biggr). -\] -Das Integral kann also durch nur zwei Auswertungen des Polynoms -exakt bestimmt werden. - -Im Laufe der Lösung des Gleichungssystems wurden die Gewichte $A_i$ -mit bestimmt. -Es ist aber auch möglich, die Gewichte zu bestimmen, wenn man die -Stützstellen kennt. -Nach \eqref{buch:integral:gaussquadratur:eqn:Aidef} -sind sie die $A_i$ gegeben als Integrale der Polynome -$l_i(x)$, die im vorliegenden Fall linear sind: -\begin{align*} -l_0(x) -&= -\frac{x-x_1}{x_0-x_1} -= -\frac{x-\frac1{\sqrt{3}}}{-\frac{2}{\sqrt{3}}} -= -\frac12(1-\sqrt{3}x) -\\ -l_1(x) -&= -\frac{x-x_0}{x_1-x_0} -= -\frac{x+\frac1{\sqrt{3}}}{\frac{2}{\sqrt{3}}} -= -\frac12(1+\sqrt{3}x) -\end{align*} -Diese haben die Integrale -\[ -\int_{-1}^1\frac12(1\pm\sqrt{3}x)\,dx -= -\int_{-1}^1 \frac12\,dx -= -1, -\] -da das Polynom $x$ verschwindendes Integral hat. -Dies stimmt mit $A_0=A_1=1$ überein. -\label{buch:integral:beispiel:gaussquadraturn1} -\end{beispiel} - -Das eben vorgestellt Verfahren kann natürlich auf beliebiges $n$ -verallgemeinert werden. -Allerdings ist die Rechnung zur Bestimmung der Stützstellen und -Gewichte sehr mühsam. - -\subsubsection{Stützstellen und Orthogonalpolynome} -Sei $R_n=\{p(X)\in\mathbb{R}[X] \mid \deg p\le n\}$ der Vektorraum -der Polynome vom Grad $n$. - -\begin{satz} -\label{buch:integral:satz:gaussquadratur} -Sei $p$ ein Polynom vom Grad $n$, welches auf allen Polynomen in $R_{n-1}$ -orthogonal sind. -Seien ausserdem $x_0<x_1<\dots<x_n$ Stützstellen im Intervall $[-1,1]$ -und $A_i\in\mathbb{R}$ Gewichte derart dass -\[ -\int_{-1}^1 f(x)\,dx = -\sum_{i=0}^n A_if(x_i) -\] -für jedes Polynom $f$ vom Grad höchstens $2n-1$, dann sind die Zahlen -$x_i$ die Nullstellen des Polynoms $p$. -\end{satz} - -\begin{proof}[Beweis] -Sei $f(x)$ ein beliebiges Polynom vom Grad $2n-1$. -Nach dem Polynomdivisionsalgorithmus gibt es -Polynome $q,r\in R_{n-1}$ derart, dass $f=qp+r$. -Dann ist das Integral von $f$ gegeben durch -\[ -\int_{-1}^1 f(x)\,dx -= -\int_{-1}^1q(x) p(x)\,dx + \int_{-1}^1 r(x)\,dx -= -\langle q,p\rangle + \int_{-1}^1 r(x)\,dx. -\] -Da $p\perp R_{n-1}$ folgt insbesondere, dass $\langle q,p\rangle=0$. - -Da die Integrale auch aus den Werten in den Stützstellen berechnet -werden können, muss auch -\[ -0 -= -\int_{-1}^1 q(x)p(x)\,dx -= -\sum_{i=0}^n q(x_i)p(x_i) -\] -für jedes beliebige Polynom $q\in R_{n-1}$ gelten. -Da man für $q$ die Interpolationspolynome $l_j(x)$ verwenden -kann, den Grad $n-1$ haben, folgt -\[ -0 -= -\sum_{i=0}^n -l_j(x_i)p(x_i) -= -\sum_{i=0}^n \delta_{ij}p(x_i), -\] -die Stützstellen $x_i$ müssen also die Nullstellen des Polynoms -$p(x)$ sein. -\end{proof} - -Der Satz~\ref{buch:integral:satz:gaussquadratur} begründet das -{\em Gausssche Quadraturverfahren}. -Die in Abschnitt~\ref{buch:integral:subsection:orthogonale-polynome} -bestimmten Legendre-Polynome $P_n$ haben die im Satz -verlangte Eigenschaft, -dass sie auf allen Polynomen geringeren Grades orthogonal sind. -Wählt man die $n$ Nullstellen von $P_n$ als Stützstellen, erhält man -automatisch ein Integrationsverfahren, welches für Polynome vom Grad -$2n-1$ exakt ist. - -\begin{beispiel} -Das Legendre-Polynom $P_2(x) = \frac12(3x^2-1)$ hat die -Nullstellen $x=\pm1/\sqrt{3}$, dies sind genau die im Beispiel -auf Seite~\pageref{buch:integral:beispiel:gaussquadraturn1} befundenen -Sützstellen. -\end{beispiel} - -\subsubsection{Fehler der Gauss-Quadratur} -Das Gausssche Quadraturverfahren mit $n$ Stützstellen berechnet -Integrale von Polynomen bis zum Grad $2n-1$ exakt. -Für eine beliebige Funktion kann man die folgende Fehlerabschätzung -angeben \cite[theorem 7.3.4, p.~497]{buch:numal}. - -\begin{satz} -Seien $x_i$ die Stützstellen und $A_i$ die Gewichte einer -Gaussschen Quadraturformel mit $n+1$ Stützstellen und sei $f$ -eine auf dem Interval $[-1,1]$ $2n+2$-mal stetig differenzierbare -Funktion, dann ist der $E$ Fehler des Integrals -\[ -\int_{-1}^1 f(x)\,dx = \sum_{i=0}^n A_i f(x_i) + E -\] -gegeben durch -\begin{equation} -E = \frac{f^{(2n+2)}(\xi)}{(2n+2)!}\int_{-1}^1 l(x)^2\,dx, -\label{buch:integral:gaussquadratur:eqn:fehlerformel} -\end{equation} -wobei $l(x)=(x-x_0)(x-x_1)\dots(x-x_n)$ und $\xi$ ein geeigneter -Wert im Intervall $[-1,1]$ ist. -\end{satz} - -Dank dem Faktor $(2n+2)!$ im Nenner von -\eqref{buch:integral:gaussquadratur:eqn:fehlerformel} -geht der Fehler für grosses $n$ sehr schnell gegen $0$. -Man kann auch zeigen, dass die mit Gauss-Quadratur mit $n+1$ -Stützstellen berechneten Näherungswerte eines Integrals einer -stetigen Funktion $f(x)$ für $n\to\infty$ immer gegen den wahren -Wert des Integrals konvergieren. - -\begin{table} -\def\u#1{\underline{#1}} -\centering -\begin{tabular}{|>{$}c<{$}|>{$}r<{$}|>{$}r<{$}|} -\hline - n & \text{Gauss-Quadratur} & \text{Trapezregel} \\ -\hline -\phantom{0}2 & 0.\u{95}74271077563381 & 0.\u{95}63709682242596 \\ -\phantom{0}4 & 0.\u{95661}28333449730 & 0.\u{956}5513401768598 \\ -\phantom{0}6 & 0.\u{9566114}812034364 & 0.\u{956}5847489712136 \\ -\phantom{0}8 & 0.\u{956611477}5028123 & 0.\u{956}5964425360520 \\ - 10 & 0.\u{9566114774905}637 & 0.\u{9566}018550715587 \\ - 12 & 0.\u{956611477490518}7 & 0.\u{9566}047952369826 \\ - 14 & 0.\u{95661147749051}72 & 0.\u{9566}065680717177 \\ - 16 & 0.\u{956611477490518}7 & 0.\u{9566}077187127541 \\ - 18 & 0.\u{956611477490518}3 & 0.\u{9566}085075898731 \\ - 20 & 0.\u{956611477490518}4 & 0.\u{9566}090718697414 \\ -\hline - \infty & 0.9566114774905183 & 0.9566114774905183 \\ -\hline -\end{tabular} -\caption{Integral von $\sqrt{1-x^2}$ zwischen $-\frac12$ und $\frac12$ -berechnet mit Gauss-Quadratur und der Trapezregel, aber mit zehnmal -so vielen Stützstellen. -Bereits mit 12 Stützstellen erreicht die Gauss-Quadratur -Maschinengenauigkeit, die Trapezregel liefert auch mit 200 Stützstellen -nicht mehr als 4 korrekte Nachkommastellen. -\label{buch:integral:gaussquadratur:table0.5}} -\end{table} - -%\begin{table} -%\def\u#1{\underline{#1}} -%\centering -%\begin{tabular}{|>{$}c<{$}|>{$}r<{$}|>{$}r<{$}|} -%\hline -% n & \text{Gauss-Quadratur} & \text{Trapezregel} \\ -%\hline -%\phantom{0}2 & 1.\u{5}379206741571556 & 1.\u{5}093105464758343 \\ -%\phantom{0}4 & 1.\u{51}32373472933831 & 1.\u{51}13754509594814 \\ -%\phantom{0}6 & 1.\u{512}1624557410367 & 1.\u{51}17610879524799 \\ -%\phantom{0}8 & 1.\u{51207}93479994321 & 1.\u{51}18963282632112 \\ -% 10 & 1.\u{51207}13859966004 & 1.\u{51}19589735776959 \\ -% 12 & 1.\u{512070}5317779943 & 1.\u{51}19930161260693 \\ -% 14 & 1.\u{5120704}334802813 & 1.\u{5120}135471596636 \\ -% 16 & 1.\u{5120704}216176006 & 1.\u{5120}268743889558 \\ -% 18 & 1.\u{5120704}201359081 & 1.\u{5120}360123137213 \\ -% 20 & 1.\u{5120704199}459651 & 1.\u{5120}425490275837 \\ -%\hline -% \infty & 1.5120704199172947 & 1.5120704199172947 \\ -%\hline -%\end{tabular} -%\end{table} - -%\begin{table} -%\def\u#1{\underline{#1}} -%\centering -%\begin{tabular}{|>{$}c<{$}|>{$}r<{$}|>{$}r<{$}|} -%\hline -% n & \text{Gauss-Quadratur} & \text{Trapezregel} \\ -%\hline -%\phantom{0}2 & 1.\u{}6246862220133462 & 1.\u{5}597986803933712 \\ -%\phantom{0}4 & 1.\u{5}759105515463101 & 1.\u{56}63563456168101 \\ -%\phantom{0}6 & 1.\u{5}706630058381434 & 1.\u{56}77252866190838 \\ -%\phantom{0}8 & 1.\u{56}94851106536780 & 1.\u{568}2298707696152 \\ -% 10 & 1.\u{56}91283195332679 & 1.\u{568}4701957758742 \\ -% 12 & 1.\u{56}90013806299465 & 1.\u{568}6030805941198 \\ -% 14 & 1.\u{5689}515434853885 & 1.\u{568}6841603070025 \\ -% 16 & 1.\u{5689}306507843050 & 1.\u{568}7372230731711 \\ -% 18 & 1.\u{5689}214761291217 & 1.\u{568}7738235496322 \\ -% 20 & 1.\u{56891}73062385982 & 1.\u{568}8001228530786 \\ -%\hline -% \infty & 1.5689135396691616 & 1.5689135396691616 \\ -%\hline -%\end{tabular} -%\end{table} - -\begin{table} -\def\u#1{\underline{#1}} -\centering -\begin{tabular}{|>{$}c<{$}|>{$}r<{$}|>{$}r<{$}|} -\hline - n & \text{Gauss-Quadratur} & \text{Trapezregel} \\ -\hline -\phantom{0}2 & 1.\u{}6321752373234928 & 1.\u{5}561048774629949 \\ -\phantom{0}4 & 1.\u{57}98691557134743 & 1.\u{5}660124134617943 \\ -\phantom{0}6 & 1.\u{57}35853681692993 & 1.\u{5}683353001877542 \\ -\phantom{0}8 & 1.\u{57}19413565928206 & 1.\u{5}692627503425400 \\ - 10 & 1.\u{57}13388119633434 & 1.\u{5}697323578543481 \\ - 12 & 1.\u{57}10710489948883 & 1.\u{570}0051217458713 \\ - 14 & 1.\u{570}9362135398341 & 1.\u{570}1784766276063 \\ - 16 & 1.\u{570}8621102742815 & 1.\u{570}2959121005231 \\ - 18 & 1.\u{570}8186779483588 & 1.\u{570}3793521168343 \\ - 20 & 1.\u{5707}919411931615 & 1.\u{570}4408749735932 \\ -\hline - \infty & 1.5707367072605671 & 1.5707367072605671 \\ -\hline -\end{tabular} -\caption{Integral von $\sqrt{1-x^2}$ zwischen $-0.999$ und $0.999$ -berechnet mit Gauss-Quadratur und der Trapezregel, aber mit zehnmal -so vielen Stützstellen. -Wegen der divergierenden Steigung des Integranden bei $\pm 1$ tun -sich beide Verfahren sehr schwer. -Trotzdem erreich die Gauss-Quadrator 4 korrekte Nachkommastellen -mit 20 Stütztstellen, während die Trapezregel auch mit 200 Stützstellen -nur 3 korrekte Nachkommastellen findet. -\label{buch:integral:gaussquadratur:table0.999}} -\end{table} - -\begin{figure} -\centering -\includegraphics{chapters/060-integral/gq/gq.pdf} -\caption{Approximationsfehler des -Integrals~\eqref{buch:integral:gaussquadratur:bspintegral} -in Abhängigkeit von $a$. -Die Divergenz der Ableitung des Integranden an den Intervallenden -$\pm 1$ führt zu schlechter Konvergenz des Verfahrens, wenn $a$ -nahe an $1$ ist. -\label{buch:integral:gaussquadratur:fehler}} -\end{figure} - -Zur Illustration der Genauigkeit der Gauss-Quadratur berechnen wir -das Integral -\begin{equation} -\int_{-a}^a \sqrt{1-x^2}\,dx -= -\arcsin a + a \sqrt{1-a^2} -\label{buch:integral:gaussquadratur:bspintegral} -\end{equation} -mit Gauss-Quadratur einerseits und dem Trapezverfahren -andererseits. -Da Gauss-Quadratur mit sehr viel weniger Sützstellen auskommt, -berechnen wir die Trapeznäherung mit zehnmal so vielen Stützstelln. -In den Tabellen~\ref{buch:integral:gaussquadratur:table0.5} -und -\ref{buch:integral:gaussquadratur:table0.999} -sind die Resultate zusammengestellt. -Für $a =\frac12$ zeigt -Tabelle~\ref{buch:integral:gaussquadratur:table0.5} -die sehr schnelle Konvergenz der Gauss-Quadratur, schon mit -12 Stützstellen wird Maschinengenauigkeit erreicht. -Das Trapezverfahren dagegen erreicht auch mit 200 Stützstellen nur -4 korrekte Nachkommastellen. - -An den Stellen $x=\pm 1$ divergiert die Ableitung des Integranden -des Integrals \eqref{buch:integral:gaussquadratur:bspintegral}. -Da grösste und kleinste Stützstelle der Gauss-Quadratur immer -deutlich vom Rand des Intervalls entfernt ist, kann das Verfahren -diese ``schwierigen'' Stellen nicht erkennen. -Tabelle~\ref{buch:integral:gaussquadratur:table0.999} zeigt, wie -die Konvergenz des Verfahrens in diesem Fall sehr viel schlechter ist. -Dies zeigt auch der Graph in -Abbildung~\ref{buch:integral:gaussquadratur:fehler}. - -\subsubsection{Skalarprodukte mit Gewichtsfunktion} - diff --git a/buch/chapters/060-integral/images/Makefile b/buch/chapters/060-integral/images/Makefile index 790bfb1..28b662e 100644 --- a/buch/chapters/060-integral/images/Makefile +++ b/buch/chapters/060-integral/images/Makefile @@ -4,16 +4,10 @@ # # (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule # -all: erf.pdf legendre.pdf orthogonal.pdf +all: erf.pdf erf.pdf: erf.tex erfpunkte.tex pdflatex erf.tex erfpunkte.tex: erfpunkte.m octave erfpunkte.m -legendrepaths.tex: legendre.m - octave legendre.m -legendre.pdf: legendre.tex legendrepaths.tex - pdflatex legendre.tex -orthogonal.pdf: orthogonal.tex legendrepaths.tex - pdflatex orthogonal.tex diff --git a/buch/chapters/060-integral/images/legendre.m b/buch/chapters/060-integral/images/legendre.m deleted file mode 100644 index 8e8317d..0000000 --- a/buch/chapters/060-integral/images/legendre.m +++ /dev/null @@ -1,64 +0,0 @@ -# -# legendre.m -# -# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule -# -pkg load miscellaneous -global N; -N = 30; - -function retval = legendrepath(fn, n, name) - global N; - m = n * N; - c = legendrepoly(n) - x = (-m:m)/m; - v = polyval(c, x); - fprintf(fn, "\\def\\legendre%s{\n", name) - fprintf(fn, "\t ({%.5f*\\dx},{%.5f*\\dy})", x(1), v(1)); - for i = (2:length(v)) - fprintf(fn, "\n\t-- ({%.5f*\\dx},{%.5f*\\dy})", x(i), v(i)); - - endfor - fprintf(fn, "\n}\n"); - ci = polyint(conv(c, c)) -polyval(ci, 1) - normalization = sqrt(polyval(ci, 1) - polyval(ci, -1)) - fprintf(fn, "\\def\\normalization%s{%.5f}\n", name, normalization); -endfunction - -function retval = legendreprodukt(fn, a, b, name) - global N; - n = max(a, b); - m = n * N; - pa = legendrepoly(a); - pb = legendrepoly(b); - p = conv(pa, pb); - x = (-m:m)/m; - v = polyval(p, x); - fprintf(fn, "\\def\\produkt%s{\n", name) - fprintf(fn, "\t ({%.5f*\\dx},{%.5f*\\dy})", x(1), v(1)); - for i = (2:length(v)) - fprintf(fn, "\n\t-- ({%.5f*\\dx},{%.5f*\\dy})", x(i), v(i)); - endfor - fprintf(fn, "\n}\n"); -endfunction - -fn = fopen("legendrepaths.tex", "w"); -legendrepath(fn, 1, "one"); -legendrepath(fn, 2, "two"); -legendrepath(fn, 3, "three"); -legendrepath(fn, 4, "four"); -legendrepath(fn, 5, "five"); -legendrepath(fn, 6, "six"); -legendrepath(fn, 7, "seven"); -legendrepath(fn, 8, "eight"); -legendrepath(fn, 9, "nine"); -legendrepath(fn, 10, "ten"); - -legendreprodukt(fn, 4, 7, "ortho"); -legendreprodukt(fn, 4, 4, "vier"); -legendreprodukt(fn, 7, 7, "sieben"); - -fclose(fn); - - diff --git a/buch/chapters/060-integral/images/legendre.pdf b/buch/chapters/060-integral/images/legendre.pdf Binary files differdeleted file mode 100644 index 554dc35..0000000 --- a/buch/chapters/060-integral/images/legendre.pdf +++ /dev/null diff --git a/buch/chapters/060-integral/images/legendre.tex b/buch/chapters/060-integral/images/legendre.tex deleted file mode 100644 index 8409da0..0000000 --- a/buch/chapters/060-integral/images/legendre.tex +++ /dev/null @@ -1,99 +0,0 @@ -% -% legendre.tex -- plots of legendre polynomials -% -% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule -% -\documentclass[tikz]{standalone} -\usepackage{amsmath} -\usepackage{times} -\usepackage{txfonts} -\usepackage{pgfplots} -\usepackage{csvsimple} -\usetikzlibrary{arrows,intersections,math} -\begin{document} -\def\skala{6.5} -\input{legendrepaths.tex} -\begin{tikzpicture}[>=latex,thick,scale=\skala] - -\definecolor{fone}{rgb}{1,0,0} -\definecolor{ftwo}{rgb}{1.0,0,0.8} -\definecolor{fthree}{rgb}{0.8,0,1} -\definecolor{ffour}{rgb}{0,0,1} -\definecolor{ffive}{rgb}{0,0.8,1} -\definecolor{fsix}{rgb}{0,1,1} -\definecolor{fseven}{rgb}{0,0.6,0} -\definecolor{feight}{rgb}{0.2,1,0.6} -\definecolor{fnine}{rgb}{0.6,0.8,0.2} -\definecolor{ften}{rgb}{1,0.4,0} - -\def\dx{1} -\def\dy{0.25} - -\def\achsen{ - \draw[->] ({-1-(0.1/\skala)},0) -- ({1+(0.3/\skala)},0) - coordinate[label={$x$}]; - \draw[->] (0,{-(\dy)-(0.1/\skala)}) -- (0,{(\dy)+(0.3/\skala)}) - coordinate[label={right:$y$}]; - \foreach \x in {-1,-0.9,...,1.001}{ - \draw ({\dx*\x},{-0.05/\skala}) -- ({\dx*\x},{0.05/\skala}); - } - \foreach \x in {-1,-0.5,0.5,1}{ - \draw ({-0.05/\skala},{\dy*\x}) -- ({0.05/\skala},{\dy*\x}); - \node at ({\dx*\x},{-0.05/\skala}) [below] {$\mathstrut\x$}; - \node at ({-0.05/\skala},{\dy*\x}) [left] {$\mathstrut\x$}; - } -} - -\begin{scope}[yshift=0cm] - \node[color=fone] at (-0.70,{-0.9*\dy}) [right] {$n=1\mathstrut$}; - \node[color=ftwo] at (-0.90,{0.9*\dy}) [right] {$n=2\mathstrut$}; - \draw[line width=1.4pt,color=fone] \legendreone; - \draw[line width=1.4pt,color=ftwo] \legendretwo; - \achsen -\end{scope} - -\begin{scope}[yshift=-0.6cm] - \node[color=fthree] at (-0.96,{-0.9*\dy}) [right] {$n=3\mathstrut$}; - \node[color=ffour] at (-0.96,{0.9*\dy}) [right] {$n=4\mathstrut$}; - \draw[line width=1.4pt,color=fthree] \legendrethree; - \draw[line width=1.4pt,color=ffour] \legendrefour; - \achsen -\end{scope} - -\begin{scope}[yshift=-1.2cm] - \node[color=ffive] at (-0.96,{-0.9*\dy}) [right] {$n=5\mathstrut$}; - \node[color=fsix] at (-0.96,{0.9*\dy}) [right] {$n=6\mathstrut$}; - \draw[line width=1.4pt,color=ffive] \legendrefive; - \draw[line width=1.4pt,color=fsix] \legendresix; - \achsen -\end{scope} - -\begin{scope}[yshift=-1.8cm] - \node[color=fseven] at (-0.96,{-0.9*\dy}) [right] {$n=7\mathstrut$}; - \node[color=feight] at (-0.96,{0.9*\dy}) [right] {$n=8\mathstrut$}; - \draw[line width=1.4pt,color=fseven] \legendreseven; - \draw[line width=1.4pt,color=feight] \legendreeight; - \achsen -\end{scope} - -\begin{scope}[yshift=-2.4cm] - \node[color=fnine] at (-0.96,{-0.9*\dy}) [right] {$n=9\mathstrut$}; - \node[color=ften] at (-0.96,{0.9*\dy}) [right] {$n=10\mathstrut$}; - \draw[line width=1.4pt,color=fnine] \legendrenine; - \draw[line width=1.4pt,color=ften] \legendreten; - \achsen -\end{scope} - -%\draw[line width=1.4pt,color=ftwo] \legendretwo; -%\draw[line width=1.4pt,color=fthree] \legendrethree; -%\draw[line width=1.4pt,color=ffour] \legendrefour; -%\draw[line width=1.4pt,color=ffive] \legendrefive; -%\draw[line width=1.4pt,color=fsix] \legendresix; -%\draw[line width=1.4pt,color=fseven] \legendreseven; -%\draw[line width=1.4pt,color=feight] \legendreeight; -%\draw[line width=1.4pt,color=fnine] \legendrenine; -%\draw[line width=1.4pt,color=ften] \legendreten; - -\end{tikzpicture} -\end{document} - diff --git a/buch/chapters/060-integral/images/orthogonal.pdf b/buch/chapters/060-integral/images/orthogonal.pdf Binary files differdeleted file mode 100644 index f7abb5e..0000000 --- a/buch/chapters/060-integral/images/orthogonal.pdf +++ /dev/null diff --git a/buch/chapters/060-integral/images/orthogonal.tex b/buch/chapters/060-integral/images/orthogonal.tex deleted file mode 100644 index 8600281..0000000 --- a/buch/chapters/060-integral/images/orthogonal.tex +++ /dev/null @@ -1,79 +0,0 @@ -% -% orthogonal.tex -- plots of legendre polynomials -% -% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule -% -\documentclass[tikz]{standalone} -\usepackage{amsmath} -\usepackage{times} -\usepackage{txfonts} -\usepackage{pgfplots} -\usepackage{csvsimple} -\usetikzlibrary{arrows,intersections,math} -\begin{document} -\def\skala{6} -\input{legendrepaths.tex} -\begin{tikzpicture}[>=latex,thick,scale=\skala] - -\definecolor{fone}{rgb}{1,0,0} -\definecolor{ftwo}{rgb}{1.0,0,0.8} -\definecolor{fthree}{rgb}{0.8,0,1} -\definecolor{ffour}{rgb}{0,0,1} -\definecolor{ffive}{rgb}{0,0.8,1} -\definecolor{fsix}{rgb}{0,1,1} -\definecolor{fseven}{rgb}{0,0.6,0} -\definecolor{feight}{rgb}{0.2,1,0.6} -\definecolor{fnine}{rgb}{0.6,0.8,0.2} -\definecolor{ften}{rgb}{1,0.4,0} - -\def\dx{1} -\def\Dy{3} -\def\dy{3} - -\begin{scope} -\clip (-1,-0.6) rectangle (1,1); - -%\pgfmathparse{\Dy/(\normalizationfour*\normalizationfour)} -%\xdef\dy{\pgfmathresult} -\fill[color=ffour!70,opacity=0.5] (-1,0) -- \produktvier -- (1,0) -- cycle; - -%\pgfmathparse{\Dy/(\normalizationeight*\normalizationeight)} -%\xdef\dy{\pgfmathresult} -\fill[color=fseven!70,opacity=0.5] (-1,0) -- \produktsieben -- (1,0) -- cycle; - -%\pgfmathparse{\Dy/(\normalizationfour*\normalizationeight)} -%\xdef\dy{\pgfmathresult} -\fill[color=red!50,opacity=0.5] (-1,0) -- \produktortho -- (1,0) -- cycle; - -%\pgfmathparse{\Dy/\normalizationfour} -%\xdef\dy{\pgfmathresult} -%\draw[line width=1.4pt,color=ffour] \legendrefour; -% -%\pgfmathparse{\Dy/\normalizationeight} -%\xdef\dy{\pgfmathresult} -%\draw[line width=1.4pt,color=feight] \legendreeight; - -%\pgfmathparse{\Dy/(\normalizationfour*\normalizationeight)} -%\xdef\dy{\pgfmathresult} -\draw[line width=1.4pt,color=red] \produktortho; - -\end{scope} - -\draw[->] ({-1-(0.1/\skala)},0) -- ({1+(0.3/\skala)},0) - coordinate[label={$x$}]; -\draw[->] (0,{-{0.2*\Dy}-(0.1/\skala)}) -- (0,{1+(0.3/\skala)}) - coordinate[label={right:$y$}]; -\foreach \x in {-1,-0.9,...,1.001}{ - \draw ({\dx*\x},{-0.1/\skala}) -- ({\dx*\x},{0.1/\skala}); -} -\foreach \y in {-0.2,-0.1,0.1,0.2,0.3}{ - \draw ({-0.1/\skala},{\Dy*\y}) -- ({0.1/\skala},{\Dy*\y}); - \node at ({-0.1/\skala},{\Dy*\y}) [left] {$\mathstrut\y$}; -} -\foreach \x in {-1,-0.5,0.5,1}{ - \node at ({\dx*\x},{-0.1/\skala}) [below] {$\mathstrut\x$}; -} - -\end{tikzpicture} -\end{document} - diff --git a/buch/chapters/060-integral/jacobi.tex b/buch/chapters/060-integral/jacobi.tex deleted file mode 100644 index c0e80ec..0000000 --- a/buch/chapters/060-integral/jacobi.tex +++ /dev/null @@ -1,8 +0,0 @@ -% -% jacobi.tex -% -% (c) 2022 Prof Dr Andreas Müller, OST Ostsdchweizer Fachhochschule -% -\subsection{Jacobi-Polynome -\label{buch:integrale:subsection:jacobi-polynome}} - diff --git a/buch/chapters/060-integral/legendredgl.tex b/buch/chapters/060-integral/legendredgl.tex deleted file mode 100644 index 6c8a1df..0000000 --- a/buch/chapters/060-integral/legendredgl.tex +++ /dev/null @@ -1,368 +0,0 @@ -% -% legendredgl.tex -% -% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule -% -\subsection{Orthogonale Polynome und Differentialgleichungen} -Legendre hat einen ganz anderen Zugang zu den nach ihm benannten -Polynomen gefunden. -Er hat sie gefunden als die Lösungen einer speziellen Differentialgleichungen. -In diesem Abschnitt sollen diese Funktionen mit der Potenzreihen-Methode -wiedergefunden werden. -Dabei stellt sich heraus, dass diese Polynome auch Eigenfunktionen eines -selbstadjungierten Differentialgoperator sind. -Die Orthogonalität wird dann aus einer Verallgemeinerung der bekannten -Eingeschaft folgen, dass Eigenvektoren einer symmetrischen Matrix zu -verschiedenen Eigenwerten orthogonal sind. - -\subsubsection{Legendre-Differentialgleichung} -Die {\em Legendre-Differentialgleichung} ist die Differentialgleichung -\begin{equation} -(1-x^2) y'' - 2x y' + n(n+1) y = 0 -\label{buch:integral:eqn:legendre-differentialgleichung} -\end{equation} -für eine Funktion $y(x)$ auf dem Intervall $[-1,1]$. - -Sei $y(x)$ eine Lösung der Differentialgleichung -\eqref{buch:integral:eqn:legendre-differentialgleichung}. -Setzt man $y_s(x)=y(-x)$ in die Differentialgleichung ein, erhält -man -\[ -(1-x^2)y_s''(x) - 2x y'_s(x) + n(n+1)y_s(x) -= -(1-x^2)y''(-x) +2x y(-x) +n(n+1)y(-x). -\] -Ersetzt man $t=-x$, dann wird daraus -\[ -(1-x^2)y''(t) -2t y(t) + n(n+1) y(t) = 0 -\] -aus der Differentialgleichung -\eqref{buch:integral:eqn:legendre-differentialgleichung}. -Insbesondere ist die gespiegelte Funktion $y_s(x)$ ebenfalls -eine Lösung der Differentialgleichung. - -Ist $y(x)$ eine Lösung der Differentialgleichung ist, dann lässt -sie sich in die Summe einer geraden und einer ungeraden Funktion -\[ -\left. -\begin{aligned} -y_g(x) &= \frac{y(x)+y(-x)}{2}\\ -y_u(x) &= \frac{y(x)-y(-x)}{2} -\end{aligned} -\quad -\right\} -\quad -\Rightarrow -\quad -y(x) = y_g(x) + y_u(x) -\] -zerlegen, die als Linearkombinationen der beiden Lösungen -$y(x)$ und $y_s(x)$ ebenfalls Lösungen der Differentialgleichung -sind. - -\subsubsection{Potenzreihenlösung} -Wir suchen eine Lösung in Form einer Potenzreihe um $x=0$ und -verwenden dazu den Ansatz -\[ -y(x) = a_0+a_1x+a_2x^2+ \dots = \sum_{k=0}^\infty a_kx^k. -\] -\begin{align*} -(1-x^2) \sum_{k=2}^\infty k(k-1)a_kx^{k-2} --2x\sum_{k=0}^\infty ka_kx^{k-1} -+ -n(n+1)\sum_{k=0}^\infty a_kx^k -&= -0 -\\ -\sum_{k=0}^\infty (k+2)(k+1)a_{k+2}x^k -- -\sum_{k=2}^\infty k(k-1)a_kx^k -- -2\sum_{k=1}^\infty ka_kx^k -+ -n(n+1)\sum_{k=0}^\infty a_kx^k -&= -0 -\end{align*} -Die Koeffizienten zur Potenz $k$ sind daher -\begin{align} -k&=0: -& -0&= -2a_2+n(n+1)a_0 -\notag -\\ -&& -a_2&=-\frac{n(n+1)}{2}a_0 -\notag -\\ -k&=1: -& -0&= -6a_3-2a_1+n(n+1)a_1 -\notag -\\ -&& -a_3&= \frac{2-n(n+1)}{6}a_1 -\notag -\\ -k&>1: -& -0&= -(k+2)(k+1)a_{k+2} -k(k-1)a_k -2ka_k +n(n+1) a_k -\notag -\\ -&& -a_{k+2} -&= -\frac{ k(k+1)-n(n+1) }{(k+2)(k+1)} -a_k -\label{buch:integral:legendre-dgl:eqn:akrek} -\end{align} -Wenn $a_1=0$ und $a_0\ne 1$ ist, dann ist die Funktion $y(x)$ gerade, -alle ungeraden Koeffizienten verschwinden. -Ebenso verschwinden alle geraden Koeffizienten, wenn $a_0=0$ und $a_1\ne 0$. -Für jede Lösung $y(x)$ der Differentialgleichung ist -$y_g(x)$ ein Lösung mit $a_1=0$ und $y_u(x)$ eine Lösung mit $a_0=0$. -Wir können die Diskussion der Lösungen daher auf gerade oder ungerade -Lösungen einschränken. - -Gesucht ist jetzt eine Lösung in Form eines Polynoms. -In diesem Fall müssen die Koeffizienten $a_k$ ab einem -gewissen Index verschwinden. -Dies tritt nach \eqref{buch:integral:legendre-dgl:eqn:akrek} genau -dann auf, wenn der Zähler für ein $k$ verschwindet. -Folglich gibt es genau dann Polynomlösungen der Differentialgleichungen, -wenn $n$ eine natürlich Zahl ist. -Ausserdem ist die Lösung ein Polynom $\bar{P}_n(x)$ vom Grad $n$. -Das Polynom soll wieder so normiert sein, dass $\bar{P}_n(1)=1$ ist. - -Die Lösungen der Differentialgleichungen können jetzt explizit -berechnet werden. -Zunächst ist $\bar{P}_0(x)=1$ und $\bar{P}_1(x)=x$. -Für $n=2$ setzen wir zunächst $a_0=1$ und $a_1=0$ und erhalten -\[ -y(x) -= -1 + \frac{0(0+1) - 2(2+1)}{(0+2)(0+1)}a_0 x^2 -= -1 --3x^2 -\qquad\text{oder}\qquad -\bar{P}_3(x) = \frac12(3x^2-1). -\] -Für $n=3$ starten wir von $a_1=1$ und $a_0=0$, was zunächst $a_2=0$ -impliziert. -Für $a_3$ finden wir -\[ -a_3=\frac{1(1+1)-3(3+1)}{(1+2)(1+1)} = -\frac53 -\qquad\Rightarrow\qquad -y(x) = x-\frac53x^3 -\qquad\Rightarrow\qquad -\bar{P}_3(x) = \frac12(5x^3-3x). -\] -Dies stimmt überein mit den früher gefundenen Ausdrücken für -die Legendre-Polynome. - -Die Potenzreihenlösung zeigt zwar, dass es für jedes $n\in\mathbb{N}$ -eine Polynomlösung $\bar{P}_n(x)$ vom Grad $n$ gibt. -Dies kann aber nicht erklären, warum die so gefundenen Polynome -orthogonal sind. - -\subsubsection{Eigenfunktionen} -Die Differentialgleichung -\eqref{buch:integral:eqn:legendre-differentialgleichung} -Kann mit dem Differentialoperator -\[ -D = \frac{d}{dx}(1-x^2)\frac{d}{dx} -\] -als -\[ -Dy + n(n+1)y = 0 -\] -geschrieben werden. -Tatsächlich ist -\[ -Dy -= -\frac{d}{dx} (1-x^2) \frac{d}{dy} -= -\frac{d}{dx} (1-x^2)y' -= -(1-x^2)y'' -2x y'. -\] -Dies bedeutet, dass die Lösungen $\bar{P}_n(x)$ Eigenfunktionen -des Operators $D$ zum Eigenwert $n(n+1)$ sind: -\[ -D\bar{P}_n = -n(n+1) \bar{P}_n. -\] - -\subsubsection{Orthogonalität von $\bar{P}_n$ als Eigenfunktionen} -Ein Operator $A$ auf Funktionen heisst {\em selbstadjungiert}, wenn -für zwei beliebige Funktionen $f$ und $g$ gilt -\[ -\langle Af,g\rangle = \langle f,Ag\rangle -\] -gilt. -Im vorliegenden Zusammenhang möchten wir die Eigenschaft nutzen, -dass Eigenfunktionen eines selbstadjungierten Operatores zu verschiedenen -Eigenwerten orthogonal sind. -Dazu seien $Df = \lambda f$ und $Dg=\mu g$ und wir rechnen -\begin{equation} -\renewcommand{\arraycolsep}{2pt} -\begin{array}{rcccrl} -\langle Df,g\rangle &=& \langle \lambda f,g\rangle &=& \lambda\phantom{)}\langle f,g\rangle -&\multirow{2}{*}{\hspace{3pt}$\biggl\}\mathstrut-\mathstrut$}\\ -=\langle f,Dg\rangle &=& \langle f,\mu g\rangle &=& \mu\phantom{)}\langle f,g\rangle& -\\[2pt] -\hline - 0 & & &=& (\lambda-\mu)\langle f,g\rangle& -\end{array} -\label{buch:integrale:eqn:eigenwertesenkrecht} -\end{equation} -Da $\lambda-\mu\ne 0$ ist, muss $\langle f,g\rangle=0$ sein. - -Der Operator $D$ ist selbstadjungiert, d.~h. -für zwei beliebige zweimal stetig differenzierbare Funktion $f$ und $g$ -auf dem Intervall $[-1,1]$ gilt -\begin{align*} -\langle Df,g\rangle -&= -\int_{-1}^1 (Df)(x) g(x) \,dx -\\ -&= -\int_{-1}^1 -\biggl(\frac{d}{dx} (1-x^2)\frac{d}{dx}f(x)\biggr) g(x) -\,dx -\\ -&= -\underbrace{ -\biggl[ -\biggl((1-x^2)\frac{d}{dx}f(x)\biggr) g(x) -\biggr]_{-1}^1 -}_{\displaystyle = 0} -- -\int_{-1}^1 -\biggl((1-x^2)\frac{d}{dx}f(x)\biggr) \frac{d}{dx}g(x) -\,dx -\\ -&= -- -\int_{-1}^1 -\biggl(\frac{d}{dx}f(x)\biggr) \biggl((1-x^2)\frac{d}{dx}g(x)\biggr) -\,dx -\\ -&= -- -\underbrace{ -\biggl[ -f(x) \biggl((1-x^2)\frac{d}{dx}g(x)\biggr) -\biggr]_{-1}^1}_{\displaystyle = 0} -+ -\int_{-1}^1 -f(x) \biggl(\frac{d}{dx}(1-x^2)\frac{d}{dx}g(x)\biggr) -\,dx -\\ -&= -\langle f,Dg\rangle. -\end{align*} -Dies beweist, dass $D$ selbstadjungiert ist. -Da $\bar{P}_n$ Eigenwerte des selbstadjungierten Operators $D$ zu -den verschiedenen Eigenwerten $-n(n+1)$ sind, folgt auch, dass -die $\bar{P}_n$ orthogonale Polynome vom Grad $n$ sind, die die -gleiche Standardierdisierungsbedingung wie die Legendre-Polyonome -erfüllen, also ist $\bar{P}_n(x)=P_n(x)$. - -\subsubsection{Legendre-Funktionen zweiter Art} -%Siehe Wikipedia-Artikel \url{https://de.wikipedia.org/wiki/Legendre-Polynom} -% -Die Potenzreihenmethode liefert natürlich auch Lösungen der -Legendreschen Differentialgleichung, die sich nicht als Polynome -darstellen lassen. -Ist $n$ gerade, dann liefern die Anfangswerte $a_0=0$ und $a_1=1$ -eine ungerade Funktion, die Folge der Koeffizienten bricht -aber nicht ab, vielmehr ist -\begin{align*} -a_{k+2} -&= -\frac{k(k+1)}{(k+1)(k+2)}a_k -= -\frac{k}{k+2}a_k. -\end{align*} -Durch wiederholte Anwendung dieser Rekursionsformel findet man -\[ -a_{k} -= -\frac{k-2}{k}a_{k-2} -= -\frac{k-2}{k}\frac{k-4}{k-2}a_{k-4} -= -\frac{k-2}{k}\frac{k-4}{k-2}\frac{k-6}{k-4}a_{k-6} -= -\dots -= -\frac{1}{k}a_1. -\] -Die Lösung hat daher die Reihenentwicklung -\[ -Q_0(x) = x+\frac13x^3 + \frac15x^5 + \frac17x^7+\dots -= -\frac12\log \frac{1+x}{1-x} -= -\operatorname{artanh}x. -\] -Die Funktion $Q_0(x)$ heisst {\em Legendre-Funktion zweiter Art}. - -Für $n=1$ wird die Reihenentwicklung $a_0=1$ und $a_1=0$ etwas -interessanter. -Die Rekursionsformel für die Koeffizienten ist -\[ -a_{k+2} -= -\frac{k(k+1)-2}{(k+1)(k+2)} a_k. -\qquad\text{oder}\qquad -a_k -= -\frac{(k-1)(k-2)-2}{k(k-1)} -a_{k-2} -\] -Man erhält der Reihe nach -\begin{align*} -a_2 &= \frac{-2}{2\cdot 1} a_0 = -1 -\\ -a_3 &= 0 -\\ -a_4 &= \frac{3\cdot 2-2}{4\cdot 3} a_2 = \frac{4}{4\cdot 3}a_2 = \frac13a_2 = -\frac13 -\\ -a_5 &= 0 -\\ -a_6 &= \frac{5\cdot 4-2}{6\cdot 5}a_4 = \frac{18}{6\cdot 5}a_4 = -\frac15 -\\ -a_7 &= 0 -\\ -a_8 &= \frac{7\cdot 6-2}{8\cdot 7}a_6 = \frac{40}{8\cdot 7} = -\frac17 -\\ -a_9 &= 0 -\\ -a_{10} &= \frac{9\cdot 8-2}{10\cdot 9}a_8 = \frac{70}{10\cdot 9} = -\frac19, -\end{align*} -woraus sich die Reihenentwicklung -\begin{align*} -y(x) -&= --x^2 -\frac13x^4 -\frac15x^6 - \frac17x^8 -\frac19x^{10}-\dots -\\ -&= --x\biggl(x+\frac13x^3 + \frac15x^5 + \frac17x^7 + \frac19x^9+\dots\biggr) -= --x\operatorname{artanh}x. -\end{align*} -Die {\em Legendre-Funktionen zweiter Art} $Q_n(x)$ werden allerdings -so definiert, dass gewisse Rekursionsformeln für die Legendre-Polynome, -die wir hier nicht hergeleitet haben, auch für die $Q_n(x)$ gelten. -In dieser Normierung muss statt des eben berechneten $y(x)$ die Funktion -\[ -Q_1(x) = x \operatorname{artanh}x-1 -\] -verwendet werden. - diff --git a/buch/chapters/060-integral/orthogonal.tex b/buch/chapters/060-integral/orthogonal.tex deleted file mode 100644 index 0ea9c0c..0000000 --- a/buch/chapters/060-integral/orthogonal.tex +++ /dev/null @@ -1,746 +0,0 @@ -% -% orthogonal.tex -% -% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule -% -\section{Orthogonalität -\label{buch:integral:section:orthogonale-polynome}} -\rhead{Orthogonale Polynome} -Die Fourier-Theorie basiert auf der Idee, Funktionen durch -Funktionenreihen mit Summanden zu bilden, die im Sinne eines -Skalarproduktes orthogonal sind, welches mit Hilfe eines Integrals -definiert sind. -Solche Funktionenfamilien treten jedoch auch als Lösungen von -Differentialgleichungen. -Besonders interessant wird die Situation, wenn die Funktionen -Polynome sind. - -% -% Skalarprodukt -% -\subsection{Skalarprodukt} -Der reelle Vektorraum $\mathbb{R}^n$ trägt das Skalarprodukt -\[ -\langle\;\,,\;\rangle -\colon -\mathbb{R}^n \times \mathbb{R}^n \to \mathbb{R} -: -(x,y)\mapsto \langle x, y\rangle = \sum_{k=1}^n x_iy_k, -\] -welches viele interessante Anwendungen ermöglicht. -Eine orthonormierte Basis macht es zum Beispiel besonders leicht, -eine Zerlegung eines Vektors in dieser Basis zu finden. -In diesem Abschnitt soll zunächst an die Eigenschaften erinnert -werden, die zu einem nützlichen - -\subsubsection{Eigenschaften eines Skalarproduktes} -Das Skalarprodukt erlaubt auch, die Länge eines Vektors $v$ -als $|v| = \sqrt{\langle v,v\rangle}$ zu definieren. -Dies funktioniert natürlich nur, wenn die Wurzel auch immer -definiert ist, d.~h.~das Skalarprodukt eines Vektors mit sich -selbst darf nicht negativ sein. -Dazu dient die folgende Definition. - -\begin{definition} -Sei $V$ ein reeller Vektorraum. -Eine bilineare Abbildung -\[ -\langle\;\,,\;\rangle -\colon -V\times V -\to -\mathbb{R} -: -(u,v) \mapsto \langle u,v\rangle. -\] -heisst {\em positiv definit}, wenn für alle Vektoren $v \in V$ mit -$v\ne 0 \Rightarrow \langle v,v\rangle > 0$ -Die {\em Norm} eines Vektors $v$ ist -$|v|=\sqrt{\langle v,v\rangle}$. -\end{definition} - -Damit man mit dem Skalarprodukt sinnvoll rechnen kann, ist ausserdem -erforderlich, dass es eine einfache Beziehung zwischen -$\langle x,y\rangle$ und $\langle y,x\rangle$ gibt. - -\begin{definition} -Ein {\em Skalarprodukt} auf einem reellen Vektorraum $V$ ist eine -positiv definite, symmetrische bilineare Abbildung -\[ -\langle\;\,,\;\rangle -\colon -V\times V -\to -\mathbb{R} -: -(u,v) \mapsto \langle u,v\rangle. -\] -\end{definition} - -Das Skalarprodukt $\langle u,v\rangle=u^tv$ auf dem Vektorraum -$\mathbb{R}^n$ erfüllt die Definition ganz offensichtlich, -sie führt auf die Komponentendarstellung -\[ -\langle u,v\rangle = u^tv = \sum_{k=1}^n u_iv_i. -\] -Weitere Skalarprodukte ergeben ergeben sich mit jeder symmetrischen, -positiv definiten Matrix $G$ und der Definition -$\langle u,v\rangle_G=u^tGv$. -Ein einfacher Spezialfall tritt auf, wenn $G$ eine Diagonalmatrix -$\operatorname{diag}(w_1,\dots,w_n)$ -mit positiven Einträgen $w_i>0$ auf der Diagonalen ist. -In diesem Fall schreiben wir -\[ -\langle u,v\rangle_w -= -u^t\operatorname{diag}(w_1,\dots,w_n)v -= -\sum_{k=1}^n u_iv_i\,w_i -\] -und nennen $\langle \;\,,\;\rangle_w$ das {\em gewichtete Skalarprodukt} -mit {\em Gewichten $w_i$}. - -\subsubsection{Skalarprodukte auf Funktionenräumen} -Das Integral ermöglicht jetzt, ein Skalarprodukt auf dem reellen -Vektorraum der stetigen Funktionen auf einem Intervall zu definieren. - -\begin{definition} -Sei $V$ der reelle Vektorraum $C([a,b])$ der reellwertigen, stetigen -Funktion auf dem Intervall $[a,b]$. -Dann ist -\[ -\langle\;\,,\;\rangle -\colon -C([a,b]) \times C([a,b]) \to \mathbb{R} -: -(f,g) \mapsto \langle f,g\rangle = \int_a^b f(x)g(x)\,dx. -\] -ein Skalarprodukt. -\end{definition} - -Die Definition ist offensichtlich symmetrisch in $f$ und $g$ und -aus den Eigenschaften des Integrals ist klar, dass das Produkt -bilinear ist: -\begin{align*} -\langle \lambda_1 f_1+\lambda_2f_2,g\rangle -&= -\int_a^b (\lambda_1f_(x) +\lambda_2f_2(x))g(x)\,dx -= -\lambda_1\int_a^b f_1(x) g(x)\,dx -+ -\lambda_2\int_a^b f_2(x) g(x)\,dx -\\ -&= -\lambda_1\langle f_1,g\rangle -+ -\lambda_2\langle f_2,g\rangle. -\end{align*} -Ausserdem ist es positiv definit, denn wenn $f(x_0) \ne 0$ ist, -dann gibt es wegen der Stetigkeit von $f$ eine Umgebung -$U=[x_0-\varepsilon,x_0+\varepsilon]$, derart, dass $|f(x)| > \frac12|f(x_0)|$ -ist für alle $x\in U$. -Somit ist das Integral -\[ -\langle f,f\rangle -= -\int_a^b |f(x)|^2\,dx -\ge -\int_{x_0-\varepsilon}^{x_0+\varepsilon} |f(x)|^2\,dx -\ge -\int_{x_0-\varepsilon}^{x_0+\varepsilon} \frac14|f(x_0)|^2\,dx -= -\frac{1}{4}|f(x_0)|^2\cdot 2\varepsilon -= -\frac{|f(x_0)|^2\varepsilon}{2} ->0, -\] -was beweist, dass $\langle\;,\;\rangle$ positiv definit und damit -ein Skalarprodukt ist. - -Die Definition kann noch etwas verallgemeinert werden, indem -die Funktionswerte nicht überall auf dem Definitionsbereich -gleich gewichtet werden. - -\begin{definition} -Sei $w\colon [a,b]\to \mathbb{R}^+$ eine positive, stetige Funktion, -dann ist -\[ -\langle\;\,,\;\rangle_w -\colon -C([a,b]) \times C([a,b]) \to \mathbb{R} -: -(f,g) \mapsto \langle f,g\rangle_w = \int_a^b f(x)g(x)\,w(x)\,dx. -\] -das {\em gewichtete Skalarprodukt} mit {\em Gewichtsfunktion $w(x)$}. -\end{definition} - -\subsubsection{Gram-Schmidt-Orthonormalisierung} -In einem reellen Vektorraum $V$ mit Skalarprodukt $\langle\;\,,\;\rangle$ -kann aus einer beleibigen Basis $b_1,\dots,b_n$ mit Hilfe des -Gram-Schmidtschen Orthogonalisierungsverfahrens immer eine -orthonormierte Basis $\tilde{b}_1,\dots,\tilde{b}_n$ Basis -gewonnen werden. -Es stellt sicher, dass für alle $k\le n$ gilt -\[ -\langle b_1,\dots,b_k\rangle -= -\langle \tilde{b}_1,\dots,\tilde{b}_k\rangle. -\] -Zur Vereinfachung der Formeln schreiben wir $v^0=v/|v|$ für einen zu -$v$ parallelen Einheitsvektor. -Die Vektoren $\tilde{b}_i$ können mit Hilfe der Formeln -\begin{align*} -\tilde{b}_1 -&= -(b_1)^0 -\\ -\tilde{b}_2 -&= -\bigl( -b_2 -- -\langle \tilde{b}_1,b_2\rangle \tilde{b}_1 -\bigr)^0 -\\ -\tilde{b}_3 -&= -\bigl( -b_3 -- -\langle \tilde{b}_1,b_3\rangle \tilde{b}_1 -- -\langle \tilde{b}_2,b_3\rangle \tilde{b}_2 -\bigr)^0 -\\ -&\;\vdots -\\ -\tilde{b}_n -&= -\bigl( -b_n -- -\langle \tilde{b}_1,b_n\rangle \tilde{b}_1 -- -\langle \tilde{b}_2,b_n\rangle \tilde{b}_2 --\dots -- -\langle \tilde{b}_{n-1},b_n\rangle \tilde{b}_{n-1} -\bigr)^0 -\end{align*} -iterativ berechnet werden. -Dieses Verfahren lässt sich auch auf Funktionenräume anwenden. - -Die Normierung ist nicht unbedingt nötig und manchmal unangenehm, -da die Norm unschöne Quadratwurzeln einführt. -Falls es genügt, eine orthogonale Basis zu finden, kann darauf -verzichtet werden, bei der Orthogonalisierung muss aber berücksichtigt -werden, dass die Vektoren $\tilde{b}_i$ jetzt nicht mehr Einheitslänge -haben. -Die Formeln -\begin{align*} -\tilde{b}_0 -&= -b_0 -\\ -\tilde{b}_1 -&= -b_1 -- -\frac{\langle b_1,\tilde{b}_0\rangle}{\langle \tilde{b}_0,\tilde{b}_0\rangle}\tilde{b}_0 -\\ -\tilde{b}_2 -&= -b_2 -- -\frac{\langle b_2,\tilde{b}_0\rangle}{\langle \tilde{b}_0,\tilde{b}_0\rangle}\tilde{b}_0 -- -\frac{\langle b_2,\tilde{b}_1\rangle}{\langle \tilde{b}_1,\tilde{b}_1\rangle}\tilde{b}_1 -\\ -&\;\vdots -\\ -\tilde{b}_n -&= -b_n -- -\frac{\langle b_n,\tilde{b}_0\rangle}{\langle \tilde{b}_0,\tilde{b}_0\rangle}\tilde{b}_0 -- -\frac{\langle b_n,\tilde{b}_1\rangle}{\langle \tilde{b}_1,\tilde{b}_1\rangle}\tilde{b}_1 -- -\dots -- -\frac{\langle b_n,\tilde{b}_{n-1}\rangle}{\langle \tilde{b}_{n-1},\tilde{b}_{n-1}\rangle}\tilde{b}_{n-1}. -\end{align*} -berücksichtigen dies. - -\subsubsection{Selbstadjungierte Operatoren und Eigenvektoren} -Symmetrische Matrizen spielen eine spezielle Rolle in der -endlichdimensionalen linearen Algebra, weil sie sich immer -mit einer orthonormierten Basis diagonalisieren lassen. -In der vorliegenden Situation undendlichdimensionaler Vektorräume -brauchen wir eine angepasste Definition. - -\begin{definition} -Eine lineare Selbstabbildung $A\colon V\to V$ -eines Vektorrraums mit Skalarprodukt -heisst {\em selbstadjungiert}, wenn für alle Vektoren $u,v\in V$ -heisst $\langle Au,v\rangle = \langle u,Av\rangle$. -\end{definition} - -Es ist wohlbekannt, dass Eigenvektoren einer symmetrischen Matrix -zu verschiedenen Eigenwerten orthogonal sind. -Der Beweis ist direkt übertragbar, wir halten das Resultat hier -für spätere Verwendung fest. - -\begin{satz} -Sind $f$ und $g$ Eigenvektoren eines selbstadjungierten Operators $A$ -zu verschiedenen Eigenwerten $\lambda$ und $\mu$, dann sind $f$ und $g$ -orthogonal. -\end{satz} - -\begin{proof}[Beweis] -Im vorliegenden Zusammenhang möchten wir die Eigenschaft nutzen, -dass Eigenfunktionen eines selbstadjungierten Operatores zu verschiedenen -Eigenwerten orthogonal sind. -Dazu seien $Df = \lambda f$ und $Dg=\mu g$ und wir rechnen -\begin{equation*} -\renewcommand{\arraycolsep}{2pt} -\begin{array}{rcccrl} -\langle Df,g\rangle &=& \langle \lambda f,g\rangle &=& \lambda\phantom{)}\langle f,g\rangle -&\multirow{2}{*}{\hspace{3pt}$\biggl\}\mathstrut-\mathstrut$}\\ -=\langle f,Dg\rangle &=& \langle f,\mu g\rangle &=& \mu\phantom{)}\langle f,g\rangle& -\\[2pt] -\hline - 0 & & &=& (\lambda-\mu)\langle f,g\rangle& -\end{array} -\end{equation*} -Da $\lambda-\mu\ne 0$ ist, muss $\langle f,g\rangle=0$ sein. -\end{proof} - -\begin{beispiel} -Sei $C^1([0,2\pi], \mathbb{C})=C^1(S^1,\mathbb{C})$ -der Vektorraum der $2\pi$-periodischen differenzierbaren Funktionen mit -dem Skalarprodukt -\[ -\langle f,g\rangle -= -\frac{1}{2\pi}\int_0^{2\pi} \overline{f(t)}g(t)\,dt -\] -enthält die Funktionen $e_n(t) = e^{int}$. -Der Operator -\[ -D=i\frac{d}{dt} -\] -ist selbstadjungiert, denn mit Hilfe von partieller Integration erhält man -\[ -\langle Df,g\rangle -= -\frac{1}{2\pi} -\int_0^{2\pi} -\underbrace{ -\overline{i\frac{df(t)}{dt}} -}_{\uparrow} -\underbrace{g(t)}_{\downarrow} -\,dt -= -\underbrace{ -\frac{-i}{2\pi} -\biggl[ -\overline{f(t)}g(t) -\biggr]_0^{2\pi} -}_{\displaystyle=0} -+ -\frac{1}{2\pi} -\int_0^{2\pi} -\overline{f(t)}i\frac{dg(t)}{dt} -\,dt -= -\langle f,Dg\rangle -\] -unter Ausnützung der $2\pi$-Periodizität der Funktionen. - -Die Funktionen $e_n(t)$ sind Eigenfunktionen des Operators $D$, denn -\[ -De_n(t) = i\frac{d}{dt}e^{int} = -n e^{int} = -n e_n(t). -\] -Nach obigem Satz sind die Eigenfunktionen von $D$ orthogonal. -\end{beispiel} - -Das Beispiel illustriert, dass orthogonale Funktionenfamilien -ein automatisches Nebenprodukt selbstadjungierter Operatoren sind. - -% -% Besselfunktionen also orthogonale Funktionenfamilie -% -\subsection{Bessel-Funktionen als orthogonale Funktionenfamilie} -Auch die Besselfunktionen sind eine orthogonale Funktionenfamilie. -Sie sind Funktionen differenzierbaren Funktionen $f(r)$ für $r>0$ -mit $f'(r)=0$ und für $r\to\infty$ nimmt $f(r)$ so schnell ab, dass -auch $rf(r)$ noch gegen $0$ strebt. -Das Skalarprodukt ist -\[ -\langle f,g\rangle -= -\int_0^\infty r f(r) g(r)\,dr, -\] -als Operator verwenden wir -\[ -A = \frac{d^2}{dr^2} + \frac{1}{r}\frac{d}{dr} + s(r), -\] -wobei $s(r)$ eine beliebige integrierbare Funktion sein kann. -Zunächst überprüfen wir, ob dieser Operator wirklich selbstadjungiert ist. -Dazu rechnen wir -\begin{align} -\langle Af,g\rangle -&= -\int_0^\infty -r\,\biggl(f''(r)+\frac1rf'(r)+s(r)f(r)\biggr) g(r) -\,dr -\notag -\\ -&= -\int_0^\infty rf''(r)g(r)\,dr -+ -\int_0^\infty f'(r)g(r)\,dr -+ -\int_0^\infty s(r)f(r)g(r)\,dr. -\notag -\intertext{Der letzte Term ist symmetrisch in $f$ und $g$, daher -ändern wir daran weiter nichts. -Auf das erste Integral kann man partielle Integration anwenden und erhält} -&= -\biggl[rf'(r)g(r)\biggr]_0^\infty -- -\int_0^\infty f'(r)g(r) + rf'(r)g'(r)\,dr -+ -\int_0^\infty f'(r)g(r)\,dr -+ -\int_0^\infty s(r)f(r)g(r)\,dr. -\notag -\intertext{Der erste Term verschwindet wegen der Bedingungen an die -Funktionen $f$ und $g$. -Der erste Term im zweiten Integral hebt sich gegen das -zweite Integral weg. -Der letzte Term ist das Skalarprodukt von $f'$ und $g'$. -Somit ergibt sich -} -&= --\langle f',g'\rangle -+ -\int_0^\infty s(r) f(r)g(r)\,dr. -\label{buch:integrale:orthogonal:besselsa} -\end{align} -Vertauscht man die Rollen von $f$ und $g$, erhält man das Gleiche, da im -letzten Ausdruck~\eqref{buch:integrale:orthogonal:besselsa} die Funktionen -$f$ und $g$ symmetrische auftreten. -Damit ist gezeigt, dass der Operator $A$ selbstadjungiert ist. -Es folgt nun, dass Eigenvektoren des Operators $A$ automatisch -orthogonal sind. - -Eigenfunktionen von $A$ sind aber Lösungen der Differentialgleichung -\[ -\begin{aligned} -&& -Af&=\lambda f -\\ -&\Rightarrow\qquad& -f''(r) +\frac1rf'(r) + s(r)f(r) &= \lambda f(r) -\\ -&\Rightarrow\qquad& -r^2f''(r) +rf'(r)+ (-\lambda r^2+s(r)r^2)f(r) &= 0 -\end{aligned} -\] -sind. - -Durch die Wahl $s(r)=1$ wird der Operator $A$ zum Bessel-Operator -$B$ definiert in -\eqref{buch:differentialgleichungen:bessel-operator}. -Die Lösungen der Besselschen Differentialgleichung zu verschiedenen Werten -des Parameters müssen also orthogonal sein, insbesondere sind die -Besselfunktion $J_\nu(r)$ und $J_\mu(r)$ orthogonal wenn $\mu\ne\nu$ ist. - -% -% Orthogonale Polynome -% -\subsection{Orthogonale Polynome -\label{buch:integral:subsection:orthogonale-polynome}} -Die Polynome $1,x,x^2,\dots,x^n$ bilden eine Basis des Vektorraums -der Polynome vom Grad $\le n$. -Bezüglich des Skalarproduktes -\[ -\langle p,q\rangle -= -\int_{-1}^1 p(x)q(x)\,dx -\] -sind sie jedoch nicht orthogonal, denn es ist -\[ -\langle x^i,x^j\rangle -= -\int_{-1}^1 x^{i+j}\,dx -= -\biggl[\frac{x^{i+j+1}}{i+j+1}\biggr]_{-1}^1 -= -\begin{cases} -\displaystyle -\frac{2}{i+j+1}&\qquad\text{$i+j$ gerade}\\ - 0&\qquad\text{$i+j$ ungerade}. -\end{cases} -\] -Wir können daher das Gram-Schmidtsche Orthonormalisierungsverfahren -anwenden, um eine orthogonale Basis von Polynomen zu finden, was -wir im Folgenden tun wollen. - -% XXX Orthogonalisierungsproblem so formulieren, dass klar wird, -% XXX dass man ein "Normierungskriterium braucht. - -Da wir auf die Normierung verzichten, brauchen wir ein anderes -Kriterium, welches die Polynome eindeutig festlegen kann. -Wir bezeichnen das Polynom vom Grad $n$, das bei diesem Prozess -entsteht, mit $P_n(x)$ und legen willkürlich aber traditionskonform -fest, dass $P_n(1)=1$ sein soll. - -Das Skalarprodukt berechnet ein Integral eines Produktes von zwei -Polynomen über das symmetrische Interval $[-1,1]$. -Ist die eine gerade und die andere ungerade, dann ist das -Produkt eine ungerade Funktion und das Skalarprodukt verschwindet. -Sind beide Funktionen gerade oder ungerade, dann ist das Produkt -gerade und das Skalarprodukt ist im Allgmeinen von $0$ verschieden. -Dies zeigt, dass es tatsächlich etwas zu Orthogonalisieren gibt. - -Die ersten beiden Funktionen sind das konstante Polynom $1$ und -das Polynome $x$. -Nach obiger Beobachtung ist das Skalarprodukt $\langle 1,x\rangle=0$, -also ist $P_1(x)=x$. -Die Graphen der entstehenden Polynome sind in -Abbildung~\ref{buch:integral:orthogonal:legendregraphen} -dargestellt. -\begin{figure} -\centering -\includegraphics{chapters/060-integral/images/legendre.pdf} -\caption{Graphen der Legendre-Polynome $P_n(x)$ für $n=1,\dots,10$. -\label{buch:integral:orthogonal:legendregraphen}} -\end{figure} - -\begin{lemma} -Die Polynome $P_{2n}(x)$ sind gerade, die Polynome $P_{2n+1}(x)$ sind -ungerade Funktionen von $x$. -\end{lemma} - -\begin{proof}[Beweis] -Wir verwenden vollständige Induktion nach $n$. -Wir wissen bereits, dass $P_0(x)=1$ und $P_1(x)=x$ die verlangten -Symmetrieeigenschaften haben. -Im Sinne der Induktionsannahme nehmen wir daher an, dass die -Symmetrieeigenschaften für $P_k(x)$, $k<n$, bereits bewiesen sind. -$P_n(x)$ entsteht jetzt durch Orthogonalisierung nach der Formel -\[ -P_n(x) -= -x^n -- -\langle P_{n-1},x^n\rangle P_{n-1}(x) -- -\langle P_{n-2},x^n\rangle P_{n-2}(x) --\dots- -\langle P_1,x^n\rangle P_1(x) -- -\langle P_0,x^n\rangle P_0(x). -\] -Die Skalarprodukte -$\langle P_{n-1},x^n\rangle$, -$\langle P_{n-3},x^n\rangle$, $\dots$ verschwinden alle, so dass -$P_n(x)$ eine Linearkombination der Funktionen $x^n$, $P_{n-2}(x)$, -$P_{n-4}(x)$ ist, die die gleiche Parität wie $x^n$ haben. -Also hat auch $P_n(x)$ die gleiche Parität, was das Lemma beweist. -\end{proof} - -Die Ortogonalisierung von $x^2$ liefert daher -\[ -p(x) = x^2 -- -\frac{\langle x^2,P_0\rangle}{\langle P_0,P_0\rangle} P_0(x) -= -x^2 - \frac{\int_{-1}^1x^2\,dx}{\int_{-1}^11\,dx} -= -x^2 - \frac{\frac{2}{3}}{2}=x^2-\frac13 -\] -Dieses Polynom erfüllt die Standardisierungsbedingung noch -nicht den $p(1)=\frac23$. -Daraus leiten wir ab, dass -\[ -P_2(x) = \frac12(3x^2-1) -\] -ist. - -Für $P_3(x)$ brauchen wir nur die Skalaprodukte -\[ -\left. -\begin{aligned} -\langle x^3,P_1\rangle -&= -\int_{-1}^1 x^3\cdot x\,dx -= -\biggl[\frac15x^5\biggr]_{-1}^1 -= -\frac25 -\qquad -\\ -\langle P_1,P_1\rangle -&= -\int_{-1}^1 x^2\,dx -= -\frac23 -\end{aligned} -\right\} -\qquad -\Rightarrow -\qquad -p(x) = x^3 - \frac{\frac25}{\frac23}x=x^3-\frac{3}{5}x -\] -Die richtige Standardisierung ergibt sich, -indem man durch $p(1)=\frac25$ dividiert, also -\[ -P_2(x) = \frac12(5x^3-3x). -\] - -Die Berechnung weiterer Polynome verlangt, dass Skalarprodukte -$\langle x^n,P_k\rangle$ berechnet werden müssen, was wegen -der zunehmend komplizierten Form von $P_k$ etwas mühsam ist. -Wir berechnen den Fall $P_4$. -Dazu muss das Polynom $x^4$ um eine Linearkombination von -$P_2$ und $P_0(x)=1$ korrigiert werden. -Die Skalarprodukte sind -\begin{align*} -\langle x^4, P_0\rangle -&= -\int_{-1}^1 x^4\,dx = \frac25 -\\ -\langle P_0,P_0\rangle -&= -\int_{-1}^1 \,dx = 2 -\\ -\langle x^4,P_2\rangle -&= -\int_{-1}^1 \frac32x^6-\frac12 x^4\,dx -= -\biggl[\frac{3}{14}x^7-\frac{1}{10}x^5\biggr]_{-1}^1 -= -\frac6{14}-\frac15 -= -\frac8{35} -\\ -\langle P_2,P_2\rangle -&= -\int_{-1}^1 \frac14(3x^2-1)^2\,dx -= -\int_{-1}^1 \frac14(9x^4-6x^2+1)\,dx -= -\frac14(\frac{18}{5}-4+2) -=\frac25. -\end{align*} -Daraus folgt für $p(x)$ -\begin{align*} -p(x) -&= -x^4 -- -\frac{\langle x^4,P_2\rangle}{\langle P_2,P_2\rangle}P_2(x) -- -\frac{\langle x^4,P_0\rangle}{\langle P_0,P_0\rangle}P_0(x) -\\ -&= -x^4 --\frac47 P_2(x) - \frac15 P_0(x) -\\ -&= -x^4 - \frac{6}{7}x^2 + \frac{3}{35} -\end{align*} -mit $p(1)=\frac{8}{35}$, so dass man -\[ -P_4(x) = -\frac18(35x^4-30x^2+3) -\] -setzen muss. - -\begin{figure} -\centering -\includegraphics{chapters/060-integral/images/orthogonal.pdf} -\caption{Orthogonalität der Legendre-Polynome $P_4(x)$ ({\color{blue}blau}) -und $P_7(x)$ ({\color{darkgreen}grün}). -Die blaue Fläche ist die Fläche unter dem Graphen -von $P_4(x)^2$, $P_4(x)$ muss durch die Wurzel aus diesem Flächeninhalt -geteilt werden, um ein Polynome mit Norm $1$ zu erhalten. -Für die grüne Fläche ist es $P_7(x)$. -Die rote Kurve ist der Graph der Funktion $P_4(x)\cdot P_7(x)$, -die rote Fläche ist deren Integral, sie ist $0$, d.~h.~die beiden -Funktionen sind orthogonal. -\label{buch:integral:orthogonal:legendreortho}} -\end{figure} - -\begin{table} -\centering -\renewcommand{\arraystretch}{1.2} -\begin{tabular}{|>{$}c<{$}|>{$}l<{$}|} -\hline -n&P_n(x)\\ -\hline - 0&1 -\\ - 1&x -\\ - 2&\frac12(3x^2-1) -\\ - 3&\frac12(5x^3-3x) -\\ - 4&\frac18(35x^4-30x^2+3) -\\ - 5&\frac18(63x^5-70x^3+15x) -\\ - 6&\frac1{16}(231x^6-315x^4+105x^2-5) -\\ - 7&\frac1{16}(429x^7-693x^5+315x^3-35x) -\\ - 8&\frac1{128}(6435x^8-12012x^6+6930x^4-1260x^2+35) -\\ - 9&\frac1{128}(12155x^9-25740x^7+18018x^5-4620x^3+315x) -\\ -10&\frac1{256}(46189x^{10}-109395x^8+90090x^6-30030x^4+3465x^2-63) -\\[2pt] -\hline -\end{tabular} -\caption{Die Legendre-Polynome $P_n(x)$ für $n=0,1,\dots,10$ sind -orthogonale Polynome vom Grad $n$, die den Wert $P_n(1)=1$ haben. -\label{buch:integral:table:legendre-polynome}} -\end{table} - - - -Die so konstruierten Polynome heissen die {\em Legendre-Polynome}. -Durch weitere Durchführung des Verfahrens liefert die Polynome in -Tabelle~\ref{buch:integral:table:legendre-polynome}. -Die Graphen sind in Abbildung~\ref{buch:integral:orthogonal:legendregraphen} -dargestellt. -Abbildung~\ref{buch:integral:orthogonal:legendreortho} illustriert, -dass die die beiden Polynome $P_4(x)$ und $P_7(x)$ orthogonal sind. -Das Produkt $P_4(x)\cdot P_7(x)$ hat Integral $=0$. - -\input{chapters/060-integral/jacobi.tex} - -\subsection{TODO} -\begin{itemize} -\item Jacobi-Polynome -\item Tschebyscheff-Polynome -\end{itemize} - -%% -%% Differentialgleichungen -%% -%\subsection{Orthogonale Polynome und Differentialgleichungen} -%\subsubsection{Legendre-Differentialgleichung} -%\subsubsection{Legendre-Polyome} -%\subsubsection{Legendre-Funktionen zweiter Art} -%Siehe Wikipedia-Artikel \url{https://de.wikipedia.org/wiki/Legendre-Polynom} - -\input{chapters/060-integral/legendredgl.tex} -\input{chapters/060-integral/sturm.tex} -\input{chapters/060-integral/gaussquadratur.tex} - diff --git a/buch/chapters/060-integral/sturm.tex b/buch/chapters/060-integral/sturm.tex deleted file mode 100644 index e374bae..0000000 --- a/buch/chapters/060-integral/sturm.tex +++ /dev/null @@ -1,479 +0,0 @@ -% -% sturm.tex -% -% (c) 2022 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule -% -\subsection{Sturm-Liouville-Problem -\label{buch:integrale:subsection:sturm-liouville-problem}} -Sowohl bei den Bessel-Funktionen wie bei den Legendre-Polynomen -konnte die Orthogonalität der Funktionen dadurch gezeigt werden, -dass sie als Eigenfunktionen eines bezüglich eines geeigneten -Skalarproduktes selbstadjungierten Operators erkannt wurden. - -\subsubsection{Differentialgleichung} -Das klassische Sturm-Liouville-Problem ist das folgende Eigenwertproblem. -Gesucht sind Lösungen der Differentialgleichung -\begin{equation} -((p(x)y'(x))' + q(x)y(x) = \lambda w(x) y(x) -\label{buch:integrale:eqn:sturm-liouville} -\end{equation} -auf dem Intervall $(a,b)$, die zusätzlich die Randbedingungen -\begin{equation} -\begin{aligned} -k_a y(a) + h_a p(a) y'(a) &= 0 \\ -k_b y(b) + h_b p(b) y'(b) &= 0 -\end{aligned} -\label{buch:integrale:sturm:randbedingung} -\end{equation} -erfüllen, wobei $|k_i|^2 + |h_i|^2\ne 0$ mit $i=a,b$. -Weitere Bedingungen an die Funktionen $p(x)$, $q(x)$, $w(x)$ sowie die -Lösungsfunktionen $y(x)$ sollen später geklärt werden. - -\subsubsection{Das verallgemeinerte Eigenwertproblem für symmetrische Matrizen} -Ein zu \eqref{buch:integrale:eqn:sturm-liouville} analoges Eigenwertproblem -für Matrizen ist das folgende verallgemeinerte Eigenwertproblem. -Das gewohnte Eigenwertproblem verwendet die Matrix $B=E$. - -\begin{definition} -Seien $A$ und $B$ $n\times n$-Matrizen. -$v$ heisst verallgemeinerter Eigenvektor zum Eigenwert $\lambda$, -wenn -\[ -Av = \lambda Bv. -\] -\end{definition} - -Für symmetrische Matrizen lässt sich dieses Problem auf ein -Optimierungsproblem reduzieren. - -\begin{satz} -Seien $A$ und $B$ symmetrische $n\times n$-Matrizen und sei ausserdem -$B$ positiv definit. -Ist $v$ ein Vektor, der die Grösse -\[ -f(v)=\frac{v^tAv}{v^tBv} -\] -maximiert, ist ein verallgemeinerter Eigenvektor für die Matrizen $A$ -und $B$. -\end{satz} - -\begin{proof}[Beweis] -Sei $\lambda = f(v)$ der maximale Wert und $u\ne 0$ ein beliebiger Vektor. -Da $v$ die Grösse $f(v)$ maximiert, muss die Ableitung -von $f(u+tv)$ für $t=0$ verschwinden. -Um diese Ableitung zu berechnen, bestimmen wir zunächst die Ableitung -von $(v+tu)^tM(v+tu)$ an der Stelle $t=0$ für eine beliebige -symmetrische Matrix: -\begin{align*} -\frac{d}{dt} -(v+tu)^tM(v+tu) -&= -\frac{d}{dt}\bigl( -v^tv + t(v^tMu+u^tMv) + t^2 u^tMu -\bigr) -= -v^tMu+u^tMv + 2tv^tMv -\\ -\frac{d}{dt} -(v^t+tu^t)M(v+tu) -\bigg|_{t=0} -&= -v^tMu+u^tMv -= -2v^tMu -\end{align*} -Dies wenden wir jetzt auf den Quotenten $\lambda(v+tu)$ an. -\begin{align*} -\frac{d}{dt}f(v+tu)\bigg|_{t=0} -&= -\frac{d}{dt} -\frac{(v+tu)^tA(v+tu)}{(v+tu)^tB(v+tu)}\bigg|_{t=0} -\\ -&= -\frac{2u^tAv(v^tBv) - 2u^tBv(v^tAv)}{(v^tBv)^2} -= -\frac{2}{v^tBv} -u^t -\biggl( -Av - \frac{v^tAv}{v^tBv} Bv -\biggr) -\\ -&= -2 -\frac{ -u^t( -Av - \lambda Bv -) -}{v^tBv} -\end{align*} -Da $v$ ein Maximum von $\lambda(v)$ ist, verschwindet diese Ableitung -für alle Vektoren $u$, somit gilt -\[ -u^t(Av-\lambda Bv)=0 -\] -für alle $u$, also auch $Av=\lambda Bv$. -Dies beweist, dass $v$ ein verallgemeinerter Eigenvektor zum -Eigenwert $\lambda$ ist. -\end{proof} - -\begin{satz} -Verallgemeinerte Eigenvektoren $u$ und $v$ von $A$ und $B$ -zu verschiedenen Eigenwerten erfüllen $u^tBv=0$. -\end{satz} - -\begin{proof} -Seien $\lambda$ und $\mu$ die Eigenwerte, also $Au=\lambda Bu$ -und $Av=\mu Bv$. -Wie in \eqref{buch:integrale:eqn:eigenwertesenkrecht} -berechnen wir das Skalarprodukt auf zwei Arten -\[ -\renewcommand{\arraycolsep}{2pt} -\begin{array}{rcccrl} - u^tAv &=&u^t\lambda Bv &=& \lambda\phantom{\mathstrut-\mu)} u^tBv - &\multirow{2}{*}{\hspace{3pt}$\bigg\}\mathstrut-\mathstrut$}\\ -=v^tAu &=&v^t\mu Bu &=& \mu\phantom{)}u^tBv &\\ -\hline - 0 & & &=& (\lambda - \mu)u^tBv. & -\end{array} -\] -Da die Eigenwerte verschieden sind, ist $\lambda-\mu\ne 0$, es folgt, -dass $u^tBv=0$ sein muss. -\end{proof} - -Verallgemeinerte Eigenwerte und Eigenvektoren verhalten sich also -ganz analog zu den gewöhnlichen Eigenwerten und Eigenvektoren. -Da $B$ positiv definit ist, ist $B$ auch invertierbar. -Zudem kann $B$ zur Definition des verallgemeinerten Skalarproduktes -\[ -\langle u,v\rangle_B = u^tBv -\] -verwendet werden. -Die Matrix -\[ -\tilde{A} = B^{-1}A -\] -ist bezüglich dieses Skalarproduktes selbstadjungiert, denn es gilt -\[ -\langle\tilde{A}u,v\rangle_B -= -(B^{-1}Au)^t Bv -= -u^tA^t(B^{-1})^tBv -= -u^tAv -= -u^tBB^{-1}Av -= -\langle u,\tilde{A}v\rangle. -\] -Das verallgemeinerte Eigenwertproblem für symmetrische Matrizen -ist damit ein gewöhnliches Eigenwertproblem für selbstadjungierte -Matrizen des Operators $\tilde{A}$ bezüglich des verallgemeinerten -Skalarproduktes $\langle\,\;,\;\rangle_B$. - -\subsubsection{Der Operator $L_0$ und die Randbedingung} -Die Differentialgleichung kann auch in Operatorform geschrieben werden. -Dazu schreiben wir -\[ -L_0 -= --\frac{d}{dx}p(x)\frac{d}{dx}. -\] -Bezüglich des gewöhnlichen Skalarproduktes -\[ -\langle f,g\rangle -= -\int_a^b f(x)g(x)\,dx -\] -für Funktionen auf dem Intervall $[a,b]$ ist der Operator $L_0$ -tatsächlich selbstadjungiert. -Mit partieller Integration rechnet man nach: -\begin{align} -\langle f,L_0g\rangle -&= -\int_a^b f(x) \biggl(-\frac{d}{dx}p(x)\frac{d}{dx}\biggr)g(x)\,dx -\notag -\\ -&= --\int_a^b f(x) \frac{d}{dx}\bigl( p(x) g'(x) \bigr)\,dx -\notag -\\ -&= --\biggl[f(x) p(x)g'(x)\biggr]_a^b -+ -\int_a^b f'(x) p(x) g'(x) \,dx -\notag -\\ -\langle L_0f,g\rangle -&= --\biggl[f'(x)p(x)g(x)\biggr]_a^b -+ -\int_a^b f'(x) p(x) g'(x) \,dx. -\notag -\intertext{Die beiden Skalarprodukte führen also auf das gleiche -Integral, sie unterscheiden sich nur um die Randterme} -\langle f,L_0g\rangle -- -\langle L_0f,g\rangle -&= --f(b)p(b)g'(b) + f(a)p(a)g'(a) -+f'(b)p(b)g(b) - f'(a)p(a)g(a) -\label{buch:integrale:sturm:sabedingung} -\\ -&= -- -p(b) -\left|\begin{matrix} -f(b) &g(b)\\ -f'(b)&g'(b) -\end{matrix}\right| -+ -p(a) -\left|\begin{matrix} -f(a) &g(a)\\ -f'(a)&g'(a) -\end{matrix}\right| -\notag -\\ -&= -- -\left|\begin{matrix} -f(b) &g(b)\\ -p(b)f'(b)&p(b)g'(b) -\end{matrix}\right| -+ -\left|\begin{matrix} -f(a) &g(a)\\ -p(a)f'(a)&p(a)g'(a) -\end{matrix}\right|. -\notag -\end{align} -Um zu erreichen, dass der Operator selbstadjunigert wird, muss -sichergestellt werden, dass entweder $p$ oder die Determinanten -an den Intervallenden verschwinden. -Dies passiert genau dann, wenn die Vektoren -\[ -\begin{pmatrix} -f(a)\\ -p(a)f'(a) -\end{pmatrix} -\text{\;und\;} -\begin{pmatrix} -g(a)\\ -p(a)g'(a) -\end{pmatrix} -\] -linear abhängig sind. -In zwei Dimensionen bedeutet lineare Abhängigkeit, dass es -eine nichttriviale Linearform mit Koeffizienten $h_a, k_a$ gibt, -die auf beiden Vektoren verschwindet. -Ausgeschrieben bedeutet dies, dass die Randbedingung -\eqref{buch:integrale:sturm:randbedingung} -erfüllt sein muss. - -\subsubsection{Skalarprodukt} -Das Ziel der folgenden Abschnitte ist, das Sturm-Liouville-Problem als -Eigenwertproblem für einen selbstadjungierten Operator in einem -Funktionenraum mit einem geeigneten Skalarprodukt zu finden. - -Wir haben bereits gezeigt, dass die Randbedingung -\eqref{buch:integrale:sturm:randbedingung} sicherstellt, dass der -Operator $L_0$ für das Standardskalarprodukt selbstadjungiert ist. -Dies entspricht der Symmetrie der Matrix $A$. - -Die Komponente $q(x)$ stellt keine besonderen Probleme, denn -\[ -\langle f,qg\rangle -= -\int_a^b f(x)q(x)g(x)\,dx -= -\langle qf,g\rangle. -\] -Der Operator $f(x) \mapsto q(x)f(x)$, der eine Funktion mit -der Funktion $q(x)$ multipliziert, ist also ebenfalls symmetrisch. -Dasselbe gilt für einen Operator, der mit $w(x)$ multipliziert. -Da $w(x)$ eine positive Funktion ist, ist der Operator $f(x)\mapsto w(x)f(x)$ -sogar positiv definit. -Dies entspricht der Matrix $B$. -Nach den Erkenntnissen des vorangegangenen Abschnittes ist das -verallgemeinerte Eigenwertproblem daher ein Eigenwertproblem -für einen modifizierten Operator bezüglich eines alternativen -Skalarproduktes. - -Als Skalarprodukt muss also das Integral -\[ -\langle f,g\rangle_w -= -\int_a^b f(x)g(x)w(x)\,dx -\] -mit der Gewichtsfunktion $w(x)$ verwendet werden. -Damit dies ein vernünftiges Skalarprodukt ist, muss $w(x)>0$ im -Innerend es Intervalls sein. - -\subsubsection{Der Vektorraum $H$} -Damit können wir jetzt die Eigenschaften der in Frage kommenden -Funktionen zusammenstellen. -Zunächst müssen sie auf dem Intervall $[a,b]$ definiert sein und -das Integral -\[ -\int_a^b |f(x)|^2 w(x)\,dx < \infty -\] -muss existieren. -Wir bezeichnen den Vektorraum der Funktionen, deren Quadrat mit -der Gewichtsfunktion $w(x)$ integrierbar sind, mit -$L^2([a,b],w)$. - -Damit auch $\langle qf,f\rangle_w$ und $\langle L_0f,0f\rangle_w$ -wohldefiniert sind, müssen zusätzlich die Integrale -\[ -\int_a^b |f(x)|^2 q(x) w(x)\,dx -\qquad\text{und}\qquad -\int_a^b |f'(x)|^2 p(x) w(x)\,dx -\] -existieren. -Wir setzen daher -\[ -H -= -\biggl\{ -f\in L^2([a,b],w)\;\bigg|\; -\int_a^b |f'(x)|^2p(x)w(x)\,dx<\infty, -\int_a^b |f(x)|^2q(x)w(x)\,dx<\infty -\biggr\}. -\] - -\subsubsection{Differentialoperator} -Das verallgemeinerte Eigenwertproblem für $A$ und $B$ ist ein -gewöhnliches Eigenwertproblem für die Operator $\tilde{A}=B^{-1}A$ -bezüglich des modifizierten Skalarproduktes. -Das Sturm-Liouville-Problem ist also ein Eigenwertproblem im -Vektorraum $H$ mit dem Skalarprodukt $\langle\,\;,\;\rangle_w$. -Der Operator -\[ -L = \frac{1}{w(x)} \biggl(-\frac{d}{dx} p(x)\frac{d}{dx} + q(x)\biggr) -\] -heisst der {\em Sturm-Liouville-Operator}. -Eine Lösung des Sturm-Liouville-Problems ist eine Funktion $y(x)$ derart, -dass -\[ -Ly = \lambda y, -\] -$\lambda$ ist der zu $y(x)$ gehörige Eigenwert. -Der Operator ist definiert auf Funktionen des im vorangegangenen Abschnitt -definierten Vektorraumes $H$. - - - -\subsubsection{Beispiel: Trigonometrische Funktionen} -Die trigonometrischen Funktionen sind Eigenfunktionen des Operators -$d^2/dx^2$, also eines Sturm-Liouville-Operators mit $p(x)=1$, $q(x)=0$ -und $w(x)=0$. -Auf dem Intervall $(-\pi,\pi)$ können wir die Randbedingungen -\bgroup -\renewcommand{\arraycolsep}{2pt} -\[ -\begin{aligned} -& -\begin{array}{lclclcl} -k_{-\pi} &=&1,&\qquad&h_{-\pi} &=&0\\ -k_{\phantom{-}\pi}&=&1,&\qquad&h_{\phantom{-}\pi}&=&0 -\end{array} -\;\bigg\} -&&\Rightarrow& -\begin{array}{lcl} -y(-\pi) &=&0\\ -y(\phantom{-}\pi)&=&0\\ -\end{array} -\;\bigg\} -&\quad\Rightarrow& -y(x) &= B\sin nx -\\ -& -\begin{array}{lclclcl} -k_{-\pi} &=&0,&\qquad&h_{-\pi} &=&1\\ -k_{\phantom{-}\pi}&=&0,&\qquad&h_{\phantom{-}\pi}&=&1 -\end{array} -\;\bigg\} -&&\Rightarrow& -\begin{array}{lcl} -y'(-\pi) &=&0\\ -y'(\phantom{-}\pi)&=&0\\ -\end{array} -\; \bigg\} -&\quad\Rightarrow& -y(x) &= A\cos nx -\end{aligned} -\] -\egroup -verwenden. -Die Orthogonalität der Sinus- und Kosinus-Funktionen folgt jetzt -ganz ohne weitere Rechnung. - -An dieser Lösung ist nicht ganz befriedigend, dass die trigonometrischen -Funktionen nicht mit einer einzigen Randbedingung gefunden werden können. -Der Ausweg ist, periodische Randbedingungen zu verlangen, also -$y(-\pi)=y(\pi)$ und $y'(-\pi)=y'(\pi)$. -Dann ist wegen -\begin{align*} -\langle f,L_0g\rangle - \langle L_0f,g\rangle -&= --f(\pi)g'(\pi)+f(-\pi)g'(-\pi)+f'(\pi)g(\pi)-f'(-\pi)g(-\pi) -\\ -&= --f(\pi)g'(\pi)+f(\pi)g'(\pi)+f'(\pi)g(\pi)-f'(\pi)g(\pi) -=0 -\end{align*} -die Bedingung~\eqref{buch:integrale:sturm:sabedingung} -ebenfalls erfüllt, $L_0$ ist in diesem Raum selbstadjungiert. - -\subsubsection{Beispiel: Bessel-Funktionen} -Der Bessel-Operator \eqref{buch:differentialgleichungen:bessel-operator} -hat die Form eines Sturm-Liouville-Operators -\[ -x^2\frac{d^2}{dx^2} + x\frac{d}{dx} + x^2 -= -\frac{d}{dx} x^2 \frac{d}{dx} + x^2 -\] -mit $p(x)=x^2$, $q(x)=x^2$. - -XXX TODO: Faktor 2 fehlt. - -\subsubsection{Beispiel: Tschebyscheff-Polynome} -Die Tschebyscheff-Polynome sind Lösungen der -Tschebyscheff-Differentialgleichung -\[ -(1-x^2)y'' -xy' = n^2y -\] -auf dem Intervall $(-1,1)$. -Auch dieses Problem kann als Sturm-Liouville-Problem formuliert -werden mit -\begin{align*} -w(x) &= \frac{1}{\sqrt{1-x^2}} \\ -p(x) &= \sqrt{1-x^2} \\ -q(x) &= 0 -\end{align*} -Das zugehörige Sturm-Liouville-Eigenwertproblem ist -\[ -\frac{d}{dx}\sqrt{1-x^2}\frac{d}{dx} y(x) -= -\lambda \frac{1}{\sqrt{1-x^2}} y(x). -\] -Führt man die Ableitungen auf der linken Seite aus, entsteht die -Gleichung -\begin{align*} -\sqrt{1-x^2} y''(x) -\frac{x}{\sqrt{1-x^2}}y'(x) -&= \lambda \frac{1}{\sqrt{1-x^2}} y(x) -\intertext{Multiplikation mit $\sqrt{1-x^2}$ ergibt} -(1-x^2) -y''(x) -- -xy'(x) -&= -\lambda y(x). -\end{align*} -Es folgt, dass die Tschebyscheff-Polynome orthogonal sind -bezüglich des Skalarproduktes -\[ -\langle f,g\rangle = \int_{-1}^1 f(x)g(x)\frac{dx}{\sqrt{1-x^2}}. -\] - |