From 5c05517960c4913a10eb526b69f99178ee08ef68 Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?Andreas=20M=C3=BCller?= Date: Fri, 7 Jan 2022 20:31:27 +0100 Subject: reorganize chapter 7 --- .../chapters/050-differential/hypergeometrisch.tex | 2 +- buch/chapters/060-integral/chapter.tex | 1 - buch/chapters/060-integral/gaussquadratur.tex | 484 ------------- buch/chapters/060-integral/images/Makefile | 8 +- buch/chapters/060-integral/images/legendre.m | 64 -- buch/chapters/060-integral/images/legendre.pdf | Bin 47113 -> 0 bytes buch/chapters/060-integral/images/legendre.tex | 99 --- buch/chapters/060-integral/images/orthogonal.pdf | Bin 25003 -> 0 bytes buch/chapters/060-integral/images/orthogonal.tex | 79 --- buch/chapters/060-integral/jacobi.tex | 8 - buch/chapters/060-integral/legendredgl.tex | 368 ---------- buch/chapters/060-integral/orthogonal.tex | 746 --------------------- buch/chapters/060-integral/sturm.tex | 479 ------------- buch/chapters/070-orthogonalitaet/Makefile.inc | 14 + buch/chapters/070-orthogonalitaet/bessel.tex | 91 +++ buch/chapters/070-orthogonalitaet/chapter.tex | 31 + .../070-orthogonalitaet/gaussquadratur.tex | 485 ++++++++++++++ buch/chapters/070-orthogonalitaet/images/Makefile | 14 + .../chapters/070-orthogonalitaet/images/legendre.m | 64 ++ .../070-orthogonalitaet/images/legendre.pdf | Bin 0 -> 47113 bytes .../070-orthogonalitaet/images/legendre.tex | 99 +++ .../070-orthogonalitaet/images/orthogonal.pdf | Bin 0 -> 25003 bytes .../070-orthogonalitaet/images/orthogonal.tex | 79 +++ buch/chapters/070-orthogonalitaet/jacobi.tex | 9 + buch/chapters/070-orthogonalitaet/legendredgl.tex | 369 ++++++++++ buch/chapters/070-orthogonalitaet/orthogonal.tex | 725 ++++++++++++++++++++ buch/chapters/070-orthogonalitaet/sturm.tex | 609 +++++++++++++++++ buch/chapters/Makefile.inc | 1 + buch/chapters/part1.tex | 2 +- 29 files changed, 2593 insertions(+), 2337 deletions(-) delete mode 100644 buch/chapters/060-integral/gaussquadratur.tex delete mode 100644 buch/chapters/060-integral/images/legendre.m delete mode 100644 buch/chapters/060-integral/images/legendre.pdf delete mode 100644 buch/chapters/060-integral/images/legendre.tex delete mode 100644 buch/chapters/060-integral/images/orthogonal.pdf delete mode 100644 buch/chapters/060-integral/images/orthogonal.tex delete mode 100644 buch/chapters/060-integral/jacobi.tex delete mode 100644 buch/chapters/060-integral/legendredgl.tex delete mode 100644 buch/chapters/060-integral/orthogonal.tex delete mode 100644 buch/chapters/060-integral/sturm.tex create mode 100644 buch/chapters/070-orthogonalitaet/Makefile.inc create mode 100644 buch/chapters/070-orthogonalitaet/bessel.tex create mode 100644 buch/chapters/070-orthogonalitaet/chapter.tex create mode 100644 buch/chapters/070-orthogonalitaet/gaussquadratur.tex create mode 100644 buch/chapters/070-orthogonalitaet/images/Makefile create mode 100644 buch/chapters/070-orthogonalitaet/images/legendre.m create mode 100644 buch/chapters/070-orthogonalitaet/images/legendre.pdf create mode 100644 buch/chapters/070-orthogonalitaet/images/legendre.tex create mode 100644 buch/chapters/070-orthogonalitaet/images/orthogonal.pdf create mode 100644 buch/chapters/070-orthogonalitaet/images/orthogonal.tex create mode 100644 buch/chapters/070-orthogonalitaet/jacobi.tex create mode 100644 buch/chapters/070-orthogonalitaet/legendredgl.tex create mode 100644 buch/chapters/070-orthogonalitaet/orthogonal.tex create mode 100644 buch/chapters/070-orthogonalitaet/sturm.tex diff --git a/buch/chapters/050-differential/hypergeometrisch.tex b/buch/chapters/050-differential/hypergeometrisch.tex index df968f0..18f1267 100644 --- a/buch/chapters/050-differential/hypergeometrisch.tex +++ b/buch/chapters/050-differential/hypergeometrisch.tex @@ -374,7 +374,7 @@ Wir fassen die Resultate dieses Abschnitts im folgenden Satz zusammen. Die eulersche hypergeometrische Differentialgleichung \begin{equation} x(1-x)\frac{d^2y}{dx^2} -+(c+(a+b+1)x)\frac{dy}{dx} ++(c-(a+b+1)x)\frac{dy}{dx} -ab y = 0 diff --git a/buch/chapters/060-integral/chapter.tex b/buch/chapters/060-integral/chapter.tex index 276e4f3..af4bd67 100644 --- a/buch/chapters/060-integral/chapter.tex +++ b/buch/chapters/060-integral/chapter.tex @@ -43,7 +43,6 @@ gibt darauf eine Antwort. \input{chapters/060-integral/eulertransformation.tex} \input{chapters/060-integral/differentialkoerper.tex} \input{chapters/060-integral/risch.tex} -\input{chapters/060-integral/orthogonal.tex} \section*{Übungsaufgaben} \rhead{Übungsaufgaben} diff --git a/buch/chapters/060-integral/gaussquadratur.tex b/buch/chapters/060-integral/gaussquadratur.tex deleted file mode 100644 index 27740ab..0000000 --- a/buch/chapters/060-integral/gaussquadratur.tex +++ /dev/null @@ -1,484 +0,0 @@ -% -% Anwendung: Gauss-Quadratur -% -\subsection{Anwendung: Gauss-Quadratur} -Orthogonale Polynome haben eine etwas unerwartet Anwendung in einem -von Gauss erdachten numerischen Integrationsverfahren. -Es basiert auf der Beobachtung, dass viele Funktionen sich sehr -gut durch Polynome approximieren lassen. -Wenn man also sicherstellt, dass ein Verfahren für Polynome -sehr gut funktioniert, darf man auch davon ausgehen, dass es für -andere Funktionen nicht allzu schlecht sein wird. - -\subsubsection{Interpolationspolynome} -Zu einer stetigen Funktion $f(x)$ auf dem Intervall $[-1,1]$ -ist ein Polynome vom Grad $n$ gesucht, welches in den Punkten -$x_0{$}c<{$}|>{$}r<{$}|>{$}r<{$}|} -\hline - n & \text{Gauss-Quadratur} & \text{Trapezregel} \\ -\hline -\phantom{0}2 & 0.\u{95}74271077563381 & 0.\u{95}63709682242596 \\ -\phantom{0}4 & 0.\u{95661}28333449730 & 0.\u{956}5513401768598 \\ -\phantom{0}6 & 0.\u{9566114}812034364 & 0.\u{956}5847489712136 \\ -\phantom{0}8 & 0.\u{956611477}5028123 & 0.\u{956}5964425360520 \\ - 10 & 0.\u{9566114774905}637 & 0.\u{9566}018550715587 \\ - 12 & 0.\u{956611477490518}7 & 0.\u{9566}047952369826 \\ - 14 & 0.\u{95661147749051}72 & 0.\u{9566}065680717177 \\ - 16 & 0.\u{956611477490518}7 & 0.\u{9566}077187127541 \\ - 18 & 0.\u{956611477490518}3 & 0.\u{9566}085075898731 \\ - 20 & 0.\u{956611477490518}4 & 0.\u{9566}090718697414 \\ -\hline - \infty & 0.9566114774905183 & 0.9566114774905183 \\ -\hline -\end{tabular} -\caption{Integral von $\sqrt{1-x^2}$ zwischen $-\frac12$ und $\frac12$ -berechnet mit Gauss-Quadratur und der Trapezregel, aber mit zehnmal -so vielen Stützstellen. -Bereits mit 12 Stützstellen erreicht die Gauss-Quadratur -Maschinengenauigkeit, die Trapezregel liefert auch mit 200 Stützstellen -nicht mehr als 4 korrekte Nachkommastellen. -\label{buch:integral:gaussquadratur:table0.5}} -\end{table} - -%\begin{table} -%\def\u#1{\underline{#1}} -%\centering -%\begin{tabular}{|>{$}c<{$}|>{$}r<{$}|>{$}r<{$}|} -%\hline -% n & \text{Gauss-Quadratur} & \text{Trapezregel} \\ -%\hline -%\phantom{0}2 & 1.\u{5}379206741571556 & 1.\u{5}093105464758343 \\ -%\phantom{0}4 & 1.\u{51}32373472933831 & 1.\u{51}13754509594814 \\ -%\phantom{0}6 & 1.\u{512}1624557410367 & 1.\u{51}17610879524799 \\ -%\phantom{0}8 & 1.\u{51207}93479994321 & 1.\u{51}18963282632112 \\ -% 10 & 1.\u{51207}13859966004 & 1.\u{51}19589735776959 \\ -% 12 & 1.\u{512070}5317779943 & 1.\u{51}19930161260693 \\ -% 14 & 1.\u{5120704}334802813 & 1.\u{5120}135471596636 \\ -% 16 & 1.\u{5120704}216176006 & 1.\u{5120}268743889558 \\ -% 18 & 1.\u{5120704}201359081 & 1.\u{5120}360123137213 \\ -% 20 & 1.\u{5120704199}459651 & 1.\u{5120}425490275837 \\ -%\hline -% \infty & 1.5120704199172947 & 1.5120704199172947 \\ -%\hline -%\end{tabular} -%\end{table} - -%\begin{table} -%\def\u#1{\underline{#1}} -%\centering -%\begin{tabular}{|>{$}c<{$}|>{$}r<{$}|>{$}r<{$}|} -%\hline -% n & \text{Gauss-Quadratur} & \text{Trapezregel} \\ -%\hline -%\phantom{0}2 & 1.\u{}6246862220133462 & 1.\u{5}597986803933712 \\ -%\phantom{0}4 & 1.\u{5}759105515463101 & 1.\u{56}63563456168101 \\ -%\phantom{0}6 & 1.\u{5}706630058381434 & 1.\u{56}77252866190838 \\ -%\phantom{0}8 & 1.\u{56}94851106536780 & 1.\u{568}2298707696152 \\ -% 10 & 1.\u{56}91283195332679 & 1.\u{568}4701957758742 \\ -% 12 & 1.\u{56}90013806299465 & 1.\u{568}6030805941198 \\ -% 14 & 1.\u{5689}515434853885 & 1.\u{568}6841603070025 \\ -% 16 & 1.\u{5689}306507843050 & 1.\u{568}7372230731711 \\ -% 18 & 1.\u{5689}214761291217 & 1.\u{568}7738235496322 \\ -% 20 & 1.\u{56891}73062385982 & 1.\u{568}8001228530786 \\ -%\hline -% \infty & 1.5689135396691616 & 1.5689135396691616 \\ -%\hline -%\end{tabular} -%\end{table} - -\begin{table} -\def\u#1{\underline{#1}} -\centering -\begin{tabular}{|>{$}c<{$}|>{$}r<{$}|>{$}r<{$}|} -\hline - n & \text{Gauss-Quadratur} & \text{Trapezregel} \\ -\hline -\phantom{0}2 & 1.\u{}6321752373234928 & 1.\u{5}561048774629949 \\ -\phantom{0}4 & 1.\u{57}98691557134743 & 1.\u{5}660124134617943 \\ -\phantom{0}6 & 1.\u{57}35853681692993 & 1.\u{5}683353001877542 \\ -\phantom{0}8 & 1.\u{57}19413565928206 & 1.\u{5}692627503425400 \\ - 10 & 1.\u{57}13388119633434 & 1.\u{5}697323578543481 \\ - 12 & 1.\u{57}10710489948883 & 1.\u{570}0051217458713 \\ - 14 & 1.\u{570}9362135398341 & 1.\u{570}1784766276063 \\ - 16 & 1.\u{570}8621102742815 & 1.\u{570}2959121005231 \\ - 18 & 1.\u{570}8186779483588 & 1.\u{570}3793521168343 \\ - 20 & 1.\u{5707}919411931615 & 1.\u{570}4408749735932 \\ -\hline - \infty & 1.5707367072605671 & 1.5707367072605671 \\ -\hline -\end{tabular} -\caption{Integral von $\sqrt{1-x^2}$ zwischen $-0.999$ und $0.999$ -berechnet mit Gauss-Quadratur und der Trapezregel, aber mit zehnmal -so vielen Stützstellen. -Wegen der divergierenden Steigung des Integranden bei $\pm 1$ tun -sich beide Verfahren sehr schwer. -Trotzdem erreich die Gauss-Quadrator 4 korrekte Nachkommastellen -mit 20 Stütztstellen, während die Trapezregel auch mit 200 Stützstellen -nur 3 korrekte Nachkommastellen findet. -\label{buch:integral:gaussquadratur:table0.999}} -\end{table} - -\begin{figure} -\centering -\includegraphics{chapters/060-integral/gq/gq.pdf} -\caption{Approximationsfehler des -Integrals~\eqref{buch:integral:gaussquadratur:bspintegral} -in Abhängigkeit von $a$. -Die Divergenz der Ableitung des Integranden an den Intervallenden -$\pm 1$ führt zu schlechter Konvergenz des Verfahrens, wenn $a$ -nahe an $1$ ist. -\label{buch:integral:gaussquadratur:fehler}} -\end{figure} - -Zur Illustration der Genauigkeit der Gauss-Quadratur berechnen wir -das Integral -\begin{equation} -\int_{-a}^a \sqrt{1-x^2}\,dx -= -\arcsin a + a \sqrt{1-a^2} -\label{buch:integral:gaussquadratur:bspintegral} -\end{equation} -mit Gauss-Quadratur einerseits und dem Trapezverfahren -andererseits. -Da Gauss-Quadratur mit sehr viel weniger Sützstellen auskommt, -berechnen wir die Trapeznäherung mit zehnmal so vielen Stützstelln. -In den Tabellen~\ref{buch:integral:gaussquadratur:table0.5} -und -\ref{buch:integral:gaussquadratur:table0.999} -sind die Resultate zusammengestellt. -Für $a =\frac12$ zeigt -Tabelle~\ref{buch:integral:gaussquadratur:table0.5} -die sehr schnelle Konvergenz der Gauss-Quadratur, schon mit -12 Stützstellen wird Maschinengenauigkeit erreicht. -Das Trapezverfahren dagegen erreicht auch mit 200 Stützstellen nur -4 korrekte Nachkommastellen. - -An den Stellen $x=\pm 1$ divergiert die Ableitung des Integranden -des Integrals \eqref{buch:integral:gaussquadratur:bspintegral}. -Da grösste und kleinste Stützstelle der Gauss-Quadratur immer -deutlich vom Rand des Intervalls entfernt ist, kann das Verfahren -diese ``schwierigen'' Stellen nicht erkennen. -Tabelle~\ref{buch:integral:gaussquadratur:table0.999} zeigt, wie -die Konvergenz des Verfahrens in diesem Fall sehr viel schlechter ist. -Dies zeigt auch der Graph in -Abbildung~\ref{buch:integral:gaussquadratur:fehler}. - -\subsubsection{Skalarprodukte mit Gewichtsfunktion} - diff --git a/buch/chapters/060-integral/images/Makefile b/buch/chapters/060-integral/images/Makefile index 790bfb1..28b662e 100644 --- a/buch/chapters/060-integral/images/Makefile +++ b/buch/chapters/060-integral/images/Makefile @@ -4,16 +4,10 @@ # # (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule # -all: erf.pdf legendre.pdf orthogonal.pdf +all: erf.pdf erf.pdf: erf.tex erfpunkte.tex pdflatex erf.tex erfpunkte.tex: erfpunkte.m octave erfpunkte.m -legendrepaths.tex: legendre.m - octave legendre.m -legendre.pdf: legendre.tex legendrepaths.tex - pdflatex legendre.tex -orthogonal.pdf: orthogonal.tex legendrepaths.tex - pdflatex orthogonal.tex diff --git a/buch/chapters/060-integral/images/legendre.m b/buch/chapters/060-integral/images/legendre.m deleted file mode 100644 index 8e8317d..0000000 --- a/buch/chapters/060-integral/images/legendre.m +++ /dev/null @@ -1,64 +0,0 @@ -# -# legendre.m -# -# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule -# -pkg load miscellaneous -global N; -N = 30; - -function retval = legendrepath(fn, n, name) - global N; - m = n * N; - c = legendrepoly(n) - x = (-m:m)/m; - v = polyval(c, x); - fprintf(fn, "\\def\\legendre%s{\n", name) - fprintf(fn, "\t ({%.5f*\\dx},{%.5f*\\dy})", x(1), v(1)); - for i = (2:length(v)) - fprintf(fn, "\n\t-- ({%.5f*\\dx},{%.5f*\\dy})", x(i), v(i)); - - endfor - fprintf(fn, "\n}\n"); - ci = polyint(conv(c, c)) -polyval(ci, 1) - normalization = sqrt(polyval(ci, 1) - polyval(ci, -1)) - fprintf(fn, "\\def\\normalization%s{%.5f}\n", name, normalization); -endfunction - -function retval = legendreprodukt(fn, a, b, name) - global N; - n = max(a, b); - m = n * N; - pa = legendrepoly(a); - pb = legendrepoly(b); - p = conv(pa, pb); - x = (-m:m)/m; - v = polyval(p, x); - fprintf(fn, "\\def\\produkt%s{\n", name) - fprintf(fn, "\t ({%.5f*\\dx},{%.5f*\\dy})", x(1), v(1)); - for i = (2:length(v)) - fprintf(fn, "\n\t-- ({%.5f*\\dx},{%.5f*\\dy})", x(i), v(i)); - endfor - fprintf(fn, "\n}\n"); -endfunction - -fn = fopen("legendrepaths.tex", "w"); -legendrepath(fn, 1, "one"); -legendrepath(fn, 2, "two"); -legendrepath(fn, 3, "three"); -legendrepath(fn, 4, "four"); -legendrepath(fn, 5, "five"); -legendrepath(fn, 6, "six"); -legendrepath(fn, 7, "seven"); -legendrepath(fn, 8, "eight"); -legendrepath(fn, 9, "nine"); -legendrepath(fn, 10, "ten"); - -legendreprodukt(fn, 4, 7, "ortho"); -legendreprodukt(fn, 4, 4, "vier"); -legendreprodukt(fn, 7, 7, "sieben"); - -fclose(fn); - - diff --git a/buch/chapters/060-integral/images/legendre.pdf b/buch/chapters/060-integral/images/legendre.pdf deleted file mode 100644 index 554dc35..0000000 Binary files a/buch/chapters/060-integral/images/legendre.pdf and /dev/null differ diff --git a/buch/chapters/060-integral/images/legendre.tex b/buch/chapters/060-integral/images/legendre.tex deleted file mode 100644 index 8409da0..0000000 --- a/buch/chapters/060-integral/images/legendre.tex +++ /dev/null @@ -1,99 +0,0 @@ -% -% legendre.tex -- plots of legendre polynomials -% -% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule -% -\documentclass[tikz]{standalone} -\usepackage{amsmath} -\usepackage{times} -\usepackage{txfonts} -\usepackage{pgfplots} -\usepackage{csvsimple} -\usetikzlibrary{arrows,intersections,math} -\begin{document} -\def\skala{6.5} -\input{legendrepaths.tex} -\begin{tikzpicture}[>=latex,thick,scale=\skala] - -\definecolor{fone}{rgb}{1,0,0} -\definecolor{ftwo}{rgb}{1.0,0,0.8} -\definecolor{fthree}{rgb}{0.8,0,1} -\definecolor{ffour}{rgb}{0,0,1} -\definecolor{ffive}{rgb}{0,0.8,1} -\definecolor{fsix}{rgb}{0,1,1} -\definecolor{fseven}{rgb}{0,0.6,0} -\definecolor{feight}{rgb}{0.2,1,0.6} -\definecolor{fnine}{rgb}{0.6,0.8,0.2} -\definecolor{ften}{rgb}{1,0.4,0} - -\def\dx{1} -\def\dy{0.25} - -\def\achsen{ - \draw[->] ({-1-(0.1/\skala)},0) -- ({1+(0.3/\skala)},0) - coordinate[label={$x$}]; - \draw[->] (0,{-(\dy)-(0.1/\skala)}) -- (0,{(\dy)+(0.3/\skala)}) - coordinate[label={right:$y$}]; - \foreach \x in {-1,-0.9,...,1.001}{ - \draw ({\dx*\x},{-0.05/\skala}) -- ({\dx*\x},{0.05/\skala}); - } - \foreach \x in {-1,-0.5,0.5,1}{ - \draw ({-0.05/\skala},{\dy*\x}) -- ({0.05/\skala},{\dy*\x}); - \node at ({\dx*\x},{-0.05/\skala}) [below] {$\mathstrut\x$}; - \node at ({-0.05/\skala},{\dy*\x}) [left] {$\mathstrut\x$}; - } -} - -\begin{scope}[yshift=0cm] - \node[color=fone] at (-0.70,{-0.9*\dy}) [right] {$n=1\mathstrut$}; - \node[color=ftwo] at (-0.90,{0.9*\dy}) [right] {$n=2\mathstrut$}; - \draw[line width=1.4pt,color=fone] \legendreone; - \draw[line width=1.4pt,color=ftwo] \legendretwo; - \achsen -\end{scope} - -\begin{scope}[yshift=-0.6cm] - \node[color=fthree] at (-0.96,{-0.9*\dy}) [right] {$n=3\mathstrut$}; - \node[color=ffour] at (-0.96,{0.9*\dy}) [right] {$n=4\mathstrut$}; - \draw[line width=1.4pt,color=fthree] \legendrethree; - \draw[line width=1.4pt,color=ffour] \legendrefour; - \achsen -\end{scope} - -\begin{scope}[yshift=-1.2cm] - \node[color=ffive] at (-0.96,{-0.9*\dy}) [right] {$n=5\mathstrut$}; - \node[color=fsix] at (-0.96,{0.9*\dy}) [right] {$n=6\mathstrut$}; - \draw[line width=1.4pt,color=ffive] \legendrefive; - \draw[line width=1.4pt,color=fsix] \legendresix; - \achsen -\end{scope} - -\begin{scope}[yshift=-1.8cm] - \node[color=fseven] at (-0.96,{-0.9*\dy}) [right] {$n=7\mathstrut$}; - \node[color=feight] at (-0.96,{0.9*\dy}) [right] {$n=8\mathstrut$}; - \draw[line width=1.4pt,color=fseven] \legendreseven; - \draw[line width=1.4pt,color=feight] \legendreeight; - \achsen -\end{scope} - -\begin{scope}[yshift=-2.4cm] - \node[color=fnine] at (-0.96,{-0.9*\dy}) [right] {$n=9\mathstrut$}; - \node[color=ften] at (-0.96,{0.9*\dy}) [right] {$n=10\mathstrut$}; - \draw[line width=1.4pt,color=fnine] \legendrenine; - \draw[line width=1.4pt,color=ften] \legendreten; - \achsen -\end{scope} - -%\draw[line width=1.4pt,color=ftwo] \legendretwo; -%\draw[line width=1.4pt,color=fthree] \legendrethree; -%\draw[line width=1.4pt,color=ffour] \legendrefour; -%\draw[line width=1.4pt,color=ffive] \legendrefive; -%\draw[line width=1.4pt,color=fsix] \legendresix; -%\draw[line width=1.4pt,color=fseven] \legendreseven; -%\draw[line width=1.4pt,color=feight] \legendreeight; -%\draw[line width=1.4pt,color=fnine] \legendrenine; -%\draw[line width=1.4pt,color=ften] \legendreten; - -\end{tikzpicture} -\end{document} - diff --git a/buch/chapters/060-integral/images/orthogonal.pdf b/buch/chapters/060-integral/images/orthogonal.pdf deleted file mode 100644 index f7abb5e..0000000 Binary files a/buch/chapters/060-integral/images/orthogonal.pdf and /dev/null differ diff --git a/buch/chapters/060-integral/images/orthogonal.tex b/buch/chapters/060-integral/images/orthogonal.tex deleted file mode 100644 index 8600281..0000000 --- a/buch/chapters/060-integral/images/orthogonal.tex +++ /dev/null @@ -1,79 +0,0 @@ -% -% orthogonal.tex -- plots of legendre polynomials -% -% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule -% -\documentclass[tikz]{standalone} -\usepackage{amsmath} -\usepackage{times} -\usepackage{txfonts} -\usepackage{pgfplots} -\usepackage{csvsimple} -\usetikzlibrary{arrows,intersections,math} -\begin{document} -\def\skala{6} -\input{legendrepaths.tex} -\begin{tikzpicture}[>=latex,thick,scale=\skala] - -\definecolor{fone}{rgb}{1,0,0} -\definecolor{ftwo}{rgb}{1.0,0,0.8} -\definecolor{fthree}{rgb}{0.8,0,1} -\definecolor{ffour}{rgb}{0,0,1} -\definecolor{ffive}{rgb}{0,0.8,1} -\definecolor{fsix}{rgb}{0,1,1} -\definecolor{fseven}{rgb}{0,0.6,0} -\definecolor{feight}{rgb}{0.2,1,0.6} -\definecolor{fnine}{rgb}{0.6,0.8,0.2} -\definecolor{ften}{rgb}{1,0.4,0} - -\def\dx{1} -\def\Dy{3} -\def\dy{3} - -\begin{scope} -\clip (-1,-0.6) rectangle (1,1); - -%\pgfmathparse{\Dy/(\normalizationfour*\normalizationfour)} -%\xdef\dy{\pgfmathresult} -\fill[color=ffour!70,opacity=0.5] (-1,0) -- \produktvier -- (1,0) -- cycle; - -%\pgfmathparse{\Dy/(\normalizationeight*\normalizationeight)} -%\xdef\dy{\pgfmathresult} -\fill[color=fseven!70,opacity=0.5] (-1,0) -- \produktsieben -- (1,0) -- cycle; - -%\pgfmathparse{\Dy/(\normalizationfour*\normalizationeight)} -%\xdef\dy{\pgfmathresult} -\fill[color=red!50,opacity=0.5] (-1,0) -- \produktortho -- (1,0) -- cycle; - -%\pgfmathparse{\Dy/\normalizationfour} -%\xdef\dy{\pgfmathresult} -%\draw[line width=1.4pt,color=ffour] \legendrefour; -% -%\pgfmathparse{\Dy/\normalizationeight} -%\xdef\dy{\pgfmathresult} -%\draw[line width=1.4pt,color=feight] \legendreeight; - -%\pgfmathparse{\Dy/(\normalizationfour*\normalizationeight)} -%\xdef\dy{\pgfmathresult} -\draw[line width=1.4pt,color=red] \produktortho; - -\end{scope} - -\draw[->] ({-1-(0.1/\skala)},0) -- ({1+(0.3/\skala)},0) - coordinate[label={$x$}]; -\draw[->] (0,{-{0.2*\Dy}-(0.1/\skala)}) -- (0,{1+(0.3/\skala)}) - coordinate[label={right:$y$}]; -\foreach \x in {-1,-0.9,...,1.001}{ - \draw ({\dx*\x},{-0.1/\skala}) -- ({\dx*\x},{0.1/\skala}); -} -\foreach \y in {-0.2,-0.1,0.1,0.2,0.3}{ - \draw ({-0.1/\skala},{\Dy*\y}) -- ({0.1/\skala},{\Dy*\y}); - \node at ({-0.1/\skala},{\Dy*\y}) [left] {$\mathstrut\y$}; -} -\foreach \x in {-1,-0.5,0.5,1}{ - \node at ({\dx*\x},{-0.1/\skala}) [below] {$\mathstrut\x$}; -} - -\end{tikzpicture} -\end{document} - diff --git a/buch/chapters/060-integral/jacobi.tex b/buch/chapters/060-integral/jacobi.tex deleted file mode 100644 index c0e80ec..0000000 --- a/buch/chapters/060-integral/jacobi.tex +++ /dev/null @@ -1,8 +0,0 @@ -% -% jacobi.tex -% -% (c) 2022 Prof Dr Andreas Müller, OST Ostsdchweizer Fachhochschule -% -\subsection{Jacobi-Polynome -\label{buch:integrale:subsection:jacobi-polynome}} - diff --git a/buch/chapters/060-integral/legendredgl.tex b/buch/chapters/060-integral/legendredgl.tex deleted file mode 100644 index 6c8a1df..0000000 --- a/buch/chapters/060-integral/legendredgl.tex +++ /dev/null @@ -1,368 +0,0 @@ -% -% legendredgl.tex -% -% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule -% -\subsection{Orthogonale Polynome und Differentialgleichungen} -Legendre hat einen ganz anderen Zugang zu den nach ihm benannten -Polynomen gefunden. -Er hat sie gefunden als die Lösungen einer speziellen Differentialgleichungen. -In diesem Abschnitt sollen diese Funktionen mit der Potenzreihen-Methode -wiedergefunden werden. -Dabei stellt sich heraus, dass diese Polynome auch Eigenfunktionen eines -selbstadjungierten Differentialgoperator sind. -Die Orthogonalität wird dann aus einer Verallgemeinerung der bekannten -Eingeschaft folgen, dass Eigenvektoren einer symmetrischen Matrix zu -verschiedenen Eigenwerten orthogonal sind. - -\subsubsection{Legendre-Differentialgleichung} -Die {\em Legendre-Differentialgleichung} ist die Differentialgleichung -\begin{equation} -(1-x^2) y'' - 2x y' + n(n+1) y = 0 -\label{buch:integral:eqn:legendre-differentialgleichung} -\end{equation} -für eine Funktion $y(x)$ auf dem Intervall $[-1,1]$. - -Sei $y(x)$ eine Lösung der Differentialgleichung -\eqref{buch:integral:eqn:legendre-differentialgleichung}. -Setzt man $y_s(x)=y(-x)$ in die Differentialgleichung ein, erhält -man -\[ -(1-x^2)y_s''(x) - 2x y'_s(x) + n(n+1)y_s(x) -= -(1-x^2)y''(-x) +2x y(-x) +n(n+1)y(-x). -\] -Ersetzt man $t=-x$, dann wird daraus -\[ -(1-x^2)y''(t) -2t y(t) + n(n+1) y(t) = 0 -\] -aus der Differentialgleichung -\eqref{buch:integral:eqn:legendre-differentialgleichung}. -Insbesondere ist die gespiegelte Funktion $y_s(x)$ ebenfalls -eine Lösung der Differentialgleichung. - -Ist $y(x)$ eine Lösung der Differentialgleichung ist, dann lässt -sie sich in die Summe einer geraden und einer ungeraden Funktion -\[ -\left. -\begin{aligned} -y_g(x) &= \frac{y(x)+y(-x)}{2}\\ -y_u(x) &= \frac{y(x)-y(-x)}{2} -\end{aligned} -\quad -\right\} -\quad -\Rightarrow -\quad -y(x) = y_g(x) + y_u(x) -\] -zerlegen, die als Linearkombinationen der beiden Lösungen -$y(x)$ und $y_s(x)$ ebenfalls Lösungen der Differentialgleichung -sind. - -\subsubsection{Potenzreihenlösung} -Wir suchen eine Lösung in Form einer Potenzreihe um $x=0$ und -verwenden dazu den Ansatz -\[ -y(x) = a_0+a_1x+a_2x^2+ \dots = \sum_{k=0}^\infty a_kx^k. -\] -\begin{align*} -(1-x^2) \sum_{k=2}^\infty k(k-1)a_kx^{k-2} --2x\sum_{k=0}^\infty ka_kx^{k-1} -+ -n(n+1)\sum_{k=0}^\infty a_kx^k -&= -0 -\\ -\sum_{k=0}^\infty (k+2)(k+1)a_{k+2}x^k -- -\sum_{k=2}^\infty k(k-1)a_kx^k -- -2\sum_{k=1}^\infty ka_kx^k -+ -n(n+1)\sum_{k=0}^\infty a_kx^k -&= -0 -\end{align*} -Die Koeffizienten zur Potenz $k$ sind daher -\begin{align} -k&=0: -& -0&= -2a_2+n(n+1)a_0 -\notag -\\ -&& -a_2&=-\frac{n(n+1)}{2}a_0 -\notag -\\ -k&=1: -& -0&= -6a_3-2a_1+n(n+1)a_1 -\notag -\\ -&& -a_3&= \frac{2-n(n+1)}{6}a_1 -\notag -\\ -k&>1: -& -0&= -(k+2)(k+1)a_{k+2} -k(k-1)a_k -2ka_k +n(n+1) a_k -\notag -\\ -&& -a_{k+2} -&= -\frac{ k(k+1)-n(n+1) }{(k+2)(k+1)} -a_k -\label{buch:integral:legendre-dgl:eqn:akrek} -\end{align} -Wenn $a_1=0$ und $a_0\ne 1$ ist, dann ist die Funktion $y(x)$ gerade, -alle ungeraden Koeffizienten verschwinden. -Ebenso verschwinden alle geraden Koeffizienten, wenn $a_0=0$ und $a_1\ne 0$. -Für jede Lösung $y(x)$ der Differentialgleichung ist -$y_g(x)$ ein Lösung mit $a_1=0$ und $y_u(x)$ eine Lösung mit $a_0=0$. -Wir können die Diskussion der Lösungen daher auf gerade oder ungerade -Lösungen einschränken. - -Gesucht ist jetzt eine Lösung in Form eines Polynoms. -In diesem Fall müssen die Koeffizienten $a_k$ ab einem -gewissen Index verschwinden. -Dies tritt nach \eqref{buch:integral:legendre-dgl:eqn:akrek} genau -dann auf, wenn der Zähler für ein $k$ verschwindet. -Folglich gibt es genau dann Polynomlösungen der Differentialgleichungen, -wenn $n$ eine natürlich Zahl ist. -Ausserdem ist die Lösung ein Polynom $\bar{P}_n(x)$ vom Grad $n$. -Das Polynom soll wieder so normiert sein, dass $\bar{P}_n(1)=1$ ist. - -Die Lösungen der Differentialgleichungen können jetzt explizit -berechnet werden. -Zunächst ist $\bar{P}_0(x)=1$ und $\bar{P}_1(x)=x$. -Für $n=2$ setzen wir zunächst $a_0=1$ und $a_1=0$ und erhalten -\[ -y(x) -= -1 + \frac{0(0+1) - 2(2+1)}{(0+2)(0+1)}a_0 x^2 -= -1 --3x^2 -\qquad\text{oder}\qquad -\bar{P}_3(x) = \frac12(3x^2-1). -\] -Für $n=3$ starten wir von $a_1=1$ und $a_0=0$, was zunächst $a_2=0$ -impliziert. -Für $a_3$ finden wir -\[ -a_3=\frac{1(1+1)-3(3+1)}{(1+2)(1+1)} = -\frac53 -\qquad\Rightarrow\qquad -y(x) = x-\frac53x^3 -\qquad\Rightarrow\qquad -\bar{P}_3(x) = \frac12(5x^3-3x). -\] -Dies stimmt überein mit den früher gefundenen Ausdrücken für -die Legendre-Polynome. - -Die Potenzreihenlösung zeigt zwar, dass es für jedes $n\in\mathbb{N}$ -eine Polynomlösung $\bar{P}_n(x)$ vom Grad $n$ gibt. -Dies kann aber nicht erklären, warum die so gefundenen Polynome -orthogonal sind. - -\subsubsection{Eigenfunktionen} -Die Differentialgleichung -\eqref{buch:integral:eqn:legendre-differentialgleichung} -Kann mit dem Differentialoperator -\[ -D = \frac{d}{dx}(1-x^2)\frac{d}{dx} -\] -als -\[ -Dy + n(n+1)y = 0 -\] -geschrieben werden. -Tatsächlich ist -\[ -Dy -= -\frac{d}{dx} (1-x^2) \frac{d}{dy} -= -\frac{d}{dx} (1-x^2)y' -= -(1-x^2)y'' -2x y'. -\] -Dies bedeutet, dass die Lösungen $\bar{P}_n(x)$ Eigenfunktionen -des Operators $D$ zum Eigenwert $n(n+1)$ sind: -\[ -D\bar{P}_n = -n(n+1) \bar{P}_n. -\] - -\subsubsection{Orthogonalität von $\bar{P}_n$ als Eigenfunktionen} -Ein Operator $A$ auf Funktionen heisst {\em selbstadjungiert}, wenn -für zwei beliebige Funktionen $f$ und $g$ gilt -\[ -\langle Af,g\rangle = \langle f,Ag\rangle -\] -gilt. -Im vorliegenden Zusammenhang möchten wir die Eigenschaft nutzen, -dass Eigenfunktionen eines selbstadjungierten Operatores zu verschiedenen -Eigenwerten orthogonal sind. -Dazu seien $Df = \lambda f$ und $Dg=\mu g$ und wir rechnen -\begin{equation} -\renewcommand{\arraycolsep}{2pt} -\begin{array}{rcccrl} -\langle Df,g\rangle &=& \langle \lambda f,g\rangle &=& \lambda\phantom{)}\langle f,g\rangle -&\multirow{2}{*}{\hspace{3pt}$\biggl\}\mathstrut-\mathstrut$}\\ -=\langle f,Dg\rangle &=& \langle f,\mu g\rangle &=& \mu\phantom{)}\langle f,g\rangle& -\\[2pt] -\hline - 0 & & &=& (\lambda-\mu)\langle f,g\rangle& -\end{array} -\label{buch:integrale:eqn:eigenwertesenkrecht} -\end{equation} -Da $\lambda-\mu\ne 0$ ist, muss $\langle f,g\rangle=0$ sein. - -Der Operator $D$ ist selbstadjungiert, d.~h. -für zwei beliebige zweimal stetig differenzierbare Funktion $f$ und $g$ -auf dem Intervall $[-1,1]$ gilt -\begin{align*} -\langle Df,g\rangle -&= -\int_{-1}^1 (Df)(x) g(x) \,dx -\\ -&= -\int_{-1}^1 -\biggl(\frac{d}{dx} (1-x^2)\frac{d}{dx}f(x)\biggr) g(x) -\,dx -\\ -&= -\underbrace{ -\biggl[ -\biggl((1-x^2)\frac{d}{dx}f(x)\biggr) g(x) -\biggr]_{-1}^1 -}_{\displaystyle = 0} -- -\int_{-1}^1 -\biggl((1-x^2)\frac{d}{dx}f(x)\biggr) \frac{d}{dx}g(x) -\,dx -\\ -&= -- -\int_{-1}^1 -\biggl(\frac{d}{dx}f(x)\biggr) \biggl((1-x^2)\frac{d}{dx}g(x)\biggr) -\,dx -\\ -&= -- -\underbrace{ -\biggl[ -f(x) \biggl((1-x^2)\frac{d}{dx}g(x)\biggr) -\biggr]_{-1}^1}_{\displaystyle = 0} -+ -\int_{-1}^1 -f(x) \biggl(\frac{d}{dx}(1-x^2)\frac{d}{dx}g(x)\biggr) -\,dx -\\ -&= -\langle f,Dg\rangle. -\end{align*} -Dies beweist, dass $D$ selbstadjungiert ist. -Da $\bar{P}_n$ Eigenwerte des selbstadjungierten Operators $D$ zu -den verschiedenen Eigenwerten $-n(n+1)$ sind, folgt auch, dass -die $\bar{P}_n$ orthogonale Polynome vom Grad $n$ sind, die die -gleiche Standardierdisierungsbedingung wie die Legendre-Polyonome -erfüllen, also ist $\bar{P}_n(x)=P_n(x)$. - -\subsubsection{Legendre-Funktionen zweiter Art} -%Siehe Wikipedia-Artikel \url{https://de.wikipedia.org/wiki/Legendre-Polynom} -% -Die Potenzreihenmethode liefert natürlich auch Lösungen der -Legendreschen Differentialgleichung, die sich nicht als Polynome -darstellen lassen. -Ist $n$ gerade, dann liefern die Anfangswerte $a_0=0$ und $a_1=1$ -eine ungerade Funktion, die Folge der Koeffizienten bricht -aber nicht ab, vielmehr ist -\begin{align*} -a_{k+2} -&= -\frac{k(k+1)}{(k+1)(k+2)}a_k -= -\frac{k}{k+2}a_k. -\end{align*} -Durch wiederholte Anwendung dieser Rekursionsformel findet man -\[ -a_{k} -= -\frac{k-2}{k}a_{k-2} -= -\frac{k-2}{k}\frac{k-4}{k-2}a_{k-4} -= -\frac{k-2}{k}\frac{k-4}{k-2}\frac{k-6}{k-4}a_{k-6} -= -\dots -= -\frac{1}{k}a_1. -\] -Die Lösung hat daher die Reihenentwicklung -\[ -Q_0(x) = x+\frac13x^3 + \frac15x^5 + \frac17x^7+\dots -= -\frac12\log \frac{1+x}{1-x} -= -\operatorname{artanh}x. -\] -Die Funktion $Q_0(x)$ heisst {\em Legendre-Funktion zweiter Art}. - -Für $n=1$ wird die Reihenentwicklung $a_0=1$ und $a_1=0$ etwas -interessanter. -Die Rekursionsformel für die Koeffizienten ist -\[ -a_{k+2} -= -\frac{k(k+1)-2}{(k+1)(k+2)} a_k. -\qquad\text{oder}\qquad -a_k -= -\frac{(k-1)(k-2)-2}{k(k-1)} -a_{k-2} -\] -Man erhält der Reihe nach -\begin{align*} -a_2 &= \frac{-2}{2\cdot 1} a_0 = -1 -\\ -a_3 &= 0 -\\ -a_4 &= \frac{3\cdot 2-2}{4\cdot 3} a_2 = \frac{4}{4\cdot 3}a_2 = \frac13a_2 = -\frac13 -\\ -a_5 &= 0 -\\ -a_6 &= \frac{5\cdot 4-2}{6\cdot 5}a_4 = \frac{18}{6\cdot 5}a_4 = -\frac15 -\\ -a_7 &= 0 -\\ -a_8 &= \frac{7\cdot 6-2}{8\cdot 7}a_6 = \frac{40}{8\cdot 7} = -\frac17 -\\ -a_9 &= 0 -\\ -a_{10} &= \frac{9\cdot 8-2}{10\cdot 9}a_8 = \frac{70}{10\cdot 9} = -\frac19, -\end{align*} -woraus sich die Reihenentwicklung -\begin{align*} -y(x) -&= --x^2 -\frac13x^4 -\frac15x^6 - \frac17x^8 -\frac19x^{10}-\dots -\\ -&= --x\biggl(x+\frac13x^3 + \frac15x^5 + \frac17x^7 + \frac19x^9+\dots\biggr) -= --x\operatorname{artanh}x. -\end{align*} -Die {\em Legendre-Funktionen zweiter Art} $Q_n(x)$ werden allerdings -so definiert, dass gewisse Rekursionsformeln für die Legendre-Polynome, -die wir hier nicht hergeleitet haben, auch für die $Q_n(x)$ gelten. -In dieser Normierung muss statt des eben berechneten $y(x)$ die Funktion -\[ -Q_1(x) = x \operatorname{artanh}x-1 -\] -verwendet werden. - diff --git a/buch/chapters/060-integral/orthogonal.tex b/buch/chapters/060-integral/orthogonal.tex deleted file mode 100644 index 0ea9c0c..0000000 --- a/buch/chapters/060-integral/orthogonal.tex +++ /dev/null @@ -1,746 +0,0 @@ -% -% orthogonal.tex -% -% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule -% -\section{Orthogonalität -\label{buch:integral:section:orthogonale-polynome}} -\rhead{Orthogonale Polynome} -Die Fourier-Theorie basiert auf der Idee, Funktionen durch -Funktionenreihen mit Summanden zu bilden, die im Sinne eines -Skalarproduktes orthogonal sind, welches mit Hilfe eines Integrals -definiert sind. -Solche Funktionenfamilien treten jedoch auch als Lösungen von -Differentialgleichungen. -Besonders interessant wird die Situation, wenn die Funktionen -Polynome sind. - -% -% Skalarprodukt -% -\subsection{Skalarprodukt} -Der reelle Vektorraum $\mathbb{R}^n$ trägt das Skalarprodukt -\[ -\langle\;\,,\;\rangle -\colon -\mathbb{R}^n \times \mathbb{R}^n \to \mathbb{R} -: -(x,y)\mapsto \langle x, y\rangle = \sum_{k=1}^n x_iy_k, -\] -welches viele interessante Anwendungen ermöglicht. -Eine orthonormierte Basis macht es zum Beispiel besonders leicht, -eine Zerlegung eines Vektors in dieser Basis zu finden. -In diesem Abschnitt soll zunächst an die Eigenschaften erinnert -werden, die zu einem nützlichen - -\subsubsection{Eigenschaften eines Skalarproduktes} -Das Skalarprodukt erlaubt auch, die Länge eines Vektors $v$ -als $|v| = \sqrt{\langle v,v\rangle}$ zu definieren. -Dies funktioniert natürlich nur, wenn die Wurzel auch immer -definiert ist, d.~h.~das Skalarprodukt eines Vektors mit sich -selbst darf nicht negativ sein. -Dazu dient die folgende Definition. - -\begin{definition} -Sei $V$ ein reeller Vektorraum. -Eine bilineare Abbildung -\[ -\langle\;\,,\;\rangle -\colon -V\times V -\to -\mathbb{R} -: -(u,v) \mapsto \langle u,v\rangle. -\] -heisst {\em positiv definit}, wenn für alle Vektoren $v \in V$ mit -$v\ne 0 \Rightarrow \langle v,v\rangle > 0$ -Die {\em Norm} eines Vektors $v$ ist -$|v|=\sqrt{\langle v,v\rangle}$. -\end{definition} - -Damit man mit dem Skalarprodukt sinnvoll rechnen kann, ist ausserdem -erforderlich, dass es eine einfache Beziehung zwischen -$\langle x,y\rangle$ und $\langle y,x\rangle$ gibt. - -\begin{definition} -Ein {\em Skalarprodukt} auf einem reellen Vektorraum $V$ ist eine -positiv definite, symmetrische bilineare Abbildung -\[ -\langle\;\,,\;\rangle -\colon -V\times V -\to -\mathbb{R} -: -(u,v) \mapsto \langle u,v\rangle. -\] -\end{definition} - -Das Skalarprodukt $\langle u,v\rangle=u^tv$ auf dem Vektorraum -$\mathbb{R}^n$ erfüllt die Definition ganz offensichtlich, -sie führt auf die Komponentendarstellung -\[ -\langle u,v\rangle = u^tv = \sum_{k=1}^n u_iv_i. -\] -Weitere Skalarprodukte ergeben ergeben sich mit jeder symmetrischen, -positiv definiten Matrix $G$ und der Definition -$\langle u,v\rangle_G=u^tGv$. -Ein einfacher Spezialfall tritt auf, wenn $G$ eine Diagonalmatrix -$\operatorname{diag}(w_1,\dots,w_n)$ -mit positiven Einträgen $w_i>0$ auf der Diagonalen ist. -In diesem Fall schreiben wir -\[ -\langle u,v\rangle_w -= -u^t\operatorname{diag}(w_1,\dots,w_n)v -= -\sum_{k=1}^n u_iv_i\,w_i -\] -und nennen $\langle \;\,,\;\rangle_w$ das {\em gewichtete Skalarprodukt} -mit {\em Gewichten $w_i$}. - -\subsubsection{Skalarprodukte auf Funktionenräumen} -Das Integral ermöglicht jetzt, ein Skalarprodukt auf dem reellen -Vektorraum der stetigen Funktionen auf einem Intervall zu definieren. - -\begin{definition} -Sei $V$ der reelle Vektorraum $C([a,b])$ der reellwertigen, stetigen -Funktion auf dem Intervall $[a,b]$. -Dann ist -\[ -\langle\;\,,\;\rangle -\colon -C([a,b]) \times C([a,b]) \to \mathbb{R} -: -(f,g) \mapsto \langle f,g\rangle = \int_a^b f(x)g(x)\,dx. -\] -ein Skalarprodukt. -\end{definition} - -Die Definition ist offensichtlich symmetrisch in $f$ und $g$ und -aus den Eigenschaften des Integrals ist klar, dass das Produkt -bilinear ist: -\begin{align*} -\langle \lambda_1 f_1+\lambda_2f_2,g\rangle -&= -\int_a^b (\lambda_1f_(x) +\lambda_2f_2(x))g(x)\,dx -= -\lambda_1\int_a^b f_1(x) g(x)\,dx -+ -\lambda_2\int_a^b f_2(x) g(x)\,dx -\\ -&= -\lambda_1\langle f_1,g\rangle -+ -\lambda_2\langle f_2,g\rangle. -\end{align*} -Ausserdem ist es positiv definit, denn wenn $f(x_0) \ne 0$ ist, -dann gibt es wegen der Stetigkeit von $f$ eine Umgebung -$U=[x_0-\varepsilon,x_0+\varepsilon]$, derart, dass $|f(x)| > \frac12|f(x_0)|$ -ist für alle $x\in U$. -Somit ist das Integral -\[ -\langle f,f\rangle -= -\int_a^b |f(x)|^2\,dx -\ge -\int_{x_0-\varepsilon}^{x_0+\varepsilon} |f(x)|^2\,dx -\ge -\int_{x_0-\varepsilon}^{x_0+\varepsilon} \frac14|f(x_0)|^2\,dx -= -\frac{1}{4}|f(x_0)|^2\cdot 2\varepsilon -= -\frac{|f(x_0)|^2\varepsilon}{2} ->0, -\] -was beweist, dass $\langle\;,\;\rangle$ positiv definit und damit -ein Skalarprodukt ist. - -Die Definition kann noch etwas verallgemeinert werden, indem -die Funktionswerte nicht überall auf dem Definitionsbereich -gleich gewichtet werden. - -\begin{definition} -Sei $w\colon [a,b]\to \mathbb{R}^+$ eine positive, stetige Funktion, -dann ist -\[ -\langle\;\,,\;\rangle_w -\colon -C([a,b]) \times C([a,b]) \to \mathbb{R} -: -(f,g) \mapsto \langle f,g\rangle_w = \int_a^b f(x)g(x)\,w(x)\,dx. -\] -das {\em gewichtete Skalarprodukt} mit {\em Gewichtsfunktion $w(x)$}. -\end{definition} - -\subsubsection{Gram-Schmidt-Orthonormalisierung} -In einem reellen Vektorraum $V$ mit Skalarprodukt $\langle\;\,,\;\rangle$ -kann aus einer beleibigen Basis $b_1,\dots,b_n$ mit Hilfe des -Gram-Schmidtschen Orthogonalisierungsverfahrens immer eine -orthonormierte Basis $\tilde{b}_1,\dots,\tilde{b}_n$ Basis -gewonnen werden. -Es stellt sicher, dass für alle $k\le n$ gilt -\[ -\langle b_1,\dots,b_k\rangle -= -\langle \tilde{b}_1,\dots,\tilde{b}_k\rangle. -\] -Zur Vereinfachung der Formeln schreiben wir $v^0=v/|v|$ für einen zu -$v$ parallelen Einheitsvektor. -Die Vektoren $\tilde{b}_i$ können mit Hilfe der Formeln -\begin{align*} -\tilde{b}_1 -&= -(b_1)^0 -\\ -\tilde{b}_2 -&= -\bigl( -b_2 -- -\langle \tilde{b}_1,b_2\rangle \tilde{b}_1 -\bigr)^0 -\\ -\tilde{b}_3 -&= -\bigl( -b_3 -- -\langle \tilde{b}_1,b_3\rangle \tilde{b}_1 -- -\langle \tilde{b}_2,b_3\rangle \tilde{b}_2 -\bigr)^0 -\\ -&\;\vdots -\\ -\tilde{b}_n -&= -\bigl( -b_n -- -\langle \tilde{b}_1,b_n\rangle \tilde{b}_1 -- -\langle \tilde{b}_2,b_n\rangle \tilde{b}_2 --\dots -- -\langle \tilde{b}_{n-1},b_n\rangle \tilde{b}_{n-1} -\bigr)^0 -\end{align*} -iterativ berechnet werden. -Dieses Verfahren lässt sich auch auf Funktionenräume anwenden. - -Die Normierung ist nicht unbedingt nötig und manchmal unangenehm, -da die Norm unschöne Quadratwurzeln einführt. -Falls es genügt, eine orthogonale Basis zu finden, kann darauf -verzichtet werden, bei der Orthogonalisierung muss aber berücksichtigt -werden, dass die Vektoren $\tilde{b}_i$ jetzt nicht mehr Einheitslänge -haben. -Die Formeln -\begin{align*} -\tilde{b}_0 -&= -b_0 -\\ -\tilde{b}_1 -&= -b_1 -- -\frac{\langle b_1,\tilde{b}_0\rangle}{\langle \tilde{b}_0,\tilde{b}_0\rangle}\tilde{b}_0 -\\ -\tilde{b}_2 -&= -b_2 -- -\frac{\langle b_2,\tilde{b}_0\rangle}{\langle \tilde{b}_0,\tilde{b}_0\rangle}\tilde{b}_0 -- -\frac{\langle b_2,\tilde{b}_1\rangle}{\langle \tilde{b}_1,\tilde{b}_1\rangle}\tilde{b}_1 -\\ -&\;\vdots -\\ -\tilde{b}_n -&= -b_n -- -\frac{\langle b_n,\tilde{b}_0\rangle}{\langle \tilde{b}_0,\tilde{b}_0\rangle}\tilde{b}_0 -- -\frac{\langle b_n,\tilde{b}_1\rangle}{\langle \tilde{b}_1,\tilde{b}_1\rangle}\tilde{b}_1 -- -\dots -- -\frac{\langle b_n,\tilde{b}_{n-1}\rangle}{\langle \tilde{b}_{n-1},\tilde{b}_{n-1}\rangle}\tilde{b}_{n-1}. -\end{align*} -berücksichtigen dies. - -\subsubsection{Selbstadjungierte Operatoren und Eigenvektoren} -Symmetrische Matrizen spielen eine spezielle Rolle in der -endlichdimensionalen linearen Algebra, weil sie sich immer -mit einer orthonormierten Basis diagonalisieren lassen. -In der vorliegenden Situation undendlichdimensionaler Vektorräume -brauchen wir eine angepasste Definition. - -\begin{definition} -Eine lineare Selbstabbildung $A\colon V\to V$ -eines Vektorrraums mit Skalarprodukt -heisst {\em selbstadjungiert}, wenn für alle Vektoren $u,v\in V$ -heisst $\langle Au,v\rangle = \langle u,Av\rangle$. -\end{definition} - -Es ist wohlbekannt, dass Eigenvektoren einer symmetrischen Matrix -zu verschiedenen Eigenwerten orthogonal sind. -Der Beweis ist direkt übertragbar, wir halten das Resultat hier -für spätere Verwendung fest. - -\begin{satz} -Sind $f$ und $g$ Eigenvektoren eines selbstadjungierten Operators $A$ -zu verschiedenen Eigenwerten $\lambda$ und $\mu$, dann sind $f$ und $g$ -orthogonal. -\end{satz} - -\begin{proof}[Beweis] -Im vorliegenden Zusammenhang möchten wir die Eigenschaft nutzen, -dass Eigenfunktionen eines selbstadjungierten Operatores zu verschiedenen -Eigenwerten orthogonal sind. -Dazu seien $Df = \lambda f$ und $Dg=\mu g$ und wir rechnen -\begin{equation*} -\renewcommand{\arraycolsep}{2pt} -\begin{array}{rcccrl} -\langle Df,g\rangle &=& \langle \lambda f,g\rangle &=& \lambda\phantom{)}\langle f,g\rangle -&\multirow{2}{*}{\hspace{3pt}$\biggl\}\mathstrut-\mathstrut$}\\ -=\langle f,Dg\rangle &=& \langle f,\mu g\rangle &=& \mu\phantom{)}\langle f,g\rangle& -\\[2pt] -\hline - 0 & & &=& (\lambda-\mu)\langle f,g\rangle& -\end{array} -\end{equation*} -Da $\lambda-\mu\ne 0$ ist, muss $\langle f,g\rangle=0$ sein. -\end{proof} - -\begin{beispiel} -Sei $C^1([0,2\pi], \mathbb{C})=C^1(S^1,\mathbb{C})$ -der Vektorraum der $2\pi$-periodischen differenzierbaren Funktionen mit -dem Skalarprodukt -\[ -\langle f,g\rangle -= -\frac{1}{2\pi}\int_0^{2\pi} \overline{f(t)}g(t)\,dt -\] -enthält die Funktionen $e_n(t) = e^{int}$. -Der Operator -\[ -D=i\frac{d}{dt} -\] -ist selbstadjungiert, denn mit Hilfe von partieller Integration erhält man -\[ -\langle Df,g\rangle -= -\frac{1}{2\pi} -\int_0^{2\pi} -\underbrace{ -\overline{i\frac{df(t)}{dt}} -}_{\uparrow} -\underbrace{g(t)}_{\downarrow} -\,dt -= -\underbrace{ -\frac{-i}{2\pi} -\biggl[ -\overline{f(t)}g(t) -\biggr]_0^{2\pi} -}_{\displaystyle=0} -+ -\frac{1}{2\pi} -\int_0^{2\pi} -\overline{f(t)}i\frac{dg(t)}{dt} -\,dt -= -\langle f,Dg\rangle -\] -unter Ausnützung der $2\pi$-Periodizität der Funktionen. - -Die Funktionen $e_n(t)$ sind Eigenfunktionen des Operators $D$, denn -\[ -De_n(t) = i\frac{d}{dt}e^{int} = -n e^{int} = -n e_n(t). -\] -Nach obigem Satz sind die Eigenfunktionen von $D$ orthogonal. -\end{beispiel} - -Das Beispiel illustriert, dass orthogonale Funktionenfamilien -ein automatisches Nebenprodukt selbstadjungierter Operatoren sind. - -% -% Besselfunktionen also orthogonale Funktionenfamilie -% -\subsection{Bessel-Funktionen als orthogonale Funktionenfamilie} -Auch die Besselfunktionen sind eine orthogonale Funktionenfamilie. -Sie sind Funktionen differenzierbaren Funktionen $f(r)$ für $r>0$ -mit $f'(r)=0$ und für $r\to\infty$ nimmt $f(r)$ so schnell ab, dass -auch $rf(r)$ noch gegen $0$ strebt. -Das Skalarprodukt ist -\[ -\langle f,g\rangle -= -\int_0^\infty r f(r) g(r)\,dr, -\] -als Operator verwenden wir -\[ -A = \frac{d^2}{dr^2} + \frac{1}{r}\frac{d}{dr} + s(r), -\] -wobei $s(r)$ eine beliebige integrierbare Funktion sein kann. -Zunächst überprüfen wir, ob dieser Operator wirklich selbstadjungiert ist. -Dazu rechnen wir -\begin{align} -\langle Af,g\rangle -&= -\int_0^\infty -r\,\biggl(f''(r)+\frac1rf'(r)+s(r)f(r)\biggr) g(r) -\,dr -\notag -\\ -&= -\int_0^\infty rf''(r)g(r)\,dr -+ -\int_0^\infty f'(r)g(r)\,dr -+ -\int_0^\infty s(r)f(r)g(r)\,dr. -\notag -\intertext{Der letzte Term ist symmetrisch in $f$ und $g$, daher -ändern wir daran weiter nichts. -Auf das erste Integral kann man partielle Integration anwenden und erhält} -&= -\biggl[rf'(r)g(r)\biggr]_0^\infty -- -\int_0^\infty f'(r)g(r) + rf'(r)g'(r)\,dr -+ -\int_0^\infty f'(r)g(r)\,dr -+ -\int_0^\infty s(r)f(r)g(r)\,dr. -\notag -\intertext{Der erste Term verschwindet wegen der Bedingungen an die -Funktionen $f$ und $g$. -Der erste Term im zweiten Integral hebt sich gegen das -zweite Integral weg. -Der letzte Term ist das Skalarprodukt von $f'$ und $g'$. -Somit ergibt sich -} -&= --\langle f',g'\rangle -+ -\int_0^\infty s(r) f(r)g(r)\,dr. -\label{buch:integrale:orthogonal:besselsa} -\end{align} -Vertauscht man die Rollen von $f$ und $g$, erhält man das Gleiche, da im -letzten Ausdruck~\eqref{buch:integrale:orthogonal:besselsa} die Funktionen -$f$ und $g$ symmetrische auftreten. -Damit ist gezeigt, dass der Operator $A$ selbstadjungiert ist. -Es folgt nun, dass Eigenvektoren des Operators $A$ automatisch -orthogonal sind. - -Eigenfunktionen von $A$ sind aber Lösungen der Differentialgleichung -\[ -\begin{aligned} -&& -Af&=\lambda f -\\ -&\Rightarrow\qquad& -f''(r) +\frac1rf'(r) + s(r)f(r) &= \lambda f(r) -\\ -&\Rightarrow\qquad& -r^2f''(r) +rf'(r)+ (-\lambda r^2+s(r)r^2)f(r) &= 0 -\end{aligned} -\] -sind. - -Durch die Wahl $s(r)=1$ wird der Operator $A$ zum Bessel-Operator -$B$ definiert in -\eqref{buch:differentialgleichungen:bessel-operator}. -Die Lösungen der Besselschen Differentialgleichung zu verschiedenen Werten -des Parameters müssen also orthogonal sein, insbesondere sind die -Besselfunktion $J_\nu(r)$ und $J_\mu(r)$ orthogonal wenn $\mu\ne\nu$ ist. - -% -% Orthogonale Polynome -% -\subsection{Orthogonale Polynome -\label{buch:integral:subsection:orthogonale-polynome}} -Die Polynome $1,x,x^2,\dots,x^n$ bilden eine Basis des Vektorraums -der Polynome vom Grad $\le n$. -Bezüglich des Skalarproduktes -\[ -\langle p,q\rangle -= -\int_{-1}^1 p(x)q(x)\,dx -\] -sind sie jedoch nicht orthogonal, denn es ist -\[ -\langle x^i,x^j\rangle -= -\int_{-1}^1 x^{i+j}\,dx -= -\biggl[\frac{x^{i+j+1}}{i+j+1}\biggr]_{-1}^1 -= -\begin{cases} -\displaystyle -\frac{2}{i+j+1}&\qquad\text{$i+j$ gerade}\\ - 0&\qquad\text{$i+j$ ungerade}. -\end{cases} -\] -Wir können daher das Gram-Schmidtsche Orthonormalisierungsverfahren -anwenden, um eine orthogonale Basis von Polynomen zu finden, was -wir im Folgenden tun wollen. - -% XXX Orthogonalisierungsproblem so formulieren, dass klar wird, -% XXX dass man ein "Normierungskriterium braucht. - -Da wir auf die Normierung verzichten, brauchen wir ein anderes -Kriterium, welches die Polynome eindeutig festlegen kann. -Wir bezeichnen das Polynom vom Grad $n$, das bei diesem Prozess -entsteht, mit $P_n(x)$ und legen willkürlich aber traditionskonform -fest, dass $P_n(1)=1$ sein soll. - -Das Skalarprodukt berechnet ein Integral eines Produktes von zwei -Polynomen über das symmetrische Interval $[-1,1]$. -Ist die eine gerade und die andere ungerade, dann ist das -Produkt eine ungerade Funktion und das Skalarprodukt verschwindet. -Sind beide Funktionen gerade oder ungerade, dann ist das Produkt -gerade und das Skalarprodukt ist im Allgmeinen von $0$ verschieden. -Dies zeigt, dass es tatsächlich etwas zu Orthogonalisieren gibt. - -Die ersten beiden Funktionen sind das konstante Polynom $1$ und -das Polynome $x$. -Nach obiger Beobachtung ist das Skalarprodukt $\langle 1,x\rangle=0$, -also ist $P_1(x)=x$. -Die Graphen der entstehenden Polynome sind in -Abbildung~\ref{buch:integral:orthogonal:legendregraphen} -dargestellt. -\begin{figure} -\centering -\includegraphics{chapters/060-integral/images/legendre.pdf} -\caption{Graphen der Legendre-Polynome $P_n(x)$ für $n=1,\dots,10$. -\label{buch:integral:orthogonal:legendregraphen}} -\end{figure} - -\begin{lemma} -Die Polynome $P_{2n}(x)$ sind gerade, die Polynome $P_{2n+1}(x)$ sind -ungerade Funktionen von $x$. -\end{lemma} - -\begin{proof}[Beweis] -Wir verwenden vollständige Induktion nach $n$. -Wir wissen bereits, dass $P_0(x)=1$ und $P_1(x)=x$ die verlangten -Symmetrieeigenschaften haben. -Im Sinne der Induktionsannahme nehmen wir daher an, dass die -Symmetrieeigenschaften für $P_k(x)$, $k{$}c<{$}|>{$}l<{$}|} -\hline -n&P_n(x)\\ -\hline - 0&1 -\\ - 1&x -\\ - 2&\frac12(3x^2-1) -\\ - 3&\frac12(5x^3-3x) -\\ - 4&\frac18(35x^4-30x^2+3) -\\ - 5&\frac18(63x^5-70x^3+15x) -\\ - 6&\frac1{16}(231x^6-315x^4+105x^2-5) -\\ - 7&\frac1{16}(429x^7-693x^5+315x^3-35x) -\\ - 8&\frac1{128}(6435x^8-12012x^6+6930x^4-1260x^2+35) -\\ - 9&\frac1{128}(12155x^9-25740x^7+18018x^5-4620x^3+315x) -\\ -10&\frac1{256}(46189x^{10}-109395x^8+90090x^6-30030x^4+3465x^2-63) -\\[2pt] -\hline -\end{tabular} -\caption{Die Legendre-Polynome $P_n(x)$ für $n=0,1,\dots,10$ sind -orthogonale Polynome vom Grad $n$, die den Wert $P_n(1)=1$ haben. -\label{buch:integral:table:legendre-polynome}} -\end{table} - - - -Die so konstruierten Polynome heissen die {\em Legendre-Polynome}. -Durch weitere Durchführung des Verfahrens liefert die Polynome in -Tabelle~\ref{buch:integral:table:legendre-polynome}. -Die Graphen sind in Abbildung~\ref{buch:integral:orthogonal:legendregraphen} -dargestellt. -Abbildung~\ref{buch:integral:orthogonal:legendreortho} illustriert, -dass die die beiden Polynome $P_4(x)$ und $P_7(x)$ orthogonal sind. -Das Produkt $P_4(x)\cdot P_7(x)$ hat Integral $=0$. - -\input{chapters/060-integral/jacobi.tex} - -\subsection{TODO} -\begin{itemize} -\item Jacobi-Polynome -\item Tschebyscheff-Polynome -\end{itemize} - -%% -%% Differentialgleichungen -%% -%\subsection{Orthogonale Polynome und Differentialgleichungen} -%\subsubsection{Legendre-Differentialgleichung} -%\subsubsection{Legendre-Polyome} -%\subsubsection{Legendre-Funktionen zweiter Art} -%Siehe Wikipedia-Artikel \url{https://de.wikipedia.org/wiki/Legendre-Polynom} - -\input{chapters/060-integral/legendredgl.tex} -\input{chapters/060-integral/sturm.tex} -\input{chapters/060-integral/gaussquadratur.tex} - diff --git a/buch/chapters/060-integral/sturm.tex b/buch/chapters/060-integral/sturm.tex deleted file mode 100644 index e374bae..0000000 --- a/buch/chapters/060-integral/sturm.tex +++ /dev/null @@ -1,479 +0,0 @@ -% -% sturm.tex -% -% (c) 2022 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule -% -\subsection{Sturm-Liouville-Problem -\label{buch:integrale:subsection:sturm-liouville-problem}} -Sowohl bei den Bessel-Funktionen wie bei den Legendre-Polynomen -konnte die Orthogonalität der Funktionen dadurch gezeigt werden, -dass sie als Eigenfunktionen eines bezüglich eines geeigneten -Skalarproduktes selbstadjungierten Operators erkannt wurden. - -\subsubsection{Differentialgleichung} -Das klassische Sturm-Liouville-Problem ist das folgende Eigenwertproblem. -Gesucht sind Lösungen der Differentialgleichung -\begin{equation} -((p(x)y'(x))' + q(x)y(x) = \lambda w(x) y(x) -\label{buch:integrale:eqn:sturm-liouville} -\end{equation} -auf dem Intervall $(a,b)$, die zusätzlich die Randbedingungen -\begin{equation} -\begin{aligned} -k_a y(a) + h_a p(a) y'(a) &= 0 \\ -k_b y(b) + h_b p(b) y'(b) &= 0 -\end{aligned} -\label{buch:integrale:sturm:randbedingung} -\end{equation} -erfüllen, wobei $|k_i|^2 + |h_i|^2\ne 0$ mit $i=a,b$. -Weitere Bedingungen an die Funktionen $p(x)$, $q(x)$, $w(x)$ sowie die -Lösungsfunktionen $y(x)$ sollen später geklärt werden. - -\subsubsection{Das verallgemeinerte Eigenwertproblem für symmetrische Matrizen} -Ein zu \eqref{buch:integrale:eqn:sturm-liouville} analoges Eigenwertproblem -für Matrizen ist das folgende verallgemeinerte Eigenwertproblem. -Das gewohnte Eigenwertproblem verwendet die Matrix $B=E$. - -\begin{definition} -Seien $A$ und $B$ $n\times n$-Matrizen. -$v$ heisst verallgemeinerter Eigenvektor zum Eigenwert $\lambda$, -wenn -\[ -Av = \lambda Bv. -\] -\end{definition} - -Für symmetrische Matrizen lässt sich dieses Problem auf ein -Optimierungsproblem reduzieren. - -\begin{satz} -Seien $A$ und $B$ symmetrische $n\times n$-Matrizen und sei ausserdem -$B$ positiv definit. -Ist $v$ ein Vektor, der die Grösse -\[ -f(v)=\frac{v^tAv}{v^tBv} -\] -maximiert, ist ein verallgemeinerter Eigenvektor für die Matrizen $A$ -und $B$. -\end{satz} - -\begin{proof}[Beweis] -Sei $\lambda = f(v)$ der maximale Wert und $u\ne 0$ ein beliebiger Vektor. -Da $v$ die Grösse $f(v)$ maximiert, muss die Ableitung -von $f(u+tv)$ für $t=0$ verschwinden. -Um diese Ableitung zu berechnen, bestimmen wir zunächst die Ableitung -von $(v+tu)^tM(v+tu)$ an der Stelle $t=0$ für eine beliebige -symmetrische Matrix: -\begin{align*} -\frac{d}{dt} -(v+tu)^tM(v+tu) -&= -\frac{d}{dt}\bigl( -v^tv + t(v^tMu+u^tMv) + t^2 u^tMu -\bigr) -= -v^tMu+u^tMv + 2tv^tMv -\\ -\frac{d}{dt} -(v^t+tu^t)M(v+tu) -\bigg|_{t=0} -&= -v^tMu+u^tMv -= -2v^tMu -\end{align*} -Dies wenden wir jetzt auf den Quotenten $\lambda(v+tu)$ an. -\begin{align*} -\frac{d}{dt}f(v+tu)\bigg|_{t=0} -&= -\frac{d}{dt} -\frac{(v+tu)^tA(v+tu)}{(v+tu)^tB(v+tu)}\bigg|_{t=0} -\\ -&= -\frac{2u^tAv(v^tBv) - 2u^tBv(v^tAv)}{(v^tBv)^2} -= -\frac{2}{v^tBv} -u^t -\biggl( -Av - \frac{v^tAv}{v^tBv} Bv -\biggr) -\\ -&= -2 -\frac{ -u^t( -Av - \lambda Bv -) -}{v^tBv} -\end{align*} -Da $v$ ein Maximum von $\lambda(v)$ ist, verschwindet diese Ableitung -für alle Vektoren $u$, somit gilt -\[ -u^t(Av-\lambda Bv)=0 -\] -für alle $u$, also auch $Av=\lambda Bv$. -Dies beweist, dass $v$ ein verallgemeinerter Eigenvektor zum -Eigenwert $\lambda$ ist. -\end{proof} - -\begin{satz} -Verallgemeinerte Eigenvektoren $u$ und $v$ von $A$ und $B$ -zu verschiedenen Eigenwerten erfüllen $u^tBv=0$. -\end{satz} - -\begin{proof} -Seien $\lambda$ und $\mu$ die Eigenwerte, also $Au=\lambda Bu$ -und $Av=\mu Bv$. -Wie in \eqref{buch:integrale:eqn:eigenwertesenkrecht} -berechnen wir das Skalarprodukt auf zwei Arten -\[ -\renewcommand{\arraycolsep}{2pt} -\begin{array}{rcccrl} - u^tAv &=&u^t\lambda Bv &=& \lambda\phantom{\mathstrut-\mu)} u^tBv - &\multirow{2}{*}{\hspace{3pt}$\bigg\}\mathstrut-\mathstrut$}\\ -=v^tAu &=&v^t\mu Bu &=& \mu\phantom{)}u^tBv &\\ -\hline - 0 & & &=& (\lambda - \mu)u^tBv. & -\end{array} -\] -Da die Eigenwerte verschieden sind, ist $\lambda-\mu\ne 0$, es folgt, -dass $u^tBv=0$ sein muss. -\end{proof} - -Verallgemeinerte Eigenwerte und Eigenvektoren verhalten sich also -ganz analog zu den gewöhnlichen Eigenwerten und Eigenvektoren. -Da $B$ positiv definit ist, ist $B$ auch invertierbar. -Zudem kann $B$ zur Definition des verallgemeinerten Skalarproduktes -\[ -\langle u,v\rangle_B = u^tBv -\] -verwendet werden. -Die Matrix -\[ -\tilde{A} = B^{-1}A -\] -ist bezüglich dieses Skalarproduktes selbstadjungiert, denn es gilt -\[ -\langle\tilde{A}u,v\rangle_B -= -(B^{-1}Au)^t Bv -= -u^tA^t(B^{-1})^tBv -= -u^tAv -= -u^tBB^{-1}Av -= -\langle u,\tilde{A}v\rangle. -\] -Das verallgemeinerte Eigenwertproblem für symmetrische Matrizen -ist damit ein gewöhnliches Eigenwertproblem für selbstadjungierte -Matrizen des Operators $\tilde{A}$ bezüglich des verallgemeinerten -Skalarproduktes $\langle\,\;,\;\rangle_B$. - -\subsubsection{Der Operator $L_0$ und die Randbedingung} -Die Differentialgleichung kann auch in Operatorform geschrieben werden. -Dazu schreiben wir -\[ -L_0 -= --\frac{d}{dx}p(x)\frac{d}{dx}. -\] -Bezüglich des gewöhnlichen Skalarproduktes -\[ -\langle f,g\rangle -= -\int_a^b f(x)g(x)\,dx -\] -für Funktionen auf dem Intervall $[a,b]$ ist der Operator $L_0$ -tatsächlich selbstadjungiert. -Mit partieller Integration rechnet man nach: -\begin{align} -\langle f,L_0g\rangle -&= -\int_a^b f(x) \biggl(-\frac{d}{dx}p(x)\frac{d}{dx}\biggr)g(x)\,dx -\notag -\\ -&= --\int_a^b f(x) \frac{d}{dx}\bigl( p(x) g'(x) \bigr)\,dx -\notag -\\ -&= --\biggl[f(x) p(x)g'(x)\biggr]_a^b -+ -\int_a^b f'(x) p(x) g'(x) \,dx -\notag -\\ -\langle L_0f,g\rangle -&= --\biggl[f'(x)p(x)g(x)\biggr]_a^b -+ -\int_a^b f'(x) p(x) g'(x) \,dx. -\notag -\intertext{Die beiden Skalarprodukte führen also auf das gleiche -Integral, sie unterscheiden sich nur um die Randterme} -\langle f,L_0g\rangle -- -\langle L_0f,g\rangle -&= --f(b)p(b)g'(b) + f(a)p(a)g'(a) -+f'(b)p(b)g(b) - f'(a)p(a)g(a) -\label{buch:integrale:sturm:sabedingung} -\\ -&= -- -p(b) -\left|\begin{matrix} -f(b) &g(b)\\ -f'(b)&g'(b) -\end{matrix}\right| -+ -p(a) -\left|\begin{matrix} -f(a) &g(a)\\ -f'(a)&g'(a) -\end{matrix}\right| -\notag -\\ -&= -- -\left|\begin{matrix} -f(b) &g(b)\\ -p(b)f'(b)&p(b)g'(b) -\end{matrix}\right| -+ -\left|\begin{matrix} -f(a) &g(a)\\ -p(a)f'(a)&p(a)g'(a) -\end{matrix}\right|. -\notag -\end{align} -Um zu erreichen, dass der Operator selbstadjunigert wird, muss -sichergestellt werden, dass entweder $p$ oder die Determinanten -an den Intervallenden verschwinden. -Dies passiert genau dann, wenn die Vektoren -\[ -\begin{pmatrix} -f(a)\\ -p(a)f'(a) -\end{pmatrix} -\text{\;und\;} -\begin{pmatrix} -g(a)\\ -p(a)g'(a) -\end{pmatrix} -\] -linear abhängig sind. -In zwei Dimensionen bedeutet lineare Abhängigkeit, dass es -eine nichttriviale Linearform mit Koeffizienten $h_a, k_a$ gibt, -die auf beiden Vektoren verschwindet. -Ausgeschrieben bedeutet dies, dass die Randbedingung -\eqref{buch:integrale:sturm:randbedingung} -erfüllt sein muss. - -\subsubsection{Skalarprodukt} -Das Ziel der folgenden Abschnitte ist, das Sturm-Liouville-Problem als -Eigenwertproblem für einen selbstadjungierten Operator in einem -Funktionenraum mit einem geeigneten Skalarprodukt zu finden. - -Wir haben bereits gezeigt, dass die Randbedingung -\eqref{buch:integrale:sturm:randbedingung} sicherstellt, dass der -Operator $L_0$ für das Standardskalarprodukt selbstadjungiert ist. -Dies entspricht der Symmetrie der Matrix $A$. - -Die Komponente $q(x)$ stellt keine besonderen Probleme, denn -\[ -\langle f,qg\rangle -= -\int_a^b f(x)q(x)g(x)\,dx -= -\langle qf,g\rangle. -\] -Der Operator $f(x) \mapsto q(x)f(x)$, der eine Funktion mit -der Funktion $q(x)$ multipliziert, ist also ebenfalls symmetrisch. -Dasselbe gilt für einen Operator, der mit $w(x)$ multipliziert. -Da $w(x)$ eine positive Funktion ist, ist der Operator $f(x)\mapsto w(x)f(x)$ -sogar positiv definit. -Dies entspricht der Matrix $B$. -Nach den Erkenntnissen des vorangegangenen Abschnittes ist das -verallgemeinerte Eigenwertproblem daher ein Eigenwertproblem -für einen modifizierten Operator bezüglich eines alternativen -Skalarproduktes. - -Als Skalarprodukt muss also das Integral -\[ -\langle f,g\rangle_w -= -\int_a^b f(x)g(x)w(x)\,dx -\] -mit der Gewichtsfunktion $w(x)$ verwendet werden. -Damit dies ein vernünftiges Skalarprodukt ist, muss $w(x)>0$ im -Innerend es Intervalls sein. - -\subsubsection{Der Vektorraum $H$} -Damit können wir jetzt die Eigenschaften der in Frage kommenden -Funktionen zusammenstellen. -Zunächst müssen sie auf dem Intervall $[a,b]$ definiert sein und -das Integral -\[ -\int_a^b |f(x)|^2 w(x)\,dx < \infty -\] -muss existieren. -Wir bezeichnen den Vektorraum der Funktionen, deren Quadrat mit -der Gewichtsfunktion $w(x)$ integrierbar sind, mit -$L^2([a,b],w)$. - -Damit auch $\langle qf,f\rangle_w$ und $\langle L_0f,0f\rangle_w$ -wohldefiniert sind, müssen zusätzlich die Integrale -\[ -\int_a^b |f(x)|^2 q(x) w(x)\,dx -\qquad\text{und}\qquad -\int_a^b |f'(x)|^2 p(x) w(x)\,dx -\] -existieren. -Wir setzen daher -\[ -H -= -\biggl\{ -f\in L^2([a,b],w)\;\bigg|\; -\int_a^b |f'(x)|^2p(x)w(x)\,dx<\infty, -\int_a^b |f(x)|^2q(x)w(x)\,dx<\infty -\biggr\}. -\] - -\subsubsection{Differentialoperator} -Das verallgemeinerte Eigenwertproblem für $A$ und $B$ ist ein -gewöhnliches Eigenwertproblem für die Operator $\tilde{A}=B^{-1}A$ -bezüglich des modifizierten Skalarproduktes. -Das Sturm-Liouville-Problem ist also ein Eigenwertproblem im -Vektorraum $H$ mit dem Skalarprodukt $\langle\,\;,\;\rangle_w$. -Der Operator -\[ -L = \frac{1}{w(x)} \biggl(-\frac{d}{dx} p(x)\frac{d}{dx} + q(x)\biggr) -\] -heisst der {\em Sturm-Liouville-Operator}. -Eine Lösung des Sturm-Liouville-Problems ist eine Funktion $y(x)$ derart, -dass -\[ -Ly = \lambda y, -\] -$\lambda$ ist der zu $y(x)$ gehörige Eigenwert. -Der Operator ist definiert auf Funktionen des im vorangegangenen Abschnitt -definierten Vektorraumes $H$. - - - -\subsubsection{Beispiel: Trigonometrische Funktionen} -Die trigonometrischen Funktionen sind Eigenfunktionen des Operators -$d^2/dx^2$, also eines Sturm-Liouville-Operators mit $p(x)=1$, $q(x)=0$ -und $w(x)=0$. -Auf dem Intervall $(-\pi,\pi)$ können wir die Randbedingungen -\bgroup -\renewcommand{\arraycolsep}{2pt} -\[ -\begin{aligned} -& -\begin{array}{lclclcl} -k_{-\pi} &=&1,&\qquad&h_{-\pi} &=&0\\ -k_{\phantom{-}\pi}&=&1,&\qquad&h_{\phantom{-}\pi}&=&0 -\end{array} -\;\bigg\} -&&\Rightarrow& -\begin{array}{lcl} -y(-\pi) &=&0\\ -y(\phantom{-}\pi)&=&0\\ -\end{array} -\;\bigg\} -&\quad\Rightarrow& -y(x) &= B\sin nx -\\ -& -\begin{array}{lclclcl} -k_{-\pi} &=&0,&\qquad&h_{-\pi} &=&1\\ -k_{\phantom{-}\pi}&=&0,&\qquad&h_{\phantom{-}\pi}&=&1 -\end{array} -\;\bigg\} -&&\Rightarrow& -\begin{array}{lcl} -y'(-\pi) &=&0\\ -y'(\phantom{-}\pi)&=&0\\ -\end{array} -\; \bigg\} -&\quad\Rightarrow& -y(x) &= A\cos nx -\end{aligned} -\] -\egroup -verwenden. -Die Orthogonalität der Sinus- und Kosinus-Funktionen folgt jetzt -ganz ohne weitere Rechnung. - -An dieser Lösung ist nicht ganz befriedigend, dass die trigonometrischen -Funktionen nicht mit einer einzigen Randbedingung gefunden werden können. -Der Ausweg ist, periodische Randbedingungen zu verlangen, also -$y(-\pi)=y(\pi)$ und $y'(-\pi)=y'(\pi)$. -Dann ist wegen -\begin{align*} -\langle f,L_0g\rangle - \langle L_0f,g\rangle -&= --f(\pi)g'(\pi)+f(-\pi)g'(-\pi)+f'(\pi)g(\pi)-f'(-\pi)g(-\pi) -\\ -&= --f(\pi)g'(\pi)+f(\pi)g'(\pi)+f'(\pi)g(\pi)-f'(\pi)g(\pi) -=0 -\end{align*} -die Bedingung~\eqref{buch:integrale:sturm:sabedingung} -ebenfalls erfüllt, $L_0$ ist in diesem Raum selbstadjungiert. - -\subsubsection{Beispiel: Bessel-Funktionen} -Der Bessel-Operator \eqref{buch:differentialgleichungen:bessel-operator} -hat die Form eines Sturm-Liouville-Operators -\[ -x^2\frac{d^2}{dx^2} + x\frac{d}{dx} + x^2 -= -\frac{d}{dx} x^2 \frac{d}{dx} + x^2 -\] -mit $p(x)=x^2$, $q(x)=x^2$. - -XXX TODO: Faktor 2 fehlt. - -\subsubsection{Beispiel: Tschebyscheff-Polynome} -Die Tschebyscheff-Polynome sind Lösungen der -Tschebyscheff-Differentialgleichung -\[ -(1-x^2)y'' -xy' = n^2y -\] -auf dem Intervall $(-1,1)$. -Auch dieses Problem kann als Sturm-Liouville-Problem formuliert -werden mit -\begin{align*} -w(x) &= \frac{1}{\sqrt{1-x^2}} \\ -p(x) &= \sqrt{1-x^2} \\ -q(x) &= 0 -\end{align*} -Das zugehörige Sturm-Liouville-Eigenwertproblem ist -\[ -\frac{d}{dx}\sqrt{1-x^2}\frac{d}{dx} y(x) -= -\lambda \frac{1}{\sqrt{1-x^2}} y(x). -\] -Führt man die Ableitungen auf der linken Seite aus, entsteht die -Gleichung -\begin{align*} -\sqrt{1-x^2} y''(x) -\frac{x}{\sqrt{1-x^2}}y'(x) -&= \lambda \frac{1}{\sqrt{1-x^2}} y(x) -\intertext{Multiplikation mit $\sqrt{1-x^2}$ ergibt} -(1-x^2) -y''(x) -- -xy'(x) -&= -\lambda y(x). -\end{align*} -Es folgt, dass die Tschebyscheff-Polynome orthogonal sind -bezüglich des Skalarproduktes -\[ -\langle f,g\rangle = \int_{-1}^1 f(x)g(x)\frac{dx}{\sqrt{1-x^2}}. -\] - diff --git a/buch/chapters/070-orthogonalitaet/Makefile.inc b/buch/chapters/070-orthogonalitaet/Makefile.inc new file mode 100644 index 0000000..80bb54b --- /dev/null +++ b/buch/chapters/070-orthogonalitaet/Makefile.inc @@ -0,0 +1,14 @@ +# +# Makefile.inc -- Makefile dependencies for chapter 7 +# +# (c) 2022 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +# + +CHAPTERFILES = $(CHAPTERFILES) \ + chapters/070-orthogonalitaet/orthogonal.tex \ + chapters/070-orthogonalitaet/legendredgl.tex \ + chapters/070-orthogonalitaet/bessel.tex \ + chapters/070-orthogonalitaet/jacobi.tex \ + chapters/070-orthogonalitaet/sturm.tex \ + chapters/070-orthogonalitaet/gaussquadratur.tex \ + chapters/070-orthogonalitaet/chapter.tex diff --git a/buch/chapters/070-orthogonalitaet/bessel.tex b/buch/chapters/070-orthogonalitaet/bessel.tex new file mode 100644 index 0000000..3e9412a --- /dev/null +++ b/buch/chapters/070-orthogonalitaet/bessel.tex @@ -0,0 +1,91 @@ +% +% Besselfunktionen also orthogonale Funktionenfamilie +% +\section{Bessel-Funktionen als orthogonale Funktionenfamilie} +\rhead{Bessel-Funktionen} +Auch die Besselfunktionen sind eine orthogonale Funktionenfamilie. +Sie sind Funktionen differenzierbaren Funktionen $f(r)$ für $r>0$ +mit $f'(r)=0$ und für $r\to\infty$ nimmt $f(r)$ so schnell ab, dass +auch $rf(r)$ noch gegen $0$ strebt. +Das Skalarprodukt ist +\[ +\langle f,g\rangle += +\int_0^\infty r f(r) g(r)\,dr, +\] +als Operator verwenden wir +\[ +A = \frac{d^2}{dr^2} + \frac{1}{r}\frac{d}{dr} + s(r), +\] +wobei $s(r)$ eine beliebige integrierbare Funktion sein kann. +Zunächst überprüfen wir, ob dieser Operator wirklich selbstadjungiert ist. +Dazu rechnen wir +\begin{align} +\langle Af,g\rangle +&= +\int_0^\infty +r\,\biggl(f''(r)+\frac1rf'(r)+s(r)f(r)\biggr) g(r) +\,dr +\notag +\\ +&= +\int_0^\infty rf''(r)g(r)\,dr ++ +\int_0^\infty f'(r)g(r)\,dr ++ +\int_0^\infty s(r)f(r)g(r)\,dr. +\notag +\intertext{Der letzte Term ist symmetrisch in $f$ und $g$, daher +ändern wir daran weiter nichts. +Auf das erste Integral kann man partielle Integration anwenden und erhält} +&= +\biggl[rf'(r)g(r)\biggr]_0^\infty +- +\int_0^\infty f'(r)g(r) + rf'(r)g'(r)\,dr ++ +\int_0^\infty f'(r)g(r)\,dr ++ +\int_0^\infty s(r)f(r)g(r)\,dr. +\notag +\intertext{Der erste Term verschwindet wegen der Bedingungen an die +Funktionen $f$ und $g$. +Der erste Term im zweiten Integral hebt sich gegen das +zweite Integral weg. +Der letzte Term ist das Skalarprodukt von $f'$ und $g'$. +Somit ergibt sich +} +&= +-\langle f',g'\rangle ++ +\int_0^\infty s(r) f(r)g(r)\,dr. +\label{buch:integrale:orthogonal:besselsa} +\end{align} +Vertauscht man die Rollen von $f$ und $g$, erhält man das Gleiche, da im +letzten Ausdruck~\eqref{buch:integrale:orthogonal:besselsa} die Funktionen +$f$ und $g$ symmetrische auftreten. +Damit ist gezeigt, dass der Operator $A$ selbstadjungiert ist. +Es folgt nun, dass Eigenvektoren des Operators $A$ automatisch +orthogonal sind. + +Eigenfunktionen von $A$ sind aber Lösungen der Differentialgleichung +\[ +\begin{aligned} +&& +Af&=\lambda f +\\ +&\Rightarrow\qquad& +f''(r) +\frac1rf'(r) + s(r)f(r) &= \lambda f(r) +\\ +&\Rightarrow\qquad& +r^2f''(r) +rf'(r)+ (-\lambda r^2+s(r)r^2)f(r) &= 0 +\end{aligned} +\] +sind. + +Durch die Wahl $s(r)=1$ wird der Operator $A$ zum Bessel-Operator +$B$ definiert in +\eqref{buch:differentialgleichungen:bessel-operator}. +Die Lösungen der Besselschen Differentialgleichung zu verschiedenen Werten +des Parameters müssen also orthogonal sein, insbesondere sind die +Besselfunktion $J_\nu(r)$ und $J_\mu(r)$ orthogonal wenn $\mu\ne\nu$ ist. + diff --git a/buch/chapters/070-orthogonalitaet/chapter.tex b/buch/chapters/070-orthogonalitaet/chapter.tex new file mode 100644 index 0000000..4c6019f --- /dev/null +++ b/buch/chapters/070-orthogonalitaet/chapter.tex @@ -0,0 +1,31 @@ +% +% chapter.tex -- Spezielle Funktionen definiert durch Integrale +% +% (c) 2021 Prof Dr Andreas Müller, Hochschule Rapperswil +% +% !TeX spellcheck = de_CH +\chapter{Orthogonalität +\label{buch:chapter:orthogonalitaet}} +\lhead{Orthogonalität} +\rhead{} +\input{chapters/070-orthogonalitaet/orthogonal.tex} +\input{chapters/070-orthogonalitaet/jacobi.tex} +\input{chapters/070-orthogonalitaet/legendredgl.tex} +\input{chapters/070-orthogonalitaet/bessel.tex} +\input{chapters/070-orthogonalitaet/sturm.tex} +\input{chapters/070-orthogonalitaet/gaussquadratur.tex} + +\section{TODO} +\begin{itemize} +\item Jacobi-Polynome +\item Tschebyscheff-Polynome +\end{itemize} + +\section*{Übungsaufgaben} +\rhead{Übungsaufgaben} +\aufgabetoplevel{chapters/070-orthogonalitaet/uebungsaufgaben} +\begin{uebungsaufgaben} +%\uebungsaufgabe{0} +%\uebungsaufgabe{1} +\end{uebungsaufgaben} + diff --git a/buch/chapters/070-orthogonalitaet/gaussquadratur.tex b/buch/chapters/070-orthogonalitaet/gaussquadratur.tex new file mode 100644 index 0000000..870c8a8 --- /dev/null +++ b/buch/chapters/070-orthogonalitaet/gaussquadratur.tex @@ -0,0 +1,485 @@ +% +% Anwendung: Gauss-Quadratur +% +\section{Anwendung: Gauss-Quadratur} +\rhead{Gauss-Quadratur} +Orthogonale Polynome haben eine etwas unerwartet Anwendung in einem +von Gauss erdachten numerischen Integrationsverfahren. +Es basiert auf der Beobachtung, dass viele Funktionen sich sehr +gut durch Polynome approximieren lassen. +Wenn man also sicherstellt, dass ein Verfahren für Polynome +sehr gut funktioniert, darf man auch davon ausgehen, dass es für +andere Funktionen nicht allzu schlecht sein wird. + +\subsection{Interpolationspolynome} +Zu einer stetigen Funktion $f(x)$ auf dem Intervall $[-1,1]$ +ist ein Polynome vom Grad $n$ gesucht, welches in den Punkten +$x_0{$}c<{$}|>{$}r<{$}|>{$}r<{$}|} +\hline + n & \text{Gauss-Quadratur} & \text{Trapezregel} \\ +\hline +\phantom{0}2 & 0.\u{95}74271077563381 & 0.\u{95}63709682242596 \\ +\phantom{0}4 & 0.\u{95661}28333449730 & 0.\u{956}5513401768598 \\ +\phantom{0}6 & 0.\u{9566114}812034364 & 0.\u{956}5847489712136 \\ +\phantom{0}8 & 0.\u{956611477}5028123 & 0.\u{956}5964425360520 \\ + 10 & 0.\u{9566114774905}637 & 0.\u{9566}018550715587 \\ + 12 & 0.\u{956611477490518}7 & 0.\u{9566}047952369826 \\ + 14 & 0.\u{95661147749051}72 & 0.\u{9566}065680717177 \\ + 16 & 0.\u{956611477490518}7 & 0.\u{9566}077187127541 \\ + 18 & 0.\u{956611477490518}3 & 0.\u{9566}085075898731 \\ + 20 & 0.\u{956611477490518}4 & 0.\u{9566}090718697414 \\ +\hline + \infty & 0.9566114774905183 & 0.9566114774905183 \\ +\hline +\end{tabular} +\caption{Integral von $\sqrt{1-x^2}$ zwischen $-\frac12$ und $\frac12$ +berechnet mit Gauss-Quadratur und der Trapezregel, aber mit zehnmal +so vielen Stützstellen. +Bereits mit 12 Stützstellen erreicht die Gauss-Quadratur +Maschinengenauigkeit, die Trapezregel liefert auch mit 200 Stützstellen +nicht mehr als 4 korrekte Nachkommastellen. +\label{buch:integral:gaussquadratur:table0.5}} +\end{table} + +%\begin{table} +%\def\u#1{\underline{#1}} +%\centering +%\begin{tabular}{|>{$}c<{$}|>{$}r<{$}|>{$}r<{$}|} +%\hline +% n & \text{Gauss-Quadratur} & \text{Trapezregel} \\ +%\hline +%\phantom{0}2 & 1.\u{5}379206741571556 & 1.\u{5}093105464758343 \\ +%\phantom{0}4 & 1.\u{51}32373472933831 & 1.\u{51}13754509594814 \\ +%\phantom{0}6 & 1.\u{512}1624557410367 & 1.\u{51}17610879524799 \\ +%\phantom{0}8 & 1.\u{51207}93479994321 & 1.\u{51}18963282632112 \\ +% 10 & 1.\u{51207}13859966004 & 1.\u{51}19589735776959 \\ +% 12 & 1.\u{512070}5317779943 & 1.\u{51}19930161260693 \\ +% 14 & 1.\u{5120704}334802813 & 1.\u{5120}135471596636 \\ +% 16 & 1.\u{5120704}216176006 & 1.\u{5120}268743889558 \\ +% 18 & 1.\u{5120704}201359081 & 1.\u{5120}360123137213 \\ +% 20 & 1.\u{5120704199}459651 & 1.\u{5120}425490275837 \\ +%\hline +% \infty & 1.5120704199172947 & 1.5120704199172947 \\ +%\hline +%\end{tabular} +%\end{table} + +%\begin{table} +%\def\u#1{\underline{#1}} +%\centering +%\begin{tabular}{|>{$}c<{$}|>{$}r<{$}|>{$}r<{$}|} +%\hline +% n & \text{Gauss-Quadratur} & \text{Trapezregel} \\ +%\hline +%\phantom{0}2 & 1.\u{}6246862220133462 & 1.\u{5}597986803933712 \\ +%\phantom{0}4 & 1.\u{5}759105515463101 & 1.\u{56}63563456168101 \\ +%\phantom{0}6 & 1.\u{5}706630058381434 & 1.\u{56}77252866190838 \\ +%\phantom{0}8 & 1.\u{56}94851106536780 & 1.\u{568}2298707696152 \\ +% 10 & 1.\u{56}91283195332679 & 1.\u{568}4701957758742 \\ +% 12 & 1.\u{56}90013806299465 & 1.\u{568}6030805941198 \\ +% 14 & 1.\u{5689}515434853885 & 1.\u{568}6841603070025 \\ +% 16 & 1.\u{5689}306507843050 & 1.\u{568}7372230731711 \\ +% 18 & 1.\u{5689}214761291217 & 1.\u{568}7738235496322 \\ +% 20 & 1.\u{56891}73062385982 & 1.\u{568}8001228530786 \\ +%\hline +% \infty & 1.5689135396691616 & 1.5689135396691616 \\ +%\hline +%\end{tabular} +%\end{table} + +\begin{table} +\def\u#1{\underline{#1}} +\centering +\begin{tabular}{|>{$}c<{$}|>{$}r<{$}|>{$}r<{$}|} +\hline + n & \text{Gauss-Quadratur} & \text{Trapezregel} \\ +\hline +\phantom{0}2 & 1.\u{}6321752373234928 & 1.\u{5}561048774629949 \\ +\phantom{0}4 & 1.\u{57}98691557134743 & 1.\u{5}660124134617943 \\ +\phantom{0}6 & 1.\u{57}35853681692993 & 1.\u{5}683353001877542 \\ +\phantom{0}8 & 1.\u{57}19413565928206 & 1.\u{5}692627503425400 \\ + 10 & 1.\u{57}13388119633434 & 1.\u{5}697323578543481 \\ + 12 & 1.\u{57}10710489948883 & 1.\u{570}0051217458713 \\ + 14 & 1.\u{570}9362135398341 & 1.\u{570}1784766276063 \\ + 16 & 1.\u{570}8621102742815 & 1.\u{570}2959121005231 \\ + 18 & 1.\u{570}8186779483588 & 1.\u{570}3793521168343 \\ + 20 & 1.\u{5707}919411931615 & 1.\u{570}4408749735932 \\ +\hline + \infty & 1.5707367072605671 & 1.5707367072605671 \\ +\hline +\end{tabular} +\caption{Integral von $\sqrt{1-x^2}$ zwischen $-0.999$ und $0.999$ +berechnet mit Gauss-Quadratur und der Trapezregel, aber mit zehnmal +so vielen Stützstellen. +Wegen der divergierenden Steigung des Integranden bei $\pm 1$ tun +sich beide Verfahren sehr schwer. +Trotzdem erreich die Gauss-Quadrator 4 korrekte Nachkommastellen +mit 20 Stütztstellen, während die Trapezregel auch mit 200 Stützstellen +nur 3 korrekte Nachkommastellen findet. +\label{buch:integral:gaussquadratur:table0.999}} +\end{table} + +\begin{figure} +\centering +\includegraphics{chapters/060-integral/gq/gq.pdf} +\caption{Approximationsfehler des +Integrals~\eqref{buch:integral:gaussquadratur:bspintegral} +in Abhängigkeit von $a$. +Die Divergenz der Ableitung des Integranden an den Intervallenden +$\pm 1$ führt zu schlechter Konvergenz des Verfahrens, wenn $a$ +nahe an $1$ ist. +\label{buch:integral:gaussquadratur:fehler}} +\end{figure} + +Zur Illustration der Genauigkeit der Gauss-Quadratur berechnen wir +das Integral +\begin{equation} +\int_{-a}^a \sqrt{1-x^2}\,dx += +\arcsin a + a \sqrt{1-a^2} +\label{buch:integral:gaussquadratur:bspintegral} +\end{equation} +mit Gauss-Quadratur einerseits und dem Trapezverfahren +andererseits. +Da Gauss-Quadratur mit sehr viel weniger Sützstellen auskommt, +berechnen wir die Trapeznäherung mit zehnmal so vielen Stützstelln. +In den Tabellen~\ref{buch:integral:gaussquadratur:table0.5} +und +\ref{buch:integral:gaussquadratur:table0.999} +sind die Resultate zusammengestellt. +Für $a =\frac12$ zeigt +Tabelle~\ref{buch:integral:gaussquadratur:table0.5} +die sehr schnelle Konvergenz der Gauss-Quadratur, schon mit +12 Stützstellen wird Maschinengenauigkeit erreicht. +Das Trapezverfahren dagegen erreicht auch mit 200 Stützstellen nur +4 korrekte Nachkommastellen. + +An den Stellen $x=\pm 1$ divergiert die Ableitung des Integranden +des Integrals \eqref{buch:integral:gaussquadratur:bspintegral}. +Da grösste und kleinste Stützstelle der Gauss-Quadratur immer +deutlich vom Rand des Intervalls entfernt ist, kann das Verfahren +diese ``schwierigen'' Stellen nicht erkennen. +Tabelle~\ref{buch:integral:gaussquadratur:table0.999} zeigt, wie +die Konvergenz des Verfahrens in diesem Fall sehr viel schlechter ist. +Dies zeigt auch der Graph in +Abbildung~\ref{buch:integral:gaussquadratur:fehler}. + +\subsection{Skalarprodukte mit Gewichtsfunktion} + diff --git a/buch/chapters/070-orthogonalitaet/images/Makefile b/buch/chapters/070-orthogonalitaet/images/Makefile new file mode 100644 index 0000000..e3a988a --- /dev/null +++ b/buch/chapters/070-orthogonalitaet/images/Makefile @@ -0,0 +1,14 @@ +# +# Makefile -- Bilder zum Kapitel über durch Integrale definierte spezielle +# Funktionen +# +# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +# +all: legendre.pdf orthogonal.pdf + +legendrepaths.tex: legendre.m + octave legendre.m +legendre.pdf: legendre.tex legendrepaths.tex + pdflatex legendre.tex +orthogonal.pdf: orthogonal.tex legendrepaths.tex + pdflatex orthogonal.tex diff --git a/buch/chapters/070-orthogonalitaet/images/legendre.m b/buch/chapters/070-orthogonalitaet/images/legendre.m new file mode 100644 index 0000000..8e8317d --- /dev/null +++ b/buch/chapters/070-orthogonalitaet/images/legendre.m @@ -0,0 +1,64 @@ +# +# legendre.m +# +# (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +# +pkg load miscellaneous +global N; +N = 30; + +function retval = legendrepath(fn, n, name) + global N; + m = n * N; + c = legendrepoly(n) + x = (-m:m)/m; + v = polyval(c, x); + fprintf(fn, "\\def\\legendre%s{\n", name) + fprintf(fn, "\t ({%.5f*\\dx},{%.5f*\\dy})", x(1), v(1)); + for i = (2:length(v)) + fprintf(fn, "\n\t-- ({%.5f*\\dx},{%.5f*\\dy})", x(i), v(i)); + + endfor + fprintf(fn, "\n}\n"); + ci = polyint(conv(c, c)) +polyval(ci, 1) + normalization = sqrt(polyval(ci, 1) - polyval(ci, -1)) + fprintf(fn, "\\def\\normalization%s{%.5f}\n", name, normalization); +endfunction + +function retval = legendreprodukt(fn, a, b, name) + global N; + n = max(a, b); + m = n * N; + pa = legendrepoly(a); + pb = legendrepoly(b); + p = conv(pa, pb); + x = (-m:m)/m; + v = polyval(p, x); + fprintf(fn, "\\def\\produkt%s{\n", name) + fprintf(fn, "\t ({%.5f*\\dx},{%.5f*\\dy})", x(1), v(1)); + for i = (2:length(v)) + fprintf(fn, "\n\t-- ({%.5f*\\dx},{%.5f*\\dy})", x(i), v(i)); + endfor + fprintf(fn, "\n}\n"); +endfunction + +fn = fopen("legendrepaths.tex", "w"); +legendrepath(fn, 1, "one"); +legendrepath(fn, 2, "two"); +legendrepath(fn, 3, "three"); +legendrepath(fn, 4, "four"); +legendrepath(fn, 5, "five"); +legendrepath(fn, 6, "six"); +legendrepath(fn, 7, "seven"); +legendrepath(fn, 8, "eight"); +legendrepath(fn, 9, "nine"); +legendrepath(fn, 10, "ten"); + +legendreprodukt(fn, 4, 7, "ortho"); +legendreprodukt(fn, 4, 4, "vier"); +legendreprodukt(fn, 7, 7, "sieben"); + +fclose(fn); + + diff --git a/buch/chapters/070-orthogonalitaet/images/legendre.pdf b/buch/chapters/070-orthogonalitaet/images/legendre.pdf new file mode 100644 index 0000000..a893c26 Binary files /dev/null and b/buch/chapters/070-orthogonalitaet/images/legendre.pdf differ diff --git a/buch/chapters/070-orthogonalitaet/images/legendre.tex b/buch/chapters/070-orthogonalitaet/images/legendre.tex new file mode 100644 index 0000000..8409da0 --- /dev/null +++ b/buch/chapters/070-orthogonalitaet/images/legendre.tex @@ -0,0 +1,99 @@ +% +% legendre.tex -- plots of legendre polynomials +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\documentclass[tikz]{standalone} +\usepackage{amsmath} +\usepackage{times} +\usepackage{txfonts} +\usepackage{pgfplots} +\usepackage{csvsimple} +\usetikzlibrary{arrows,intersections,math} +\begin{document} +\def\skala{6.5} +\input{legendrepaths.tex} +\begin{tikzpicture}[>=latex,thick,scale=\skala] + +\definecolor{fone}{rgb}{1,0,0} +\definecolor{ftwo}{rgb}{1.0,0,0.8} +\definecolor{fthree}{rgb}{0.8,0,1} +\definecolor{ffour}{rgb}{0,0,1} +\definecolor{ffive}{rgb}{0,0.8,1} +\definecolor{fsix}{rgb}{0,1,1} +\definecolor{fseven}{rgb}{0,0.6,0} +\definecolor{feight}{rgb}{0.2,1,0.6} +\definecolor{fnine}{rgb}{0.6,0.8,0.2} +\definecolor{ften}{rgb}{1,0.4,0} + +\def\dx{1} +\def\dy{0.25} + +\def\achsen{ + \draw[->] ({-1-(0.1/\skala)},0) -- ({1+(0.3/\skala)},0) + coordinate[label={$x$}]; + \draw[->] (0,{-(\dy)-(0.1/\skala)}) -- (0,{(\dy)+(0.3/\skala)}) + coordinate[label={right:$y$}]; + \foreach \x in {-1,-0.9,...,1.001}{ + \draw ({\dx*\x},{-0.05/\skala}) -- ({\dx*\x},{0.05/\skala}); + } + \foreach \x in {-1,-0.5,0.5,1}{ + \draw ({-0.05/\skala},{\dy*\x}) -- ({0.05/\skala},{\dy*\x}); + \node at ({\dx*\x},{-0.05/\skala}) [below] {$\mathstrut\x$}; + \node at ({-0.05/\skala},{\dy*\x}) [left] {$\mathstrut\x$}; + } +} + +\begin{scope}[yshift=0cm] + \node[color=fone] at (-0.70,{-0.9*\dy}) [right] {$n=1\mathstrut$}; + \node[color=ftwo] at (-0.90,{0.9*\dy}) [right] {$n=2\mathstrut$}; + \draw[line width=1.4pt,color=fone] \legendreone; + \draw[line width=1.4pt,color=ftwo] \legendretwo; + \achsen +\end{scope} + +\begin{scope}[yshift=-0.6cm] + \node[color=fthree] at (-0.96,{-0.9*\dy}) [right] {$n=3\mathstrut$}; + \node[color=ffour] at (-0.96,{0.9*\dy}) [right] {$n=4\mathstrut$}; + \draw[line width=1.4pt,color=fthree] \legendrethree; + \draw[line width=1.4pt,color=ffour] \legendrefour; + \achsen +\end{scope} + +\begin{scope}[yshift=-1.2cm] + \node[color=ffive] at (-0.96,{-0.9*\dy}) [right] {$n=5\mathstrut$}; + \node[color=fsix] at (-0.96,{0.9*\dy}) [right] {$n=6\mathstrut$}; + \draw[line width=1.4pt,color=ffive] \legendrefive; + \draw[line width=1.4pt,color=fsix] \legendresix; + \achsen +\end{scope} + +\begin{scope}[yshift=-1.8cm] + \node[color=fseven] at (-0.96,{-0.9*\dy}) [right] {$n=7\mathstrut$}; + \node[color=feight] at (-0.96,{0.9*\dy}) [right] {$n=8\mathstrut$}; + \draw[line width=1.4pt,color=fseven] \legendreseven; + \draw[line width=1.4pt,color=feight] \legendreeight; + \achsen +\end{scope} + +\begin{scope}[yshift=-2.4cm] + \node[color=fnine] at (-0.96,{-0.9*\dy}) [right] {$n=9\mathstrut$}; + \node[color=ften] at (-0.96,{0.9*\dy}) [right] {$n=10\mathstrut$}; + \draw[line width=1.4pt,color=fnine] \legendrenine; + \draw[line width=1.4pt,color=ften] \legendreten; + \achsen +\end{scope} + +%\draw[line width=1.4pt,color=ftwo] \legendretwo; +%\draw[line width=1.4pt,color=fthree] \legendrethree; +%\draw[line width=1.4pt,color=ffour] \legendrefour; +%\draw[line width=1.4pt,color=ffive] \legendrefive; +%\draw[line width=1.4pt,color=fsix] \legendresix; +%\draw[line width=1.4pt,color=fseven] \legendreseven; +%\draw[line width=1.4pt,color=feight] \legendreeight; +%\draw[line width=1.4pt,color=fnine] \legendrenine; +%\draw[line width=1.4pt,color=ften] \legendreten; + +\end{tikzpicture} +\end{document} + diff --git a/buch/chapters/070-orthogonalitaet/images/orthogonal.pdf b/buch/chapters/070-orthogonalitaet/images/orthogonal.pdf new file mode 100644 index 0000000..960c4ff Binary files /dev/null and b/buch/chapters/070-orthogonalitaet/images/orthogonal.pdf differ diff --git a/buch/chapters/070-orthogonalitaet/images/orthogonal.tex b/buch/chapters/070-orthogonalitaet/images/orthogonal.tex new file mode 100644 index 0000000..8600281 --- /dev/null +++ b/buch/chapters/070-orthogonalitaet/images/orthogonal.tex @@ -0,0 +1,79 @@ +% +% orthogonal.tex -- plots of legendre polynomials +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\documentclass[tikz]{standalone} +\usepackage{amsmath} +\usepackage{times} +\usepackage{txfonts} +\usepackage{pgfplots} +\usepackage{csvsimple} +\usetikzlibrary{arrows,intersections,math} +\begin{document} +\def\skala{6} +\input{legendrepaths.tex} +\begin{tikzpicture}[>=latex,thick,scale=\skala] + +\definecolor{fone}{rgb}{1,0,0} +\definecolor{ftwo}{rgb}{1.0,0,0.8} +\definecolor{fthree}{rgb}{0.8,0,1} +\definecolor{ffour}{rgb}{0,0,1} +\definecolor{ffive}{rgb}{0,0.8,1} +\definecolor{fsix}{rgb}{0,1,1} +\definecolor{fseven}{rgb}{0,0.6,0} +\definecolor{feight}{rgb}{0.2,1,0.6} +\definecolor{fnine}{rgb}{0.6,0.8,0.2} +\definecolor{ften}{rgb}{1,0.4,0} + +\def\dx{1} +\def\Dy{3} +\def\dy{3} + +\begin{scope} +\clip (-1,-0.6) rectangle (1,1); + +%\pgfmathparse{\Dy/(\normalizationfour*\normalizationfour)} +%\xdef\dy{\pgfmathresult} +\fill[color=ffour!70,opacity=0.5] (-1,0) -- \produktvier -- (1,0) -- cycle; + +%\pgfmathparse{\Dy/(\normalizationeight*\normalizationeight)} +%\xdef\dy{\pgfmathresult} +\fill[color=fseven!70,opacity=0.5] (-1,0) -- \produktsieben -- (1,0) -- cycle; + +%\pgfmathparse{\Dy/(\normalizationfour*\normalizationeight)} +%\xdef\dy{\pgfmathresult} +\fill[color=red!50,opacity=0.5] (-1,0) -- \produktortho -- (1,0) -- cycle; + +%\pgfmathparse{\Dy/\normalizationfour} +%\xdef\dy{\pgfmathresult} +%\draw[line width=1.4pt,color=ffour] \legendrefour; +% +%\pgfmathparse{\Dy/\normalizationeight} +%\xdef\dy{\pgfmathresult} +%\draw[line width=1.4pt,color=feight] \legendreeight; + +%\pgfmathparse{\Dy/(\normalizationfour*\normalizationeight)} +%\xdef\dy{\pgfmathresult} +\draw[line width=1.4pt,color=red] \produktortho; + +\end{scope} + +\draw[->] ({-1-(0.1/\skala)},0) -- ({1+(0.3/\skala)},0) + coordinate[label={$x$}]; +\draw[->] (0,{-{0.2*\Dy}-(0.1/\skala)}) -- (0,{1+(0.3/\skala)}) + coordinate[label={right:$y$}]; +\foreach \x in {-1,-0.9,...,1.001}{ + \draw ({\dx*\x},{-0.1/\skala}) -- ({\dx*\x},{0.1/\skala}); +} +\foreach \y in {-0.2,-0.1,0.1,0.2,0.3}{ + \draw ({-0.1/\skala},{\Dy*\y}) -- ({0.1/\skala},{\Dy*\y}); + \node at ({-0.1/\skala},{\Dy*\y}) [left] {$\mathstrut\y$}; +} +\foreach \x in {-1,-0.5,0.5,1}{ + \node at ({\dx*\x},{-0.1/\skala}) [below] {$\mathstrut\x$}; +} + +\end{tikzpicture} +\end{document} + diff --git a/buch/chapters/070-orthogonalitaet/jacobi.tex b/buch/chapters/070-orthogonalitaet/jacobi.tex new file mode 100644 index 0000000..fb7d5ff --- /dev/null +++ b/buch/chapters/070-orthogonalitaet/jacobi.tex @@ -0,0 +1,9 @@ +% +% jacobi.tex +% +% (c) 2022 Prof Dr Andreas Müller, OST Ostsdchweizer Fachhochschule +% +\section{Jacobi-Polynome +\label{buch:integrale:subsection:jacobi-polynome}} +\rhead{Jacobi-Polynome} + diff --git a/buch/chapters/070-orthogonalitaet/legendredgl.tex b/buch/chapters/070-orthogonalitaet/legendredgl.tex new file mode 100644 index 0000000..12555b8 --- /dev/null +++ b/buch/chapters/070-orthogonalitaet/legendredgl.tex @@ -0,0 +1,369 @@ +% +% legendredgl.tex +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\section{Orthogonale Polynome und Differentialgleichungen} +\rhead{Differentialgleichungen orthogonaler Polynome} +Legendre hat einen ganz anderen Zugang zu den nach ihm benannten +Polynomen gefunden. +Er hat sie gefunden als die Lösungen einer speziellen Differentialgleichungen. +In diesem Abschnitt sollen diese Funktionen mit der Potenzreihen-Methode +wiedergefunden werden. +Dabei stellt sich heraus, dass diese Polynome auch Eigenfunktionen eines +selbstadjungierten Differentialgoperator sind. +Die Orthogonalität wird dann aus einer Verallgemeinerung der bekannten +Eingeschaft folgen, dass Eigenvektoren einer symmetrischen Matrix zu +verschiedenen Eigenwerten orthogonal sind. + +\subsection{Legendre-Differentialgleichung} +Die {\em Legendre-Differentialgleichung} ist die Differentialgleichung +\begin{equation} +(1-x^2) y'' - 2x y' + n(n+1) y = 0 +\label{buch:integral:eqn:legendre-differentialgleichung} +\end{equation} +für eine Funktion $y(x)$ auf dem Intervall $[-1,1]$. + +Sei $y(x)$ eine Lösung der Differentialgleichung +\eqref{buch:integral:eqn:legendre-differentialgleichung}. +Setzt man $y_s(x)=y(-x)$ in die Differentialgleichung ein, erhält +man +\[ +(1-x^2)y_s''(x) - 2x y'_s(x) + n(n+1)y_s(x) += +(1-x^2)y''(-x) +2x y(-x) +n(n+1)y(-x). +\] +Ersetzt man $t=-x$, dann wird daraus +\[ +(1-x^2)y''(t) -2t y(t) + n(n+1) y(t) = 0 +\] +aus der Differentialgleichung +\eqref{buch:integral:eqn:legendre-differentialgleichung}. +Insbesondere ist die gespiegelte Funktion $y_s(x)$ ebenfalls +eine Lösung der Differentialgleichung. + +Ist $y(x)$ eine Lösung der Differentialgleichung ist, dann lässt +sie sich in die Summe einer geraden und einer ungeraden Funktion +\[ +\left. +\begin{aligned} +y_g(x) &= \frac{y(x)+y(-x)}{2}\\ +y_u(x) &= \frac{y(x)-y(-x)}{2} +\end{aligned} +\quad +\right\} +\quad +\Rightarrow +\quad +y(x) = y_g(x) + y_u(x) +\] +zerlegen, die als Linearkombinationen der beiden Lösungen +$y(x)$ und $y_s(x)$ ebenfalls Lösungen der Differentialgleichung +sind. + +\subsection{Potenzreihenlösung} +Wir suchen eine Lösung in Form einer Potenzreihe um $x=0$ und +verwenden dazu den Ansatz +\[ +y(x) = a_0+a_1x+a_2x^2+ \dots = \sum_{k=0}^\infty a_kx^k. +\] +\begin{align*} +(1-x^2) \sum_{k=2}^\infty k(k-1)a_kx^{k-2} +-2x\sum_{k=0}^\infty ka_kx^{k-1} ++ +n(n+1)\sum_{k=0}^\infty a_kx^k +&= +0 +\\ +\sum_{k=0}^\infty (k+2)(k+1)a_{k+2}x^k +- +\sum_{k=2}^\infty k(k-1)a_kx^k +- +2\sum_{k=1}^\infty ka_kx^k ++ +n(n+1)\sum_{k=0}^\infty a_kx^k +&= +0 +\end{align*} +Die Koeffizienten zur Potenz $k$ sind daher +\begin{align} +k&=0: +& +0&= +2a_2+n(n+1)a_0 +\notag +\\ +&& +a_2&=-\frac{n(n+1)}{2}a_0 +\notag +\\ +k&=1: +& +0&= +6a_3-2a_1+n(n+1)a_1 +\notag +\\ +&& +a_3&= \frac{2-n(n+1)}{6}a_1 +\notag +\\ +k&>1: +& +0&= +(k+2)(k+1)a_{k+2} -k(k-1)a_k -2ka_k +n(n+1) a_k +\notag +\\ +&& +a_{k+2} +&= +\frac{ k(k+1)-n(n+1) }{(k+2)(k+1)} +a_k +\label{buch:integral:legendre-dgl:eqn:akrek} +\end{align} +Wenn $a_1=0$ und $a_0\ne 1$ ist, dann ist die Funktion $y(x)$ gerade, +alle ungeraden Koeffizienten verschwinden. +Ebenso verschwinden alle geraden Koeffizienten, wenn $a_0=0$ und $a_1\ne 0$. +Für jede Lösung $y(x)$ der Differentialgleichung ist +$y_g(x)$ ein Lösung mit $a_1=0$ und $y_u(x)$ eine Lösung mit $a_0=0$. +Wir können die Diskussion der Lösungen daher auf gerade oder ungerade +Lösungen einschränken. + +Gesucht ist jetzt eine Lösung in Form eines Polynoms. +In diesem Fall müssen die Koeffizienten $a_k$ ab einem +gewissen Index verschwinden. +Dies tritt nach \eqref{buch:integral:legendre-dgl:eqn:akrek} genau +dann auf, wenn der Zähler für ein $k$ verschwindet. +Folglich gibt es genau dann Polynomlösungen der Differentialgleichungen, +wenn $n$ eine natürlich Zahl ist. +Ausserdem ist die Lösung ein Polynom $\bar{P}_n(x)$ vom Grad $n$. +Das Polynom soll wieder so normiert sein, dass $\bar{P}_n(1)=1$ ist. + +Die Lösungen der Differentialgleichungen können jetzt explizit +berechnet werden. +Zunächst ist $\bar{P}_0(x)=1$ und $\bar{P}_1(x)=x$. +Für $n=2$ setzen wir zunächst $a_0=1$ und $a_1=0$ und erhalten +\[ +y(x) += +1 + \frac{0(0+1) - 2(2+1)}{(0+2)(0+1)}a_0 x^2 += +1 +-3x^2 +\qquad\text{oder}\qquad +\bar{P}_3(x) = \frac12(3x^2-1). +\] +Für $n=3$ starten wir von $a_1=1$ und $a_0=0$, was zunächst $a_2=0$ +impliziert. +Für $a_3$ finden wir +\[ +a_3=\frac{1(1+1)-3(3+1)}{(1+2)(1+1)} = -\frac53 +\qquad\Rightarrow\qquad +y(x) = x-\frac53x^3 +\qquad\Rightarrow\qquad +\bar{P}_3(x) = \frac12(5x^3-3x). +\] +Dies stimmt überein mit den früher gefundenen Ausdrücken für +die Legendre-Polynome. + +Die Potenzreihenlösung zeigt zwar, dass es für jedes $n\in\mathbb{N}$ +eine Polynomlösung $\bar{P}_n(x)$ vom Grad $n$ gibt. +Dies kann aber nicht erklären, warum die so gefundenen Polynome +orthogonal sind. + +\subsection{Eigenfunktionen} +Die Differentialgleichung +\eqref{buch:integral:eqn:legendre-differentialgleichung} +Kann mit dem Differentialoperator +\[ +D = \frac{d}{dx}(1-x^2)\frac{d}{dx} +\] +als +\[ +Dy + n(n+1)y = 0 +\] +geschrieben werden. +Tatsächlich ist +\[ +Dy += +\frac{d}{dx} (1-x^2) \frac{d}{dy} += +\frac{d}{dx} (1-x^2)y' += +(1-x^2)y'' -2x y'. +\] +Dies bedeutet, dass die Lösungen $\bar{P}_n(x)$ Eigenfunktionen +des Operators $D$ zum Eigenwert $n(n+1)$ sind: +\[ +D\bar{P}_n = -n(n+1) \bar{P}_n. +\] + +\subsection{Orthogonalität von $\bar{P}_n$ als Eigenfunktionen} +Ein Operator $A$ auf Funktionen heisst {\em selbstadjungiert}, wenn +für zwei beliebige Funktionen $f$ und $g$ gilt +\[ +\langle Af,g\rangle = \langle f,Ag\rangle +\] +gilt. +Im vorliegenden Zusammenhang möchten wir die Eigenschaft nutzen, +dass Eigenfunktionen eines selbstadjungierten Operatores zu verschiedenen +Eigenwerten orthogonal sind. +Dazu seien $Df = \lambda f$ und $Dg=\mu g$ und wir rechnen +\begin{equation} +\renewcommand{\arraycolsep}{2pt} +\begin{array}{rcccrl} +\langle Df,g\rangle &=& \langle \lambda f,g\rangle &=& \lambda\phantom{)}\langle f,g\rangle +&\multirow{2}{*}{\hspace{3pt}$\biggl\}\mathstrut-\mathstrut$}\\ +=\langle f,Dg\rangle &=& \langle f,\mu g\rangle &=& \mu\phantom{)}\langle f,g\rangle& +\\[2pt] +\hline + 0 & & &=& (\lambda-\mu)\langle f,g\rangle& +\end{array} +\label{buch:integrale:eqn:eigenwertesenkrecht} +\end{equation} +Da $\lambda-\mu\ne 0$ ist, muss $\langle f,g\rangle=0$ sein. + +Der Operator $D$ ist selbstadjungiert, d.~h. +für zwei beliebige zweimal stetig differenzierbare Funktion $f$ und $g$ +auf dem Intervall $[-1,1]$ gilt +\begin{align*} +\langle Df,g\rangle +&= +\int_{-1}^1 (Df)(x) g(x) \,dx +\\ +&= +\int_{-1}^1 +\biggl(\frac{d}{dx} (1-x^2)\frac{d}{dx}f(x)\biggr) g(x) +\,dx +\\ +&= +\underbrace{ +\biggl[ +\biggl((1-x^2)\frac{d}{dx}f(x)\biggr) g(x) +\biggr]_{-1}^1 +}_{\displaystyle = 0} +- +\int_{-1}^1 +\biggl((1-x^2)\frac{d}{dx}f(x)\biggr) \frac{d}{dx}g(x) +\,dx +\\ +&= +- +\int_{-1}^1 +\biggl(\frac{d}{dx}f(x)\biggr) \biggl((1-x^2)\frac{d}{dx}g(x)\biggr) +\,dx +\\ +&= +- +\underbrace{ +\biggl[ +f(x) \biggl((1-x^2)\frac{d}{dx}g(x)\biggr) +\biggr]_{-1}^1}_{\displaystyle = 0} ++ +\int_{-1}^1 +f(x) \biggl(\frac{d}{dx}(1-x^2)\frac{d}{dx}g(x)\biggr) +\,dx +\\ +&= +\langle f,Dg\rangle. +\end{align*} +Dies beweist, dass $D$ selbstadjungiert ist. +Da $\bar{P}_n$ Eigenwerte des selbstadjungierten Operators $D$ zu +den verschiedenen Eigenwerten $-n(n+1)$ sind, folgt auch, dass +die $\bar{P}_n$ orthogonale Polynome vom Grad $n$ sind, die die +gleiche Standardierdisierungsbedingung wie die Legendre-Polyonome +erfüllen, also ist $\bar{P}_n(x)=P_n(x)$. + +\subsection{Legendre-Funktionen zweiter Art} +%Siehe Wikipedia-Artikel \url{https://de.wikipedia.org/wiki/Legendre-Polynom} +% +Die Potenzreihenmethode liefert natürlich auch Lösungen der +Legendreschen Differentialgleichung, die sich nicht als Polynome +darstellen lassen. +Ist $n$ gerade, dann liefern die Anfangswerte $a_0=0$ und $a_1=1$ +eine ungerade Funktion, die Folge der Koeffizienten bricht +aber nicht ab, vielmehr ist +\begin{align*} +a_{k+2} +&= +\frac{k(k+1)}{(k+1)(k+2)}a_k += +\frac{k}{k+2}a_k. +\end{align*} +Durch wiederholte Anwendung dieser Rekursionsformel findet man +\[ +a_{k} += +\frac{k-2}{k}a_{k-2} += +\frac{k-2}{k}\frac{k-4}{k-2}a_{k-4} += +\frac{k-2}{k}\frac{k-4}{k-2}\frac{k-6}{k-4}a_{k-6} += +\dots += +\frac{1}{k}a_1. +\] +Die Lösung hat daher die Reihenentwicklung +\[ +Q_0(x) = x+\frac13x^3 + \frac15x^5 + \frac17x^7+\dots += +\frac12\log \frac{1+x}{1-x} += +\operatorname{artanh}x. +\] +Die Funktion $Q_0(x)$ heisst {\em Legendre-Funktion zweiter Art}. + +Für $n=1$ wird die Reihenentwicklung $a_0=1$ und $a_1=0$ etwas +interessanter. +Die Rekursionsformel für die Koeffizienten ist +\[ +a_{k+2} += +\frac{k(k+1)-2}{(k+1)(k+2)} a_k. +\qquad\text{oder}\qquad +a_k += +\frac{(k-1)(k-2)-2}{k(k-1)} +a_{k-2} +\] +Man erhält der Reihe nach +\begin{align*} +a_2 &= \frac{-2}{2\cdot 1} a_0 = -1 +\\ +a_3 &= 0 +\\ +a_4 &= \frac{3\cdot 2-2}{4\cdot 3} a_2 = \frac{4}{4\cdot 3}a_2 = \frac13a_2 = -\frac13 +\\ +a_5 &= 0 +\\ +a_6 &= \frac{5\cdot 4-2}{6\cdot 5}a_4 = \frac{18}{6\cdot 5}a_4 = -\frac15 +\\ +a_7 &= 0 +\\ +a_8 &= \frac{7\cdot 6-2}{8\cdot 7}a_6 = \frac{40}{8\cdot 7} = -\frac17 +\\ +a_9 &= 0 +\\ +a_{10} &= \frac{9\cdot 8-2}{10\cdot 9}a_8 = \frac{70}{10\cdot 9} = -\frac19, +\end{align*} +woraus sich die Reihenentwicklung +\begin{align*} +y(x) +&= +-x^2 -\frac13x^4 -\frac15x^6 - \frac17x^8 -\frac19x^{10}-\dots +\\ +&= +-x\biggl(x+\frac13x^3 + \frac15x^5 + \frac17x^7 + \frac19x^9+\dots\biggr) += +-x\operatorname{artanh}x. +\end{align*} +Die {\em Legendre-Funktionen zweiter Art} $Q_n(x)$ werden allerdings +so definiert, dass gewisse Rekursionsformeln für die Legendre-Polynome, +die wir hier nicht hergeleitet haben, auch für die $Q_n(x)$ gelten. +In dieser Normierung muss statt des eben berechneten $y(x)$ die Funktion +\[ +Q_1(x) = x \operatorname{artanh}x-1 +\] +verwendet werden. + diff --git a/buch/chapters/070-orthogonalitaet/orthogonal.tex b/buch/chapters/070-orthogonalitaet/orthogonal.tex new file mode 100644 index 0000000..2b7bf41 --- /dev/null +++ b/buch/chapters/070-orthogonalitaet/orthogonal.tex @@ -0,0 +1,725 @@ +% +% orthogonal.tex +% +% (c) 2021 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\section{Orthogonale Funktionenfamilien +\label{buch:orthogonalitaet:section:orthogonale-funktionen}} +\rhead{Orthogonale Funktionenfamilien} +Die Fourier-Theorie basiert auf der Idee, Funktionen durch +Funktionenreihen mit Summanden zu bilden, die im Sinne eines +Skalarproduktes orthogonal sind, welches mit Hilfe eines Integrals +definiert sind. +Solche Funktionenfamilien treten jedoch auch als Lösungen von +Differentialgleichungen. +Besonders interessant wird die Situation, wenn die Funktionen +Polynome sind. + +% +% Skalarprodukt +% +\subsection{Skalarprodukt} +Der reelle Vektorraum $\mathbb{R}^n$ trägt das Skalarprodukt +\[ +\langle\;\,,\;\rangle +\colon +\mathbb{R}^n \times \mathbb{R}^n \to \mathbb{R} +: +(x,y)\mapsto \langle x, y\rangle = \sum_{k=1}^n x_iy_k, +\] +welches viele interessante Anwendungen ermöglicht. +Eine orthonormierte Basis macht es zum Beispiel besonders leicht, +eine Zerlegung eines Vektors in dieser Basis zu finden. +In diesem Abschnitt soll zunächst an die Eigenschaften erinnert +werden, die zu einem nützlichen + +\subsubsection{Eigenschaften eines Skalarproduktes} +Das Skalarprodukt erlaubt auch, die Länge eines Vektors $v$ +als $|v| = \sqrt{\langle v,v\rangle}$ zu definieren. +Dies funktioniert natürlich nur, wenn die Wurzel auch immer +definiert ist, d.~h.~das Skalarprodukt eines Vektors mit sich +selbst darf nicht negativ sein. +Dazu dient die folgende Definition. + +\begin{definition} +Sei $V$ ein reeller Vektorraum. +Eine bilineare Abbildung +\[ +\langle\;\,,\;\rangle +\colon +V\times V +\to +\mathbb{R} +: +(u,v) \mapsto \langle u,v\rangle. +\] +heisst {\em positiv definit}, wenn für alle Vektoren $v \in V$ mit +$v\ne 0 \Rightarrow \langle v,v\rangle > 0$ +Die {\em Norm} eines Vektors $v$ ist +$|v|=\sqrt{\langle v,v\rangle}$. +\end{definition} + +Damit man mit dem Skalarprodukt sinnvoll rechnen kann, ist ausserdem +erforderlich, dass es eine einfache Beziehung zwischen +$\langle x,y\rangle$ und $\langle y,x\rangle$ gibt. + +\begin{definition} +Ein {\em Skalarprodukt} auf einem reellen Vektorraum $V$ ist eine +positiv definite, symmetrische bilineare Abbildung +\[ +\langle\;\,,\;\rangle +\colon +V\times V +\to +\mathbb{R} +: +(u,v) \mapsto \langle u,v\rangle. +\] +\end{definition} + +Das Skalarprodukt $\langle u,v\rangle=u^tv$ auf dem Vektorraum +$\mathbb{R}^n$ erfüllt die Definition ganz offensichtlich, +sie führt auf die Komponentendarstellung +\[ +\langle u,v\rangle = u^tv = \sum_{k=1}^n u_iv_i. +\] +Weitere Skalarprodukte ergeben ergeben sich mit jeder symmetrischen, +positiv definiten Matrix $G$ und der Definition +$\langle u,v\rangle_G=u^tGv$. +Ein einfacher Spezialfall tritt auf, wenn $G$ eine Diagonalmatrix +$\operatorname{diag}(w_1,\dots,w_n)$ +mit positiven Einträgen $w_i>0$ auf der Diagonalen ist. +In diesem Fall schreiben wir +\[ +\langle u,v\rangle_w += +u^t\operatorname{diag}(w_1,\dots,w_n)v += +\sum_{k=1}^n u_iv_i\,w_i +\] +und nennen $\langle \;\,,\;\rangle_w$ das {\em gewichtete Skalarprodukt} +mit {\em Gewichten $w_i$}. + +\subsubsection{Skalarprodukte auf Funktionenräumen} +Das Integral ermöglicht jetzt, ein Skalarprodukt auf dem reellen +Vektorraum der stetigen Funktionen auf einem Intervall zu definieren. + +\begin{definition} +Sei $V$ der reelle Vektorraum $C([a,b])$ der reellwertigen, stetigen +Funktion auf dem Intervall $[a,b]$. +Dann ist +\[ +\langle\;\,,\;\rangle +\colon +C([a,b]) \times C([a,b]) \to \mathbb{R} +: +(f,g) \mapsto \langle f,g\rangle = \int_a^b f(x)g(x)\,dx. +\] +ein Skalarprodukt. +\end{definition} + +Die Definition ist offensichtlich symmetrisch in $f$ und $g$ und +aus den Eigenschaften des Integrals ist klar, dass das Produkt +bilinear ist: +\begin{align*} +\langle \lambda_1 f_1+\lambda_2f_2,g\rangle +&= +\int_a^b (\lambda_1f_(x) +\lambda_2f_2(x))g(x)\,dx += +\lambda_1\int_a^b f_1(x) g(x)\,dx ++ +\lambda_2\int_a^b f_2(x) g(x)\,dx +\\ +&= +\lambda_1\langle f_1,g\rangle ++ +\lambda_2\langle f_2,g\rangle. +\end{align*} +Ausserdem ist es positiv definit, denn wenn $f(x_0) \ne 0$ ist, +dann gibt es wegen der Stetigkeit von $f$ eine Umgebung +$U=[x_0-\varepsilon,x_0+\varepsilon]$, derart, dass $|f(x)| > \frac12|f(x_0)|$ +ist für alle $x\in U$. +Somit ist das Integral +\[ +\langle f,f\rangle += +\int_a^b |f(x)|^2\,dx +\ge +\int_{x_0-\varepsilon}^{x_0+\varepsilon} |f(x)|^2\,dx +\ge +\int_{x_0-\varepsilon}^{x_0+\varepsilon} \frac14|f(x_0)|^2\,dx += +\frac{1}{4}|f(x_0)|^2\cdot 2\varepsilon += +\frac{|f(x_0)|^2\varepsilon}{2} +>0, +\] +was beweist, dass $\langle\;,\;\rangle$ positiv definit und damit +ein Skalarprodukt ist. + +Die Definition kann noch etwas verallgemeinert werden, indem +die Funktionswerte nicht überall auf dem Definitionsbereich +gleich gewichtet werden. + +\begin{definition} +Sei $w\colon [a,b]\to \mathbb{R}^+$ eine positive, stetige Funktion, +dann ist +\[ +\langle\;\,,\;\rangle_w +\colon +C([a,b]) \times C([a,b]) \to \mathbb{R} +: +(f,g) \mapsto \langle f,g\rangle_w = \int_a^b f(x)g(x)\,w(x)\,dx. +\] +das {\em gewichtete Skalarprodukt} mit {\em Gewichtsfunktion $w(x)$}. +\end{definition} + +\subsubsection{Gram-Schmidt-Orthonormalisierung} +In einem reellen Vektorraum $V$ mit Skalarprodukt $\langle\;\,,\;\rangle$ +kann aus einer beleibigen Basis $b_1,\dots,b_n$ mit Hilfe des +Gram-Schmidtschen Orthogonalisierungsverfahrens immer eine +orthonormierte Basis $\tilde{b}_1,\dots,\tilde{b}_n$ Basis +gewonnen werden. +Es stellt sicher, dass für alle $k\le n$ gilt +\[ +\langle b_1,\dots,b_k\rangle += +\langle \tilde{b}_1,\dots,\tilde{b}_k\rangle. +\] +Zur Vereinfachung der Formeln schreiben wir $v^0=v/|v|$ für einen zu +$v$ parallelen Einheitsvektor. +Die Vektoren $\tilde{b}_i$ können mit Hilfe der Formeln +\begin{align*} +\tilde{b}_1 +&= +(b_1)^0 +\\ +\tilde{b}_2 +&= +\bigl( +b_2 +- +\langle \tilde{b}_1,b_2\rangle \tilde{b}_1 +\bigr)^0 +\\ +\tilde{b}_3 +&= +\bigl( +b_3 +- +\langle \tilde{b}_1,b_3\rangle \tilde{b}_1 +- +\langle \tilde{b}_2,b_3\rangle \tilde{b}_2 +\bigr)^0 +\\ +&\;\vdots +\\ +\tilde{b}_n +&= +\bigl( +b_n +- +\langle \tilde{b}_1,b_n\rangle \tilde{b}_1 +- +\langle \tilde{b}_2,b_n\rangle \tilde{b}_2 +-\dots +- +\langle \tilde{b}_{n-1},b_n\rangle \tilde{b}_{n-1} +\bigr)^0 +\end{align*} +iterativ berechnet werden. +Dieses Verfahren lässt sich auch auf Funktionenräume anwenden. + +Die Normierung ist nicht unbedingt nötig und manchmal unangenehm, +da die Norm unschöne Quadratwurzeln einführt. +Falls es genügt, eine orthogonale Basis zu finden, kann darauf +verzichtet werden, bei der Orthogonalisierung muss aber berücksichtigt +werden, dass die Vektoren $\tilde{b}_i$ jetzt nicht mehr Einheitslänge +haben. +Die Formeln +\begin{align*} +\tilde{b}_0 +&= +b_0 +\\ +\tilde{b}_1 +&= +b_1 +- +\frac{\langle b_1,\tilde{b}_0\rangle}{\langle \tilde{b}_0,\tilde{b}_0\rangle}\tilde{b}_0 +\\ +\tilde{b}_2 +&= +b_2 +- +\frac{\langle b_2,\tilde{b}_0\rangle}{\langle \tilde{b}_0,\tilde{b}_0\rangle}\tilde{b}_0 +- +\frac{\langle b_2,\tilde{b}_1\rangle}{\langle \tilde{b}_1,\tilde{b}_1\rangle}\tilde{b}_1 +\\ +&\;\vdots +\\ +\tilde{b}_n +&= +b_n +- +\frac{\langle b_n,\tilde{b}_0\rangle}{\langle \tilde{b}_0,\tilde{b}_0\rangle}\tilde{b}_0 +- +\frac{\langle b_n,\tilde{b}_1\rangle}{\langle \tilde{b}_1,\tilde{b}_1\rangle}\tilde{b}_1 +- +\dots +- +\frac{\langle b_n,\tilde{b}_{n-1}\rangle}{\langle \tilde{b}_{n-1},\tilde{b}_{n-1}\rangle}\tilde{b}_{n-1}. +\end{align*} +berücksichtigen dies. + +\subsubsection{Selbstadjungierte Operatoren und Eigenvektoren} +Symmetrische Matrizen spielen eine spezielle Rolle in der +endlichdimensionalen linearen Algebra, weil sie sich immer +mit einer orthonormierten Basis diagonalisieren lassen. +In der vorliegenden Situation undendlichdimensionaler Vektorräume +brauchen wir eine angepasste Definition. + +\begin{definition} +Eine lineare Selbstabbildung $A\colon V\to V$ +eines Vektorrraums mit Skalarprodukt +heisst {\em selbstadjungiert}, wenn für alle Vektoren $u,v\in V$ +heisst $\langle Au,v\rangle = \langle u,Av\rangle$. +\end{definition} + +Es ist wohlbekannt, dass Eigenvektoren einer symmetrischen Matrix +zu verschiedenen Eigenwerten orthogonal sind. +Der Beweis ist direkt übertragbar, wir halten das Resultat hier +für spätere Verwendung fest. + +\begin{satz} +Sind $f$ und $g$ Eigenvektoren eines selbstadjungierten Operators $A$ +zu verschiedenen Eigenwerten $\lambda$ und $\mu$, dann sind $f$ und $g$ +orthogonal. +\end{satz} + +\begin{proof}[Beweis] +Im vorliegenden Zusammenhang möchten wir die Eigenschaft nutzen, +dass Eigenfunktionen eines selbstadjungierten Operatores zu verschiedenen +Eigenwerten orthogonal sind. +Dazu seien $Df = \lambda f$ und $Dg=\mu g$ und wir rechnen +\begin{equation*} +\renewcommand{\arraycolsep}{2pt} +\begin{array}{rcccrl} +\langle Df,g\rangle &=& \langle \lambda f,g\rangle &=& \lambda\phantom{)}\langle f,g\rangle +&\multirow{2}{*}{\hspace{3pt}$\biggl\}\mathstrut-\mathstrut$}\\ +=\langle f,Dg\rangle &=& \langle f,\mu g\rangle &=& \mu\phantom{)}\langle f,g\rangle& +\\[2pt] +\hline + 0 & & &=& (\lambda-\mu)\langle f,g\rangle& +\end{array} +\end{equation*} +Da $\lambda-\mu\ne 0$ ist, muss $\langle f,g\rangle=0$ sein. +\end{proof} + +\begin{beispiel} +Sei $C^1([0,2\pi], \mathbb{C})=C^1(S^1,\mathbb{C})$ +der Vektorraum der $2\pi$-periodischen differenzierbaren Funktionen mit +dem Skalarprodukt +\[ +\langle f,g\rangle += +\frac{1}{2\pi}\int_0^{2\pi} \overline{f(t)}g(t)\,dt +\] +enthält die Funktionen $e_n(t) = e^{int}$. +Der Operator +\[ +D=i\frac{d}{dt} +\] +ist selbstadjungiert, denn mit Hilfe von partieller Integration erhält man +\[ +\langle Df,g\rangle += +\frac{1}{2\pi} +\int_0^{2\pi} +\underbrace{ +\overline{i\frac{df(t)}{dt}} +}_{\uparrow} +\underbrace{g(t)}_{\downarrow} +\,dt += +\underbrace{ +\frac{-i}{2\pi} +\biggl[ +\overline{f(t)}g(t) +\biggr]_0^{2\pi} +}_{\displaystyle=0} ++ +\frac{1}{2\pi} +\int_0^{2\pi} +\overline{f(t)}i\frac{dg(t)}{dt} +\,dt += +\langle f,Dg\rangle +\] +unter Ausnützung der $2\pi$-Periodizität der Funktionen. + +Die Funktionen $e_n(t)$ sind Eigenfunktionen des Operators $D$, denn +\[ +De_n(t) = i\frac{d}{dt}e^{int} = -n e^{int} = -n e_n(t). +\] +Nach obigem Satz sind die Eigenfunktionen von $D$ orthogonal. +\end{beispiel} + +Das Beispiel illustriert, dass orthogonale Funktionenfamilien +ein automatisches Nebenprodukt selbstadjungierter Operatoren sind. + +%% +%% Besselfunktionen also orthogonale Funktionenfamilie +%% +%\subsection{Bessel-Funktionen als orthogonale Funktionenfamilie} +%Auch die Besselfunktionen sind eine orthogonale Funktionenfamilie. +%Sie sind Funktionen differenzierbaren Funktionen $f(r)$ für $r>0$ +%mit $f'(r)=0$ und für $r\to\infty$ nimmt $f(r)$ so schnell ab, dass +%auch $rf(r)$ noch gegen $0$ strebt. +%Das Skalarprodukt ist +%\[ +%\langle f,g\rangle +%= +%\int_0^\infty r f(r) g(r)\,dr, +%\] +%als Operator verwenden wir +%\[ +%A = \frac{d^2}{dr^2} + \frac{1}{r}\frac{d}{dr} + s(r), +%\] +%wobei $s(r)$ eine beliebige integrierbare Funktion sein kann. +%Zunächst überprüfen wir, ob dieser Operator wirklich selbstadjungiert ist. +%Dazu rechnen wir +%\begin{align} +%\langle Af,g\rangle +%&= +%\int_0^\infty +%r\,\biggl(f''(r)+\frac1rf'(r)+s(r)f(r)\biggr) g(r) +%\,dr +%\notag +%\\ +%&= +%\int_0^\infty rf''(r)g(r)\,dr +%+ +%\int_0^\infty f'(r)g(r)\,dr +%+ +%\int_0^\infty s(r)f(r)g(r)\,dr. +%\notag +%\intertext{Der letzte Term ist symmetrisch in $f$ und $g$, daher +%ändern wir daran weiter nichts. +%Auf das erste Integral kann man partielle Integration anwenden und erhält} +%&= +%\biggl[rf'(r)g(r)\biggr]_0^\infty +%- +%\int_0^\infty f'(r)g(r) + rf'(r)g'(r)\,dr +%+ +%\int_0^\infty f'(r)g(r)\,dr +%+ +%\int_0^\infty s(r)f(r)g(r)\,dr. +%\notag +%\intertext{Der erste Term verschwindet wegen der Bedingungen an die +%Funktionen $f$ und $g$. +%Der erste Term im zweiten Integral hebt sich gegen das +%zweite Integral weg. +%Der letzte Term ist das Skalarprodukt von $f'$ und $g'$. +%Somit ergibt sich +%} +%&= +%-\langle f',g'\rangle +%+ +%\int_0^\infty s(r) f(r)g(r)\,dr. +%\label{buch:integrale:orthogonal:besselsa} +%\end{align} +%Vertauscht man die Rollen von $f$ und $g$, erhält man das Gleiche, da im +%letzten Ausdruck~\eqref{buch:integrale:orthogonal:besselsa} die Funktionen +%$f$ und $g$ symmetrische auftreten. +%Damit ist gezeigt, dass der Operator $A$ selbstadjungiert ist. +%Es folgt nun, dass Eigenvektoren des Operators $A$ automatisch +%orthogonal sind. +% +%Eigenfunktionen von $A$ sind aber Lösungen der Differentialgleichung +%\[ +%\begin{aligned} +%&& +%Af&=\lambda f +%\\ +%&\Rightarrow\qquad& +%f''(r) +\frac1rf'(r) + s(r)f(r) &= \lambda f(r) +%\\ +%&\Rightarrow\qquad& +%r^2f''(r) +rf'(r)+ (-\lambda r^2+s(r)r^2)f(r) &= 0 +%\end{aligned} +%\] +%sind. +% +%Durch die Wahl $s(r)=1$ wird der Operator $A$ zum Bessel-Operator +%$B$ definiert in +%\eqref{buch:differentialgleichungen:bessel-operator}. +%Die Lösungen der Besselschen Differentialgleichung zu verschiedenen Werten +%des Parameters müssen also orthogonal sein, insbesondere sind die +%Besselfunktion $J_\nu(r)$ und $J_\mu(r)$ orthogonal wenn $\mu\ne\nu$ ist. +% +% +% Orthogonale Polynome +% +\subsection{Orthogonale Polynome +\label{buch:integral:subsection:orthogonale-polynome}} +Die Polynome $1,x,x^2,\dots,x^n$ bilden eine Basis des Vektorraums +der Polynome vom Grad $\le n$. +Bezüglich des Skalarproduktes +\[ +\langle p,q\rangle += +\int_{-1}^1 p(x)q(x)\,dx +\] +sind sie jedoch nicht orthogonal, denn es ist +\[ +\langle x^i,x^j\rangle += +\int_{-1}^1 x^{i+j}\,dx += +\biggl[\frac{x^{i+j+1}}{i+j+1}\biggr]_{-1}^1 += +\begin{cases} +\displaystyle +\frac{2}{i+j+1}&\qquad\text{$i+j$ gerade}\\ + 0&\qquad\text{$i+j$ ungerade}. +\end{cases} +\] +Wir können daher das Gram-Schmidtsche Orthonormalisierungsverfahren +anwenden, um eine orthogonale Basis von Polynomen zu finden, was +wir im Folgenden tun wollen. + +% XXX Orthogonalisierungsproblem so formulieren, dass klar wird, +% XXX dass man ein "Normierungskriterium braucht. + +Da wir auf die Normierung verzichten, brauchen wir ein anderes +Kriterium, welches die Polynome eindeutig festlegen kann. +Wir bezeichnen das Polynom vom Grad $n$, das bei diesem Prozess +entsteht, mit $P_n(x)$ und legen willkürlich aber traditionskonform +fest, dass $P_n(1)=1$ sein soll. + +Das Skalarprodukt berechnet ein Integral eines Produktes von zwei +Polynomen über das symmetrische Interval $[-1,1]$. +Ist die eine gerade und die andere ungerade, dann ist das +Produkt eine ungerade Funktion und das Skalarprodukt verschwindet. +Sind beide Funktionen gerade oder ungerade, dann ist das Produkt +gerade und das Skalarprodukt ist im Allgmeinen von $0$ verschieden. +Dies zeigt, dass es tatsächlich etwas zu Orthogonalisieren gibt. + +Die ersten beiden Funktionen sind das konstante Polynom $1$ und +das Polynome $x$. +Nach obiger Beobachtung ist das Skalarprodukt $\langle 1,x\rangle=0$, +also ist $P_1(x)=x$. +Die Graphen der entstehenden Polynome sind in +Abbildung~\ref{buch:integral:orthogonal:legendregraphen} +dargestellt. +\begin{figure} +\centering +\includegraphics{chapters/070-orthogonalitaet/images/legendre.pdf} +\caption{Graphen der Legendre-Polynome $P_n(x)$ für $n=1,\dots,10$. +\label{buch:integral:orthogonal:legendregraphen}} +\end{figure} + +\begin{lemma} +Die Polynome $P_{2n}(x)$ sind gerade, die Polynome $P_{2n+1}(x)$ sind +ungerade Funktionen von $x$. +\end{lemma} + +\begin{proof}[Beweis] +Wir verwenden vollständige Induktion nach $n$. +Wir wissen bereits, dass $P_0(x)=1$ und $P_1(x)=x$ die verlangten +Symmetrieeigenschaften haben. +Im Sinne der Induktionsannahme nehmen wir daher an, dass die +Symmetrieeigenschaften für $P_k(x)$, $k{$}c<{$}|>{$}l<{$}|} +\hline +n&P_n(x)\\ +\hline + 0&1 +\\ + 1&x +\\ + 2&\frac12(3x^2-1) +\\ + 3&\frac12(5x^3-3x) +\\ + 4&\frac18(35x^4-30x^2+3) +\\ + 5&\frac18(63x^5-70x^3+15x) +\\ + 6&\frac1{16}(231x^6-315x^4+105x^2-5) +\\ + 7&\frac1{16}(429x^7-693x^5+315x^3-35x) +\\ + 8&\frac1{128}(6435x^8-12012x^6+6930x^4-1260x^2+35) +\\ + 9&\frac1{128}(12155x^9-25740x^7+18018x^5-4620x^3+315x) +\\ +10&\frac1{256}(46189x^{10}-109395x^8+90090x^6-30030x^4+3465x^2-63) +\\[2pt] +\hline +\end{tabular} +\caption{Die Legendre-Polynome $P_n(x)$ für $n=0,1,\dots,10$ sind +orthogonale Polynome vom Grad $n$, die den Wert $P_n(1)=1$ haben. +\label{buch:integral:table:legendre-polynome}} +\end{table} + + + +Die so konstruierten Polynome heissen die {\em Legendre-Polynome}. +Durch weitere Durchführung des Verfahrens liefert die Polynome in +Tabelle~\ref{buch:integral:table:legendre-polynome}. +Die Graphen sind in Abbildung~\ref{buch:integral:orthogonal:legendregraphen} +dargestellt. +Abbildung~\ref{buch:integral:orthogonal:legendreortho} illustriert, +dass die die beiden Polynome $P_4(x)$ und $P_7(x)$ orthogonal sind. +Das Produkt $P_4(x)\cdot P_7(x)$ hat Integral $=0$. + diff --git a/buch/chapters/070-orthogonalitaet/sturm.tex b/buch/chapters/070-orthogonalitaet/sturm.tex new file mode 100644 index 0000000..c8ee11a --- /dev/null +++ b/buch/chapters/070-orthogonalitaet/sturm.tex @@ -0,0 +1,609 @@ +% +% sturm.tex +% +% (c) 2022 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule +% +\section{Das Sturm-Liouville-Problem +\label{buch:integrale:subsection:sturm-liouville-problem}} +\rhead{Das Sturm-Liouville-Problem} +Sowohl bei den Bessel-Funktionen wie bei den Legendre-Polynomen +konnte die Orthogonalität der Funktionen dadurch gezeigt werden, +dass sie als Eigenfunktionen eines bezüglich eines geeigneten +Skalarproduktes selbstadjungierten Operators erkannt wurden. + +\subsection{Differentialgleichung} +Das klassische Sturm-Liouville-Problem ist das folgende Eigenwertproblem. +Gesucht sind Lösungen der Differentialgleichung +\begin{equation} +((p(x)y'(x))' + q(x)y(x) = \lambda w(x) y(x) +\label{buch:integrale:eqn:sturm-liouville} +\end{equation} +auf dem Intervall $(a,b)$, die zusätzlich die Randbedingungen +\begin{equation} +\begin{aligned} +k_a y(a) + h_a p(a) y'(a) &= 0 \\ +k_b y(b) + h_b p(b) y'(b) &= 0 +\end{aligned} +\label{buch:integrale:sturm:randbedingung} +\end{equation} +erfüllen, wobei $|k_i|^2 + |h_i|^2\ne 0$ mit $i=a,b$. +Weitere Bedingungen an die Funktionen $p(x)$, $q(x)$, $w(x)$ sowie die +Lösungsfunktionen $y(x)$ sollen später geklärt werden. + +\subsection{Das verallgemeinerte Eigenwertproblem für symmetrische Matrizen} +Ein zu \eqref{buch:integrale:eqn:sturm-liouville} analoges Eigenwertproblem +für Matrizen ist das folgende verallgemeinerte Eigenwertproblem. +Das gewohnte Eigenwertproblem verwendet die Matrix $B=E$. + +\begin{definition} +Seien $A$ und $B$ $n\times n$-Matrizen. +$v$ heisst verallgemeinerter Eigenvektor zum Eigenwert $\lambda$, +wenn +\[ +Av = \lambda Bv. +\] +\end{definition} + +Für symmetrische Matrizen lässt sich dieses Problem auf ein +Optimierungsproblem reduzieren. + +\begin{satz} +Seien $A$ und $B$ symmetrische $n\times n$-Matrizen und sei ausserdem +$B$ positiv definit. +Ist $v$ ein Vektor, der die Grösse +\[ +f(v)=\frac{v^tAv}{v^tBv} +\] +maximiert, ist ein verallgemeinerter Eigenvektor für die Matrizen $A$ +und $B$. +\end{satz} + +\begin{proof}[Beweis] +Sei $\lambda = f(v)$ der maximale Wert und $u\ne 0$ ein beliebiger Vektor. +Da $v$ die Grösse $f(v)$ maximiert, muss die Ableitung +von $f(u+tv)$ für $t=0$ verschwinden. +Um diese Ableitung zu berechnen, bestimmen wir zunächst die Ableitung +von $(v+tu)^tM(v+tu)$ an der Stelle $t=0$ für eine beliebige +symmetrische Matrix: +\begin{align*} +\frac{d}{dt} +(v+tu)^tM(v+tu) +&= +\frac{d}{dt}\bigl( +v^tv + t(v^tMu+u^tMv) + t^2 u^tMu +\bigr) += +v^tMu+u^tMv + 2tv^tMv +\\ +\frac{d}{dt} +(v^t+tu^t)M(v+tu) +\bigg|_{t=0} +&= +v^tMu+u^tMv += +2v^tMu +\end{align*} +Dies wenden wir jetzt auf den Quotenten $\lambda(v+tu)$ an. +\begin{align*} +\frac{d}{dt}f(v+tu)\bigg|_{t=0} +&= +\frac{d}{dt} +\frac{(v+tu)^tA(v+tu)}{(v+tu)^tB(v+tu)}\bigg|_{t=0} +\\ +&= +\frac{2u^tAv(v^tBv) - 2u^tBv(v^tAv)}{(v^tBv)^2} += +\frac{2}{v^tBv} +u^t +\biggl( +Av - \frac{v^tAv}{v^tBv} Bv +\biggr) +\\ +&= +2 +\frac{ +u^t( +Av - \lambda Bv +) +}{v^tBv} +\end{align*} +Da $v$ ein Maximum von $\lambda(v)$ ist, verschwindet diese Ableitung +für alle Vektoren $u$, somit gilt +\[ +u^t(Av-\lambda Bv)=0 +\] +für alle $u$, also auch $Av=\lambda Bv$. +Dies beweist, dass $v$ ein verallgemeinerter Eigenvektor zum +Eigenwert $\lambda$ ist. +\end{proof} + +\begin{satz} +Verallgemeinerte Eigenvektoren $u$ und $v$ von $A$ und $B$ +zu verschiedenen Eigenwerten erfüllen $u^tBv=0$. +\end{satz} + +\begin{proof} +Seien $\lambda$ und $\mu$ die Eigenwerte, also $Au=\lambda Bu$ +und $Av=\mu Bv$. +Wie in \eqref{buch:integrale:eqn:eigenwertesenkrecht} +berechnen wir das Skalarprodukt auf zwei Arten +\[ +\renewcommand{\arraycolsep}{2pt} +\begin{array}{rcccrl} + u^tAv &=&u^t\lambda Bv &=& \lambda\phantom{\mathstrut-\mu)} u^tBv + &\multirow{2}{*}{\hspace{3pt}$\bigg\}\mathstrut-\mathstrut$}\\ +=v^tAu &=&v^t\mu Bu &=& \mu\phantom{)}u^tBv &\\ +\hline + 0 & & &=& (\lambda - \mu)u^tBv. & +\end{array} +\] +Da die Eigenwerte verschieden sind, ist $\lambda-\mu\ne 0$, es folgt, +dass $u^tBv=0$ sein muss. +\end{proof} + +Verallgemeinerte Eigenwerte und Eigenvektoren verhalten sich also +ganz analog zu den gewöhnlichen Eigenwerten und Eigenvektoren. +Da $B$ positiv definit ist, ist $B$ auch invertierbar. +Zudem kann $B$ zur Definition des verallgemeinerten Skalarproduktes +\[ +\langle u,v\rangle_B = u^tBv +\] +verwendet werden. +Die Matrix +\[ +\tilde{A} = B^{-1}A +\] +ist bezüglich dieses Skalarproduktes selbstadjungiert, denn es gilt +\[ +\langle\tilde{A}u,v\rangle_B += +(B^{-1}Au)^t Bv += +u^tA^t(B^{-1})^tBv += +u^tAv += +u^tBB^{-1}Av += +\langle u,\tilde{A}v\rangle. +\] +Das verallgemeinerte Eigenwertproblem für symmetrische Matrizen +ist damit ein gewöhnliches Eigenwertproblem für selbstadjungierte +Matrizen des Operators $\tilde{A}$ bezüglich des verallgemeinerten +Skalarproduktes $\langle\,\;,\;\rangle_B$. + +\subsection{Der Operator $L_0$ und die Randbedingung} +Die Differentialgleichung kann auch in Operatorform geschrieben werden. +Dazu schreiben wir +\[ +L_0 += +-\frac{d}{dx}p(x)\frac{d}{dx}. +\] +Bezüglich des gewöhnlichen Skalarproduktes +\[ +\langle f,g\rangle += +\int_a^b f(x)g(x)\,dx +\] +für Funktionen auf dem Intervall $[a,b]$ ist der Operator $L_0$ +tatsächlich selbstadjungiert. +Mit partieller Integration rechnet man nach: +\begin{align} +\langle f,L_0g\rangle +&= +\int_a^b f(x) \biggl(-\frac{d}{dx}p(x)\frac{d}{dx}\biggr)g(x)\,dx +\notag +\\ +&= +-\int_a^b f(x) \frac{d}{dx}\bigl( p(x) g'(x) \bigr)\,dx +\notag +\\ +&= +-\biggl[f(x) p(x)g'(x)\biggr]_a^b ++ +\int_a^b f'(x) p(x) g'(x) \,dx +\notag +\\ +\langle L_0f,g\rangle +&= +-\biggl[f'(x)p(x)g(x)\biggr]_a^b ++ +\int_a^b f'(x) p(x) g'(x) \,dx. +\notag +\intertext{Die beiden Skalarprodukte führen also auf das gleiche +Integral, sie unterscheiden sich nur um die Randterme} +\langle f,L_0g\rangle +- +\langle L_0f,g\rangle +&= +-f(b)p(b)g'(b) + f(a)p(a)g'(a) ++f'(b)p(b)g(b) - f'(a)p(a)g(a) +\label{buch:integrale:sturm:sabedingung} +\\ +&= +- +p(b) +\left|\begin{matrix} +f(b) &g(b)\\ +f'(b)&g'(b) +\end{matrix}\right| ++ +p(a) +\left|\begin{matrix} +f(a) &g(a)\\ +f'(a)&g'(a) +\end{matrix}\right| +\notag +\\ +&= +- +\left|\begin{matrix} +f(b) &g(b)\\ +p(b)f'(b)&p(b)g'(b) +\end{matrix}\right| ++ +\left|\begin{matrix} +f(a) &g(a)\\ +p(a)f'(a)&p(a)g'(a) +\end{matrix}\right|. +\notag +\end{align} +Um zu erreichen, dass der Operator selbstadjunigert wird, muss +sichergestellt werden, dass entweder $p$ oder die Determinanten +an den Intervallenden verschwinden. +Dies passiert genau dann, wenn die Vektoren +\[ +\begin{pmatrix} +f(a)\\ +p(a)f'(a) +\end{pmatrix} +\text{\;und\;} +\begin{pmatrix} +g(a)\\ +p(a)g'(a) +\end{pmatrix} +\] +linear abhängig sind. +In zwei Dimensionen bedeutet lineare Abhängigkeit, dass es +eine nichttriviale Linearform mit Koeffizienten $h_a, k_a$ gibt, +die auf beiden Vektoren verschwindet. +Ausgeschrieben bedeutet dies, dass die Randbedingung +\eqref{buch:integrale:sturm:randbedingung} +erfüllt sein muss. + +\subsection{Skalarprodukt} +Das Ziel der folgenden Abschnitte ist, das Sturm-Liouville-Problem als +Eigenwertproblem für einen selbstadjungierten Operator in einem +Funktionenraum mit einem geeigneten Skalarprodukt zu finden. + +Wir haben bereits gezeigt, dass die Randbedingung +\eqref{buch:integrale:sturm:randbedingung} sicherstellt, dass der +Operator $L_0$ für das Standardskalarprodukt selbstadjungiert ist. +Dies entspricht der Symmetrie der Matrix $A$. + +Die Komponente $q(x)$ stellt keine besonderen Probleme, denn +\[ +\langle f,qg\rangle += +\int_a^b f(x)q(x)g(x)\,dx += +\langle qf,g\rangle. +\] +Der Operator $f(x) \mapsto q(x)f(x)$, der eine Funktion mit +der Funktion $q(x)$ multipliziert, ist also ebenfalls symmetrisch. +Dasselbe gilt für einen Operator, der mit $w(x)$ multipliziert. +Da $w(x)$ eine positive Funktion ist, ist der Operator $f(x)\mapsto w(x)f(x)$ +sogar positiv definit. +Dies entspricht der Matrix $B$. +Nach den Erkenntnissen des vorangegangenen Abschnittes ist das +verallgemeinerte Eigenwertproblem daher ein Eigenwertproblem +für einen modifizierten Operator bezüglich eines alternativen +Skalarproduktes. + +Als Skalarprodukt muss also das Integral +\[ +\langle f,g\rangle_w += +\int_a^b f(x)g(x)w(x)\,dx +\] +mit der Gewichtsfunktion $w(x)$ verwendet werden. +Damit dies ein vernünftiges Skalarprodukt ist, muss $w(x)>0$ im +Innerend es Intervalls sein. + +\subsection{Der Vektorraum $H$} +Damit können wir jetzt die Eigenschaften der in Frage kommenden +Funktionen zusammenstellen. +Zunächst müssen sie auf dem Intervall $[a,b]$ definiert sein und +das Integral +\[ +\int_a^b |f(x)|^2 w(x)\,dx < \infty +\] +muss existieren. +Wir bezeichnen den Vektorraum der Funktionen, deren Quadrat mit +der Gewichtsfunktion $w(x)$ integrierbar sind, mit +$L^2([a,b],w)$. + +Damit auch $\langle qf,f\rangle_w$ und $\langle L_0f,0f\rangle_w$ +wohldefiniert sind, müssen zusätzlich die Integrale +\[ +\int_a^b |f(x)|^2 q(x) w(x)\,dx +\qquad\text{und}\qquad +\int_a^b |f'(x)|^2 p(x) w(x)\,dx +\] +existieren. +Wir setzen daher +\[ +H += +\biggl\{ +f\in L^2([a,b],w)\;\bigg|\; +\int_a^b |f'(x)|^2p(x)w(x)\,dx<\infty, +\int_a^b |f(x)|^2q(x)w(x)\,dx<\infty +\biggr\}. +\] + +\subsection{Differentialoperator} +Das verallgemeinerte Eigenwertproblem für $A$ und $B$ ist ein +gewöhnliches Eigenwertproblem für die Operator $\tilde{A}=B^{-1}A$ +bezüglich des modifizierten Skalarproduktes. +Das Sturm-Liouville-Problem ist also ein Eigenwertproblem im +Vektorraum $H$ mit dem Skalarprodukt $\langle\,\;,\;\rangle_w$. +Der Operator +\[ +L = \frac{1}{w(x)} \biggl(-\frac{d}{dx} p(x)\frac{d}{dx} + q(x)\biggr) +\] +heisst der {\em Sturm-Liouville-Operator}. +Eine Lösung des Sturm-Liouville-Problems ist eine Funktion $y(x)$ derart, +dass +\[ +Ly = \lambda y, +\] +$\lambda$ ist der zu $y(x)$ gehörige Eigenwert. +Der Operator ist definiert auf Funktionen des im vorangegangenen Abschnitt +definierten Vektorraumes $H$. + +\subsection{Beispiele} +Die meisten der früher vorgestellten Funktionenfamilien stellen sich +als Lösungen eines geeigneten Sturm-Liouville-Problems heraus. +Alle Eigenschaften aus der Sturm-Liouville-Theorie gelten daher +automatisch für diese Funktionenfamilien. + +\subsubsection{Trigonometrische Funktionen} +Die trigonometrischen Funktionen sind Eigenfunktionen des Operators +$d^2/dx^2$, also eines Sturm-Liouville-Operators mit $p(x)=1$, $q(x)=0$ +und $w(x)=0$. +Auf dem Intervall $(-\pi,\pi)$ können wir die Randbedingungen +\bgroup +\renewcommand{\arraycolsep}{2pt} +\[ +\begin{aligned} +& +\begin{array}{lclclcl} +k_{-\pi} &=&1,&\qquad&h_{-\pi} &=&0\\ +k_{\phantom{-}\pi}&=&1,&\qquad&h_{\phantom{-}\pi}&=&0 +\end{array} +\;\bigg\} +&&\Rightarrow& +\begin{array}{lcl} +y(-\pi) &=&0\\ +y(\phantom{-}\pi)&=&0\\ +\end{array} +\;\bigg\} +&\quad\Rightarrow& +y(x) &= B\sin nx +\\ +& +\begin{array}{lclclcl} +k_{-\pi} &=&0,&\qquad&h_{-\pi} &=&1\\ +k_{\phantom{-}\pi}&=&0,&\qquad&h_{\phantom{-}\pi}&=&1 +\end{array} +\;\bigg\} +&&\Rightarrow& +\begin{array}{lcl} +y'(-\pi) &=&0\\ +y'(\phantom{-}\pi)&=&0\\ +\end{array} +\; \bigg\} +&\quad\Rightarrow& +y(x) &= A\cos nx +\end{aligned} +\] +\egroup +verwenden. +Die Orthogonalität der Sinus- und Kosinus-Funktionen folgt jetzt +ganz ohne weitere Rechnung. + +An dieser Lösung ist nicht ganz befriedigend, dass die trigonometrischen +Funktionen nicht mit einer einzigen Randbedingung gefunden werden können. +Der Ausweg ist, periodische Randbedingungen zu verlangen, also +$y(-\pi)=y(\pi)$ und $y'(-\pi)=y'(\pi)$. +Dann ist wegen +\begin{align*} +\langle f,L_0g\rangle - \langle L_0f,g\rangle +&= +-f(\pi)g'(\pi)+f(-\pi)g'(-\pi)+f'(\pi)g(\pi)-f'(-\pi)g(-\pi) +\\ +&= +-f(\pi)g'(\pi)+f(\pi)g'(\pi)+f'(\pi)g(\pi)-f'(\pi)g(\pi) +=0 +\end{align*} +die Bedingung~\eqref{buch:integrale:sturm:sabedingung} +ebenfalls erfüllt, $L_0$ ist in diesem Raum selbstadjungiert. + +\subsubsection{Bessel-Funktionen} +Der Bessel-Operator \eqref{buch:differentialgleichungen:bessel-operator} +hat die Form eines Sturm-Liouville-Operators +\[ +x^2\frac{d^2}{dx^2} + x\frac{d}{dx} + x^2 += +\frac{d}{dx} x^2 \frac{d}{dx} + x^2 +\] +mit $p(x)=x^2$, $q(x)=x^2$. + +XXX TODO: Faktor 2 fehlt. + +\subsubsection{Tschebyscheff-Polynome} +Die Tschebyscheff-Polynome sind Lösungen der +Tschebyscheff-Differentialgleichung +\[ +(1-x^2)y'' -xy' = n^2y +\] +auf dem Intervall $(-1,1)$. +Auch dieses Problem kann als Sturm-Liouville-Problem formuliert +werden mit +\begin{align*} +w(x) &= \frac{1}{\sqrt{1-x^2}} \\ +p(x) &= \sqrt{1-x^2} \\ +q(x) &= 0 +\end{align*} +Das zugehörige Sturm-Liouville-Eigenwertproblem ist +\[ +\frac{d}{dx}\sqrt{1-x^2}\frac{d}{dx} y(x) += +\lambda \frac{1}{\sqrt{1-x^2}} y(x). +\] +Führt man die Ableitungen auf der linken Seite aus, entsteht die +Gleichung +\begin{align*} +\sqrt{1-x^2} y''(x) -\frac{x}{\sqrt{1-x^2}}y'(x) +&= \lambda \frac{1}{\sqrt{1-x^2}} y(x) +\intertext{Multiplikation mit $\sqrt{1-x^2}$ ergibt} +(1-x^2) +y''(x) +- +xy'(x) +&= +\lambda y(x). +\end{align*} +Es folgt, dass die Tschebyscheff-Polynome orthogonal sind +bezüglich des Skalarproduktes +\[ +\langle f,g\rangle = \int_{-1}^1 f(x)g(x)\frac{dx}{\sqrt{1-x^2}}. +\] + +\subsubsection{Jacobi-Polynome} +TODO + +\subsubsection{Hypergeometrische Differentialgleichungen} +%\url{https://encyclopediaofmath.org/wiki/Hypergeometric_equation} +Auch die Eulersche hypergeometrische Differentialgleichung +lässt sich in die Form eines Sturm-Liouville-Operators +bringen. +Dazu setzt man +\begin{align*} +p(z) +&= +z^c(z-1)^{a+b+1-c} +\\ +q(z) +&= +-abz^{c-1}(z-1)^{a+b-c} +\\ +w(z) +&= +z^{c-1}(z-1)^{a+b-c}. +\end{align*} +Setzt man dies in den Sturm-Liouville-Operator ein, erhält man +\begin{equation} +L += +-\frac{d}{dz}p(z)\frac{d}{dz} + q(z) += +-p(z)\frac{d^2}{dz^2} +-p'(z)\frac{d}{dz} ++q(z) +\label{buch:orthgonalitaet:eqn:hypersturm} +\end{equation} +Wir brauchen also +\begin{align*} +p'(z) +&= +cz^{c-1}(z-1)^{a+b+1-c} ++ +(a+b+1-c) +z^c +(z-1)^{a+b-c} +\\ +&= +\bigl( +c(z-1)+ +(a+b+1-c)z +\bigr) +\cdot +z^{c-1}(z-1)^{a+b-c} +\\ +&= +- +\bigl( +c-(a+b+1)z +\bigr) +\cdot +z^{c-1}(z-1)^{a+b-c}. +\end{align*} +Einsetzen in~\eqref{buch:orthgonalitaet:eqn:hypersturm} liefert +\begin{align*} +L +%= +%-\frac{d}{dz}p(z)\frac{d}{dz}+q(z) +&= +-z^c(z-1)^{a+b+1-c} \frac{d^2}{dz^2} ++ +w(z) +(c-(a+b+1)z) +\frac{d}{dz} +- +abw(z) +\\ +&= +w(z) +\biggl( +- +z(z-1) +\frac{d^2}{dz^2} ++ +(c-(a+b+1)z) +\frac{d}{dz} +-ab +\biggr) +\\ +&= +w(z) +\biggl( +z(1-z) +\frac{d^2}{dz^2} ++ +(c-(a+b+1)z) +\frac{d}{dz} +-ab +\biggr). +\end{align*} +Die Klammer auf der rechten Seite ist tatsächlich die linke Seite der +eulerschen hypergeometrischen Differentialgleichung. + +Die hypergeometrische Funktion $\mathstrut_2F_1(a,b;c;z)$ ist ein +Eigenvektor des Operators $L$ zum Eigenwert $\lambda$. +Sei jetzt $w(z)$ eine Eigenfunktion zum Eigenwert $\lambda\ne 0$, +also +\[ +z(1-z)w''(z) + (c-(a+b+1)z)w'(z) - ab w(z) = \lambda w(z). +\] +Kann man $a$ und $b$ so in $a_1$ und $b_1$ ändern, dass $a+b=a_1+b_1$ +gleich bleiben aber das Produkt den Wert $a_1b_1=ab-\lambda$? +$a_1$ und $b_1$ sind die Lösungen der quadratischen Gleichung +\[ +x^2 - (a+b)x + ab-\lambda = 0. +\] +Alle Eigenfunktionen des Operators $L$ sind also hypergeometrische +Funktion $\mathstrut_2F_1$. + +Da die Gewichtsfunktion $w(z)$ bei der Ersetzung $a\to a_1$ und $b\to b_1$ +sich nicht ändert ($w(z)$ hängt nur von der Summe $a+b$ ab, welche sich +nicht ändert), sind die beide beiden Eigenfunktionen bezüglich +des Skalarproduktes mit der Gewichtsfunktion $w(z)$ orthogonal. + + + + + + diff --git a/buch/chapters/Makefile.inc b/buch/chapters/Makefile.inc index 9a452e0..fc769c8 100644 --- a/buch/chapters/Makefile.inc +++ b/buch/chapters/Makefile.inc @@ -14,5 +14,6 @@ include chapters/020-exponential/Makefile.inc include chapters/030-geometrie/Makefile.inc include chapters/040-rekursion/Makefile.inc include chapters/060-integral/Makefile.inc +include chapters/070-orthogonalitaet/Makefile.inc include chapters/080-funktionentheorie/Makefile.inc diff --git a/buch/chapters/part1.tex b/buch/chapters/part1.tex index e141255..a61f908 100644 --- a/buch/chapters/part1.tex +++ b/buch/chapters/part1.tex @@ -17,7 +17,7 @@ % analytisch definierte spezielle Funktionen \input{chapters/050-differential/chapter.tex} \input{chapters/060-integral/chapter.tex} -%\input{chapters/070-reihenprodukte/chapter.tex} +\input{chapters/070-orthogonalitaet/chapter.tex} \input{chapters/080-funktionentheorie/chapter.tex} \input{chapters/090-pde/chapter.tex} % Gamma und Pi -- cgit v1.2.1