% % rekursion.tex -- drei term rekursion für orthogonale Polynome % % (c) 2022 Prof Dr Andreas Müller, OST Ostschweizer Fachhochschule % \section{Drei-Term-Rekursion für orthogonale Polynome \label{buch:orthogonal:section:drei-term-rekursion}} Die Berechnung der Legendre-Polynome mit Hilfe des Gram-Schmidt-Verfahrens ist wenig hilfreich, wenn es darum geht, Werte der Polynome zu berechnen. Glücklicherweise erfüllen orthogonale Polynome automatisch eine Rekursionsbeziehung mit nur drei Termen. Zum Beispiel kann man zeigen, dass für die Legendre-Polynome die Relation \begin{align*} nP_n(x) &= (2n-1)xP_{n-1}(x) - (n-1)P_{n-2}(x),\;\forall n\ge 2, \\ P_1(x) &= x, \\ P_0(x) &= 1. \end{align*} Mit so einer Rekursionsbeziehung ist es sehr einfach, die Funktionswerte für alle $P_n(x)$ zu berechnen. \begin{definition} Eine Folge von Polynomen $p_n(x)$ heisst orthogonal bezüglich des Skalarproduktes $\langle\,\;,\;\rangle_w$, wenn \[ \langle p_n,p_m\rangle_w = h_n \delta_{nm} \] für alle $n$, $m$. \end{definition} \subsubsection{Allgemeine Drei-Term-Rekursion für orthogonale Polynome} Die Multiplikation mit $x$ macht aus einem Polynom vom Grad $n$ ein Polynom vom Grad $n+1$. Das Polynom $xp_n(x)$ lässt sich daher als Linearkombination der Polynome $p_k(x)$ mit $k\le n+1$ schreiben. Es muss also eine lineare Beziehung zwischen den Polynomen $p_k(x)$ und $xp_n(x)$ geben, die man nach $p_{n+1}(x)$ auflösen kann, um eine lineare Darstellung von $p_{n+1}(x)$ durch die $p_k(x)$ und $p_n(x)$ zu bekommen. A priori muss man damit rechnen, dass sehr viele Summanden nötig sind. Der folgende Satz besagt, dass $p_n(x)$ eine Rekursionsbeziehung mit nur drei Termen erfüllt. \begin{satz} \index{Satz!Drei-Term-Rekursion}% \label{buch:orthogonal:satz:drei-term-rekursion} Eine Folge bezüglich $\langle\,\;,\;\rangle_w$ orthogonaler Polynome $p_n$ mit dem Grade $\deg p_n = n$ erfüllt eine Rekursionsbeziehung der Form \begin{equation} p_{n+1}(x) = (A_nx+B_n)p_n(x) - C_np_{n-1}(x) \label{buch:orthogonal:eqn:rekursion} \end{equation} für $n\ge 0$, wobei $p_{-1}(x)=0$ gesetzt wird. Die Zahlen $A_n$, $B_n$ und $C_n$ sind reell und es ist $A_{n-1}A_nC_n\ge 0$ für $n>0$. Wenn $k_n>0$ der Leitkoeffizient von $p_n(x)$ ist, dann gilt \begin{equation} A_n=\frac{k_{n+1}}{k_n}, \qquad C_{n+1} = \frac{A_{n+1}}{A_n}\frac{h_{n+1}}{h_n}. \label{buch:orthogonal:eqn:koeffizientenrelation} \end{equation} \end{satz} Die Rekursionsbeziehung~\eqref{buch:orthogonal:eqn:rekursion} bedeutet, dass sich die Werte $p_n(x)$ für alle $n$ ausgehend von $p_1(x)$ und $p_0(x)$ mit nur $O(n)$ Operationen ermitteln lassen. \subsubsection{Multiplikationsoperator mit $x$} Man kann die Relation \eqref{buch:orthogonal:eqn:rekursion} auch nach dem Produkt $xp_n(x)$ auflösen, dann wird sie \begin{equation} xp_n(x) = \frac{1}{A_n}p_{n+1}(x) - \frac{B_n}{A_n}p_n(x) + \frac{C_n}{A_n}p_{n-1}(x). \label{buch:orthogonal:eqn:multixrelation} \end{equation} Die Multiplikation mit $x$ ist eine lineare Abbildung im Raum der Funktionen, die wir weiter unten auch $M_x$ abkürzen. Die Relation~\eqref{buch:orthogonal:eqn:multixrelation} besagt, dass diese Abbildung in der Basis der Polynome $p_k$ tridiagonale Form hat. Ein Beispiel dafür ist im nächsten Abschnitt in \eqref{buch:orthogonal:eqn:Mx} \subsubsection{Drei-Term-Rekursion für die Tschebyscheff-Polynome} Eine Relation der Form~\eqref{buch:orthogonal:eqn:multixrelation} wurde bereits in Abschnitt~\ref{buch:potenzen:tschebyscheff:rekursionsbeziehungen} hergeleitet. In der Form~\eqref{buch:orthogonal:eqn:rekursion} geschrieben lautet sie \[ T_{n+1}(x) = 2x\,T_n(x)-T_{n-1}(x), \] also $A_n=2$, $B_n=0$ und $C_n=1$. Die Matrixdarstellung des Multiplikationsoperators $M_x$ in der Basis der Tschebyscheff-Polynome hat wegen \eqref{buch:orthogonal:eqn:multixrelation} die Form \begin{equation} M_x = \begin{pmatrix} 0&\frac12& 0& 0& 0&\dots  \\ \frac12& 0&\frac12& 0& 0&\dots  \\ 0&\frac12& 0&\frac12& 0&\dots  \\ 0& 0&\frac12& 0&\frac12&\dots  \\ 0& 0& 0&\frac12& 0&\dots  \\ \vdots& \vdots& \vdots& \vdots& \vdots&\ddots \end{pmatrix}. \label{buch:orthogonal:eqn:Mx} \end{equation} \subsubsection{Beweis von Satz~\ref{buch:orthogonal:satz:drei-term-rekursion}} Die Relation~\eqref{buch:orthogonal:eqn:multixrelation} zeigt auch, dass der Beweis die Koeffizienten $\langle xp_k,p_j\rangle_w$ berechnen muss. Dabei wird wiederholt der folgende Trick verwendet. Für jede beliebige Funktion $f$ mit $\|f\|_w^2<\infty$ ist \[ \langle fp_k,p_j\rangle_w = \langle p_k,fp_j\rangle_w. \] Für $f(x)=x$ kann man weiter verwenden, dass $xp_k(x)$ ein Polynom vom Grad $k+1$ ist. Die Gleichheit $\langle xp_k,p_j\rangle_w=\langle p_k,xp_j\rangle_w$ ermöglicht also, den Faktor $x$ dorthin zu schieben, wo es nützlicher ist. \begin{proof}[Beweis des Satzes] Multipliziert man die rechte Seite von \eqref{buch:orthogonal:eqn:rekursion} aus, dann ist der einzige Term vom Grad $n+1$ der Term $A_nxp_n(x)$. Der Koeffizient $A_n$ ist also dadurch festgelegt, dass \begin{equation} b(x) = p_{n+1}(x) - A_nxp_n(x) \label{buch:orthogonal:rekbeweis} \end{equation} Grad $\le n$ hat. Dazu müssen sich die Terme vom Grad $n+1$ in den Polynomen wegheben, d.~h.~$k_{n+1}-A_nk_n=0$, woraus die erste Beziehung in \eqref{buch:orthogonal:eqn:koeffizientenrelation} folgt. Die Polynome $p_k$ sind durch Orthogonalisierung der Monome $1$, $x$,\dots $x^{k}$ entstanden. Dies bedeutet, dass $\langle p_n,x^k\rangle_w=0$ für alle $kj+1$ folgt, dass der zweite Term verschwindet. Somit sind alle $b_j=0$ mit $j