From 18e46179f2da76a3147d3f3b466206c6b5405859 Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?Andreas=20M=C3=BCller?= Date: Mon, 14 Mar 2022 08:20:28 +0100 Subject: describe link between Jacobi-weights and Beta-distribution --- buch/chapters/070-orthogonalitaet/jacobi.tex | 22 ++ buch/chapters/070-orthogonalitaet/orthogonal.tex | 51 +++ buch/papers/dreieck/teil1.tex | 411 +---------------------- 3 files changed, 74 insertions(+), 410 deletions(-) (limited to 'buch') diff --git a/buch/chapters/070-orthogonalitaet/jacobi.tex b/buch/chapters/070-orthogonalitaet/jacobi.tex index 042d466..f776c03 100644 --- a/buch/chapters/070-orthogonalitaet/jacobi.tex +++ b/buch/chapters/070-orthogonalitaet/jacobi.tex @@ -189,6 +189,28 @@ rechten Rand haben. \label{buch:orthogonal:fig:jacobi-parameter}} \end{figure} +\subsection{Jacobi-Gewichtsfunktion und Beta-Verteilung +\label{buch:orthogonal:subsection:beta-verteilung}} +Die Jacobi-Gewichtsfunktion entsteht aus der Wahrscheinlichkeitsdichte +der Beta-Verteilung, die in +Abschnitt~\ref{buch:rekursion:subsection:beta-verteilung} +eingeführt wurde mit Hilfe der Variablen-Transformation $x = 2t-1$ +oder $t=(x+1)/2$. +Das Integral mit der Jacobi-Gewichtsfunktion $w^{(\alpha,\beta)}(x)$ +kann damit umgeformt werden in +\[ +\int_{-1}^1 +f(x)\,w^{(\alpha,\beta)}(x)\,dx += +\int_0^1 +f(2t-1) w^{(\alpha,\beta)}(2t-1)\,2\,dt += +\int_0^1 +f(2t-1) +(1-(2t-1))^\alpha (1+(2t-1))^\beta +\,2\,dt +\] + % % % diff --git a/buch/chapters/070-orthogonalitaet/orthogonal.tex b/buch/chapters/070-orthogonalitaet/orthogonal.tex index d06f46e..a84248a 100644 --- a/buch/chapters/070-orthogonalitaet/orthogonal.tex +++ b/buch/chapters/070-orthogonalitaet/orthogonal.tex @@ -737,6 +737,57 @@ rechten Rand haben. \label{buch:orthogonal:fig:jacobi-parameter}} \end{figure} +\subsubsection{Jacobi-Gewichtsfunktion und Beta-Verteilung +\label{buch:orthogonal:subsection:beta-verteilung}} +Die Jacobi-Gewichtsfunktion entsteht aus der Wahrscheinlichkeitsdichte +der Beta-Verteilung, die in +Abschnitt~\ref{buch:rekursion:subsection:beta-verteilung} +eingeführt wurde mit Hilfe der Variablen-Transformation $x = 2t-1$ +oder $t=(x+1)/2$. +Das Integral mit der Jacobi-Gewichtsfunktion $w^{(\alpha,\beta)}(x)$ +kann damit umgeformt werden in +\begin{align*} +\int_{-1}^1 +f(x)\,w^{(\alpha,\beta)}(x)\,dx +&= +\int_0^1 +f(2t-1) w^{(\alpha,\beta)}(2t-1)\,2\,dt +\\ +&= +\int_0^1 +f(2t-1) +(1-(2t-1))^\alpha (1+(2t-1))^\beta +\,2\,dt +\\ +&= +2^{\alpha+\beta+1} +\int_0^1 +f(2t-1) +\, +t^\beta +(1-t)^\alpha +\,dt +\\ +&= +2^{\alpha+\beta+1} +B(\alpha+1,\beta+1) +\int_0^1 +f(2t-1) +\, +\frac{ +t^\beta +(1-t)^\alpha +}{B(\alpha+1,\beta+1)} +\,dt. +\end{align*} +Auf der letzten Zeile steht ein Integral mit der Wahrscheinlichkeitsdichte +der Beta-Verteilung. +Orthogonale Funktionen bezüglich der Jacobischen Gewichtsfunktion +$w^{(\alpha,\beta)}$ werden mit der genannten Substitution also +zu orthogonalen Funktionen bezüglich der Beta-Verteilung mit +Parametern $\beta+1$ und $\alpha+1$. + + % % Tschebyscheff-Gewichtsfunktion % diff --git a/buch/papers/dreieck/teil1.tex b/buch/papers/dreieck/teil1.tex index 5e7090b..4abe2e1 100644 --- a/buch/papers/dreieck/teil1.tex +++ b/buch/papers/dreieck/teil1.tex @@ -5,416 +5,7 @@ % \section{Ordnungsstatistik und Beta-Funktion \label{dreieck:section:ordnungsstatistik}} -\rhead{Ordnungsstatistik und Beta-Funktion} -In diesem Abschnitt ist $X$ eine Zufallsvariable mit der Verteilungsfunktion -$F_X(x)$, und $X_i$, $1\le i\le n$ sei ein Stichprobe von unabhängigen -Zufallsvariablen, die wie $X$ verteilt sind. -Ziel ist, die Verteilungsfunktion und die Wahrscheinlichkeitsdichte -des grössten, zweitgrössten, $k$-t-grössten Wertes in der Stichprobe -zu finden. -Wir schreiben $[n]=\{1,\dots,n\}$ für die Menge der natürlichen -Zahlen von zwischen $1$ und $n$. +\rhead{} -\subsection{Verteilung von $\operatorname{max}(X_1,\dots,X_n)$ und -$\operatorname{min}(X_1,\dots,X_n)$ -\label{dreieck:subsection:minmax}} -Die Verteilungsfunktion von $\operatorname{max}(X_1,\dots,X_n)$ hat -den Wert -\begin{align*} -F_{\operatorname{max}(X_1,\dots,X_n)}(x) -&= -P(\operatorname{max}(X_1,\dots,X_n) \le x) -\\ -&= -P(X_1\le x\wedge \dots \wedge X_n\le x) -\\ -&= -P(X_1\le x) \cdot \ldots \cdot P(X_n\le x) -\\ -&= -P(X\le x)^n -= -F_X(x)^n. -\end{align*} -Für die Gleichverteilung ist -\[ -F_{\text{equi}}(x) -= -\begin{cases} -0&\qquad x< 0 -\\ -x&\qquad 0\le x\le 1 -\\ -1&\qquad 1 X_1\wedge \dots \wedge x > X_n) -\\ -&= -1- -(1-P(x\le X_1)) \cdot\ldots\cdot (1-P(x\le X_n)) -\\ -&= -1-(1-F_X(x))^n, -\end{align*} -Im Speziellen für im Intervall $[0,1]$ gleichverteilte $X_i$ ist die -Verteilungsfunktion des Minimums -\[ -F_{\operatorname{min}(X_1,\dots,X_n)}(x) -= -\begin{cases} -0 &\qquad x<0 \\ -1-(1-x)^n&\qquad 0\le x\le 1\\ -1 &\qquad 1 < x -\end{cases} -\] -mit Wahrscheinlichkeitsdichte -\[ -\varphi_{\operatorname{min}(X_1,\dots,X_n)} -= -\frac{d}{dx} -F_{\operatorname{min}(X_1,\dots,X_n)} -= -\begin{cases} -n(1-x)^{n-1}&\qquad 0\le x\le 1\\ -0 &\qquad \text{sonst} -\end{cases} -\] -und Erwartungswert -\begin{align*} -E(\operatorname{min}(X_1,\dots,X_n) -&= -\int_{-\infty}^\infty x\varphi_{\operatorname{min}(X_1,\dots,X_n)}(x)\,dx -= -\int_0^1 x\cdot n(1-x)^{n-1}\,dx -\\ -&= -\bigl[ -x(1-x)^n \bigr]_0^1 + \int_0^1 (1-x)^n\,dx -= -\biggl[ -- -\frac{1}{n+1} -(1-x)^{n+1} -\biggr]_0^1 -= -\frac{1}{n+1}. -\end{align*} -Es ergibt sich daraus als natürlich Verallgemeinerung die Frage nach -der Verteilung des zweitegrössten oder zweitkleinsten Wertes unter den -Werten $X_i$. - -\subsection{Der $k$-t-grösste Wert} -Sie wieder $X_i$ eine Stichprobe von $n$ unabhängigen wie $X$ verteilten -Zufallsvariablen. -Diese werden jetzt der Grösse nach sortiert, die sortierten Werte werden -mit -\[ -X_{1:n} \le X_{2:n} \le \dots \le X_{(n-1):n} \le X_{n:n} -\] -bezeichnet. -Die Grössen $X_{k:n}$ sind Zufallsvariablen, sie heissen die $k$-ten -Ordnungsstatistiken. -Die in Abschnitt~\ref{dreieck:subsection:minmax} behandelten Zufallsvariablen -$\operatorname{min}(X_1,\dots,X_n)$ -und -$\operatorname{max}(X_1,\dots,X_n)$ -sind die Fälle -\begin{align*} -X_{1:n} &= \operatorname{min}(X_1,\dots,X_n) \\ -X_{n:n} &= \operatorname{max}(X_1,\dots,X_n). -\end{align*} - -Um den Wert der Verteilungsfunktion von $X_{k:n}$ zu berechnen, müssen wir -die Wahrscheinlichkeit bestimmen, dass $k$ der $n$ Werte $X_i$ $x$ nicht -übersteigen. -Der $k$-te Wert $X_{k:n}$ übersteigt genau dann $x$ nicht, wenn -mindestens $k$ der Zufallswerte $X_i$ $x$ nicht übersteigen, also -\[ -P(X_{k:n} \le x) -= -P\left( -|\{i\in[n]\,|\, X_i\le x\}| \ge k -\right). -\] - -Das Ereignis $\{X_i\le x\}$ ist eine Bernoulli-Experiment, welches mit -Wahrscheinlichkeit $F_X(x)$ eintritt. -Die Anzahl der Zufallsvariablen $X_i$, die $x$ übertreffen, ist also -Binomialverteilt mit $p=F_X(x)$. -Damit haben wir gefunden, dass mit Wahrscheinlichkeit -\begin{equation} -F_{X_{k:n}}(x) -= -P(X_{k:n}\le x) -= -\sum_{i=k}^n \binom{n}{i}F_X(x)^i (1-F_X(x))^{n-i} -\label{dreieck:eqn:FXkn} -\end{equation} -mindestens $k$ der Zufallsvariablen den Wert $x$ überschreiten. - -\subsubsection{Wahrscheinlichkeitsdichte der Ordnungsstatistik} -Die Wahrscheinlichkeitsdichte der Ordnungsstatistik kann durch Ableitung -von \eqref{dreieck:eqn:FXkn} gefunden, werden, sie ist -\begin{align*} -\varphi_{X_{k:n}}(x) -&= -\frac{d}{dx} -F_{X_{k:n}}(x) -\\ -&= -\sum_{i=k}^n -\binom{n}{i} -\bigl( -iF_X(x)^{i-1}\varphi_X(x) (1-F_X(x))^{n-i} -- -F_X(x)^k -(n-i) -(1-F_X(x))^{n-i-1} -\varphi_X(x) -\bigr) -\\ -&= -\sum_{i=k}^n -\binom{n}{i} -\varphi_X(x) -F_X(x)^{i-1}(1-F_X(x))^{n-i-1} -\bigl( -iF_X(x)-(n-i)(1-F_X(x)) -\bigr) -\\ -&= -\varphi_X(x) -\biggl( -\sum_{i=k}^n i\binom{n}{i} F_X(x)^{i-1}(1-F_X(x))^{n-i} -- -\sum_{j=k}^n (n-j)\binom{n}{j} F_X(x)^{j}(1-F_X(x))^{n-j-1} -\biggr) -\\ -&= -\varphi_X(x) -\biggl( -\sum_{i=k}^n i\binom{n}{i} F_X(x)^{i-1}(1-F_X(x))^{n-i} -- -\sum_{i=k+1}^{n+1} (n-i+1)\binom{n}{i-1} F_X(x)^{i-1}(1-F_X(x))^{n-i} -\biggr) -\\ -&= -\varphi_X(x) -\biggl( -k\binom{n}{k}F_X(x)^{k-1}(1-F_X(x))^{n-k} -+ -\sum_{i=k+1}^{n+1} -\left( -i\binom{n}{i} -- -(n-i+1)\binom{n}{i-1} -\right) -F_X(x)^{i-1}(1-F_X(x))^{n-i} -\biggr) -\end{align*} -Mit den wohlbekannten Identitäten für die Binomialkoeffizienten -\begin{align*} -i\binom{n}{i} -- -(n-i+1)\binom{n}{i-1} -&= -n\binom{n-1}{i-1} -- -n -\binom{n-1}{i-1} -= -0 -\end{align*} -folgt jetzt -\begin{align*} -\varphi_{X_{k:n}}(x) -&= -\varphi_X(x)k\binom{n}{k} F_X(x)^{k-1}(1-F_X(x))^{n-k}(x). -\intertext{Im Speziellen für gleichverteilte Zufallsvariablen $X_i$ ist -} -\varphi_{X_{k:n}}(x) -&= -k\binom{n}{k} x^{k-1}(1-x)^{n-k}. -\end{align*} -Dies ist die Wahrscheinlichkeitsdichte einer Betaverteilung -\[ -\beta(k,n-k+1)(x) -= -\frac{1}{B(k,n-k+1)} -x^{k-1}(1-x)^{n-k}. -\] -Tatsächlich ist die Normierungskonstante -\begin{align} -\frac{1}{B(k,n-k+1)} -&= -\frac{\Gamma(n+1)}{\Gamma(k)\Gamma(n-k+1)} -= -\frac{n!}{(k-1)!(n-k)!}. -\label{dreieck:betaverteilung:normierung1} -\end{align} -Andererseits ist -\[ -k\binom{n}{k} -= -k\frac{n!}{k!(n-k)!} -= -\frac{n!}{(k-1)!(n-k)!}, -\] -in Übereinstimmung mit~\eqref{dreieck:betaverteilung:normierung1}. -Die Verteilungsfunktion und die Wahrscheinlichkeitsdichte der -Ordnungsstatistik sind in Abbildung~\ref{dreieck:fig:order} dargestellt. - -\begin{figure} -\centering -\includegraphics{papers/dreieck/images/order.pdf} -\caption{Verteilungsfunktion und Wahrscheinlichkeitsdichte der -Ordnungsstatistiken $X_{k:n}$ einer gleichverteilung Zuvallsvariable -mit $n=10$. -\label{dreieck:fig:order}} -\end{figure} - -\subsubsection{Erwartungswert} -Mit der Wahrscheinlichkeitsdichte kann man jetzt auch den Erwartungswerte -der $k$-ten Ordnungsstatistik bestimmen. -Die Rechnung ergibt: -\begin{align*} -E(X_{k:n}) -&= -\int_0^1 x\cdot k\binom{n}{k} x^{k-1}(1-x)^{n-k}\,dx -= -k -\binom{n}{k} -\int_0^1 -x^{k}(1-x)^{n-k}\,dx. -\intertext{Dies ist das Beta-Integral} -&= -k\binom{n}{k} -B(k+1,n-k+1) -\intertext{welches man durch Gamma-Funktionen bzw.~durch Fakultäten wie in} -&= -k\frac{n!}{k!(n-k)!} -\frac{\Gamma(k+1)\Gamma(n-k+1)}{n+2} -= -k\frac{n!}{k!(n-k)!} -\frac{k!(n-k)!}{(n+1)!} -= -\frac{k}{n+1} -\end{align*} -ausdrücken kann. -Die Erwartungswerte haben also regelmässige Abstände, sie sind in -Abbildung~\ref{dreieck:fig:order} als blaue vertikale Linien eingezeichnet. - -\subsubsection{Varianz} -Auch die Varianz lässt sich einfach berechnen, dazu muss zunächst -der Erwartungswert von $X_{k:n}^2$ bestimmt werden. -Er ist -\begin{align*} -E(X_{k:n}^2) -&= -\int_0^1 x^2\cdot k\binom{n}{k} x^{k-1}(1-x)^{n-k}\,dx -= -k -\binom{n}{k} -\int_0^1 -x^{k+1}(1-x)^{n-k}\,dx. -\intertext{Auch dies ist ein Beta-Integral, nämlich} -&= -k\binom{n}{k} -B(k+2,n-k+1) -= -k\frac{n!}{k!(n-k)!} -\frac{(k+1)!(n-k)!}{(n+2)!} -= -\frac{k(k+1)}{(n+1)(n+2)}. -\end{align*} -Die Varianz wird damit -\begin{align} -\operatorname{var}(X_{k:n}) -&= -E(X_{k:n}^2) - E(X_{k:n})^2 -\notag -\\ -& -= -\frac{k(k+1)}{(n+1)(n+2)}-\frac{k^2}{(n+1)^2} -= -\frac{k(k+1)(n+1)-k^2(n+2)}{(n+1)^2(n+2)} -= -\frac{k(n-k+1)}{(n+1)^2(n+2)}. -\label{dreieck:eqn:ordnungsstatistik:varianz} -\end{align} -In Abbildung~\ref{dreieck:fig:order} ist die Varianz der -Ordnungsstatistik $X_{k:n}$ für $k=7$ und $n=10$ als oranges -Rechteck dargestellt. - -\begin{figure} -\centering -\includegraphics[width=0.84\textwidth]{papers/dreieck/images/beta.pdf} -\caption{Wahrscheinlichkeitsdichte der Beta-Verteilung -$\beta(a,b,x)$ -für verschiedene Werte der Parameter $a$ und $b$. -Die Werte des Parameters für einen Graphen einer Beta-Verteilung -sind als Punkt im kleinen Quadrat rechts -im Graphen als Punkt mit der gleichen Farbe dargestellt. -\label{dreieck:fig:betaverteilungn}} -\end{figure} - -Die Formel~\eqref{dreieck:eqn:ordnungsstatistik:varianz} -besagt auch, dass die Varianz der proportional ist zu $k((n+1)-k)$. -Dieser Ausdruck ist am grössten für $k=(n+1)/2$, die Varianz ist -also grösser für die ``mittleren'' Ordnungstatistiken als für die -extremen $X_{1:n}=\operatorname{min}(X_1,\dots,X_n)$ und -$X_{n:n}=\operatorname{max}(X_1,\dots,X_n)$. -- cgit v1.2.1