Kontinuierliche Wahrscheinlichtkeitsverteilung

Fassen wir jetzt $x$ als kontinuierliche Variable auf, während wir $p$ und $n$ bestimmt, aber beliebig, lassen,dann können wir danach ableiten. Dazu nutzen wir für große $x$ und $n$ eine Näherung auf Basis der Stirling-Formel1.2 :

$\displaystyle \ln x! \approx x \ln x - n \qquad \frac{ d \ln x!}{ dx} \approx \ln x
$

$\displaystyle \frac{ d \ln P (x)}{ dx} \approx \textcolor{rot}{\ln (n-x)} - \textcolor{orange}{\ln(x)} + \textcolor{gruen}{\ln(p)} - \textcolor{blau}{\ln(1-p)}
$

Im Maximum der Verteilung ist $\left. \frac{ d \ln P (x)}{ dx} \right\vert _{x=x_{\text{max.}}} = 0$ und damit:
$\displaystyle \left. \frac{ d \ln P (x)}{ dx} \right\vert _{x=x_{\text{max.}}} = 0$ $\displaystyle =$ $\displaystyle \ln (n-x_{\text{max.}}) - \ln(x_{\text{max.}}) + \ln(p) - \ln(1-p)$ (1.40)
$\displaystyle \Rightarrow \ln (x_{\text{max.}} (1-p))$ $\displaystyle =$ $\displaystyle \ln(p (n-x_{\text{max.}}))$ (1.41)
$\displaystyle \Rightarrow x_{\text{max.}}$ $\displaystyle =$ $\displaystyle p n = <x>$ (1.42)

D.h. das Maximum der Verteilung ist für große $n$ gleich dem Mittelwert. Wir berechnen zunächst die zweite Ableitung an dieser Stelle

$\displaystyle \left. \frac{ d^{2} \ln P (x)}{ dx^{2}} \right\vert _{x = \langle...
...{1}{n ( 1-p)} - \frac{1}{n p} = - \frac{1}{np (1-p)} = - \frac{1}{\sigma^{2}}
$

wobei $\sigma^{2} = np (1-p)$ ist, und entwickeln um das Maximum:
$\displaystyle \ln P (x)$ $\displaystyle =$ $\displaystyle \ln P (\langle x \rangle) +
( x - \langle x \rangle ) \left. \fra...
... \frac{ d^{2} \ln P (x)}{ dx^{2}} \right\vert _{x = \langle x \rangle} +
\cdots$  
  $\displaystyle \approx$ $\displaystyle \ln P (\langle x \rangle) - ( x - \langle x \rangle )^{2} \; \frac{1}{2 n p ( 1-p)}$  
  $\displaystyle =$ const.$\displaystyle \; - \frac{(x - n p )^{2}}{2 \sigma^{2}}$  

weil die erste Ableitung an der Stelle $x = \langle x \rangle $ verschwindet. Lassen wir auf den Logarithmus verschwinden, dann erhalten wir:

$\displaystyle e^{ \ln P (x)} = P (x) = e^{\text{const.} \; - \frac{(x - n p )^{...
...x - n p )^{2}}{2 \sigma^{2}}} =
C e^{ - \frac{(x - n p )^{2}}{2 \sigma^{2}}}
$

Die Verteilung hat also die Form einer Gauß-Verteilung mit dem Parametern $\mu = np$ und $\sigma^{2} = np (1-p)$. Die Konstante $C$ ergibt sich aus der Normierungsbedingung:

$\displaystyle 1 \stackrel{!}{=} \int P (x) dx = C \; \int e^{ - \frac{(x - n p )^{2}}{2 \sigma^{2}}} dx =
C \; \sqrt{2 \pi \sigma^{2}}
$

Damit sind wir fertig und haben die Gauss-Verteilung abgeleitet:

$\displaystyle \boxed{ \boxed{
P(x,\mu,\sigma^{2})
= \frac{1}{\sqrt{2 \pi \sigma^{2}}} \; e^{- \frac{(x-\mu)^{2}}{2 \sigma^{2}}}
}}$ (1.43)

Figure: Vergleich Gaussverteilung mit Binomialerteilung
\includegraphics[width=9cm]{HTMLBilder/Normalapproximationtobinomial}