Poisson-Verteilung - LinkFang.de





Poisson-Verteilung


Die Poisson-Verteilung (benannt nach dem Mathematiker Siméon Denis Poisson) ist eine diskrete Wahrscheinlichkeitsverteilung, mit der die Anzahl von Ereignissen modelliert werden kann, die bei konstanter mittlerer Rate unabhängig voneinander in einem festen Zeitintervall oder räumlichen Gebiet eintreten. Sie stellt einen häufig vorkommenden Grenzwert der Binomialverteilung für unendlich viele Versuche dar, lässt sich aber auch aus grundlegenden Prozesseigenschaften axiomatisch herleiten.

Die Zuwächse eines Poisson-Prozesses sind Poisson-verteilte Zufallsvariablen. Erweiterungen der Poisson-Verteilung wie die Verallgemeinerte Poisson-Verteilung und die Gemischte Poisson-Verteilung werden vor allem im Bereich der Versicherungsmathematik angewendet.

Definition

Die Poisson-Verteilung [math]P_\lambda[/math] ist eine diskrete Wahrscheinlichkeitsverteilung, die durch einen reellen Parameter [math]\lambda \gt 0[/math] bestimmt wird, der gleichzeitig den Erwartungswert und die Varianz der Verteilung darstellt. Sie ordnet den natürlichen Zahlen [math] k = 0, 1, 2, \dotsc[/math] die Wahrscheinlichkeiten

[math]P_\lambda (k) = \frac{\lambda^k}{k!}\, \mathrm{e}^{-\lambda}[/math]

zu, wobei [math]\mathrm{e}[/math] die eulersche Zahl und [math]k![/math] die Fakultät von [math]k[/math] bezeichnet. Der Parameter [math]\lambda[/math] beschreibt anschaulich die bei einer Beobachtung erwartete Ereignishäufigkeit. Die Poisson-Verteilung gibt dann die Wahrscheinlichkeit des Eintretens einer bestimmten Anzahl [math]k[/math] von Ereignissen an, wenn bekannt ist, wie viele Ereignisse [math]\lambda[/math] im Mittel zu erwarten sind.

Eigenschaften

Verteilungsfunktion

Die Verteilungsfunktion [math]F_{\lambda}[/math] der Poisson-Verteilung ist

[math]F_{\lambda}(n)=\sum_{k=0}^n P_\lambda (k) = \mathrm{e}^{-\lambda} \sum_{k=0}^n \frac{\lambda^k}{k!} = Q(n+1,\lambda)=p[/math]

und gibt die Wahrscheinlichkeit [math]p[/math] dafür an, höchstens [math]n[/math] Ereignisse zu finden, wo man [math]\lambda[/math] im Mittel erwartet. Dabei bezeichnet [math]Q(a,x)[/math] die regularisierte Gammafunktion der unteren Grenze.

Erwartungswert, Varianz, Moment

Ist die Zufallsvariable [math]X[/math] Poisson-verteilt, also [math]X\sim P_{\lambda}[/math], so ist [math]\lambda[/math] zugleich Erwartungswert und Varianz, denn es gilt

[math]\operatorname{E}(X) =\sum_{k=0}^{\infty}k\frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda} = \lambda\, \mathrm{e}^{-\lambda}\sum_{k=1}^{\infty}\frac{\lambda^{k-1}}{(k-1)!} = \lambda\, \mathrm{e}^{-\lambda}\underbrace{\sum_{j=0}^{\infty}\frac{\lambda^{j}}{j!}}_{e^\lambda} = \lambda[/math]

sowie

[math]\begin{align}\operatorname{E}(X^2) &=\sum_{k=0}^\infty k^2\frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda}= \mathrm{e}^{-\lambda}\,\sum_{k=1}^\infty k\frac{\lambda^k}{(k-1)!} = \mathrm{e}^{-\lambda}\,\left ( \sum_{k=1}^\infty (k-1)\frac{\lambda^k}{(k-1)!} + \sum_{k=1}^\infty \frac{\lambda^k}{(k-1)!} \right )\\ &= \mathrm{e}^{-\lambda}\,\sum_{k=2}^\infty \frac{\lambda^k}{(k-2)!} + \mathrm{e}^{-\lambda}\,\sum_{k=1}^\infty \frac{\lambda^k}{(k-1)!} =\lambda^2\cdot\mathrm{e}^{-\lambda}\,\sum_{k=2}^\infty \frac{\lambda^{k-2}}{(k-2)!}+\lambda\cdot\mathrm{e}^{-\lambda}\,\sum_{k=1}^\infty \frac{\lambda^{k-1}}{(k-1)!}= \lambda^2+\lambda. \end{align}[/math]

Nach der Verschiebungsformel folgt nun:

[math]\operatorname{Var}(X) = \operatorname{E}(X^2)-(\operatorname{E}(X))^2=\lambda^2+\lambda-\lambda^2=\lambda.[/math]

Auch für das dritte zentrierte Moment gilt [math]\operatorname{E}\left(\left(X-\operatorname{E}\left(X\right)\right)^3\right) = \lambda[/math].

Median

Es liegt die Vermutung nahe, dass der Median [math]n_\text{median}[/math] nahe bei [math]\lambda[/math] liegt. Eine exakte Formel existiert jedoch nicht, die genauest mögliche Abschätzung ist[1]

[math] \lambda - \ln 2 \le n_\text{median}\lt \lambda + \frac{1}{3}. [/math]

Variationskoeffizient

Aus Erwartungswert und Varianz erhält man sofort den Variationskoeffizienten

[math]\operatorname{VarK}(X) = \frac{\sqrt{\operatorname{Var}(X)}}{\operatorname{E}(X)} = \frac{1}{\sqrt{\lambda}}[/math].

Schiefe und Wölbung

Die Schiefe ergibt sich zu

[math]\operatorname{v}(X) = \frac{1}{\sqrt{\lambda}}[/math].

Die Wölbung lässt sich ebenfalls geschlossen darstellen als

[math]\beta_2 =3+\frac{1}{\lambda}[/math].

Höhere Momente

Das k-te Moment lässt sich als Polynom von Grad k in [math] \lambda [/math] angeben und ist das k-te vollständige Bell-Polynom [math] B_k [/math] ausgewertet an den k Stellen [math] \lambda [/math]:[2]

[math]m_k=B_k(\lambda, \dots, \lambda) [/math].

Kumulanten

Die kumulantenerzeugende Funktion der Poisson-Verteilung ist

[math] g_X(t)=\lambda(e^t-1) [/math].

Damit sind alle Kumulanten gleich [math] \kappa_i=\lambda [/math]

Charakteristische Funktion

Die charakteristische Funktion hat die Form

[math]\phi_{X}(s) = \sum_{k=0}^\infty\mathrm{e}^{iks}\frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda} = \mathrm{e}^{-\lambda} \sum_{k=0}^\infty\frac{\left(\lambda\, \mathrm{e}^{is}\right)^k}{k!} = \mathrm{e}^{-\lambda} \mathrm{e}^{\lambda\,\mathrm{e}^{is}} = \mathrm{e}^{\lambda\left(\mathrm{e}^{is}-1\right)}[/math].

Wahrscheinlichkeitserzeugende Funktion

Für die wahrscheinlichkeitserzeugende Funktion erhält man

[math]m_{X}(s) = \mathrm{e}^{\lambda(s-1)}[/math].

Momenterzeugende Funktion

Die momenterzeugende Funktion der Poisson-Verteilung ist

[math]M_{X}(s) = \mathrm{e}^{\lambda(\mathrm{e}^{s}-1)}.[/math]

Reproduktivität

Die Poisson-Verteilung ist reproduktiv, d. h., die Summe [math]X_1+X_2+ \dotsb +X_n[/math] stochastisch unabhängiger Poisson-verteilter Zufallsvariabler [math]X_1, X_2, \dotsc, X_n[/math] mit den Parametern [math]\lambda_1,\lambda_2, \dotsc, \lambda_n[/math] ist wieder Poisson-verteilt mit dem Parameter [math]\lambda_1 + \lambda_2 + \dotsb + \lambda_n[/math]. Somit bilden die Poisson-Verteilungen eine Faltungshalbgruppe. Dieses Ergebnis folgt unmittelbar aus der charakteristischen Funktion der Poisson-Verteilung und der Tatsache, dass die charakteristische Funktion einer Summe unabhängiger Zufallsvariablen das Produkt der charakteristischen Funktionen ist.

Die Poisson-Verteilung ist also unendlich teilbar. Nach einem Satz des sowjetischen Mathematikers D. A. Raikow gilt auch die Umkehrung: Ist eine Poisson-verteilte Zufallsvariable [math]X[/math] die Summe von zwei unabhängigen Zufallsvariablen [math]X_1[/math] und [math]X_2[/math], dann sind die Summanden [math]X_1[/math] und [math]X_2[/math] ebenfalls Poisson-verteilt. Eine Poisson-verteilte Zufallsvariable lässt sich also nur in Poisson-verteilte unabhängige Summanden zerlegen. Dieser Satz ist ein Analogon zu dem Satz von Cramér für die Normalverteilung.

Ausdünnung

Häufig kommen stochastische Experimente vor, bei denen die Ereignisse eigentlich Poisson-verteilt sind, aber die Zählung nur erfolgt, wenn noch eine zusätzliche Bedingung erfüllt ist. Beispielsweise könnte die Anzahl der Eier, die ein Insekt legt, Poisson-verteilt sein, aber aus jedem Ei schlüpft nur mit einer bestimmten Wahrscheinlichkeit eine Larve. Ein Beobachter dieser Poisson-verteilten Zufallsvariable mit Parameter [math] \lambda [/math] zählt jedes Ereignis also nur mit einer Wahrscheinlichkeit [math]p \lt 1[/math] (unabhängig voneinander).

Alternativ könnte aber auch ein Fehler bei der Zählung dazu führen, dass das Ereignis nicht registriert wird. Wenn also ursprünglich [math]n[/math] Ereignisse vorliegen, werden entsprechend der Binomial-Verteilung [math]B_{n,p}(r)[/math] nur [math]r[/math] Ereignisse gezählt. In diesem Fall ist der wahre Wert [math]n[/math] unbekannt und variiert zwischen dem gemessenen Wert [math]r[/math] (alle vorhandenen Ereignisse gesehen) und unendlich (es gab mehr Ereignisse, als gesehen wurden). Die Wahrscheinlichkeit eines Messwertes [math]r[/math] findet man dann mittels des Produktes der Wahrscheinlichkeit einer erfolgreichen Messung [math]B_{n,p}(r)[/math] und der ursprünglichen Poisson-Verteilung [math] P_\lambda(n) [/math], summiert über alle möglichen Werte [math]n[/math]:

[math]\sum\limits_{n=r}^\infty B_{n,p}(r) P_\lambda(n) = P_{p\lambda}(r)[/math].

Die gefundenen Werte [math]r[/math] bei Nachweiswahrscheinlichkeit [math]p[/math] sind also wieder Poisson-verteilt. Die Nachweiswahrscheinlichkeit [math]p[/math] reduziert den Parameter [math] \lambda [/math] der ursprünglichen Poisson-Verteilung zu [math] p\lambda [/math]. Dies bezeichnet man auch als Ausdünnung der Poisson-Verteilung.

Berechnung

Die Berechnung von [math]P_\lambda (k)[/math] kann folgendermaßen rekursiv erfolgen. Zuerst bestimmt man [math]P_\lambda (0)=\mathrm{e}^{-\lambda}[/math], dann ergeben sich nacheinander [math]P_\lambda(k)=\tfrac{\lambda}{k}\cdot P_\lambda (k-1), (k=1,2,3,\dotsc)[/math]. Mit wachsendem [math]k[/math] werden dabei die Wahrscheinlichkeiten größer, solange [math]k\lt\lambda[/math] ist. Wird [math]k\gt\lambda[/math], schrumpfen sie. Der Modus, also der Wert mit der größten Wahrscheinlichkeit, beträgt [math]k_\mathrm{Modus} =\lfloor \lambda \rfloor[/math], wenn [math]\lambda[/math] nicht ganzzahlig ist, anderenfalls gibt es zwei benachbarte [math]k_\text{Modus} = \lambda,\lambda -1[/math] (siehe Diagramm rechts oben).

Falls die Berechnung von [math] \frac{\lambda^k}{k!}\, \mathrm{e}^{-\lambda}[/math] wegen zu großer Werte von [math]\lambda[/math] und [math]k[/math] Probleme bereitet, dann kann folgende mit der Stirlingformel erhaltene Näherung weiterhelfen:

[math]\frac{\mathrm{e}^{k(1+\ln(\lambda/k))-\lambda}}{\sqrt{2\pi(k+1/6)}} .[/math]

Poisson-verteilte Zufallszahlen werden üblicherweise mit Hilfe der Inversionsmethode erzeugt.

Parameterschätzung

Maximum-Likelihood-Schätzer

Aus einer Stichprobe von [math]N[/math] Beobachtungen [math]n_i = 0,1,2,\dotsc[/math] für [math]i = 1,\dotsc,N[/math] soll der Parameter [math]\lambda[/math] der Poisson-verteilten Grundgesamtheit geschätzt werden. Der Maximum-Likelihood-Schätzer ist gegeben durch das arithmetische Mittel

[math]\widehat{\lambda}=\frac{1}{N}\sum_{i=1}^N n_i[/math].

Der Maximum-Likelihood-Schätzer ist ein unverzerrter, effizienter und suffizienter Schätzer für den Parameter [math]\lambda[/math].

Konfidenzintervall

Das Konfidenzintervall für [math]\lambda[/math] erhält man aus der Beziehung zwischen Poisson- und Chi-Quadrat-Verteilung. Liegt ein Stichprobenwert [math]n[/math] vor, dann ist ein Konfidenzintervall für [math]\lambda[/math] zum Konfidenzniveau [math]1-\alpha[/math] gegeben durch

[math]\tfrac 12\chi^{2}(\alpha/2; 2n) \le \lambda \le \tfrac 12 \chi^{2}(1-\alpha/2; 2n+2)[/math],

wobei [math]\chi^{2}(p;i)[/math] die Quantilfunktion der Chi-Quadrat-Verteilung mit [math]i[/math] Freiheitsgraden bezeichnet.

Prognoseintervall

Das Prognoseintervall hat die Aufgabe, vor dem Ziehen einer Stichprobe einen Bereich vorherzusagen, in dem man die Realisierung einer Schätzfunktion mit hoher Wahrscheinlichkeit findet. Die Anzahl [math]n_\text{up}[/math] Poisson-verteilter Ereignisse, die mit vorgegebener Wahrscheinlichkeit [math]p \lt 1[/math] nicht überschritten wird, lässt sich aus der Inversion der Verteilungsfunktion berechnen:

[math]n_\text{up} = F_{\lambda}^{-1}(p).[/math]

Dabei lässt sich wieder [math]F_{\lambda}(n)=p[/math] durch die regularisierte Gammafunktion [math]Q(n+1,\lambda)=p[/math] ausdrücken. Dies ist hilfreich, da keine elementare Form der Inversion der Verteilungsfunktion [math]F_{\lambda}[/math] bekannt ist.

Beziehung zu anderen Verteilungen

Beziehung zur Binomialverteilung

Hauptartikel: Poisson-Approximation

Ebenso wie die Binomialverteilung sagt die Poisson-Verteilung das zu erwartende Ergebnis einer Serie von Bernoulli-Experimenten voraus. Letzteres sind Zufallsexperimente, die nur zwei mögliche Ergebnisse kennen (zum Beispiel „Erfolg“ und „Misserfolg“), also einen dichotomen Ereignisraum besitzen. Wird das zeitliche oder räumliche Beobachtungsintervall immer weiter unterteilt, erhöht sich damit die Zahl der Versuche [math]( n \to \infty )[/math]. Die fortschreitende Unterteilung bedingt eine Abnahme der Erfolgswahrscheinlichkeit [math]( p \to 0 )[/math] derart, dass das Produkt [math]n \cdot p[/math] gegen einen endlichen Grenzwert [math]\lambda[/math] konvergiert. Dementsprechend nähert sich die binomiale Wahrscheinlichkeitsverteilung der mathematisch etwas einfacheren Poisson-Verteilung an.

Die Poisson-Verteilung lässt sich aus der Binomialverteilung herleiten. Sie ist die Grenzverteilung der Binomialverteilung bei sehr kleinen Anteilen der interessierenden Merkmale und sehr großem Stichprobenumfang: [math]n\rightarrow\infty[/math] und [math]p\rightarrow 0[/math] unter der Nebenbedingung, dass das Produkt [math]np=\lambda[/math] einen Wert annimmt, der weder null noch unendlich ist. [math]\lambda[/math] ist dann für alle in der Grenzwertbildung betrachteten Binomialverteilungen wie auch für die resultierende Poisson-Verteilung der Erwartungswert.

Sowohl die Poisson-Verteilung, als auch die Binomialverteilung sind Spezialfälle der Panjer-Verteilung.

Beziehung zur verallgemeinerten Binomialverteilung

Auch die verallgemeinerte Binomialverteilung kann für große Stichproben und kleine Erfolgswahrscheinlichkeiten mittels der Poisson-Approximation angenähert werden.

Beziehung zur Normalverteilung

Die Poisson-Verteilung [math]P_{\lambda}[/math] hat für kleine Werte von [math]\lambda[/math] eine stark asymmetrische Gestalt. Für größer werdendes [math]\lambda[/math] wird [math]P_{\lambda}[/math] symmetrischer und ähnelt ab etwa [math]\lambda=30[/math] einer gaußschen Normalverteilung mit [math]\mu=\lambda[/math] und [math]\sigma^2=\lambda[/math]:

[math]P_{\lambda}(k) \approx \frac {1}{\sqrt{2\pi\lambda}}\exp\left(-\frac{(k-\lambda)^2}{2\lambda}\right).[/math]

Beziehung zur Erlang-Verteilung

  • In einem Poisson-Prozess genügt die zufällige Anzahl der Ereignisse in einem festgelegten Intervall der Poisson-Verteilung [math]P_{\lambda}[/math]. Der zufällige Abstand (Strecke oder Zeit) bis zum Eintreffen des [math]n[/math]-ten Ereignisses sowie der Abstand zwischen den Ereignissen [math]m[/math] und [math]m+n[/math] sind hingegen [math]\operatorname{Erl}(g,n)[/math] Erlang-verteilt. Man sagt auch, dass die Poisson-Verteilung und die Erlang-Verteilung zueinander konjugierte Verteilungen sind. Im Fall [math]n=1[/math] geht diese Erlang-Verteilung in eine Exponentialverteilung über [math]\operatorname{Erl}(g,1)=\operatorname{Exp}(g)[/math]. Dabei bezeichnet [math]g[/math] die Zahl der erwarteten Ereignisse pro Einheitsintervall. [math]g\, \mathrm{e}^{-g x}[/math] ist dann die Verteilungsdichte des Abstands [math]x[/math], der bis zum Eintreffen des nächsten Ereignisses vergehen wird, wie auch des Abstandes zwischen zwei aufeinanderfolgen Ereignissen.
  • Für die Verteilungsfunktionen der Erlang-Verteilung und der Poisson-Verteilung gilt
[math]F_{\text{Erlang}}(n+1) + F_{\text{Poisson}}(n) = 1[/math].

Beziehung zur Chi-Quadrat-Verteilung

Die Verteilungsfunktionen der Poisson-Verteilung [math]F_{\lambda}[/math] und der Chi-Quadrat-Verteilung mit [math]m[/math] Freiheitsgraden [math]F_m[/math] hängen auf folgende Weise zusammen:

Die Wahrscheinlichkeit, [math]n[/math] oder mehr Ereignisse in einem Intervall zu finden, innerhalb dessen man im Mittel [math]\lambda[/math] Ereignisse erwartet, ist gleich der Wahrscheinlichkeit, dass der Wert von [math]\chi_{2n}^2\leq 2\lambda[/math] ist. Es gilt also

[math]1-F_{\lambda}(n-1)=F_{2n}(2\lambda)[/math].

Dies folgt aus [math]1 - Q(n, \lambda ) = P(n, \lambda )[/math] mit [math]P[/math] und [math]Q[/math] als regularisierte Gammafunktionen.

Beziehung zur Skellam-Verteilung

Dagegen ist die Differenz [math]X_1-X_2[/math] zweier stochastisch unabhängiger Poisson-verteilter Zufallsvariablen [math]X_1[/math] und [math]X_2[/math] mit den Parametern [math]\lambda_1[/math] und [math]\lambda_2[/math] nicht wieder Poisson-verteilt, sondern Skellam-verteilt.[3] Es gilt:

[math] P_{\lambda_1,\lambda_2}(X_1-X_2=k)= e^{-(\lambda_1+\lambda_2)} \left(\frac{\lambda_1}{\lambda_2}\right)^{k/2}I_{k}(2\sqrt{\lambda_1\lambda_2}) [/math],

wobei [math] I_k(z) [/math] die modifizierte Bessel-Funktion bezeichnet.

Weitere Poisson-Verteilungen

Einige weitere Verteilungen tragen teilweise den Namen „Poisson“ und sind Verallgemeinerungen der hier beschriebenen Poisson-Verteilung:

Bivariate Poisson-Verteilung

Die bivariate Poisson-Verteilung[4] wird definiert durch

[math] P(X_1=k_1,X_2=k_2) = \exp\left(-\lambda_1-\lambda_2-\lambda_3\right) \frac{\lambda_1^{k_1}}{k_1!} \frac{\lambda_2^{k_2}}{k_2!} \sum_{k=0}^{\min(k_1,k_2)} \binom{k_1}{k} \binom{k_2}{k} k! \left( \frac{\lambda_3}{\lambda_1\lambda_2}\right)^k [/math]

Die Randverteilungen sind Poisson-verteilt mit den Parametern [math]\lambda_1[/math] und [math]\lambda_2[/math] und es gilt [math]\operatorname{Cov}(X_1,X_2)=\lambda_3[/math]. Die Differenz ist Skellam-verteilt mit den Parametern [math]\lambda_1[/math] und [math]\lambda_2[/math].

Dies bedeutet, dass man relativ einfach Abhängigkeiten zwischen Poisson-verteilten Zufallsvariablen einführen kann, wenn man die Mittelwerte der Randverteilungen sowie die Kovarianz kennt oder schätzen kann. Man kann dann die bivariate Poisson-Verteilung [math]X_1,X_2[/math] einfach erzeugen, indem man drei unabhängige Poisson-verteilte Zufallsvariablen [math]Y_1,Y_2,Y_3[/math] definiert mit Parametern [math]\lambda_1,\lambda_2,\lambda_3[/math] und dann [math]X_1 = Y_1 + Y_3,X_2 = Y_2 + Y_3[/math] setzt.

Analog kann die multivariate Poisson-Verteilung[5] definiert werden.

Anwendungsbeispiele

„Seltene“ Ereignisse

Das klassische Beispiel stammt von Ladislaus von Bortkewitsch, der bei der Untersuchung der Anzahlen der Todesfälle durch Hufschlag in den einzelnen Kavallerie-Einheiten der preußischen Armee pro Jahr belegen konnte, dass diese Anzahlen gut durch eine Poisson-Verteilung beschrieben werden können.[6]

Allgemein müssen für die einzelnen Zählereignisse (im Beispiel die einzelnen Todesfälle durch Hufschläge) die folgenden Bedingungen gelten, damit die Anzahl Poisson-verteilt ist:[7]

  1. Einzelereignisse: Die Wahrscheinlichkeit, dass zwei Ereignisse in einem kurzen Zeitraum auftreten, ist vernachlässigbar.
  2. Proportionalität: Die Wahrscheinlichkeit, ein Ereignis in einem kurzen Zeitraum zu beobachten, ist proportional zur Länge des Zeitraums.
  3. Homogenität: Die Wahrscheinlichkeit, ein Ereignis in einem kurzen Zeitraum zu beobachten, ist unabhängig von der Lage des Zeitraums.
  4. Unabhängigkeit: Die Wahrscheinlichkeit, ein Ereignis in einem kurzen Zeitraum zu beobachten, ist unabhängig von der Wahrscheinlichkeit eines Ereignisses in anderen nicht-überlappenden Zeiträumen.

Alternativ kann man diese Bedingungen auch damit erklären, dass die Wartezeit zwischen zwei Ereignissen exponentialverteilt ist. Da diese gedächtnislos ist, treten die Ereignisse quasi zufällig und unabhängig voneinander ein.

Es ist in jedem Einzelfall zu prüfen, ob die Bedingungen vorliegen, aber typische Beispiele sind:

  • Anzahl der Druckfehler auf einer Buchseite
  • Anzahl der ankommenden Gespräche pro Stunde in einer Telefonzentrale
  • Anzahl der radioaktiven Zerfälle einer Substanz in einem gegebenen Zeitintervall (vorausgesetzt, dass die Zerfallsrate nicht merklich abnimmt, die Messdauer also klein im Vergleich zur Halbwertszeit ist)
  • Anzahl der Blitzeinschläge pro ha und Jahr
  • Anzahl der aufgetretenen Impfschäden pro Jahr
  • die Bombardierung von London[8]

Nach dem Satz von Palm-Chintschin konvergieren sogar allgemeine Erneuerungsprozesse unter relativ milden Bedingungen gegen einen Poisson-Prozess, d. h. auch hier ergibt sich für die Anzahl der Ereignisse wieder die Poisson-Verteilung. Das bedeutet, dass die oben angegebenen Bedingungen noch erheblich abgeschwächt werden können.

Ankünfte von Kunden

In Warteschlangensystemen kommen Kunden oder Aufträge im System an, um bedient zu werden. In der Warteschlangentheorie werden die unterschiedlichen Modelle in der Kendall-Notation beschrieben. Dabei werden häufig insb. die Anzahl der Kunden, die in einem gewissen Zeitintervall ankommen, mit einer Poisson-Verteilung modelliert (abgekürzt durch M für exponentialverteilte Zwischenankunftszeiten). Diese Modellbildung ist sehr attraktiv, da sich unter dieser Annahme oft einfache analytische Lösungen ergeben.[9]

Häufig kann diese Annahme auch näherungsweise gerechtfertigt werden, hier soll an einem Beispiel illustriert werden, was diese Annahme bedeutet: Ein Kaufhaus wird beispielsweise an einem Samstag durchschnittlich alle 10 Sekunden von einem Kunden betreten. Werden nun im Takt von einer Minute die Personen gezählt, die neu dazu kamen, so würde man im Mittel 6 Personen erwarten, die das Kaufhaus pro Minute betreten. Die Wahl der Länge des Intervalls liegt beim Beobachter. Würde man eine Stunde als Beobachtungsintervall wählen, ergäbe sich [math]\lambda = 6 \cdot 60 = 360[/math], bei einem Intervall von 1 Sekunde wäre [math]\lambda = 1 / 10 = 0{,}1[/math]. Die relative Schwankung der Kundenanzahl ([math]\sqrt{\lambda} / \lambda[/math]) nimmt mit größer werdendem Intervall und folglich größer werdendem [math]\lambda[/math] ab. Das längere Intervall erlaubt also über die längere Mittelung eine im Prinzip präzisere Beobachtung, ist aber mit mehr Aufwand verbunden und kann innerhalb des Intervalls auftretende Veränderung der Bedingungen (z. B. Ankunft eines Busses mit einkaufswilligen Touristen) nicht erfassen.

Unter folgenden Randbedingungen könnte eine Poissonverteilung vorliegen:

  1. Die Kunden müssen einzeln ankommen. In der Realität kommen aber häufig Personengruppen gemeinsam an.
  2. Die Wahrscheinlichkeit, dass ein Kunde ankommt, könnte proportional zur Länge des Beobachtungszeitraums sein.
  3. Es gibt sicherlich über den Tag verteilt Stoßzeiten mit erhöhtem Kundenaufkommen, und Flauten.
  4. Die Kundenankünfte in verschiedenen Zeiträumen sind nicht notwendigerweise unabhängig. Z. B. bei Überfüllung des Kaufhauses könnten Kunden abgeschreckt werden.

In diesem Beispiel ist die Annahme der Poisson-Verteilung nur schwer zu rechtfertigen, daher gibt es Warteschlangenmodelle z. B. mit Gruppenankünften, endlichen Warteschlangen oder anderen Ankunftsverteilungen, um diesen Ankunftsprozess realistischer zu modellieren. Glücklicherweise sind einige wichtige Kennzahlen, wie z. B. nach Littles Gesetz die durchschnittliche Anzahl von Kunden im System, nicht von der konkreten Verteilung abhängig, d. h. auch wenn Annahmen verletzt sind, gilt dasselbe Ergebnis.[10]

Ball-Fächer-Modell

Im Gebiet Abzählende Kombinatorik besteht eine Standard-Aufgabe darin, Bälle oder Kugeln auf Fächer zu verteilen und abzuzählen, wie viele Möglichkeiten es gibt. Ordnet man die [math]N[/math] Bälle den [math]n[/math] Fächern zufällig zu, so erhält man für die Anzahl der Bälle in einem festen Fach eine Binomialverteilung mit [math]p=1/n[/math]. Eine Anwendung ist z. B. die Verteilung von Rosinen auf einem Kuchen, mit dem Ziel, dass jedes Stück eine Mindestanzahl von Rosinen enthält.

Das Bild rechts zeigt einen Ausschnitt eines Fußbodens mit quadratischen Fliesen, auf dem Reiskörner zufällig verstreut wurden. Die [math]n=49[/math] Felder enthalten je [math]k=0,\dotsc,5[/math] Reiskörner und insgesamt befinden sich [math]N=66[/math] Reiskörner im betrachteten Ausschnitt. Man kann die Wahrscheinlichkeiten jetzt direkt über die Binomialverteilung bestimmen, aber es sind auch die Voraussetzungen der Poisson-Approximation erfüllt.

Der Vergleich zwischen Experiment und berechneter Poisson-Verteilung [math]P(X=k)[/math], wobei [math]\lambda = N/n = 66/49 = 1{,}35[/math] Reiskörner/Quadrate ist, zeigt intuitiv eine gute Übereinstimmung. Statistisch könnte man die Güte mit einem Anpassungstest überprüfen.

[math]k[/math] gezählt [math]P(X=k)\cdot49[/math]

0

15

12,7

1

15

17,2

2

11

11,6

3

5

5,2

4

1

1,7

5

2

0,5

Die Wahrscheinlichkeit, dass ein bestimmtes Feld leer bleibt, ist etwa 26 %:

[math]P(X=0)=\frac{1{,}35^0}{0!}\,\mathrm{e}^{-1{,}35} \approx 0{,}26.[/math]

Sportergebnisse

In vielen Sportarten geht es in einem Wettbewerb darum, innerhalb eines bestimmten Zeitraums mehr zählende Ereignisse zu erwirken als der Gegner. Der Physiker Metin Tolan hat in seinem Buch zum Fußballspiel die Anwendbarkeit der Poisson-Verteilung im Sport ausführlich untersucht.[11]

Die (zeitliche) Konstanz der Ereigniswahrscheinlichkeit – eine hinreichende Voraussetzung für die Anwendung der Poisson-Statistik (siehe oben unter Poissonsche Annahmen) – ist bei Sportergebnissen in der Regel höchstens näherungsweise gegeben. Aber ist man nur an dem reinen Zählwert, z. B. der Torzahl einer Mannschaft, interessiert, so ergibt sich auch bei zeitabhängiger Torrate eine Poisson-Verteilung.[12] Schwieriger zu rechtfertigen ist die oft getroffene Annahme, dass die Tor- oder Punktzahlen zweier Mannschaften unabhängig sind. Kann man diese Annahme nicht statistisch ausreichend begründen, z. B. durch Hypothesen- oder Anpassungstest auf Übereinstimmung der Daten mit der Poisson-Verteilung, so kann man beispielsweise zur bivariaten Poisson-Verteilung übergehen und durch Schätzung der Kovarianz eine Abhängigkeit einführen.

Metin Tolan begründet, dass man die Torzahl einer Mannschaft in einem Fußballspiel in guter Näherung als Poisson-verteilt annehmen darf.[13] In seinem Ansatz berücksichtigt er zur Schätzung allerdings nur die durchschnittliche Anzahl von Toren pro Spiel und Mannschaft, d. h. er betrachtet beispielsweise nicht die Spielstärke der gegnerischen Mannschaft. Er hat auch nachgewiesen, dass über 70 % der Varianz der Punkteverteilung in der Fußball-Bundesliga durch Zufall erklärt werden können. Dies belegt auch aus stochastischer Sicht, warum Fußball spannend ist.

Für das Pokalendspiel 2015 hätte Tolan z. B. auf Grundlage der abgelaufenen Bundesliga-Saison für den VfL Wolfsburg 2,12 Tore und für Borussia Dortmund 1,38 Tore geschätzt. Andreas Heuer geht einen Schritt weiter und definiert die Spielstärke einer Mannschaft als die mittlere Tordifferenz einer Mannschaft beim Spiel gegen einen durchschnittlichen Gegner auf neutralem Platz.[14] Ebenfalls mit den Daten aus der abgelaufenen Bundesliga-Saison hätte man für den VfL Wolfsburg eine mittlere Tordifferenz von 1 und für Borussia Dortmund von 0,15 geschätzt. Um zu einer Spielprognose zu kommen, muss man nach Heuer noch die mittlere Anzahl der Tore pro Spiel berücksichtigen. Für diese beiden Mannschaften wäre das 2,92 und Heuer würde für den VfL Wolfsburg 1,885 Tore und für Borussia Dortmund 1,035 Tore schätzen. Für Saisonprognosen berücksichtigt Heuer in seinem kompletten Modell noch weitere Parameter wie die Heimstärke, den Marktwert oder das Abschneiden der Mannschaften in den Vorsaisons. Das Endspiel endete in der Praxis dann mit 3 Toren für Wolfsburg und einem Tor für Dortmund.

2/3-Gesetz beim Roulette

Die Poisson-Verteilung ergibt eine gute Schätzung, wie viele verschiedene Nummern bei 37 Roulette-Spielen getroffen werden.

Literatur

Weblinks

 Wikibooks: Poissonverteilung (für Anfänger) – Lern- und Lehrmaterialien

Einzelnachweise

  1. Adell, Jodra: The median of the poisson distribution. In: Metrika, 61, 2005, S. 337–346.
  2. A. Papoulis: Poisson Process and Shot Noise. In: Probability, Random Variables, and Stochastic Processes. 2. Aufl. McGraw-Hill, New York 1984, S. 554–576.
  3. J. G. Skellam: The frequency distribution of the difference between two Poisson variates belonging to different populations. In: Journal of the Royal Statistical Society, Series A, 109 (3), 1946, S. 296.
  4. Kazutomu Kawamura: The structure of bivariate Poisson distribution. In: Kodai Mathematical Seminar Reports, Volume 25, Number 2, 1973, S. 246-256
  5. Kazutomu Kawamura: The structure of multivariate Poisson distribution. In: Kodai Mathematical Seminar Reports, Volume 25, Number 2, 1973, S. 333-345
  6. Ladislaus von Bortkewitsch: Das Gesetz der kleinen Zahlen. Leipzig 1898 (archive.org )
  7. Poisson-Verteilung Humboldt-Universität Berlin
  8. R.D. Clarke: An application of the Poisson distribution.
  9. Donald Gross, Carl M. Harris: Fundamentals of Queuing Theory. Wiley & Sons, New York 1994.
  10. Rolf Schassberger: Warteschlangen. Springer Verlag, Wien, 1973, ISBN 3-211-81074-9
  11. Metin Tolan: Manchmal gewinnt der Bessere: die Physik des Fußballspiels, Piper, 2011
  12. Alessandro Birolini: Reliability Engineering, Springer, 2014, insb. A7.8.2
  13. Holger Dambeck: Ist Fußball ein Glücksspiel? In: Spektrum der Wissenschaft, Juni 2010, S. 68–70.
  14. Andreas Heuer: Der perfekte Tipp. Wiley VCH, 2012.

Kategorien: Wahrscheinlichkeitsverteilung

Quelle: Wikipedia - http://de.wikipedia.org/wiki/Poisson-Verteilung (Vollständige Liste der Autoren des Textes [Versionsgeschichte])    Lizenz: CC-by-sa-3.0

Änderungen: Alle Bilder mit den meisten Bildunterschriften wurden entfernt. Ebenso alle zu nicht-existierenden Artikeln/Kategorien gehenden internen Wikipedia-Links (Bsp. Portal-Links, Redlinks, Bearbeiten-Links). Entfernung von Navigationsframes, Geo & Normdaten, Mediadateien, gesprochene Versionen, z.T. ID&Class-Namen, Style von Div-Containern, Metadaten, Vorlagen, wie lesenwerte Artikel. Ansonsten sind keine Inhaltsänderungen vorgenommen worden. Weiterhin kann es durch die maschinelle Bearbeitung des Inhalts zu Fehlern gerade in der Darstellung kommen. Darum würden wir jeden Besucher unserer Seite darum bitten uns diese Fehler über den Support mittels einer Nachricht mit Link zu melden. Vielen Dank!

Stand der Informationen: August 201& - Wichtiger Hinweis: Da die Inhalte maschinell von Wikipedia übernommen wurden, ist eine manuelle Überprüfung nicht möglich. Somit garantiert LinkFang.de nicht die Richtigkeit und Aktualität der übernommenen Inhalte. Sollten die Informationen mittlerweile fehlerhaft sein, bitten wir Sie darum uns per Support oder E-Mail zu kontaktieren. Wir werden uns dann innerhalb von spätestens 10 Tagen um Ihr Anliegen kümmern. Auch ohne Anliegen erfolgt mindestens alle drei Monate ein Update der gesamten Inhalte.