Verteilungsfunktion (Stochastik) - LinkFang.de





Verteilungsfunktion (Stochastik)


Dieser Artikel behandelt die Verteilungsfunktion in der Wahrscheinlichkeitsrechnung; zur Verteilungsfunktion in der beschreibenden Statistik siehe Empirische Verteilungsfunktion, zum allgemeinen maßtheoretischen Begriff siehe Verteilungsfunktion (Maßtheorie).

Eine (kumulative) Verteilungsfunktion ist in der Wahrscheinlichkeitstheorie eine reellwertige Funktion, mit der man die Wahrscheinlichkeitsverteilung einer reellen Zufallsvariablen beschreiben kann. Sie ordnet jeder reellen Zahl [math]x[/math] die Wahrscheinlichkeit zu, dass die Zufallsvariable einen Wert annimmt, der kleiner oder gleich [math]x[/math] ist. In der Regel spricht man einfach von einer Verteilungsfunktion. Die explizite Kennzeichnung als kumulativ soll der Verwechslung mit der Wahrscheinlichkeitsfunktion oder Dichtefunktion vorbeugen. Gelegentlich spricht man auch von wahrscheinlichkeitstheoretischen Verteilungsfunktionen oder Verteilungsfunktionen im engeren Sinne, um sie von den etwas allgemeineren maßtheoretischen Verteilungsfunktionen abzugrenzen.

Die Verteilungsfunktion ist eine der grundlegenden Begriffsbildungen der Wahrscheinlichkeitstheorie, wenngleich in neuerer Literatur der Fokus stärker auf Verteilungen selbst liegt.

Die Entsprechung der Verteilungsfunktion in der deskriptiven Statistik ist die empirische Verteilungs- oder Summenhäufigkeitsfunktion.

Definition

Definition mittels Wahrscheinlichkeitsmaß

Gegeben sei ein Wahrscheinlichkeitsmaß [math] P [/math] auf dem Ereignisraum der reellen Zahlen, d. h. jede reelle Zahl kann als mögliches Ergebnis aufgefasst werden. Dann heißt die Funktion

[math] F: \R \to [0,1] [/math]

definiert durch

[math] F_P(x)=P((- \infty, x]) [/math]

die Verteilungsfunktion von [math] P [/math]. Mit anderen Worten: Die Funktion gibt an der Stelle [math] x [/math] an, mit welcher Wahrscheinlichkeit ein Ergebnis aus der Menge [math] (- \infty, x] [/math] (alle reellen Zahlen kleiner oder gleich [math] x [/math]) eintritt.

Definition mittels Zufallsvariable

Ist [math] X [/math] eine reelle Zufallsvariable, so nennt man die Funktion

[math] F_X(x)=P(X \leq x) [/math]

die Verteilungsfunktion von [math] X [/math]. Dabei bezeichnet [math] P(X \leq x) [/math] die Wahrscheinlichkeit, dass [math] X [/math] einen Wert kleiner oder gleich [math] x [/math] annimmt.

Somit ist die Verteilungsfunktion einer Zufallsvariable genau die Verteilungsfunktion ihrer Verteilung.

Beispiele

Wahrscheinlichkeitsmaße mit Dichten

Besitzt das Wahrscheinlichkeitsmaß [math] P [/math] eine Wahrscheinlichkeitsdichte [math] f_P [/math], so gilt

[math] P((a,b])=\int_a^b f_P(x) \, \mathrm dx [/math].

Somit hat in diesem Fall die Verteilungsfunktion die Darstellung

[math] F_P(x)=\int_{- \infty}^x f_P(t) \, \mathrm d t [/math].

Beispielsweise hat die Exponentialverteilung die Dichte

[math]f_{\lambda}(x)= \begin{cases}\displaystyle \lambda{\rm e}^{-\lambda x} & x\geq 0 \\ 0 & x \lt 0 \end{cases}[/math].

Ist also die Zufallsvariable [math] X [/math] exponentialverteilt, also [math] X \sim \operatorname{Exp}(\lambda) [/math], so ist

[math] F_X(x)= \int_{- \infty}^x f_\lambda(t)\, \mathrm dt =\begin{cases} 1-\mathrm{e}^{-\lambda x}& x\geq 0, \\ 0 & x \lt 0. \end{cases} [/math].

Dieses Vorgehen ist jedoch nicht allgemein gangbar. Erstens besitzen nicht alle Wahrscheinlichkeitsmaße auf den reellen Zahlen eine Dichtefunktion (Beispielsweise diskrete Verteilungen, aufgefasst als Verteilungen in [math] \R [/math]), zweitens muss selbst bei der Existenz einer Dichtefunktion nicht notwendigerweise eine Stammfunktion mit geschlossener Darstellung existieren (wie Beispielsweise bei der Normalverteilung).

Diskrete Wahrscheinlichkeitsmaße

Betrachtet man zu einem Parameter [math] p \in (0,1) [/math] eine Bernoulli-Verteilte Zufallsvariable [math] X [/math], so ist

[math] P(X=0) = 1-p \text{ und } P(X=1)=p [/math]

und für die Verteilungsfunktion folgt dann

[math] F_X(x)=\begin{cases} 0 & \text{ falls } x \lt0 \\ 1-p & \text{ falls } 0 \leq x \lt 1 \\ 1 & \text{ falls } x \geq 1 \end{cases} [/math]

Ist allgemeiner [math]X[/math] eine Zufallsvariable mit Werten in den nichtnegativen ganzen Zahl [math]\N_0[/math], dann gilt

[math]F_X(x) = \sum_{k=0}^{\lfloor x \rfloor} P(X=k)[/math].

Dabei bezeichnet [math]\lfloor \cdot \rfloor[/math] die Abrundungsfunktion, das heißt [math]\lfloor x \rfloor[/math] ist größte ganze Zahl, die kleiner oder gleich [math]x[/math] ist.

Eigenschaften und Zusammenhang zur Verteilung

Jede Verteilungsfunktion [math]F\colon\R\rightarrow [0,1][/math] hat folgende Eigenschaften:

  1. [math]F[/math] ist monoton steigend.
  2. [math]F[/math] ist rechtsseitig stetig.
  3. [math]\lim_{x \to -\infty} F(x) = 0[/math] und [math]\lim_{x \to \infty} F(x) = 1[/math].

Darüber hinaus ist jede Funktion [math]F\colon\R\rightarrow [0,1][/math], die die Eigenschaften 1-3 erfüllt, eine Verteilungsfunktion. Folglich ist eine Charakterisierung der Verteilungsfunktion mit Hilfe der drei Eigenschaften möglich. So gibt es zu jeder Verteilungsfunktion [math]F\colon\mathbb{R}\rightarrow [0,1][/math] genau solch ein Wahrscheinlichkeitsmaß [math]P_F\colon\mathcal{B}(\mathbb{R})\to[0,1][/math], dass für alle [math]x\in\mathbb{R}[/math] gilt:

[math]P_F\left(]-\infty,x]\right)=F(x)[/math]

Umgekehrt gibt es zu jedem Wahrscheinlichkeitsmaß [math]P\colon\mathcal{B}(\mathbb{R})\to[0,1][/math] eine Verteilungsfunktion [math]F_P\colon\mathbb{R}\rightarrow [0,1][/math] derart, dass für alle [math]x\in\mathbb{R}[/math] gilt:

[math]P\left(]-\infty,x]\right)=F_P(x)[/math]

Daraus folgt die Korrespondenz von [math]P_{(F_P)}=P[/math] und [math]F_{(P_F)}=F[/math]. Dieser Sachverhalt wird in der Literatur auch Korrespondenzsatz genannt.[1]

Jede Verteilungsfunktion besitzt höchstens abzählbar viele Sprungstellen.

Da jede Verteilungsfunktion rechtsstetig ist, existiert auch der rechtsseitige Grenzwert und es gilt für alle [math]x\in\mathbb{R}[/math]:

[math]P_F\left(\{x\}\right)=F(x)-\lim_{\varepsilon\to0+}F(x-\varepsilon)[/math]

Deswegen ist [math]F[/math] genau dann stetig, wenn [math]P(\{x\})=0[/math] für alle [math]x\in\mathbb{R}[/math] gilt.

Rechnen mit Verteilungsfunktionen

Ist von einer Zufallsvariablen die Verteilungsfunktion bekannt, so kann man die Wahrscheinlichkeit berechnen, mit der die Zufallsvariable Werte zwischen zwei reellen Zahlen annimmt:

[math]P(a\ltX \leq b) = P(X \leq b) - P(X \leq a) = F(b) - F(a)[/math]
Beispiel

Beim Würfeln errechnet sich die Wahrscheinlichkeit, eine Zahl zwischen 2 (exklusive) und einschließlich 5 zu würfeln, zu

[math]P(2 \lt X \leq 5) = F(5) - F(2) = {5 \over 6} - {2 \over 6} = {3 \over 6} = {1 \over 2}[/math].

Überlebenswahrscheinlichkeit

Beschreibt die Verteilungsfunktion [math]F(t)[/math] die Wahrscheinlichkeit des Auftretens eines Defektes in einem System zum Zeitpunkt [math]t[/math], dann erhält man die Wahrscheinlichkeit für das einwandfreie Funktionieren (Überleben) über [math]t[/math] hinaus

[math]P(X\gtt) = 1 - F(t)\, ,[/math]

wobei [math]X[/math] den Zeitpunkt des Defektes (oder Todes) bezeichnet.

Bezieht man sich nicht auf den Zeitpunkt [math]0[/math], sondern auf einen späteren Zeitpunkt [math]t_{0}\gt0[/math], dann erhält man die bedingte Überlebenswahrscheinlichkeit

[math]P\left(X\gtt_0+t\mid X\gtt_0\right) = \frac{1-F\left(t_0+t\right)}{1 - F\left(t_0\right)}[/math].

Mit der Beziehung für die Überlebenswahrscheinlichkeit ergibt sich sofort eine Beziehung für die Restlebensdauer

[math] \begin{align} F\left(t+t_0\mid t_0\right) & = P\left(X\leq t+t_0\mid X\gtt_0\right)\\ &= \frac{P\left(X\leq t+t_0\right)-P\left(X\leq t_0\right)}{P(X\gtt_0)}\\ &= \frac{F\left(t+t_0\right)-F\left(t_0\right)}{1-F\left(t_0\right)} \end{align} [/math]

Konvergenz

Definition

Eine Folge von Verteilungsfunktionen [math] (F_n)_{n \in \N} [/math] heißt schwach konvergent gegen die Verteilungsfunktion [math] F [/math], wenn

[math] \lim_{n \to \infty} F_n(x)=F(x) [/math]

gilt für alle [math] x \in \R [/math], an denen [math] F [/math] stetig ist. Für Verteilungsfunktionen von Zufallsvariablen finden sich auch die Bezeichnungen konvergent in Verteilung oder stochastisch konvergent.[2] Für Verteilungsfunktionen im Sinne der Maßtheorie ist die oben angegebene Definition nicht korrekt, sondern entspricht der vagen Konvergenz von Verteilungsfunktionen. Diese fällt aber im Falle von Wahrscheinlichkeitsmaßen mit der schwachen Konvergenz von Verteilungsfunktionen zusammen. Die schwache Konvergenz von Verteilungsfunktionen wird von dem Lévy-Abstand metrisiert

Eigenschaften

Über die schwache Konvergenz der Verteilungsfunktionen lässt sich mit dem Satz von Helly-Bray eine Brücke zur schwachen Konvergenz von Maßen schlagen. Denn eine Folge von Wahrscheinlichkeitsmaßen ist genau dann schwach konvergent, wenn die Folge ihrer Verteilungsfunktionen schwach konvergiert. Analog ist eine Folge von Zufallsvariablen genau denn Konvergent in Verteilung, wenn die Folge ihrer Verteilungsfunktionen schwach konvergiert.

Manche Autoren nutzen diese Äquivalenz zur Definition der Konvergenz in Verteilung, da sie leichter zugänglich ist als die schwache Konvergenz der Wahrscheinlichkeitsmaße. Teilweise findet sich diese Äquivalenz auch im Portmanteau-Theorem.

Weiteres

Alternative Definition

Im Einflussbereich der Tradition Kolmogorows, namentlich der mathematischen Literatur des ehem. „Ostblocks“, findet sich parallel zur heute vorherrschenden „Kleiner-gleich“-Konvention der Verteilungsfunktion bis in die jüngere Vergangenheit eine weitere, die statt des Kleiner-gleich-Zeichens das Echt-kleiner-Zeichen verwendet,[3][4] also

[math]F(x) = P(X \lt x),\quad x\in\R[/math]

Bei stetigen Wahrscheinlichkeitsverteilungen stimmen beide Definitionen praktisch überein, bei diskreten Verteilungen dagegen unterscheiden sie sich darin, dass die Verteilungsfunktion im Fall der „Echt-kleiner“-Konvention an den Sprungstellen nicht rechtsseitig, sondern linksseitig stetig ist.

So ergibt sich beispielsweise für die Binomialverteilung bei der heute üblichen „Kleiner-gleich“-Konvention eine Verteilungsfunktion der Form

[math]F(x) = P(X \le x) = \sum_{k=0}^{\lfloor x \rfloor}{n \choose k}p^k (1-p)^{n-k}[/math],

bei der „Echt-kleiner“-Konvention dagegen die Schreibweise

[math]F(x) = P(X \lt x) = \sum_{k=0}^{\lceil x-1 \rceil}{n \choose k}p^k (1-p)^{n-k} [/math]

beziehungsweise [5]

[math]F(m) = \sum_{k=0}^{m-1}P(X = k) [/math].

Im Prinzip sind dabei beide Konventionen, solange man sich konsequent auf dem Boden nur der einen oder anderen bewegt, gleichwertig - Vorsicht dagegen ist dann geboten, wenn mit verschiedenen Quellen gearbeitet wird, weil sich Formeln der einen Konvention vielfach nicht ohne weiteres in die andere übernehmen lassen.

Verwandte Konzepte

Empirische Verteilungsfunktion

Die empirische Verteilungsfunktion einer Stichprobe [math] (x_1, \dots, x_n) [/math] spielt eine wichtige Rolle in der Statistik. Formal entspricht sie der Verteilungsfunktion einer diskreten Gleichverteilung auf den Punkten [math] (x_1, \dots, x_n) [/math]. Ihre Bedeutung hat sie daher, dass nach dem Satz von Gliwenko-Cantelli die empirische Verteilungsfunktion einer unabhängigen Stichprobe von Zufallszahlen gegen die Verteilungsfunktion der Wahrscheinlichkeitsverteilung konvergiert, mittels der die Zufallszahlen erzeugt wurden.

Gemeinsame Verteilungsfunktion und Rand-Verteilungsfunktionen

Die Gemeinsame Verteilungsfunktion verallgemeinert das Konzept einer Verteilungsfunktion von der Verteilung einer Zufallsvariablen auf die Gemeinsame Verteilung von Zufallsvariablen. Ebenso lässt sich das Konzept von der Randverteilung zur Rand-Verteilungsfunktion übertragen. Diese Verteilungsfunktionen haben gemeinsam, dass ihr Definitionsbereich der [math] \R^k [/math] ist für [math] k \geq 1 [/math]

Verallgemeinerte Inverse Verteilungsfunktion

Die Verallgemeinerte inverse Verteilungsfunktion bildet unter Umständen eine Umkehrfunktion zur Verteilungsfunktion und ist wichtig zur Bestimmung von Quantilen.

Verteilungsfunktion im Sinne der Maßtheorie

Verteilungsfunktionen können nicht nur für Wahrscheinlichkeitsmaße definiert werden, sondern für beliebige endliche Maße auf den reellen Zahlen. In diesen Verteilungsfunktionen (im Sinne der Maßtheorie) spiegeln sich dann wichtige Eigenschaften der Maße wider. Sie bilden eine Verallgemeinerung der hier besprochenen Verteilungsfunktionen.

Mehrdimensionale Verteilungsfunktion

Die Mehrdimensionale Verteilungsfunktion ist eine Verteilungsfunktion, die (Wahrscheinlichkeits)maßen auf [math] (\R^n, \mathcal B (\R^n)) [/math] zugewiesen wird.

Literatur

Einzelnachweise

  1. Schmitz, N. Vorlesungen über Wahrscheinlichkeitstheorie, Teubner, 1996
  2. Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. 2014, S. 287.
  3. Alexandr Alexejewitsch Borowkow: Rachunek prawdopodobieństwa. Państwowe Wydawnictwo Naukowe, Warszawa 1977, Seite 36ff.
  4. Marek Fisz: Wahrscheinlichkeitsrechnung und mathematische Statistik. VEB Deutscher Verlag der Wissenschaften, Elfte Auflage, Berlin 1989, Definition 2.2.1, Seite 51.
  5. [Hrsg.] W. Gellert, H. Küstner, M. Hellwich, H. Kästner: Kleine Enzyklopädie Mathematik. VEB Verlag Enzyklopädie Leipzig 1970, Seite 659-660.

Kategorien: Keine Kategorien vorhanden!

Quelle: Wikipedia - http://de.wikipedia.org/wiki/Verteilungsfunktion (Stochastik) (Vollständige Liste der Autoren des Textes [Versionsgeschichte])    Lizenz: CC-by-sa-3.0

Änderungen: Alle Bilder mit den meisten Bildunterschriften wurden entfernt. Ebenso alle zu nicht-existierenden Artikeln/Kategorien gehenden internen Wikipedia-Links (Bsp. Portal-Links, Redlinks, Bearbeiten-Links). Entfernung von Navigationsframes, Geo & Normdaten, Mediadateien, gesprochene Versionen, z.T. ID&Class-Namen, Style von Div-Containern, Metadaten, Vorlagen, wie lesenwerte Artikel. Ansonsten sind keine Inhaltsänderungen vorgenommen worden. Weiterhin kann es durch die maschinelle Bearbeitung des Inhalts zu Fehlern gerade in der Darstellung kommen. Darum würden wir jeden Besucher unserer Seite darum bitten uns diese Fehler über den Support mittels einer Nachricht mit Link zu melden. Vielen Dank!

Stand der Informationen: August 201& - Wichtiger Hinweis: Da die Inhalte maschinell von Wikipedia übernommen wurden, ist eine manuelle Überprüfung nicht möglich. Somit garantiert LinkFang.de nicht die Richtigkeit und Aktualität der übernommenen Inhalte. Sollten die Informationen mittlerweile fehlerhaft sein, bitten wir Sie darum uns per Support oder E-Mail zu kontaktieren. Wir werden uns dann innerhalb von spätestens 10 Tagen um Ihr Anliegen kümmern. Auch ohne Anliegen erfolgt mindestens alle drei Monate ein Update der gesamten Inhalte.