Gesetz der großen Zahlen - LinkFang.de





Gesetz der großen Zahlen


Als Gesetze der großen Zahlen werden bestimmte mathematische Sätze aus der Stochastik bezeichnet.

In ihrer einfachsten Form besagen diese Sätze, dass sich die relative Häufigkeit eines Zufallsergebnisses in der Regel um die theoretische Wahrscheinlichkeit eines Zufallsergebnisses stabilisiert, wenn das zu Grunde liegende Zufallsexperiment immer wieder unter denselben Voraussetzungen durchgeführt wird. Die häufig verwendete Formulierung, dass sich die relative Häufigkeit der Wahrscheinlichkeit „immer mehr annähert“ ist dabei irreführend, da es auch bei einer großen Anzahl von Wiederholungen Ausreißer geben kann. Die Annäherung ist also nicht monoton.

Formal handelt es sich um Aussagen über die Konvergenz des arithmetischen Mittels von Zufallsvariablen, zumeist unterteilt in „starke“ (fast sichere Konvergenz) und „schwache“ (Konvergenz in Wahrscheinlichkeit) Gesetze der großen Zahlen.

Beispiel: Wurf einer Münze

Die Wahrscheinlichkeit, dass eine Münze beim Werfen Kopf zeigt, betrage ½. Je häufiger die Münze geworfen wird, desto unwahrscheinlicher wird es, dass der Anteil der Würfe, bei denen Kopf erscheint (also die relative Häufigkeit des Ereignisses „Kopf“), um mehr als einen beliebigen vorgegebenen Wert von der theoretischen Wahrscheinlichkeit ½ abweicht. Dagegen ist es durchaus wahrscheinlich, dass die absolute Differenz zwischen der Anzahl der Kopf-Würfe und der halben Gesamtzahl der Würfe anwächst.

Insbesondere besagen diese Gesetze der großen Zahlen nicht, dass ein Ereignis, welches bislang nicht so häufig eintrat wie erwartet, seinen „Rückstand“ irgendwann ausgleichen und folglich in Zukunft häufiger eintreten muss. Dies ist ein bei Roulette- und Lottospielern häufig verbreiteter Irrtum, die „säumige“ Zahlenart müsse nun aber aufholen, um wieder der statistischen Gleichverteilung zu entsprechen. Es gilt damit kein Gesetz des Ausgleichs.

Ein Beispiel dazu: Angenommen, eine Serie von Münzwürfen beginne mit „Kopf“, „Zahl“, „Kopf“, „Kopf“. Dann wurde „Kopf“ bis dahin dreimal geworfen, „Zahl“ einmal. „Kopf“ hat gewissermaßen einen Vorsprung von zwei Würfen. Nach diesen vier Würfen ist die relative Häufigkeit von „Kopf“ ¾, die von „Zahl“ ¼. Nach 96 weiteren Würfen stelle sich ein Verhältnis von 47 Mal „Zahl“ zu 53 Mal „Kopf“ ein. Der Vorsprung von „Kopf“ ist also nach 100 Würfen sogar noch größer als nach vier Würfen, jedoch hat sich der relative Abstand von „Kopf“ und „Zahl“ stark verringert, beziehungsweise – und das ist die Aussage des Gesetzes der großen Zahlen – der Unterschied der relativen Häufigkeit von „Kopf“ zum Erwartungswert von „Kopf“. Der Wert [math]\textstyle\frac{53}{100} = 0{,}53[/math] liegt sehr viel näher beim Erwartungswert 0,5 als ¾ = 0,75.

Schwaches Gesetz für relative Häufigkeiten

Der einfachste Fall eines Gesetzes der großen Zahlen, das schwache Gesetz für relative Häufigkeiten, ist das Hauptergebnis in Jakob Bernoullis Ars Conjectandi (1713).[1] Ein Zufallsexperiment mit genau zwei Ausgängen, genannt Erfolg und Misserfolg, also ein Bernoulli-Experiment, werde [math]n[/math] Mal unabhängig wiederholt. Bezeichnet [math]p \in (0,1)[/math] die Erfolgswahrscheinlichkeit bei einer einzelnen Durchführung, dann ist die Anzahl [math]X_n[/math] der Erfolge binomialverteilt mit den Parametern [math]n[/math] und [math]p[/math]. Für den Erwartungswert von [math]X_n[/math] gilt dann [math]\operatorname{E}(X_n) = n p[/math] und für die Varianz [math]\operatorname{Var}(X_n) = n p (1-p)[/math].

Für die relative Häufigkeit [math]R_n = \tfrac{1}{n} X_n[/math] folgt daraus [math]\operatorname{E}(R_n) = p[/math] und [math] \sigma^2 = \operatorname{Var}(R_n) = \tfrac{1}{n^2} \operatorname{Var}(X_n) = \tfrac{p (1-p)}{n}[/math]. Die Tschebyscheff-Ungleichung angewendet auf [math]R_n[/math] lautet damit

[math]\operatorname{P}\left(|R_n - p| \geq \varepsilon \right) \leq \frac{\sigma^2}{\varepsilon^2} = \frac{p(1-p)}{n \varepsilon^2}[/math]

für alle [math]\varepsilon \gt 0[/math]. Da die rechte Seite der Ungleichung für [math]n \to \infty[/math] gegen null konvergiert, folgt

[math]\lim_{n \to \infty} \operatorname{P}\left(|R_n - p| \geq \varepsilon \right) = 0[/math],

das heißt, für jedes noch so kleine [math]\varepsilon \gt 0[/math] geht die Wahrscheinlichkeit, dass die relative Häufigkeit der Erfolge nicht im Intervall [math](p - \varepsilon, p + \varepsilon)[/math] liegt, gegen null, wenn die Anzahl der Versuche gegen unendlich geht.

Schwaches Gesetz der großen Zahlen

Man sagt, eine Folge von Zufallsvariablen [math]X_1, X_2, X_3, \dotsc[/math] in mit [math]E(|X_i|)\lt\infty[/math] genüge dem schwachen Gesetz der großen Zahlen, wenn für

[math]\overline{X}_n=\tfrac1n \textstyle\sum\limits_{i=1}^{n}(X_i-E ({X}_i))[/math]

für alle positiven Zahlen [math]\varepsilon[/math] gilt:

[math]\lim_{n\rightarrow\infty}\operatorname{P}\left(\left|\overline{X}_n\right|\gt\varepsilon\right)=0\,,[/math]

also wenn die arithmetischen Mittel der zentrierten Zufallsvariablen [math]X_i - E(X_i)[/math] in Wahrscheinlichkeit gegen [math]0[/math] konvergieren.

Es gibt verschiedene Voraussetzungen, unter denen das schwache Gesetz der großen Zahlen gilt. Dabei werden teils Forderungen an die Momente oder an die Unabhängigkeit gestellt. Bedeutsame Voraussetzungen sind:

  • Sind [math] X_i [/math] paarweise unabhängige Zufallsvariablen, die identisch verteilt sind und deren Erwartungswert existiert, dann gilt das schwache Gesetz der großen Zahlen.
  • Sind [math] X_i [/math] paarweise unkorrelierte Zufallsvariablen und ist die Folge ihrer Varianzen beschränkt, so gilt das schwache Gesetz der großen Zahlen.

Weitere Formulierungen finden sich im Hauptartikel. Insbesondere lässt sich in der zweiten Aussage die Forderung der Beschränktheit der Varianzen etwas allgemeiner fassen.

Starkes Gesetz der großen Zahlen

Man sagt, eine Folge von Zufallsvariablen [math](X_n)_{n \in \N}[/math] mit [math] \operatorname E(|X_n|)\lt \infty [/math] genüge dem starken Gesetz der großen Zahlen, wenn für

[math]\overline{X}_n=\tfrac1n \textstyle\sum\limits_{i=1}^{n}(X_i-E ({X}_i))[/math]

gilt:

[math]\operatorname{P}\left(\limsup_{n\rightarrow\infty}|\overline{X}_n|=0\right)=1[/math],

also wenn die arithmetischen Mittel der zentrierten Zufallsvariablen fast sicher gegen 0 konvergieren.

Das starke Gesetz der großen Zahlen gilt beispielsweise, wenn einer der folgenden Fälle zutrifft:

  • Die [math] X_i [/math] sind paarweise unabhängig und identisch verteilt mit endlichem Erwartungswert.
  • Die [math] X_i [/math] sind paarweise unkorreliert und es ist [math] \sup_{i\in \mathbb{N}}\operatorname{Var}(X_i)\lt\infty [/math].

Das starke Gesetz der großen Zahlen impliziert das schwache Gesetz der großen Zahlen. Eine allgemeinere Form des starken Gesetzes der großen Zahlen, die auch für abhängige Zufallsvariablen gilt, ist der individuelle Ergodensatz und der Lp-Ergodensatz, beide gelten für stationäre stochastische Prozesse.

Interpretation der formalen Aussagen

Anders als bei klassischen Folgen, wie sie in der Analysis untersucht werden, kann es in der Wahrscheinlichkeitstheorie in der Regel keine absolute Aussage über die Konvergenz einer Folge von Zufallsergebnissen geben. Grund ist, dass zum Beispiel bei einer Serie von Würfelversuchen Folgen von Zufallsergebnissen wie 6, 6, 6, … nicht ausgeschlossen sind. Bei einer solchen Folge von Zufallsergebnissen würde die Folge der daraus gebildeten arithmetischen Mittel aber nicht gegen den Erwartungswert 3,5 konvergieren. Allerdings besagt das starke Gesetz der großen Zahlen, dass das Ereignis, bei dem die arithmetischen Mittelwerte nicht gegen den Erwartungswert 3,5 konvergieren, die Wahrscheinlichkeit 0 besitzt. Man nennt ein solches Ereignis auch fast unmögliches Ereignis.

Gegenstand der Gesetze der großen Zahlen ist die zu einer gegebenen Folge von Zufallsvariablen [math]X_1, X_2, X_3, \dotsc[/math] gebildete Folge der arithmetischen Mittel der zentrierten Zufallsvariablen

[math]\overline{X}_1=X_1 - E(X_1), \; \overline{X}_2=\tfrac{1}{2} ((X_1 - E(X_1)) +(X_2 - E(X_2))), \; \overline{X}_3=\tfrac{1}{3} ((X_1 - E(X_1)) +\dotsb+(X_3 - E(X_3))), \dotsc[/math]

Aufgrund der beschriebenen Problematik muss die formale Charakterisierung der Konvergenz dieser Folge [math]\overline{X}_1, \overline{X}_2, \overline{X}_3, \dotsc[/math] gegen den Wert 0 nicht nur, wie bei einer klassischen Folge von Zahlen, von einem beliebig klein vorgegebenen Toleranzabstand [math]\varepsilon\gt0[/math] ausgehen. Zusätzlich wird eine beliebig kleine Toleranzwahrscheinlichkeit [math]p_\text{max}\gt0[/math] vorgegeben. Die Aussage des schwachen Gesetzes der großen Zahlen bedeutet dann, dass zu jeder beliebigen Vorgabe eines Toleranzabstands [math]\varepsilon[/math] und einer Toleranzwahrscheinlichkeit [math]p_\text{max}[/math] bei einem genügend groß gewählten Index [math]n[/math] eine Abweichung [math]|\overline{X}_n-0|=|\overline{X}_n|[/math], die den Toleranzabstand [math]\varepsilon[/math] überschreitet, höchstens mit der Wahrscheinlichkeit [math]p_\text{max}[/math] eintritt. Demgegenüber bezieht sich das starke Gesetz der großen Zahlen auf das Ereignis, dass irgendeine der Abweichungen [math]|\overline{X}_n|, |\overline{X}_{n+1}|, |\overline{X}_{n+2}|,\dotsc[/math] den Toleranzabstand [math]\varepsilon[/math] überschreitet.[2]

Praktische Bedeutung

Versicherungswesen
Das Gesetz der großen Zahlen hat bei Versicherungen eine große praktische Bedeutung. Es erlaubt eine ungefähre Vorhersage über den künftigen Schadensverlauf. Je größer die Zahl der versicherten Personen, Güter und Sachwerte, die von der gleichen Gefahr bedroht sind, desto geringer ist der Einfluss des Zufalls. Das Gesetz der großen Zahlen kann aber nichts darüber aussagen, wer im Einzelnen von einem Schaden getroffen wird. Unvorhersehbare Großereignisse und Trends wie der Klimawandel, die die Berechnungsbasis von Durchschnittswerten verändern, können das Gesetz zumindest teilweise unbrauchbar machen.
Medizin
Beim Wirksamkeitsnachweis von medizinischen Verfahren kann man es nutzen, um Zufallseinflüsse auszuschalten.
Naturwissenschaften
Der Einfluss von (nicht systematischen) Messfehlern kann durch häufige Versuchwiederholungen reduziert werden.

Geschichte der Gesetze der großen Zahlen

Erstmals formuliert wurde ein Gesetz der großen Zahlen durch Jakob Bernoulli im Jahr 1689, wobei die posthume Veröffentlichung erst 1713 erfolgte. Bernoulli bezeichnete seine Version des schwachen Gesetzes der großen Zahlen als Goldenes Theorem. Die erste Version eines starken Gesetzes der großen Zahlen für den Spezialfall eines Münzwurfs wurde 1909 durch Émile Borel veröffentlicht. 1917 bewies Francesco Cantelli als Erster eine allgemeine Version des starken Gesetzes der großen Zahlen.[3]

Einen gewissen Abschluss erlangte die Geschichte des starken Gesetzes der großen Zahlen mit dem 1981 bewiesenen Satz von N. Etemadi 1981.[4] Der Satz von Etemadi zeigt die Gültigkeit des starken Gesetzes der großen Zahlen unter der Annahme, dass die Zufallsvariablen integrierbar sind (also einen endlichen Erwartungswert besitzen), jeweils dieselbe Verteilung haben und je zwei Zufallsvariablen unabhängig sind. Die Existenz einer Varianz wird nicht vorausgesetzt.

Literatur

Einzelnachweise

  1. Norbert Henze: Stochastik für Einsteiger. Eine Einführung in die faszinierende Welt des Zufalls. 10., überarbeitete Auflage. Springer Spektrum, Wiesbaden 2013, ISBN 978-3-658-03076-6, S. 218 f.
  2. Jörg Bewersdorff: Statistik – wie und warum sie funktioniert. Ein mathematisches Lesebuch. 2011, Kapitel 2.8, S. 103–113.
  3. Jörg Bewersdorff: Statistik – wie und warum sie funktioniert. Ein mathematisches Lesebuch. 2011, Kapitel 2.7 und 2.8, S. 90–113.
  4. Nasrollah Etemadi: An elementary proof of the strong law of large numbers. In: Zeitschrift für Wahrscheinlichkeitstheorie und verwandte Gebiete. (Online-Ausgabe: Probability Theory and Related Fields. Continuation of Zeitschrift für Wahrscheinlichkeitstheorie.). Bd. 55, Nr. 1, 1981, S. 119–122, doi:10.1007/BF01013465 .

Weblinks


Kategorien: Keine Kategorien vorhanden!

Quelle: Wikipedia - http://de.wikipedia.org/wiki/Gesetz der großen Zahlen (Vollständige Liste der Autoren des Textes [Versionsgeschichte])    Lizenz: CC-by-sa-3.0

Änderungen: Alle Bilder mit den meisten Bildunterschriften wurden entfernt. Ebenso alle zu nicht-existierenden Artikeln/Kategorien gehenden internen Wikipedia-Links (Bsp. Portal-Links, Redlinks, Bearbeiten-Links). Entfernung von Navigationsframes, Geo & Normdaten, Mediadateien, gesprochene Versionen, z.T. ID&Class-Namen, Style von Div-Containern, Metadaten, Vorlagen, wie lesenwerte Artikel. Ansonsten sind keine Inhaltsänderungen vorgenommen worden. Weiterhin kann es durch die maschinelle Bearbeitung des Inhalts zu Fehlern gerade in der Darstellung kommen. Darum würden wir jeden Besucher unserer Seite darum bitten uns diese Fehler über den Support mittels einer Nachricht mit Link zu melden. Vielen Dank!

Stand der Informationen: August 201& - Wichtiger Hinweis: Da die Inhalte maschinell von Wikipedia übernommen wurden, ist eine manuelle Überprüfung nicht möglich. Somit garantiert LinkFang.de nicht die Richtigkeit und Aktualität der übernommenen Inhalte. Sollten die Informationen mittlerweile fehlerhaft sein, bitten wir Sie darum uns per Support oder E-Mail zu kontaktieren. Wir werden uns dann innerhalb von spätestens 10 Tagen um Ihr Anliegen kümmern. Auch ohne Anliegen erfolgt mindestens alle drei Monate ein Update der gesamten Inhalte.