Stochastisch unabhängige Ereignisse - LinkFang.de





Stochastisch unabhängige Ereignisse


Stochastische Unabhängigkeit von Ereignissen ist ein fundamentales wahrscheinlichkeitstheoretisches Konzept, das die Vorstellung von sich nicht gegenseitig beeinflussenden Zufallsereignissen formalisiert: Zwei Ereignisse heißen stochastisch unabhängig, wenn sich die Wahrscheinlichkeit dafür, dass das eine Ereignis eintritt, nicht dadurch ändert, dass das andere Ereignis eintritt beziehungsweise nicht eintritt.

Stochastische Unabhängigkeit zweier Ereignisse

Definition

Es sei [math](\Omega,\Sigma,P)[/math] ein Wahrscheinlichkeitsraum und [math]A, B \in \Sigma[/math] seien beliebige Ereignisse, also messbare Teilmengen der Ergebnismenge [math]\Omega[/math].

Die Ereignisse [math]A[/math] und [math]B[/math] heißen (stochastisch) unabhängig, wenn

[math] P ( A \cap B ) = P ( A ) \cdot P ( B )[/math]

gilt. Zwei Ereignisse sind also (stochastisch) unabhängig, wenn die Wahrscheinlichkeit, dass beide Ereignisse eintreten, gleich dem Produkt ihrer Einzelwahrscheinlichkeiten ist.

Beispiel

Betrachtet man als Beispiel das zweimalige Ziehen aus einer Urne mit 4 Kugeln, 2 davon schwarz, 2 weiß.

Zuerst wird mit Zurücklegen gezogen. Betrachtet man die Ereignisse

[math] A= \{\text{ Die erste Kugel ist schwarz }\} [/math]
[math] B= \{\text{ Die zweite Kugel ist weiß }\} [/math],

dann ist [math] P(A)=\tfrac{1}{2} [/math] und [math] P(B)=\tfrac{1}{2} [/math]. Es ist dann

[math] P(A \cap B)= P(\{\text{ Die erste Kugel ist schwarz und die zweite weiß }\}) = \frac{1}{4} =P(A) \cdot P(B)[/math].

Die beiden Ereignisse sind also unabhängig.

Zieht man hingegen ohne Zurücklegen, so lauten die neuen Wahrscheinlichkeiten für dieselben Ereignisse [math]P'(A)=\tfrac{1}{2} [/math] und [math] P'(B)=\tfrac{1}{2} [/math]. Es ist außerdem [math] P'(A \cap B)=\tfrac{1}{3}\neq P'(A) \cdot P'(B)[/math]. Die Ereignisse sind also nicht stochastisch unabhängig. Dies macht klar, dass stochastische Unabhängigkeit nicht nur eine Eigenschaft von Ereignissen, sondern auch der verwendeten Wahrscheinlichkeitsmaße ist.

Elementare Eigenschaften

  • Stochastische Unabhängigkeit ist eine symmetrische Eigenschaft. Es sind also immer A und B unabhängig voneinander und nie A unabhängig von B, aber B nicht unabhängig von A.
  • Ein Ereignis ist genau dann von sich selbst unabhängig, wenn es mit Wahrscheinlichkeit 0 oder 1 eintritt. Insbesondere ist die Grundmenge [math] \Omega [/math] und die leere Menge [math] \emptyset [/math] stets von sich selbst unabhängig.
  • Hat das Ereignis A die Wahrscheinlichkeit 0 oder 1, so sind A und B für beliebige Wahl von B voneinander unabhängig, da dann immer [math] P(A \cap B)=0 [/math] beziehungsweise [math] P(A \cap B)= P(B) [/math] gilt. Die Umkehrung ist auch richtig: ist A von jedem beliebigen B unabhängig, so ist [math] P(A)=1 [/math] oder [math] P(A)=0 [/math]
  • Unabhängigkeit ist nicht zu verwechseln mit Disjunktheit. Disjunkte Ereignisse sind nach obigen Bemerkungen nur unabhängig, wenn eines der Ereignisse die Wahrscheinlichkeit 0 oder 1 hat.
  • Unter Verwendung des wichtigen Begriffes der bedingten Wahrscheinlichkeit erhält man die folgenden äquivalenten Definitionen: Zwei Ereignisse [math]A[/math] und [math]B[/math] mit [math]P(A), P(B) \gt 0[/math] sind genau dann unabhängig, wenn
[math] P(A|B) \; = P(A) [/math]
oder dazu äquivalent
[math] P(A|B) \; = P(A|\bar B).[/math]
Insbesondere die letzten beiden Definitionen zusammen sagen aus: Die Wahrscheinlichkeit des Eintretens des Ereignisses [math]A[/math] hängt nicht davon ab, ob das Ereignis [math]B[/math] oder [math]\bar B[/math] eintritt. Da die Rollen von [math]A[/math] und [math]B[/math] auch vertauscht werden können, sagt man, die beiden Ereignisse sind unabhängig voneinander.

Geschichte

Das Konzept nahm in Untersuchungen von Abraham de Moivre und Thomas Bayes über Glücksspiele mit Ziehen ohne Zurücklegen Gestalt an, auch wenn zuvor Jakob I. Bernoulli implizit darauf aufbaut.[1] De Moivre definiert in The Doctrine of Chance 1718

“… if a Fraction expresses the Probability of an Event, and another Fraction the Probability of an another Event, and those two Events are independent; the Probability that both those Events will Happen, will be the Product of those Fractions.”

Und in einer späteren Ausgabe[2]

“Two Events are independent, when they have no connexion one with the other, and that the happening of one neither forwards nor obstructs the happening of the other.”

Das letztere ist Vorläufer der Darstellung von stochastischer Unabhängigkeit über bedingte Wahrscheinlichkeiten [math] P(A|B) = P(A)[/math]. Die erste formal korrekte Definition der stochastischen Unabhängigkeit wurde 1900 von Georg Bohlmann gegeben.

Stochastische Unabhängigkeit mehrerer Ereignisse

Definition

Sei [math](\Omega,\Sigma,P)[/math] ein Wahrscheinlichkeitsraum, [math]I[/math] eine nichtleere Indexmenge und sei [math] (A_i)_{i \in I} [/math] eine Familie von Ereignissen. Die Familie von Ereignissen heißt unabhängig, wenn für jede endliche nichtleere Teilmenge [math] J [/math] von [math] I [/math] gilt, dass

[math] P\left( \bigcap_{j \in J} A_j\right)= \prod_{j \in J} P (A_j) [/math]

Beispiel

Gemäß obiger Definition sind drei Ereignisse [math]A_1[/math], [math]A_2[/math], [math]A_3[/math] genau dann stochastisch unabhängig, wenn sie paarweise unabhängig sind und zusätzlich [math]P(A_1 \cap A_2 \cap A_3) = P(A_1) \cdot P(A_2) \cdot P(A_3)[/math] gilt. Folgendes Beispiel von Bernstein (1927) zeigt die paarweise Unabhängigkeit von drei Ereignissen [math]A_1[/math], [math]A_2[/math] und [math]A_3[/math], die aber nicht gemeinsam (also [math]A_1[/math], [math]A_2[/math] und [math]A_3[/math] gleichzeitig) unabhängig sind (ein ähnliches Beispiel wurde bereits 1908 von Georg Bohlmann gegeben).

In einer Schachtel befinden sich 4 Zettel mit folgenden Zahlenkombinationen: 112, 121, 211, 222. Einer der Zettel wird zufällig (je mit Wahrscheinlichkeit 1/4) gezogen. Wir betrachten dann folgende drei Ereignisse:

[math]A_1 = \lbrace 1 \ \mathrm{an \ erster \ Stelle} \rbrace[/math] mit [math]P(A_1) = \frac{1}{2}[/math]
[math]A_2 = \lbrace 1 \ \mathrm{an \ zweiter \ Stelle} \rbrace[/math] mit [math]P(A_2) = \frac{1}{2}[/math]
[math]A_3 = \lbrace 1 \ \mathrm{an \ dritter \ Stelle} \rbrace[/math] mit [math]P(A_3) = \frac{1}{2}[/math]

Offensichtlich sind die drei Ereignisse paarweise unabhängig, da gilt

[math]P(A_1 \cap A_2) = P(A_1) \cdot P(A_2) = \frac{1}{4}[/math]
[math]P(A_1 \cap A_3) = P(A_1) \cdot P(A_3) = \frac{1}{4}[/math]
[math]P(A_2 \cap A_3) = P(A_2) \cdot P(A_3) = \frac{1}{4}[/math]

Die drei Ereignisse sind jedoch nicht (gemeinsam) unabhängig, da gilt

[math]P(A_1 \cap A_2 \cap A_3) = 0 \ne \frac{1}{8} = P(A_1) \cdot P(A_2) \cdot P(A_3).[/math]

Des Weiteren kann aus [math]P(A_1 \cap A_2 \cap A_3) = P(A_1) \cdot P(A_2) \cdot P(A_3)[/math] nicht geschlossen werden, dass die drei Ereignisse paarweise unabhängig sind. Betrachtet man dazu beispielsweise die Grundmenge

[math] \Omega= \{A,B,C,D,E,F,G,H\} [/math]

und die Ereignisse

[math] A_1= \{A,B,D,F\} [/math]
[math] A_2=A_3= \{A,C,E,G\} [/math]

versehen mit der Gleichverteilung, so ist

[math] P(A_1 \cap A_2 \cap A_3)=P(\{A\})=\frac{1}{8}=P(A_1)\cdot P(A_2)\cdot P(A_3) [/math].

Aber es ist zum Beispiel

[math] P(A_2 \cap A_3 )=P(\{A,C,E,G\})= \frac{1}{2} \neq P(A_2)\cdot P(A_3) = \frac{1}{4}[/math].

Unabhängigkeit und Kausalität

Wichtig ist, dass stochastische Unabhängigkeit und Kausalität grundlegend verschiedene Konzepte sind. Die stochastische Unabhängigkeit ist eine rein abstrakte Eigenschaft von Wahrscheinlichkeitsmaßen und Ereignissen. Es besteht per se kein Zusammenhang zwischen stochastischer und kausaler Unabhängigkeit. So ist die stochastische Unabhängigkeit in Gegensatz zur kausalen Unabhängigkeit immer eine symmetrische Eigenschaft, es ist also immer A unabhängig von B und B unabhängig von A. Dies ist bei kausaler Unabhängigkeit nicht gegeben.

Stochastische Unabhängigkeit und kausale Abhängigkeit

Betrachtet man beispielsweise beim Werfen von zwei Würfeln die Ereignisse [math]A[/math], dass der erste Würfel eine gerade Augenzahl zeigt, und [math]B[/math], dass die Summe der gewürfelten Zahlen gerade ist, dann ist [math] P(A) = P(B) =\tfrac{1}{2} [/math] und [math] P(A \cap B )=\tfrac{1}{4}[/math]. Die Ereignisse sind also stochastisch unabhängig voneinander, aber A ist kausal abhängig von B, da der Wurf des ersten Würfels die Summe der Augenzahlen mitbestimmt.

Stochastische Unabhängigkeit und kausale Unabhängigkeit

Ein Beispiel, bei dem sowohl stochastische als auch kausale Unabhängigkeit eintritt ist das Werfen zweier Würfel mit der Ereignissen [math]A[/math], dass der erste Würfel eine 6 zeigt, und [math]B[/math], dass der zweite Würfel eine 6 zeigt. Es ist dann [math] P(A) = P(B) =\tfrac{1}{6} [/math] und [math] P(A \cap B ) = \tfrac{1}{36} [/math], es liegt also stochastische Unabhängigkeit vor. Außerdem besteht kein kausaler Zusammenhang zwischen den Würfeln.

Stochastische Abhängigkeit und kausale Abhängigkeit

Ein Fall, bei dem sowohl stochastische als auch kausale Abhängigkeit vorliegt, ist der zweimalige Münzwurf und die Ereignisse [math] A [/math], dass zweimal Kopf geworfen wird, und [math] B [/math], dass der erste Wurf Zahl zeigt. Es ist dann [math] P(A)=\tfrac{1}{4} [/math] und [math] P(B)=\tfrac{1}{2} [/math], aber [math] P(A \cap B ) =0 [/math], da die Ereignisse disjunkt sind. Also sind die Ereignisse sowohl stochastisch abhängig als auch kausal abhängig.

Bemerkungen

Bei methodisch korrektem Vorgehen kann man nicht einfach Unabhängigkeit vermuten, sondern man muss sie anhand obiger Formel überprüfen. Dabei ist meistens die gemeinsame Wahrscheinlichkeit [math]P(A \cap B)[/math] nicht von vornherein gegeben. Bei der statistischen Auswertung erhobener Daten kann man beispielsweise mit einem χ2-Test die Merkmale auf stochastische Unabhängigkeit testen.

Verallgemeinerungen

Eine wichtige Verallgemeinerung der stochastischen Unabhängigkeit ist die Unabhängigkeit von Mengensystemen und die daraus folgende weitere Verallgemeinerung der stochastisch unabhängigen Zufallsvariablen. Diese sind ein zentrales Konzept der Wahrscheinlichkeitstheorie und Voraussetzung für viele weitreichende Sätze. Mittels des bedingten Erwartungswertes lassen sich alle genannten Konzepte noch zur bedingten Unabhängigkeit erweitern.

Literatur

Weblinks

Einzelnachweise

  1. de Tari and Diblasi: Analysis of didactic situations suggested to distinguish disjunctive events and independent events. In: ICOTS-7, 2006.
  2. Zitiert nach: Grinstead and Snell’s Introduction to Probability. In: The CHANCE Project. Version vom 4 Juli 2006. Website

Kategorien: Keine Kategorien vorhanden!

Quelle: Wikipedia - http://de.wikipedia.org/wiki/Stochastisch unabhängige Ereignisse (Vollständige Liste der Autoren des Textes [Versionsgeschichte])    Lizenz: CC-by-sa-3.0

Änderungen: Alle Bilder mit den meisten Bildunterschriften wurden entfernt. Ebenso alle zu nicht-existierenden Artikeln/Kategorien gehenden internen Wikipedia-Links (Bsp. Portal-Links, Redlinks, Bearbeiten-Links). Entfernung von Navigationsframes, Geo & Normdaten, Mediadateien, gesprochene Versionen, z.T. ID&Class-Namen, Style von Div-Containern, Metadaten, Vorlagen, wie lesenwerte Artikel. Ansonsten sind keine Inhaltsänderungen vorgenommen worden. Weiterhin kann es durch die maschinelle Bearbeitung des Inhalts zu Fehlern gerade in der Darstellung kommen. Darum würden wir jeden Besucher unserer Seite darum bitten uns diese Fehler über den Support mittels einer Nachricht mit Link zu melden. Vielen Dank!

Stand der Informationen: August 201& - Wichtiger Hinweis: Da die Inhalte maschinell von Wikipedia übernommen wurden, ist eine manuelle Überprüfung nicht möglich. Somit garantiert LinkFang.de nicht die Richtigkeit und Aktualität der übernommenen Inhalte. Sollten die Informationen mittlerweile fehlerhaft sein, bitten wir Sie darum uns per Support oder E-Mail zu kontaktieren. Wir werden uns dann innerhalb von spätestens 10 Tagen um Ihr Anliegen kümmern. Auch ohne Anliegen erfolgt mindestens alle drei Monate ein Update der gesamten Inhalte.