In der Stochastik ist die Tschebyscheff-Ungleichung oder Tschebyschow-Ungleichung eine Ungleichung, die zur Abschätzung von Wahrscheinlichkeiten verwendet wird. Sie geht (in ihrer ersten Fassung) zurück auf eine Arbeit des russischen Mathematikers Pafnuti Lwowitsch Tschebyschow aus dem Jahre 1867.[1] Die Ungleichung gibt eine obere Schranke für die Wahrscheinlichkeit an, dass eine Zufallsvariable mit endlicher Varianz Werte außerhalb eines symmetrisch um den Erwartungswert gelegenen Intervalls annimmt. Damit ist auch eine untere Schranke gegeben für die Wahrscheinlichkeit, dass die Werte innerhalb dieses Intervalls liegen.
Der Satz lässt sich auch auf Verteilungen anwenden, die weder glockenförmig noch symmetrisch sind, und gibt Abschätzungen, wie viele der Daten „in der Mitte“ liegen und wie viele nicht.
Sei [math]X[/math] eine Zufallsvariable mit Erwartungswert [math]\mu[/math] und endlicher Varianz [math]\sigma^2[/math]. Dann gilt für alle reellen Zahlen [math]k \gt 0[/math]:
Durch Übergang zum komplementären Ereignis erhält man
Der Beweis ergibt sich als Anwendung der Markow-Ungleichung, eine einfache Herleitung findet sich auch unten. Wie man die Markow-Ungleichung mit schulgemäßen Mitteln aus einem unmittelbar einsichtigen Flächenvergleich folgern und dann daraus diese Fassung der Ungleichung von Tschebyschew herleiten kann, findet man zum Beispiel bei Wirths.[2].
Die von der Tschebyscheff-Ungleichung angegebenen Grenzen können nicht verbessert werden:
Für die diskrete Zufallsgröße [math]X[/math] mit [math]\operatorname{P}\left[X=\mu\right]=1-p[/math] und [math]\operatorname{P}\left[X=\mu-k\right]=\operatorname{P}\left[X=\mu+k\right]=p/2[/math] gilt das Gleichheitszeichen.
Im Allgemeinen sind die Abschätzungen aber eher schwach. Beispielsweise sind sie für [math]k \leq \sigma[/math] trivial. Dennoch ist der Satz oft nützlich, weil er ohne Verteilungsannahmen über die Zufallsvariablen auskommt und somit für alle Verteilungen mit endlicher Varianz (insbesondere auch solche, die sich stark von der Normalverteilung unterscheiden) anwendbar ist. Außerdem sind die Schranken einfach zu berechnen.
Ist die Standardabweichung [math]\sigma[/math] von Null verschieden und [math]\lambda[/math] eine positive Zahl, so erhält man mit [math]k = \lambda \sigma[/math] eine oft zitierte Variante der Tschebyscheff-Ungleichung:
Diese Ungleichung liefert nur für [math]\lambda \gt 1[/math] eine sinnvolle Abschätzung, für [math]0\lt\lambda\leq 1[/math] ist sie trivial, denn Wahrscheinlichkeiten sind stets durch 1 beschränkt.
Die Tschebyscheff-Ungleichung lässt sich auf höhere Momente verallgemeinern. Man bezeichnet diese verallgemeinerte Ungleichung nicht selten (vereinfachend) ebenfalls als Tschebyscheff-Ungleichung (englisch Chebyshev's inequality)[3], während sie im Rahmen der Wahrscheinlichkeitstheorie manchmal auch als markoffsche Ungleichung (bzw. als markovsche Ungleichung o. ä., englisch Markov's inequality) genannt wird[4][5]. Bei einigen Autoren findet man die verallgemeinerte Ungleichung auch unter der Bezeichnung tschebyscheff-markoffsche Ungleichung (bzw. chebyshev-markovsche Ungleichung o. ä.).[6]
Die verallgemeinerte Ungleichung besagt, dass für einen Maßraum [math](\Omega,\Sigma,\nu)[/math] und eine messbare Funktion [math]f\colon\Omega\to\R_0^+[/math] und [math]\varepsilon, p\in\R^+[/math] stets die Ungleichung
gilt.
Dies folgt aus
Die oben genannte Version der Ungleichung erhält man als Spezialfall, indem man [math]\nu = P[/math], [math]f=|X-\mu|[/math] und [math]p=2[/math] setzt, denn dann ist
Nehmen wir zum Beispiel an, dass Wikipedia-Artikel einen Erwartungswert der Länge von 1000 Zeichen mit einer Standardabweichung von 200 Zeichen haben. Aus der Tschebyscheff-Ungleichung kann man dann ableiten, dass mit mindestens 75 % Wahrscheinlichkeit ein Wikipedia-Artikel eine Länge zwischen 600 und 1400 Zeichen hat ([math]k=400, ~ \mu=1000, ~ \sigma=200[/math]).
Der Wert für die Wahrscheinlichkeit wird auf folgende Weise berechnet:
Eine andere Folgerung aus dem Satz ist, dass für jede Wahrscheinlichkeitsverteilung mit Mittelwert [math]\mu[/math] und endlicher Standardabweichung [math]\sigma[/math] mindestens die Hälfte der Werte im Intervall [math](\mu - \sqrt{2}\sigma, \mu + \sqrt{2}\sigma)[/math] liegen ([math]k^2=2\sigma^2[/math]).
Ein Zufallsereignis tritt bei einem Versuch mit Wahrscheinlichkeit [math]p[/math] ein. Der Versuch wird [math]n[/math]-mal wiederholt; das Ereignis trete dabei [math]k[/math]-mal auf. [math]k[/math] ist dann binomialverteilt und hat Erwartungswert [math]np[/math] und Varianz [math]np(1-p)[/math]; die relative Häufigkeit [math]\tfrac{k}{n}[/math] des Eintretens hat somit Erwartungswert [math]p[/math] und Varianz [math]\tfrac{p(1-p)}{n}[/math]. Für die Abweichung der relativen Häufigkeit vom Erwartungswert liefert die Tschebyscheff-Ungleichung
wobei für die zweite Abschätzung die unmittelbar aus der Ungleichung vom arithmetischen und geometrischen Mittel folgende Beziehung [math]\sqrt{p(1-p)}\leq \tfrac{1}{2}[/math] verwendet wurde.
Bei dieser Formel handelt es sich um den Spezialfall eines schwachen Gesetzes der großen Zahlen, das die stochastische Konvergenz der relativen Häufigkeiten gegen den Erwartungswert zeigt.
Die Tschebyscheff-Ungleichung liefert für dieses Beispiel nur eine grobe Abschätzung, eine quantitative Verbesserung liefert die Chernoff-Ungleichung.