Korrelationskoeffizient - LinkFang.de





Korrelationskoeffizient


Der Korrelationskoeffizient (auch: Korrelationswert) oder die Produkt-Moment-Korrelation (von Bravais und Pearson, daher auch Bravais-Pearson-Korrelation oder Pearson-Korrelation genannt) ist ein dimensionsloses Maß für den Grad des linearen Zusammenhangs zwischen zwei mindestens intervallskalierten Merkmalen. Er kann Werte zwischen −1 und +1 annehmen. Bei einem Wert von +1 (bzw. −1) besteht ein vollständig positiver (bzw. negativer) linearer Zusammenhang zwischen den betrachteten Merkmalen. Wenn der Korrelationskoeffizient den Wert 0 aufweist, hängen die beiden Merkmale überhaupt nicht linear voneinander ab. Allerdings können diese ungeachtet dessen in nichtlinearer Weise voneinander abhängen. Damit ist der Korrelationskoeffizient kein geeignetes Maß für die (reine) stochastische Abhängigkeit von Merkmalen.

Je nachdem, ob der lineare Zusammenhang zwischen zeitgleichen Messwerten zweier verschiedener Merkmale oder derjenige zwischen zeitlich verschiedenen Messwerten eines einzigen Merkmals betrachtet wird, spricht man entweder von der Kreuzkorrelation oder von der Kreuzautokorrelation (siehe auch Zeitreihenanalyse).

Korrelationskoeffizienten wurden mehrfach – so schon von Ferdinand Tönnies – entwickelt, heute wird allgemein der von Karl Pearson verwendet.

Definitionen

Korrelationskoeffizient für Zufallsvariablen

Für zwei quadratisch integrierbare Zufallsvariablen [math]X[/math] und [math]Y[/math] mit jeweils positiver Standardabweichung [math]\sigma[/math] und Kovarianz [math]\operatorname{Cov}(X,Y)[/math] ist der Korrelationskoeffizient (Pearsonscher Maßkorrelationskoeffizient) definiert durch

[math] \varrho(X,Y) =\frac{\operatorname{Cov}(X,Y)}{\sigma(X)\sigma(Y)} [/math]

Weitere übliche Schreibweisen sind [math] \operatorname{Kor}(X,Y) [/math] und [math] r_{XY} [/math].

Ferner heißen [math]X,Y[/math] unkorreliert, falls [math]\operatorname{Cov}(X,Y)=0[/math].

Empirischer Korrelationskoeffizient

Für eine Messreihe von gepaarten Ausprägungen [math](x_1, y_1), (x_2, y_2), \ldots, (x_n,y_n)[/math] wird der empirische Korrelationskoeffizient berechnet durch

[math]\operatorname{Kor}_e(x,y) := \varrho_e(x,y) := r_{xy} := \frac{ \sum_{i=1}^n(x_i-\bar x)(y_i-\bar y) }{ \sqrt{ \sum_{i=1}^n(x_i-\bar x)^2\cdot \sum_{i=1}^n(y_i-\bar y)^2 } }[/math].

Dabei sind

[math]\bar x = \frac 1n\sum_{i=1}^n x_i[/math] und [math]\bar y = \frac 1n\sum_{i=1}^n y_i[/math]

die empirischen Mittelwerte anhand der Messreihe.

Im Rahmen der induktiven Statistik ist man an einer erwartungstreuen Schätzung [math]\varrho_e[/math] der wahren, unbekannten Korrelation [math]\varrho[/math] in der Grundgesamtheit interessiert. Daher werden in die Formel der Korrelation erwartungstreue Schätzer der Varianzen und der Kovarianz eingesetzt. Dies führt zur Formel:

[math] \operatorname{Kor}_e(x,y) := \varrho_e(x,y) := \frac{ \frac{1}{n-1}\sum_{i=1}^n(x_i-\bar x)(y_i-\bar y) }{ \sqrt{ \frac{1}{n-1}\sum_{i=1}^n(x_i-\bar x)^2 }\cdot\sqrt{ \frac{1}{n-1}\sum_{i=1}^n(y_i-\bar y)^2 }} [/math].

Sind diese Messreihenwerte z-transformiert, also [math] z_i:= \tfrac{x_i - \bar x} {s_x} [/math], wobei [math]s_x[/math] die erwartungstreue Schätzung der Streuung bezeichnet, gilt auch:

[math]\operatorname{Kor}_e(x,y) := \varrho_e(x,y) := \frac{1}{n-1}\sum z_x z_y.[/math]

Da man in der deskriptiven Statistik nur den Zusammenhang zwischen zwei Variablen, als normierte mittlere gemeinsame Streuung, in der Stichprobe beschreiben will, wird die Korrelation auch berechnet als

[math]r_{xy} := \frac{ \frac{1}{n}\sum_{i=1}^n(x_i-\bar x)(y_i-\bar y) }{ \sqrt{ \frac{1}{n}\sum_{i=1}^n(x_i-\bar x)^2 }\cdot\sqrt{ \frac{1}{n}\sum_{i=1}^n(y_i-\bar y)^2 }} [/math].

Da sich die Werte [math]\tfrac{1}{n}[/math] bzw. [math]\tfrac{1}{n-1}[/math] aus den Formeln herauskürzen, ergibt sich in beiden Fällen der gleiche Wert des Koeffizienten.

Eigenschaften

Mit der Definition des Korrelationskoeffizienten gilt unmittelbar

  • [math]\operatorname{Kor}(X,Y)=\operatorname{Kor}(Y,X)[/math] bzw. [math]r_{xy} = r_{yx}[/math]
  • [math]\operatorname{Kor}(X,X)=1[/math].
  • [math]\operatorname{Kor}(X,-X)=-1[/math].

Mit der Cauchy-Schwarzschen Ungleichung sieht man, dass

  • [math]\operatorname{Kor}(X,Y)\in[-1,1][/math].

Durch Optimieren ergibt sich, dass [math]Y=aX+b[/math] fast sicher genau dann, wenn [math]|\operatorname{Kor}(X,Y)|=1[/math].

Sind die Zufallsgrößen [math]X[/math] und [math]Y[/math] stochastisch voneinander unabhängig, dann gilt:

  • [math]\operatorname{Kor}(X,Y)=0[/math].

Der Umkehrschluss ist allerdings nicht zulässig, denn es können Abhängigkeitsstrukturen vorliegen, die der Korrelationskoeffizient nicht erfasst. Für die multivariate Normalverteilung gilt jedoch: Die Zufallsvariablen [math]X[/math] und [math]Y[/math] sind genau dann stochastisch unabhängig, wenn sie unkorreliert sind. Wichtig ist hierbei die Voraussetzung, dass [math]X[/math] und [math]Y[/math] gemeinsam normalverteilt sind. Es reicht nicht aus, dass [math]X[/math] und [math]Y[/math] jeweils normalverteilt sind.

Voraussetzungen für die Pearson-Korrelation

Der Korrelationskoeffizient nach Pearson erlaubt Aussagen über statistische Zusammenhänge unter folgenden Bedingungen:

Skalierung

Der Pearsonsche Korrelationskoeffizient liefert korrekte Ergebnisse bei intervallskalierten und bei dichotomen Daten. Für niedrigere Skalierungen existieren andere Korrelationskonzepte (z. B. Rangkorrelationskoeffizienten).

Normalverteilung

Für die Durchführung von standardisierten Signifikanztests über den Korrelationskoeffizienten in der Grundgesamtheit müssen beide Variablen annähernd normalverteilt sein. Bei zu starken Abweichungen von der Normalverteilung muss auf den Rangkorrelationskoeffizienten zurückgegriffen werden. (Alternativ kann man auch, falls die Verteilung bekannt ist, angepasste (nichtstandardisierte) Signifikanztests verwenden.)

Linearitätsbedingung

Zwischen den Variablen x und y wird ein linearer Zusammenhang vorausgesetzt. Diese Bedingung wird in der Praxis häufig ignoriert; daraus erklären sich mitunter enttäuschend niedrige Korrelationen, obwohl der Zusammenhang zwischen x und y bisweilen trotzdem hoch ist. Ein einfaches Beispiel für einen hohen Zusammenhang trotz niedrigem Korrelationskoeffizienten ist die Fibonacci-Folge. Alle Zahlen der Fibonacci-Folge sind durch ihre Position in der Reihe durch eine mathematische Formel exakt determiniert (siehe die Formel von Jacques-Philippe-Marie Binet in Fibonacci-Folge). Der Zusammenhang zwischen der Positionsnummer einer Fibonacci-Zahl und der Größe der Zahl ist vollkommen determiniert. Dennoch beträgt der Korrelationskoeffizient zwischen den Ordnungsnummern der ersten 360 Fibonacci-Zahlen und den betreffenden Zahlen nur 0,20; das bedeutet, dass in erster Näherung nicht viel mehr als 4 % [math](= 0{,}2^2)[/math] der Varianz durch den Korrelationskoeffizienten erklärt werden und 96 % der Varianz „unerklärt“ bleiben. Der Grund ist die Vernachlässigung der Linearitätsbedingung, denn die Fibonacci-Zahlen wachsen progressiv an: In solchen Fällen ist der Korrelationskoeffizient nicht korrekt interpretierbar. Eine mögliche Alternative, welche ohne die Voraussetzung der Linearität des Zusammenhangs auskommt, ist die Transinformation.

Signifikanzbedingung

Ein Korrelationskoeffizient > 0 bei positiver Korrelation bzw. < 0 bei negativer Korrelation zwischen x und y berechtigt nicht a priori zur Aussage, es bestehe ein statistischer Zusammenhang zwischen x und y. Eine solche Aussage ist nur gültig, wenn der ermittelte Korrelationskoeffizient signifikant ist. Der Begriff „signifikant“ bedeutet hier „signifikant von Null verschieden“. Je höher die Anzahl der Wertepaare (x, y) und das Signifikanzniveau sind, desto niedriger darf der Absolutbetrag eines Korrelationskoeffizienten sein, um zur Aussage zu berechtigen, zwischen x und y gebe es einen linearen Zusammenhang. Ein t-Test zeigt, ob die Abweichung des ermittelten Korrelationskoeffizienten von Null auch signifikant ist.

Bildliche Darstellung und Interpretation

Sind zwei Merkmale vollständig miteinander korreliert (d. h. [math]|r| = 1[/math]), so liegen alle Messwerte in einem 2-dimensionalen Koordinatensystem auf einer Geraden. Bei einer perfekten positiven Korrelation ([math]r = +1[/math]) steigt die Gerade. Wenn die Merkmale perfekt negativ miteinander korreliert sind ([math]r = -1[/math]), sinkt die Gerade. Besteht zwischen zwei Merkmalen eine sehr hohe Korrelation, sagt man oft auch, sie erklären dasselbe.

Je näher der Betrag von [math] r [/math] bei 0 liegt, desto kleiner der lineare Zusammenhang. Für [math] r = 0 [/math] kann der statistische Zusammenhang zwischen den Messwerten nicht mehr durch eine eindeutig steigende oder sinkende Gerade dargestellt werden. Dies ist z. B. der Fall, wenn die Messwerte rotationssymmetrisch um den Mittelpunkt verteilt sind. Dennoch kann dann ein nicht-linearer statistischer Zusammenhang zwischen den Merkmalen gegeben sein. Umgekehrt gilt jedoch: Wenn die Merkmale statistisch unabhängig sind, nimmt der Korrelationskoeffizient stets den Wert 0 an.

Der Korrelationskoeffizient ist kein Indiz eines ursächlichen (d. h. kausalen) Zusammenhangs zwischen den beiden Merkmalen: Die Besiedlung durch Störche im Süd-Burgenland korreliert zwar positiv mit der Geburtenzahl der dortigen Einwohner, doch das bedeutet noch keinen „kausalen Zusammenhang“, trotzdem ist ein „statistischer Zusammenhang“ gegeben. Dieser leitet sich aber aus einem anderen, weiteren Faktor ab, wie dies im Beispiel durch Industrialisierung oder der Wohlstandssteigerung begründet sein kann, die einerseits den Lebensraum der Störche einschränkten und andererseits zu einer Verringerung der Geburtenzahlen führten. Korrelationen dieser Art werden Scheinkorrelationen genannt.

Der Korrelationskoeffizient kann kein Indiz über die Richtung eines Zusammenhanges sein: Steigen die Niederschläge durch die höhere Verdunstung oder steigt die Verdunstung an, weil die Niederschläge mehr Wasser liefern? Oder bedingen sich beide gegenseitig, also möglicherweise in beiderlei Richtung?

Ob ein gemessener Korrelationskoeffizient als groß oder klein interpretiert wird, hängt stark von der Art der untersuchten Daten ab. Bei psychologischen Fragebogendaten werden z. B. Werte bis ca. 0,3 häufig als klein angesehen, ab ca. 0,5 als gut, während man ab ca. 0,7–0,8 von einer (sehr) hohen Korrelation spricht.

Das Quadrat des Korrelationskoeffizienten r² nennt man Bestimmtheitsmaß. Es gibt in erster Näherung an, wie viel Prozent der Varianz, d. h. Streuung, der einen Variable durch die Streuung der anderen Variable erklärt werden können. Beispiel: Bei r = 0,3 werden 9 % (= 0,3² = 0,09) der gesamten auftretenden Varianz im Hinblick auf einen statistischen Zusammenhang erklärt.

Fisher-Transformation

Empirische Korrelationskoeffizienten sind nicht normalverteilt. Vor der Berechnung von Konfidenzintervallen muss daher erst eine Korrektur der Verteilung mit Hilfe der Fisher-Transformation vorgenommen werden. Wenn die Daten [math]x[/math] und [math]y[/math] aus einer zumindest annähernd bivariat normalverteilten Grundgesamtheit stammen, dann ist der empirische Korrelationskoeffizient [math]\varrho_e[/math] rechtssteil unimodal verteilt.

Die transformierte Variable

[math]f(\varrho_e)=0{,}5\ln\left(\frac{1+\varrho_e}{1-\varrho_e}\right)\,[/math]

ist annähernd normalverteilt mit der Standardabweichung [math]1/\sqrt{n-3}[/math]. Das auf Basis dieser Normalverteilung errechnete [math]1-\alpha[/math]-Konfidenzintervall der Form

[math]z_1=f(r)-\frac{z_{1-\alpha/2}}{\sqrt{n-3}} \leq\mu\leq f(r)+\frac{z_{1-\alpha/2}}{\sqrt{n-3}}=z_2[/math]

wird sodann retransformiert zu

[math] \begin{align} r_1 &=(e^{2z_1}-1)/(e^{2z_1}+1)\\ r_2 &=(e^{2z_2}-1)/(e^{2z_2}+1). \end{align}[/math]

Das Konfidenzintervall für die Korrelation lautet sodann

[math]r_1\leq \varrho_e \leq r_2[/math].

Konfidenzintervalle von Korrelationen liegen in aller Regel unsymmetrisch bezüglich ihres Mittelwerts.

Test des Korrelationskoeffizienten / Steigers Z-Test

Folgende Tests (Steigers Z-Test[1]) können durchgeführt werden, wenn die Variablen [math]X[/math] und [math]Y[/math] annähernd bivariat normalverteilt sind:

[math]H_0\colon \varrho=\varrho_0[/math] vs. [math]H_1\colon \varrho\neq\varrho_0[/math] (zweiseitige Hypothese)
[math]H_0\colon \varrho\leq\varrho_0[/math] vs. [math]H_1\colon \varrho\gt\varrho_0[/math] (rechtsseitige Hypothese)
[math]H_0\colon \varrho\geq\varrho_0[/math] vs. [math]H_1\colon \varrho\lt\varrho_0[/math] (linksseitige Hypothese)

Die Teststatistik ist

[math]T(r) = \frac{f(r) - f(\varrho_0) - \varrho_0/(n-2)}{1/\sqrt{n-3}} \approx N(0,1)[/math]

verteilt ([math]f(\bullet)[/math] ist die Fisher-Transformation, siehe vorherigen Abschnitt).

Im Spezialfall der Hypothese [math]H_0\colon \varrho=0[/math] vs. [math]H_1\colon \varrho\neq 0[/math] ergibt sich die Teststatistik als

[math]T_0(r) = \frac{r\sqrt{n-2}}{\sqrt{1-r^2}} \sim t_{n-2}[/math]

verteilt.

Partieller Korrelationskoeffizient

Eine Korrelation zwischen zwei Zufallsvariablen X und Y kann unter Umständen auf einen gemeinsamen Einfluss einer dritten Zufallsvariablen U zurückgeführt werden. Um solch einen Effekt zu messen, gibt es das Konzept der partiellen Korrelation (auch Partialkorrelation genannt). Die „partielle Korrelation von X und Y unter U“ ist gegeben durch

[math] r_{(X,Y)/U} = \frac{r_{XY} - r_{XU} \cdot r_{YU}} { \sqrt{(1-r_{XU}^2)(1-r_{YU}^2)} }. [/math]

Das folgende Bild zeigt ein Beispiel:

Zwischen X und Y besteht eine merkliche Korrelation. Betrachtet man die beiden rechten Punktwolken, so erkennt man, dass X und Y jeweils stark mit U korrelieren. Die beobachtete Korrelation zwischen X und Y basiert nun fast ausschließlich auf diesem Effekt.

Beispiel aus dem Alltag:

In einer Firma werden zufällig Mitarbeiter ausgewählt und die Körpergröße bestimmt. Zudem muss jeder Befragte sein Einkommen angeben. Das Ergebnis der Untersuchung ist, dass Körpergröße und Einkommen positiv korrelieren, also größere Personen auch mehr verdienen. Bei einer genaueren Untersuchung stellt sich jedoch heraus, dass der Zusammenhang auf die Drittvariable Geschlecht zurückgeführt werden kann. Frauen sind im Durchschnitt kleiner als Männer, verdienen aber auch oftmals weniger. Berechnet man nun die Partialkorrelation zwischen Einkommen und Körpergröße unter Kontrolle des Geschlechts, so verschwindet der Zusammenhang. Größere Männer verdienen demnach beispielsweise nicht mehr als kleinere Männer. Dieses Beispiel ist fiktiv und der Zusammenhang in der Realität komplizierter,[2] es kann jedoch die Idee der Partialkorrelation veranschaulichen.

Robuste Korrelationskoeffizienten

Der Korrelationskoeffizient nach Pearson ist empfindlich gegenüber Ausreißern. Deswegen wurden verschiedene robuste Korrelationskoeffizienten entwickelt, z. B.

Quadrantenkorrelation

Die Quadrantenkorrelation ergibt sich aus der Anzahl der Beobachtungen in den vier vom Medianenpaar bestimmten Quadranten. Dazu zählt man, wie viele der Beobachtungen in den Quadranten I und III liegen ([math]N_+[/math]) bzw. wie viele sich in den Quadranten II und IV befinden ([math]N_-[/math]). Die Beobachtungen in den Quadranten I und III liefern jeweils einen Beitrag von [math]+1/n[/math] und die Beobachtungen in den Quadranten II und IV von [math]-1/n[/math]:

[math]r_\text{quad} = \frac{N_+-N_-}{N_++N_-} = \frac{1}{n} \sum_{i=1}^n \sgn(x_i - \tilde{x}) \sgn(y_i-\tilde{y}),[/math]

mit [math]\sgn[/math] die Signumfunktion, [math]n[/math] die Zahl der Beobachtungen und [math]\tilde{x}[/math] und [math]\tilde{y}[/math] die Mediane der Beobachtungen. Da jeder Wert von [math]\sgn(x_i-\tilde{x}) \sgn(y_i-\tilde{y})[/math] entweder [math]-1[/math], [math]0[/math] oder [math]+1[/math] ist, spielt es keine Rolle wie weit eine Beobachtung von den Medianen entfernt ist.

Über die Quadrantenkorrelation kann mit Hilfe des Median-Tests die Hypothesen [math]H_0: r_\text{quad}=0\,[/math] vs. [math]H_1: r_\text{quad}\neq 0[/math] überprüft werden. Ist [math]n_+[/math] die Zahl der Beobachtungen mit [math]\sgn(x_i-\tilde{x}) \sgn(y_i-\tilde{y})=+1[/math], [math]n_-[/math] die Zahl der Beobachtungen mit [math]\sgn(x_i-\tilde{x}) \sgn(y_i - \tilde{y}) = -1[/math] und [math]n_e = (n_+ + n_-)/2\gt5[/math], dann ist die Teststatistik

[math]\frac{(n_+ - n_e)^2+(n_- - n_e)^2}{n_e} \approx \chi^2_1[/math]

verteilt.

Schätzung der Korrelation zwischen nicht-metrischen Variablen

Die Schätzung der Korrelation mit dem Korrelationskoeffizient nach Pearson setzt voraus, dass beide Variablen intervallskaliert und normalverteilt sind. Dagegen können die Rangkorrelationskoeffizienten immer dann zur Schätzung der Korrelation verwendet werden, wenn beide Variablen mindestens ordinalskaliert sind. Die Korrelation zwischen einer dichotomen und einer intervallskalierten und normalverteilten Variablen kann mit der punktbiserialen Korrelation geschätzt werden. Die Korrelation zwischen zwei dichotomen Variablen kann mit dem Vierfelderkorrelationskoeffizienten geschätzt werden. Hier kann man die Unterscheidung treffen, dass bei zwei natürlich dichotomen Variablen die Korrelation sowohl durch den Odds Ratio (OR) als auch durch den Phi-Koeffizient berechnet werden kann. Eine Korrelation aus zwei ordinal oder einer intervall und einer ordinal gemessenen Variablen ist mit Spearmans Rho oder Kendalls Tau berechenbar.

Siehe auch

Literatur

  • Francis Galton: Co-relations and their measurement, chiefly from anthropometric data. In: Proceedings of the Royal Society. Band 45, Nr. 13, 5. Dezember 1888, S. 135–145 (galton.org [PDF; abgerufen am 12. September 2012]).
  • Diedenhofen, Birk & Musch, Jochen (2015): cocor : A Comprehensive Solution for the Statistical Comparison of Correlations. PLoS ONE, 10(4): e0121945 .
  • Hartung, Joachim: Statistik, 12. Auflage, Oldenbourg Verlag 1999, S. 561 f, ISBN 3-486-24984-3
  • Zöfel, Peter: Statistik für Psychologen, Pearson Studium 2003, München, S. 154.

Weblinks

 Wiktionary: Korrelationskoeffizient – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen

Einzelnachweise

  1. Steiger, J.H. (1980): Tests for comparing elements of a correlation matrix, Psychological Bulletin, 87, 245–251.
  2. „Der Einfluss der Körpergröße auf Lohnhöhe und Berufswahl: Aktueller Forschungsstand und neue Ergebnisse auf Basis des Mikrozensus“
ru:Корреляция#Линейный коэффициент корреляции

Kategorien: Deskriptive Statistik

Quelle: Wikipedia - http://de.wikipedia.org/wiki/Korrelationskoeffizient (Vollständige Liste der Autoren des Textes [Versionsgeschichte])    Lizenz: CC-by-sa-3.0

Änderungen: Alle Bilder mit den meisten Bildunterschriften wurden entfernt. Ebenso alle zu nicht-existierenden Artikeln/Kategorien gehenden internen Wikipedia-Links (Bsp. Portal-Links, Redlinks, Bearbeiten-Links). Entfernung von Navigationsframes, Geo & Normdaten, Mediadateien, gesprochene Versionen, z.T. ID&Class-Namen, Style von Div-Containern, Metadaten, Vorlagen, wie lesenwerte Artikel. Ansonsten sind keine Inhaltsänderungen vorgenommen worden. Weiterhin kann es durch die maschinelle Bearbeitung des Inhalts zu Fehlern gerade in der Darstellung kommen. Darum würden wir jeden Besucher unserer Seite darum bitten uns diese Fehler über den Support mittels einer Nachricht mit Link zu melden. Vielen Dank!

Stand der Informationen: August 201& - Wichtiger Hinweis: Da die Inhalte maschinell von Wikipedia übernommen wurden, ist eine manuelle Überprüfung nicht möglich. Somit garantiert LinkFang.de nicht die Richtigkeit und Aktualität der übernommenen Inhalte. Sollten die Informationen mittlerweile fehlerhaft sein, bitten wir Sie darum uns per Support oder E-Mail zu kontaktieren. Wir werden uns dann innerhalb von spätestens 10 Tagen um Ihr Anliegen kümmern. Auch ohne Anliegen erfolgt mindestens alle drei Monate ein Update der gesamten Inhalte.