Korrelationskoeffizient Rechner

Online Berechnung des Korrelationskoeffizienten zwischen zwei Datenreihen


📊 Korrelationskoeffizient (r)

Pearson & Spearman Korrelation zwischen zwei Variablen

💡 Zahlen durch Komma, Semikolon oder Leerzeichen getrennt
💡 Gleiche Anzahl Werte wie Datenreihe X
Pearson für lineare, Spearman für monotone Zusammenhänge
CSV-Format: Spalte 1 = X, Spalte 2 = Y
📊
Korrelationskoeffizient: Misst die Stärke und Richtung des linearen Zusammenhangs zwischen zwei Variablen (-1 bis +1).
⚠️ Fehler:

Geben Sie Ihre beiden Datenreihen in die Textfelder ein und klicken Sie auf Berechnen. Der Korrelationskoeffizient misst die Stärke und Richtung des linearen Zusammenhangs zwischen zwei Variablen und ist ein fundamentales Maß in der deskriptiven Statistik und Datenanalyse.


💡 Korrelationskoeffizient

\(r = \frac{\sum (x_i - \bar{x})(y_i - \bar{y})}{\sqrt{\sum (x_i - \bar{x})^2 \sum (y_i - \bar{y})^2}}\)  |  Maß für linearen Zusammenhang


Korrelation und linearen Zusammenhang verstehen

Der Korrelationskoeffizient ist eines der wichtigsten Maße zur Quantifizierung des linearen Zusammenhangs zwischen zwei Variablen. Er gibt sowohl die Stärke als auch die Richtung der Beziehung an und liegt immer zwischen -1 und +1. Ein Wert von +1 bedeutet perfekte positive Korrelation, -1 bedeutet perfekte negative Korrelation, und 0 bedeutet keinen linearen Zusammenhang. Korrelation ist fundamental für Regression, Datenanalyse und wissenschaftliche Studien.

📊 Pearson-Korrelation

Lineare Korrelation:

r = Cov(X,Y)/(σₓσᵧ)
Parametrisch, misst lineare Beziehungen
📈 Spearman-Korrelation

Rangkorrelation:

rₛ = 1 - 6Σd²/n(n²-1)
Nichtparametrisch, robust gegen Ausreißer
🎯 Anwendungen
  • • Wissenschaftliche Studien
  • • Marktforschung
  • • Qualitätskontrolle
  • • Machine Learning
⚙️ Interpretation
  • • |r| ≥ 0.9: Sehr stark
  • • |r| ≥ 0.7: Stark
  • • |r| ≥ 0.5: Moderat
  • • |r| < 0.3: Schwach

Mathematische Grundlagen

📊 Pearson-Korrelationskoeffizient

Für zwei Datenreihen X und Y mit n Beobachtungen:

\[\text{Kovarianz-Form: } r = \frac{\text{Cov}(X,Y)}{\sigma_X \sigma_Y}\] \[\text{Summenform: } r = \frac{\sum_{i=1}^{n} (x_i - \bar{x})(y_i - \bar{y})}{\sqrt{\sum_{i=1}^{n} (x_i - \bar{x})^2 \sum_{i=1}^{n} (y_i - \bar{y})^2}}\] \[\text{Computational Form: } r = \frac{n\sum xy - \sum x \sum y}{\sqrt{(n\sum x^2 - (\sum x)^2)(n\sum y^2 - (\sum y)^2)}}\] \[\text{Eigenschaften: } -1 \leq r \leq 1, \text{ dimensionslos}\]

🔄 Spearman-Rangkorrelationskoeffizient

Korrelation basierend auf Rängen der Beobachtungen:

\[\text{Formel: } r_s = 1 - \frac{6\sum_{i=1}^{n} d_i^2}{n(n^2-1)}\] \[\text{wobei } d_i = \text{Rang}(x_i) - \text{Rang}(y_i)\] \[\text{Alternative: Pearson-Korrelation der Ränge}\] \[\text{Robustheit: Weniger empfindlich gegen Ausreißer}\] \[\text{Anwendung: Ordinale Daten, nicht-normale Verteilungen}\]

📊 Korrelation vs. Kausalität

Wichtige Unterscheidung in der Dateninterpretation:

\[\text{Korrelation } \neq \text{ Kausalität}\] \[\text{Mögliche Erklärungen für Korrelation:}\] \[\text{1. X verursacht Y}\] \[\text{2. Y verursacht X}\] \[\text{3. Dritte Variable Z verursacht beide}\] \[\text{4. Zufällige Korrelation}\] \[\text{Zusätzliche Evidenz nötig für Kausalität}\]

Beispielrechnung

Gegeben:
X: 2, 5, 4, 8, 3
Y: 1, 3, 2, 7, 4

Pearson-Korrelationskoeffizient (r)

Schritt 1: Mittelwerte berechnen
\[\bar{x} = \frac{2 + 5 + 4 + 8 + 3}{5} = \frac{22}{5} = 4.4\] \[\bar{y} = \frac{1 + 3 + 2 + 7 + 4}{5} = \frac{17}{5} = 3.4\]

Schritt 2: Abweichungen vom Mittelwert berechnen

i xi yi xi - x̄ yi - ȳ (xi - x̄)(yi - ȳ) (xi - x̄)² (yi - ȳ)²
1 2 1 -2.4 -2.4 5.76 5.76 5.76
2 5 3 0.6 -0.4 -0.24 0.36 0.16
3 4 2 -0.4 -1.4 0.56 0.16 1.96
4 8 7 3.6 3.6 12.96 12.96 12.96
5 3 4 -1.4 0.6 -0.84 1.96 0.36
Summen: 18.20 21.20 21.20

Schritt 3: Korrelationskoeffizient berechnen
\[r = \frac{\sum (x_i - \bar{x})(y_i - \bar{y})}{\sqrt{\sum (x_i - \bar{x})^2 \cdot \sum (y_i - \bar{y})^2}}\] \[r = \frac{18.20}{\sqrt{21.20 \cdot 21.20}} = \frac{18.20}{21.20} = 0.86\]

Spearman-Rangkorrelationskoeffizient (rs)

Schritt 1: Ränge zuordnen

Wert X Rang X Y Rang Y di di²
1 2 1 1 1 0 0
2 5 4 3 3 1 1
3 4 3 2 2 1 1
4 8 5 7 5 0 0
5 3 2 4 4 -2 4
Summe: 6

Schritt 2: Spearman-Koeffizient berechnen
\[r_s = 1 - \frac{6 \sum d_i^2}{n(n^2-1)}\] \[r_s = 1 - \frac{6 \cdot 6}{5(25-1)} = 1 - \frac{36}{120} = 1 - 0.3 = 0.70\]

Interpretation:

Pearson (r = 0.86): Starke positive lineare Korrelation
Spearman (rs = 0.70): Starke positive Rangkorrelation

Beide Koeffizienten zeigen einen starken positiven Zusammenhang zwischen X und Y. Der Unterschied liegt daran, dass Pearson die exakten Werte berücksichtigt, während Spearman nur die Rangfolge betrachtet.

Wann welche Methode verwenden?

  • Pearson: Bei normalverteilten, metrischen Daten ohne Ausreißer
  • Spearman: Bei ordinalen Daten, nicht-normalverteilten Daten oder bei Vorhandensein von Ausreißern
💡 Wichtige Eigenschaften der Korrelationskoeffizienten:
  • Wertebereich: Beide Koeffizienten liegen zwischen -1 und +1
  • Richtung: Positiver Wert = positive Korrelation, negativer Wert = negative Korrelation
  • Stärke: Je näher der Betrag bei 1 liegt, desto stärker der Zusammenhang
  • Kausalität: Korrelation bedeutet nicht Kausalität!
🔬 Anwendungsgebiete der Korrelationsanalyse:
  • Wissenschaft: Zusammenhänge zwischen Variablen untersuchen
  • Qualitätskontrolle: Beziehungen zwischen Prozessparametern
  • Finanzen: Korrelationen zwischen Aktien oder Märkten
  • Machine Learning: Feature-Selektion und Datenanalyse