Korrelationskoeffizient Rechner
Online Berechnung des Korrelationskoeffizienten zwischen zwei Datenreihen
Geben Sie Ihre beiden Datenreihen in die Textfelder ein und klicken Sie auf Berechnen. Der Korrelationskoeffizient misst die Stärke und Richtung des linearen Zusammenhangs zwischen zwei Variablen und ist ein fundamentales Maß in der deskriptiven Statistik und Datenanalyse.
💡 Korrelationskoeffizient
\(r = \frac{\sum (x_i - \bar{x})(y_i - \bar{y})}{\sqrt{\sum (x_i - \bar{x})^2 \sum (y_i - \bar{y})^2}}\) | Maß für linearen Zusammenhang
Korrelation und linearen Zusammenhang verstehen
Der Korrelationskoeffizient ist eines der wichtigsten Maße zur Quantifizierung des linearen Zusammenhangs zwischen zwei Variablen. Er gibt sowohl die Stärke als auch die Richtung der Beziehung an und liegt immer zwischen -1 und +1. Ein Wert von +1 bedeutet perfekte positive Korrelation, -1 bedeutet perfekte negative Korrelation, und 0 bedeutet keinen linearen Zusammenhang. Korrelation ist fundamental für Regression, Datenanalyse und wissenschaftliche Studien.
📊 Pearson-Korrelation
Lineare Korrelation:
📈 Spearman-Korrelation
Rangkorrelation:
🎯 Anwendungen
- • Wissenschaftliche Studien
- • Marktforschung
- • Qualitätskontrolle
- • Machine Learning
⚙️ Interpretation
- • |r| ≥ 0.9: Sehr stark
- • |r| ≥ 0.7: Stark
- • |r| ≥ 0.5: Moderat
- • |r| < 0.3: Schwach
Mathematische Grundlagen
📊 Pearson-Korrelationskoeffizient
Für zwei Datenreihen X und Y mit n Beobachtungen:
\[\text{Kovarianz-Form: } r = \frac{\text{Cov}(X,Y)}{\sigma_X \sigma_Y}\] \[\text{Summenform: } r = \frac{\sum_{i=1}^{n} (x_i - \bar{x})(y_i - \bar{y})}{\sqrt{\sum_{i=1}^{n} (x_i - \bar{x})^2 \sum_{i=1}^{n} (y_i - \bar{y})^2}}\] \[\text{Computational Form: } r = \frac{n\sum xy - \sum x \sum y}{\sqrt{(n\sum x^2 - (\sum x)^2)(n\sum y^2 - (\sum y)^2)}}\] \[\text{Eigenschaften: } -1 \leq r \leq 1, \text{ dimensionslos}\]
🔄 Spearman-Rangkorrelationskoeffizient
Korrelation basierend auf Rängen der Beobachtungen:
\[\text{Formel: } r_s = 1 - \frac{6\sum_{i=1}^{n} d_i^2}{n(n^2-1)}\] \[\text{wobei } d_i = \text{Rang}(x_i) - \text{Rang}(y_i)\] \[\text{Alternative: Pearson-Korrelation der Ränge}\] \[\text{Robustheit: Weniger empfindlich gegen Ausreißer}\] \[\text{Anwendung: Ordinale Daten, nicht-normale Verteilungen}\]
📊 Korrelation vs. Kausalität
Wichtige Unterscheidung in der Dateninterpretation:
\[\text{Korrelation } \neq \text{ Kausalität}\] \[\text{Mögliche Erklärungen für Korrelation:}\] \[\text{1. X verursacht Y}\] \[\text{2. Y verursacht X}\] \[\text{3. Dritte Variable Z verursacht beide}\] \[\text{4. Zufällige Korrelation}\] \[\text{Zusätzliche Evidenz nötig für Kausalität}\]
Beispielrechnung
Gegeben:
X: 2, 5, 4, 8, 3
Y: 1, 3, 2, 7, 4
Pearson-Korrelationskoeffizient (r)
Schritt 1: Mittelwerte berechnen
\[\bar{x} = \frac{2 + 5 + 4 + 8 + 3}{5} = \frac{22}{5} = 4.4\]
\[\bar{y} = \frac{1 + 3 + 2 + 7 + 4}{5} = \frac{17}{5} = 3.4\]
Schritt 2: Abweichungen vom Mittelwert berechnen
i xi yi xi - x̄ yi - ȳ (xi - x̄)(yi - ȳ) (xi - x̄)² (yi - ȳ)² 1 2 1 -2.4 -2.4 5.76 5.76 5.76 2 5 3 0.6 -0.4 -0.24 0.36 0.16 3 4 2 -0.4 -1.4 0.56 0.16 1.96 4 8 7 3.6 3.6 12.96 12.96 12.96 5 3 4 -1.4 0.6 -0.84 1.96 0.36 Summen: 18.20 21.20 21.20
Schritt 3: Korrelationskoeffizient berechnen
\[r = \frac{\sum (x_i - \bar{x})(y_i - \bar{y})}{\sqrt{\sum (x_i - \bar{x})^2 \cdot \sum (y_i - \bar{y})^2}}\]
\[r = \frac{18.20}{\sqrt{21.20 \cdot 21.20}} = \frac{18.20}{21.20} = 0.86\]
Spearman-Rangkorrelationskoeffizient (rs)
Schritt 1: Ränge zuordnen
Wert X Rang X Y Rang Y di di² 1 2 1 1 1 0 0 2 5 4 3 3 1 1 3 4 3 2 2 1 1 4 8 5 7 5 0 0 5 3 2 4 4 -2 4 Summe: 6
Schritt 2: Spearman-Koeffizient berechnen
\[r_s = 1 - \frac{6 \sum d_i^2}{n(n^2-1)}\]
\[r_s = 1 - \frac{6 \cdot 6}{5(25-1)} = 1 - \frac{36}{120} = 1 - 0.3 = 0.70\]
Interpretation:
Pearson (r = 0.86): Starke positive lineare Korrelation
Spearman (rs = 0.70): Starke positive RangkorrelationBeide Koeffizienten zeigen einen starken positiven Zusammenhang zwischen X und Y. Der Unterschied liegt daran, dass Pearson die exakten Werte berücksichtigt, während Spearman nur die Rangfolge betrachtet.
Wann welche Methode verwenden?
- Pearson: Bei normalverteilten, metrischen Daten ohne Ausreißer
- Spearman: Bei ordinalen Daten, nicht-normalverteilten Daten oder bei Vorhandensein von Ausreißern
💡 Wichtige Eigenschaften der Korrelationskoeffizienten:
- Wertebereich: Beide Koeffizienten liegen zwischen -1 und +1
- Richtung: Positiver Wert = positive Korrelation, negativer Wert = negative Korrelation
- Stärke: Je näher der Betrag bei 1 liegt, desto stärker der Zusammenhang
- Kausalität: Korrelation bedeutet nicht Kausalität!
🔬 Anwendungsgebiete der Korrelationsanalyse:
- Wissenschaft: Zusammenhänge zwischen Variablen untersuchen
- Qualitätskontrolle: Beziehungen zwischen Prozessparametern
- Finanzen: Korrelationen zwischen Aktien oder Märkten
- Machine Learning: Feature-Selektion und Datenanalyse
Arithmetisches-Mittel, DurchschnittStreuungsmaße
Geometrisches Mittel
Harmonisches Mittel
Kontraharmonisches Mittel
Log-Geometrisches Mittel
Median
Modus
Minimum und Maximum
Perzentile
Oberes Quartil
Unteres Quartil
Quantile
KurtosisKorrelation & Zusammenhang
Skewness (Statistische Schiefe)
Standardabweichung
Gepoolte Standardabweichungl
Varianz
Gepoolte Varianz
Spannweite
Interquartilsabstand (IQR)
KovarianzVerteilungsfunktionen
Korrelationskoeffizient (Pearson, Spearman)
Rangkorrelation
Empirische inverse Verteilungsfunktion CDFTest & Schätzungen
Empirische Verteilungsfunktion CDF
Five-Number Summary
T-Test (einfach)Spezielle Verteilungen:
Chi-Quadrat-Test
Wilcoxon-Test
NormalverteilungRisiko & Wahrscheinlichkeit
Binomialverteilung
Poisson-Verteilung
Exponentialverteilung
Geburtstagsparadoxon
Satz von Bayes