Rangkorrelation Rechner
Online Berechnung der Spearman Rangkorrelation zwischen zwei Datenreihen
Geben Sie Ihre beiden Datenreihen in die Textfelder ein und klicken Sie auf Berechnen. Die Rangkorrelation nach Spearman misst monotone Zusammenhänge basierend auf den Rängen der Werte und ist robust gegen Ausreißer und nichtlineare Beziehungen.
💡 Spearman Rangkorrelation
\(r_s = 1 - \frac{6\sum d_i^2}{n(n^2-1)}\) | Maß für monotone Zusammenhänge
Rangkorrelation und monotone Zusammenhänge verstehen
Die Rangkorrelation nach Spearman ist ein nichtparametrisches Maß für den Zusammenhang zwischen zwei Variablen, das auf den Rängen der Werte basiert. Im Gegensatz zur Pearson-Korrelation misst sie monotone Beziehungen und ist robust gegen Ausreißer und nichtlineare Zusammenhänge. Sie ist besonders wertvoll bei ordinalen Daten oder wenn die Annahmen der Pearson-Korrelation verletzt sind.
📊 Rangbasierte Korrelation
Spearman's ρ (Rho):
📈 Eigenschaften
- • Nichtparametrisch
- • Robust gegen Ausreißer
- • Misst monotone Beziehungen
- • Geeignet für ordinale Daten
🎯 Anwendungen
- • Ordinale Daten
- • Nichtlineare Zusammenhänge
- • Daten mit Ausreißern
- • Psychologie & Sozialwissenschaften
⚙️ Vorteile
- • Keine Normalverteilung nötig
- • Unempfindlich gegen Transformationen
- • Einfache Interpretation
- • Weniger Annahmen als Pearson
Mathematische Grundlagen
📊 Spearman Rangkorrelationskoeffizient
Für zwei Datenreihen X und Y mit n Beobachtungen:
\[\text{Grundformel: } r_s = 1 - \frac{6\sum_{i=1}^{n} d_i^2}{n(n^2-1)}\] \[\text{wobei } d_i = \text{Rang}(x_i) - \text{Rang}(y_i)\] \[\text{Alternative: Pearson-Korrelation der Ränge}\] \[r_s = \frac{\sum_{i=1}^{n} (R_x - \bar{R_x})(R_y - \bar{R_y})}{\sqrt{\sum_{i=1}^{n} (R_x - \bar{R_x})^2 \sum_{i=1}^{n} (R_y - \bar{R_y})^2}}\] \[\text{Eigenschaften: } -1 \leq r_s \leq 1\]
🔄 Rangzuordnung und Bindungen
Behandlung gleicher Werte (Bindungen):
\[\text{Mittlere Ränge bei Bindungen:}\] \[\text{Beispiel: Werte 2, 3, 3, 5 erhalten Ränge 1, 2.5, 2.5, 4}\] \[\text{Korrektur für Bindungen:}\] \[r_s = \frac{\sum (R_x - \bar{R_x})(R_y - \bar{R_y})}{\sqrt{[\sum (R_x - \bar{R_x})^2 - T_x][\sum (R_y - \bar{R_y})^2 - T_y]}}\] \[\text{wobei } T = \sum \frac{t_i^3 - t_i}{12} \text{ für Bindungsgruppen der Größe } t_i\]
📊 Spearman vs. Pearson
Wichtige Unterschiede zwischen den Korrelationsmaßen:
\[\text{Pearson: Misst lineare Zusammenhänge}\] \[\text{Spearman: Misst monotone Zusammenhänge}\] \[\text{Wenn X und Y linear zusammenhängen: } r_s \approx r\] \[\text{Bei nichtlinearen monotonen Beziehungen: } |r_s| > |r|\] \[\text{Robustheit: Spearman weniger empfindlich gegen Ausreißer}\]
Praktische Berechnungsbeispiele
📝 Beispiel 1: Grundberechnung
Aufgabe: Berechne Rangkorrelation von X: 2, 5, 4, 8, 3 und Y: 1, 3, 2, 7, 4
Schritt 1: Ränge zuordnen
Schritt 2: Rangdifferenzen berechnen
\[\text{Ränge X: } 1, 4, 3, 5, 2\] \[\text{Ränge Y: } 1, 3, 2, 5, 4\] \[\text{Differenzen } d_i: 0, 1, 1, 0, -2\] \[\text{Quadrierte Differenzen } d_i^2: 0, 1, 1, 0, 4\] \[\sum d_i^2 = 6\] \[r_s = 1 - \frac{6 \cdot 6}{5(25-1)} = 1 - \frac{36}{120} = 0.70\]
Interpretation: Starke positive Rangkorrelation von 0.70
📝 Beispiel 2: Nichtlinearer Zusammenhang
Aufgabe: Quadratischer Zusammenhang X: 1, 2, 3, 4, 5 und Y: 1, 4, 9, 16, 25
Vergleich: Spearman vs. Pearson bei Y = X²
Analyse:
\[\text{Ränge X: } 1, 2, 3, 4, 5\] \[\text{Ränge Y: } 1, 2, 3, 4, 5 \text{ (monoton steigend)}\] \[\text{Alle Rangdifferenzen } d_i = 0\] \[r_s = 1 - \frac{6 \cdot 0}{5 \cdot 24} = 1.00\] \[\text{Pearson-Korrelation: } r \approx 0.97\]
Ergebnis: Spearman erkennt perfekte Monotonie, Pearson nicht perfekte Linearität
📝 Beispiel 3: Robustheit gegen Ausreißer
Aufgabe: Einfluss von Ausreißern demonstrieren
Originaldaten: X: 1, 2, 3, 4, 5 und Y: 2, 4, 6, 8, 10
Mit Ausreißer: X: 1, 2, 3, 4, 100 und Y: 2, 4, 6, 8, 200
\[\text{Original: Ränge X = Ränge Y = 1, 2, 3, 4, 5}\] \[r_s = 1.00 \text{ (perfekte Rangkorrelation)}\] \[\text{Mit Ausreißer: Ränge X = Ränge Y = 1, 2, 3, 4, 5}\] \[r_s = 1.00 \text{ (unverändert!)}\] \[\text{Pearson-Korrelation würde deutlich sinken}\]
Vorteil: Rangkorrelation ist unempfindlich gegen extreme Werte
Anwendungen in verschiedenen Bereichen
🎓 Psychologie & Bildung
- • Bewertungsskalen
- • Rangfolgen und Präferenzen
- • Persönlichkeitstests
- • Leistungsbeurteilungen
📊 Marktforschung
- • Kundenzufriedenheit
- • Produktbewertungen
- • Markenimage-Studien
- • Likert-Skalen
🏥 Medizin & Biologie
- • Ordinale Klassifikationen
- • Schweregrad-Skalen
- • Biomarker-Studien
- • Taxonomische Studien
💼 Wirtschaft & Management
- • Performance-Rankings
- • Investitionsbewertungen
- • Mitarbeiterbewertungen
- • Qualitätsindikatoren
Hypothesentests und Signifikanz
📊 Signifikanztest für Rangkorrelation
Test der Nullhypothese H₀: ρₛ = 0 (keine Rangkorrelation):
\[\text{Für } n \geq 10: \text{ Approximation durch Normalverteilung}\] \[t = r_s \sqrt{\frac{n-2}{1-r_s^2}} \sim t_{n-2}\] \[\text{Kritischer Wert bei } \alpha = 0.05: t_{0.025, n-2}\] \[\text{Für kleine n: Exakte Tabellen verwenden}\] \[\text{Konfidenzintervall: Fisher-Transformation möglich}\]
🎯 Effektstärke und Interpretation
Richtlinien für die Interpretation der Rangkorrelation:
\[\text{Cohen's Richtlinien für Korrelationskoeffizienten:}\] \[|r_s| = 0.10: \text{ kleiner Effekt}\] \[|r_s| = 0.30: \text{ mittlerer Effekt}\] \[|r_s| = 0.50: \text{ großer Effekt}\] \[\text{Kontextabhängige Interpretation oft wichtiger}\]
Computational Aspects
💻 Algorithmen und Implementierung
Effiziente Berechnung der Rangkorrelation:
Python (SciPy):
from scipy.stats import spearmanr
import numpy as np
# Berechnung mit SciPy:
rho, p_value = spearmanr(x, y)
# Manuelle Implementierung:
def spearman_rank_corr(x, y):
rx = np.argsort(np.argsort(x)) + 1
ry = np.argsort(np.argsort(y)) + 1
d = rx - ry
n = len(x)
return 1 - 6*np.sum(d**2)/(n*(n**2-1))
R:
cor(x, y, method="spearman")
# oder explizit:
cor.test(x, y, method="spearman")
💡 Praktische Tipps
Hinweise für die korrekte Anwendung:
\[\text{1. Geeignet für ordinale und metrische Daten}\] \[\text{2. Keine Normalverteilungsannahme nötig}\] \[\text{3. Robust gegen Ausreißer}\] \[\text{4. Bei kleinen Stichproben: exakte Tabellen}\] \[\text{5. Bindungen reduzieren die Power}\]
💡 Wichtige Eigenschaften der Rangkorrelation:
- Nichtparametrisch: Keine Verteilungsannahmen erforderlich
- Monotonie: Erkennt alle monotonen Beziehungen perfekt
- Robustheit: Unempfindlich gegen Ausreißer und Transformationen
- Interpretation: Gleicher Wertebereich wie Pearson (-1 bis +1)
📊 Wann Rangkorrelation verwenden:
- Ordinale Daten: Wenn nur Rangordnungen verfügbar sind
- Nichtlineare Zusammenhänge: Bei monotonen aber nicht linearen Beziehungen
- Ausreißer-robuste Analyse: Wenn extreme Werte die Pearson-Korrelation verzerren
- Verteilungsfreie Tests: Keine Normalverteilungsannahmen erforderlich
Arithmetisches-Mittel, DurchschnittStreuungsmaße
Geometrisches Mittel
Harmonisches Mittel
Kontraharmonisches Mittel
Log-Geometrisches Mittel
Median
Modus
Minimum und Maximum
Perzentile
Oberes Quartil
Unteres Quartil
Quantile
KurtosisKorrelation & Zusammenhang
Skewness (Statistische Schiefe)
Standardabweichung
Gepoolte Standardabweichungl
Varianz
Gepoolte Varianz
Spannweite
Interquartilsabstand (IQR)
KovarianzVerteilungsfunktionen
Korrelationskoeffizient (Pearson, Spearman)
Rangkorrelation
Empirische inverse Verteilungsfunktion CDFTest & Schätzungen
Empirische Verteilungsfunktion CDF
Five-Number Summary
T-Test (einfach)Spezielle Verteilungen:
Chi-Quadrat-Test
Wilcoxon-Test
NormalverteilungRisiko & Wahrscheinlichkeit
Binomialverteilung
Poisson-Verteilung
Exponentialverteilung
Geburtstagsparadoxon
Satz von Bayes