Rangkorrelation Rechner

Online Berechnung der Spearman Rangkorrelation zwischen zwei Datenreihen


📊 Rangkorrelation (rs)

Spearman Rangkorrelationskoeffizient für nichtparametrische Zusammenhänge

💡 Zahlen durch Komma, Semikolon oder Leerzeichen getrennt
💡 Gleiche Anzahl Werte wie Datenreihe X
📊 Rangkorrelation: Robust gegen Ausreißer und nichtlineare Zusammenhänge
CSV-Format: Spalte 1 = X, Spalte 2 = Y
📊
Rangkorrelation: Misst monotone Zusammenhänge basierend auf Rängen. Robust gegen Ausreißer und nichtlineare Beziehungen.
⚠️ Fehler:

Geben Sie Ihre beiden Datenreihen in die Textfelder ein und klicken Sie auf Berechnen. Die Rangkorrelation nach Spearman misst monotone Zusammenhänge basierend auf den Rängen der Werte und ist robust gegen Ausreißer und nichtlineare Beziehungen.


💡 Spearman Rangkorrelation

\(r_s = 1 - \frac{6\sum d_i^2}{n(n^2-1)}\)  |  Maß für monotone Zusammenhänge


Rangkorrelation und monotone Zusammenhänge verstehen

Die Rangkorrelation nach Spearman ist ein nichtparametrisches Maß für den Zusammenhang zwischen zwei Variablen, das auf den Rängen der Werte basiert. Im Gegensatz zur Pearson-Korrelation misst sie monotone Beziehungen und ist robust gegen Ausreißer und nichtlineare Zusammenhänge. Sie ist besonders wertvoll bei ordinalen Daten oder wenn die Annahmen der Pearson-Korrelation verletzt sind.

📊 Rangbasierte Korrelation

Spearman's ρ (Rho):

rs = 1 - 6Σd²/n(n²-1)
Basiert auf Rangordnungen statt absoluten Werten
📈 Eigenschaften
  • • Nichtparametrisch
  • • Robust gegen Ausreißer
  • • Misst monotone Beziehungen
  • • Geeignet für ordinale Daten
🎯 Anwendungen
  • • Ordinale Daten
  • • Nichtlineare Zusammenhänge
  • • Daten mit Ausreißern
  • • Psychologie & Sozialwissenschaften
⚙️ Vorteile
  • • Keine Normalverteilung nötig
  • • Unempfindlich gegen Transformationen
  • • Einfache Interpretation
  • • Weniger Annahmen als Pearson

Mathematische Grundlagen

📊 Spearman Rangkorrelationskoeffizient

Für zwei Datenreihen X und Y mit n Beobachtungen:

\[\text{Grundformel: } r_s = 1 - \frac{6\sum_{i=1}^{n} d_i^2}{n(n^2-1)}\] \[\text{wobei } d_i = \text{Rang}(x_i) - \text{Rang}(y_i)\] \[\text{Alternative: Pearson-Korrelation der Ränge}\] \[r_s = \frac{\sum_{i=1}^{n} (R_x - \bar{R_x})(R_y - \bar{R_y})}{\sqrt{\sum_{i=1}^{n} (R_x - \bar{R_x})^2 \sum_{i=1}^{n} (R_y - \bar{R_y})^2}}\] \[\text{Eigenschaften: } -1 \leq r_s \leq 1\]

🔄 Rangzuordnung und Bindungen

Behandlung gleicher Werte (Bindungen):

\[\text{Mittlere Ränge bei Bindungen:}\] \[\text{Beispiel: Werte 2, 3, 3, 5 erhalten Ränge 1, 2.5, 2.5, 4}\] \[\text{Korrektur für Bindungen:}\] \[r_s = \frac{\sum (R_x - \bar{R_x})(R_y - \bar{R_y})}{\sqrt{[\sum (R_x - \bar{R_x})^2 - T_x][\sum (R_y - \bar{R_y})^2 - T_y]}}\] \[\text{wobei } T = \sum \frac{t_i^3 - t_i}{12} \text{ für Bindungsgruppen der Größe } t_i\]

📊 Spearman vs. Pearson

Wichtige Unterschiede zwischen den Korrelationsmaßen:

\[\text{Pearson: Misst lineare Zusammenhänge}\] \[\text{Spearman: Misst monotone Zusammenhänge}\] \[\text{Wenn X und Y linear zusammenhängen: } r_s \approx r\] \[\text{Bei nichtlinearen monotonen Beziehungen: } |r_s| > |r|\] \[\text{Robustheit: Spearman weniger empfindlich gegen Ausreißer}\]

Praktische Berechnungsbeispiele

📝 Beispiel 1: Grundberechnung

Aufgabe: Berechne Rangkorrelation von X: 2, 5, 4, 8, 3 und Y: 1, 3, 2, 7, 4
Schritt 1: Ränge zuordnen
Schritt 2: Rangdifferenzen berechnen

\[\text{Ränge X: } 1, 4, 3, 5, 2\] \[\text{Ränge Y: } 1, 3, 2, 5, 4\] \[\text{Differenzen } d_i: 0, 1, 1, 0, -2\] \[\text{Quadrierte Differenzen } d_i^2: 0, 1, 1, 0, 4\] \[\sum d_i^2 = 6\] \[r_s = 1 - \frac{6 \cdot 6}{5(25-1)} = 1 - \frac{36}{120} = 0.70\]

Interpretation: Starke positive Rangkorrelation von 0.70

📝 Beispiel 2: Nichtlinearer Zusammenhang

Aufgabe: Quadratischer Zusammenhang X: 1, 2, 3, 4, 5 und Y: 1, 4, 9, 16, 25
Vergleich: Spearman vs. Pearson bei Y = X²
Analyse:

\[\text{Ränge X: } 1, 2, 3, 4, 5\] \[\text{Ränge Y: } 1, 2, 3, 4, 5 \text{ (monoton steigend)}\] \[\text{Alle Rangdifferenzen } d_i = 0\] \[r_s = 1 - \frac{6 \cdot 0}{5 \cdot 24} = 1.00\] \[\text{Pearson-Korrelation: } r \approx 0.97\]

Ergebnis: Spearman erkennt perfekte Monotonie, Pearson nicht perfekte Linearität

📝 Beispiel 3: Robustheit gegen Ausreißer

Aufgabe: Einfluss von Ausreißern demonstrieren
Originaldaten: X: 1, 2, 3, 4, 5 und Y: 2, 4, 6, 8, 10
Mit Ausreißer: X: 1, 2, 3, 4, 100 und Y: 2, 4, 6, 8, 200

\[\text{Original: Ränge X = Ränge Y = 1, 2, 3, 4, 5}\] \[r_s = 1.00 \text{ (perfekte Rangkorrelation)}\] \[\text{Mit Ausreißer: Ränge X = Ränge Y = 1, 2, 3, 4, 5}\] \[r_s = 1.00 \text{ (unverändert!)}\] \[\text{Pearson-Korrelation würde deutlich sinken}\]

Vorteil: Rangkorrelation ist unempfindlich gegen extreme Werte

Anwendungen in verschiedenen Bereichen

🎓 Psychologie & Bildung
  • • Bewertungsskalen
  • • Rangfolgen und Präferenzen
  • • Persönlichkeitstests
  • • Leistungsbeurteilungen
📊 Marktforschung
  • • Kundenzufriedenheit
  • • Produktbewertungen
  • • Markenimage-Studien
  • • Likert-Skalen
🏥 Medizin & Biologie
  • • Ordinale Klassifikationen
  • • Schweregrad-Skalen
  • • Biomarker-Studien
  • • Taxonomische Studien
💼 Wirtschaft & Management
  • • Performance-Rankings
  • • Investitionsbewertungen
  • • Mitarbeiterbewertungen
  • • Qualitätsindikatoren

Hypothesentests und Signifikanz

📊 Signifikanztest für Rangkorrelation

Test der Nullhypothese H₀: ρₛ = 0 (keine Rangkorrelation):

\[\text{Für } n \geq 10: \text{ Approximation durch Normalverteilung}\] \[t = r_s \sqrt{\frac{n-2}{1-r_s^2}} \sim t_{n-2}\] \[\text{Kritischer Wert bei } \alpha = 0.05: t_{0.025, n-2}\] \[\text{Für kleine n: Exakte Tabellen verwenden}\] \[\text{Konfidenzintervall: Fisher-Transformation möglich}\]

🎯 Effektstärke und Interpretation

Richtlinien für die Interpretation der Rangkorrelation:

\[\text{Cohen's Richtlinien für Korrelationskoeffizienten:}\] \[|r_s| = 0.10: \text{ kleiner Effekt}\] \[|r_s| = 0.30: \text{ mittlerer Effekt}\] \[|r_s| = 0.50: \text{ großer Effekt}\] \[\text{Kontextabhängige Interpretation oft wichtiger}\]

Computational Aspects

💻 Algorithmen und Implementierung

Effiziente Berechnung der Rangkorrelation:

Python (SciPy):
from scipy.stats import spearmanr
import numpy as np
# Berechnung mit SciPy:
rho, p_value = spearmanr(x, y)
# Manuelle Implementierung:
def spearman_rank_corr(x, y):
  rx = np.argsort(np.argsort(x)) + 1
  ry = np.argsort(np.argsort(y)) + 1
  d = rx - ry
  n = len(x)
  return 1 - 6*np.sum(d**2)/(n*(n**2-1))

R:
cor(x, y, method="spearman")
# oder explizit:
cor.test(x, y, method="spearman")

💡 Praktische Tipps

Hinweise für die korrekte Anwendung:

\[\text{1. Geeignet für ordinale und metrische Daten}\] \[\text{2. Keine Normalverteilungsannahme nötig}\] \[\text{3. Robust gegen Ausreißer}\] \[\text{4. Bei kleinen Stichproben: exakte Tabellen}\] \[\text{5. Bindungen reduzieren die Power}\]
💡 Wichtige Eigenschaften der Rangkorrelation:
  • Nichtparametrisch: Keine Verteilungsannahmen erforderlich
  • Monotonie: Erkennt alle monotonen Beziehungen perfekt
  • Robustheit: Unempfindlich gegen Ausreißer und Transformationen
  • Interpretation: Gleicher Wertebereich wie Pearson (-1 bis +1)
📊 Wann Rangkorrelation verwenden:
  • Ordinale Daten: Wenn nur Rangordnungen verfügbar sind
  • Nichtlineare Zusammenhänge: Bei monotonen aber nicht linearen Beziehungen
  • Ausreißer-robuste Analyse: Wenn extreme Werte die Pearson-Korrelation verzerren
  • Verteilungsfreie Tests: Keine Normalverteilungsannahmen erforderlich