Ein-Stichproben-t-Test Rechner
Online Hypothesentest zur Überprüfung von Mittelwerten
Geben Sie Ihre Stichprobendaten und den hypothetischen Mittelwert μ₀ ein, dann klicken Sie auf Test durchführen. Der Ein-Stichproben-t-Test prüft, ob sich der Stichprobenmittelwert signifikant vom hypothetischen Wert unterscheidet und ist fundamental für die statistische Inferenz und Hypothesentests.
💡 Ein-Stichproben-t-Test
\(t = \frac{\bar{x} - \mu_0}{s/\sqrt{n}}\) | df = n - 1
Ein-Stichproben-t-Test und Hypothesentests verstehen
Der Ein-Stichproben-t-Test ist ein fundamentaler parametrischer Hypothesentest zur Überprüfung, ob der Mittelwert einer Stichprobe signifikant von einem hypothetischen Populationsmittelwert abweicht. Er basiert auf der t-Verteilung und ist besonders geeignet, wenn die Populationsstandardabweichung unbekannt ist. Der Test ist zentral für die statistische Inferenz und findet breite Anwendung in Forschung, Qualitätskontrolle und Datenanalyse.
🔬 Hypothesen
- • H₀: μ = μ₀ (Nullhypothese)
- • H₁: μ ≠ μ₀ (zweiseitig)
- • H₁: μ > μ₀ (rechtsseitig)
- • H₁: μ < μ₀ (linksseitig)
📊 Voraussetzungen
- • Normalverteilte Daten
- • Unabhängige Beobachtungen
- • Zufällige Stichprobe
- • Metrische Daten
🎯 Interpretation
- • p < α: H₀ ablehnen
- • p ≥ α: H₀ beibehalten
- • α = 0.05 (Standard)
- • Konfidenzintervall
⚙️ Teststatistik
- • t-Wert als Maß der Abweichung
- • df = n - 1 Freiheitsgrade
- • t-Verteilung statt Normalverteilung
- • Kritischer Wert aus Tabelle
Mathematische Grundlagen
📊 Teststatistik und Verteilung
Für eine Stichprobe x₁, x₂, ..., xₙ aus einer Normalverteilung:
\[\text{Teststatistik: } t = \frac{\bar{x} - \mu_0}{s/\sqrt{n}}\] \[\text{wobei:}\] \[\bar{x} = \frac{1}{n}\sum_{i=1}^n x_i \text{ (Stichprobenmittel)}\] \[s = \sqrt{\frac{1}{n-1}\sum_{i=1}^n (x_i - \bar{x})^2} \text{ (Stichproben-SD)}\] \[\text{SE} = \frac{s}{\sqrt{n}} \text{ (Standardfehler des Mittelwerts)}\] \[t \sim t_{n-1} \text{ unter } H_0 \text{ (t-Verteilung mit n-1 df)}\]
🔄 Hypothesentestverfahren
Systematisches Vorgehen beim Hypothesentest:
\[\text{Schritt 1: Hypothesen formulieren}\] \[H_0: \mu = \mu_0 \text{ vs. } H_1: \mu \neq \mu_0 \text{ (zweiseitig)}\] \[\text{Schritt 2: Signifikanzniveau festlegen } (\alpha = 0.05)\] \[\text{Schritt 3: Teststatistik berechnen}\] \[\text{Schritt 4: p-Wert bestimmen}\] \[p = P(|T| \geq |t_{obs}|) \text{ bei zweiseitigem Test}\] \[\text{Schritt 5: Entscheidung treffen}\] \[\text{Ablehnung von } H_0 \text{ wenn } p < \alpha\]
📊 Konfidenzintervall und Effektgröße
Zusätzliche Informationen über die Stichprobe:
\[\text{Konfidenzintervall für } \mu \text{ (1-α)-Niveau:}\] \[\bar{x} \pm t_{\alpha/2,n-1} \cdot \frac{s}{\sqrt{n}}\] \[\text{Cohen's d (Effektgröße):}\] \[d = \frac{|\bar{x} - \mu_0|}{s}\] \[\text{Interpretation: } d < 0.2 \text{ (klein), } 0.2 \leq d < 0.8 \text{ (mittel), } d \geq 0.8 \text{ (groß)}\] \[\text{Teststärke: } 1 - \beta = P(\text{H}_0 \text{ ablehnen | H}_1 \text{ wahr})\]
Praktische Berechnungsbeispiele
📝 Beispiel 1: Standardtest
Aufgabe: Test, ob Stichprobe signifikant von μ₀ = 6 abweicht
Daten: 5, 7, 6, 8, 7 (n = 5)
Berechnung:
\[\bar{x} = \frac{5+7+6+8+7}{5} = 6.6\] \[s = \sqrt{\frac{(5-6.6)^2 + (7-6.6)^2 + (6-6.6)^2 + (8-6.6)^2 + (7-6.6)^2}{4}} = 1.14\] \[\text{SE} = \frac{1.14}{\sqrt{5}} = 0.51\] \[t = \frac{6.6 - 6}{0.51} = 1.18\] \[\text{df} = 5 - 1 = 4\] \[p \approx 0.30 \text{ (zweiseitig)}\]
Interpretation: p > 0.05 → H₀ beibehalten, kein signifikanter Unterschied
📝 Beispiel 2: Qualitätskontrolle
Aufgabe: Überprüfung der Sollmasse μ₀ = 15.0g
Daten: 15.2, 14.8, 15.1, 14.9, 15.0, 15.3, 14.7 (n = 7)
Einseitiger Test: H₁: μ ≠ 15.0
\[\bar{x} = \frac{15.2+14.8+...+14.7}{7} = 15.0\] \[s = 0.21, \quad \text{SE} = \frac{0.21}{\sqrt{7}} = 0.079\] \[t = \frac{15.0 - 15.0}{0.079} = 0.0\] \[\text{df} = 6, \quad p = 1.0\] \[\text{95\% KI: } [14.80, 15.20]\]
Ergebnis: Prozess läuft im Sollbereich, keine Abweichung erkennbar
📝 Beispiel 3: Testergebnisse
Aufgabe: Sind die Testergebnisse besser als der Durchschnitt μ₀ = 80?
Daten: 72, 85, 78, 92, 88, 76, 95, 82, 89, 91 (n = 10)
Rechtsseitiger Test: H₁: μ > 80
\[\bar{x} = 84.8, \quad s = 7.49, \quad \text{SE} = 2.37\] \[t = \frac{84.8 - 80}{2.37} = 2.03\] \[\text{df} = 9, \quad p \approx 0.035 \text{ (einseitig)}\] \[\text{Cohen's d} = \frac{|84.8 - 80|}{7.49} = 0.64 \text{ (mittlerer Effekt)}\] \[\text{95\% KI: } [79.4, 90.2]\]
Ergebnis: Signifikant bessere Leistung (p < 0.05), mittlere Effektgröße
Anwendungen in verschiedenen Bereichen
🔬 Forschung & Wissenschaft
- • Experimentelle Studien
- • Behandlungseffekte testen
- • Laborwerte validieren
- • Baseline-Vergleiche
📊 Qualitätskontrolle
- • Sollwert-Überprüfung
- • Prozessüberwachung
- • Spezifikationsgrenzen
- • Six Sigma Projekte
🏥 Medizin & Gesundheit
- • Normalwerte testen
- • Therapieeffekte
- • Dosisfindung
- • Biomarker-Analyse
🎓 Bildung & Psychologie
- • Leistungstests
- • Interventionsstudien
- • Normwerte überprüfen
- • A/B-Testing
Statistische Fehler und Interpretationshilfen
⚠️ Häufige Fehler und deren Vermeidung
Wichtige Punkte für korrekte Anwendung:
\[\text{Typ I Fehler: } \alpha = P(\text{H}_0 \text{ ablehnen | H}_0 \text{ wahr})\] \[\text{Typ II Fehler: } \beta = P(\text{H}_0 \text{ beibehalten | H}_1 \text{ wahr})\] \[\text{Teststärke: } 1-\beta = P(\text{H}_0 \text{ ablehnen | H}_1 \text{ wahr})\] \[\text{Multiple Testing: Bonferroni-Korrektur } \alpha' = \frac{\alpha}{k}\] \[\text{Voraussetzungen prüfen: Normalität, Unabhängigkeit}\]
💻 Computational Aspects
Implementierung in verschiedenen Software-Systemen:
R:
# Ein-Stichproben t-Test
t.test(data, mu = mu0) # zweiseitig
t.test(data, mu = mu0, alternative = "greater") # rechtsseitig
t.test(data, mu = mu0, conf.level = 0.95) # mit KI
Python (SciPy):
from scipy import stats
# Ein-Stichproben t-Test
t_stat, p_value = stats.ttest_1samp(data, mu0)
# Konfidenzintervall
stats.t.interval(0.95, df, loc=mean, scale=se)
Manual Calculation:
import numpy as np
mean = np.mean(data)
std = np.std(data, ddof=1)
se = std / np.sqrt(len(data))
t = (mean - mu0) / se
💡 Praktische Interpretationshilfen
Leitfaden für die Ergebnisinterpretation:
\[\text{p-Wert Interpretation:}\] \[p < 0.001: \text{ sehr stark signifikant } (***)\] \[0.001 \leq p < 0.01: \text{ stark signifikant } (**)\] \[0.01 \leq p < 0.05: \text{ signifikant } (*)\] \[p \geq 0.05: \text{ nicht signifikant (ns)}\] \[\text{Konfidenzintervall: Enthält μ}_0? \Rightarrow \text{ nicht signifikant}\] \[\text{Effektgröße beachten: Praktische vs. statistische Signifikanz}\]
💡 Wichtige Eigenschaften des t-Tests:
- Robustheit: Relativ unempfindlich gegen leichte Verletzungen der Normalverteilungsannahme
- Flexibilität: Ein-, zwei- und gepaarte Stichproben möglich
- Interpretierbarkeit: Klare Aussagen über statistische Signifikanz
- Standardisierung: Weit verbreiteter und anerkannter Test
🧪 Wann Ein-Stichproben-t-Test verwenden:
- Mittelwertvergleich: Stichprobe vs. bekannter/theoretischer Wert
- Qualitätskontrolle: Überprüfung von Sollwerten und Spezifikationen
- Wissenschaftliche Studien: Hypothesentests in experimenteller Forschung
- Baseline-Tests: Vergleich mit etablierten Referenzwerten
Arithmetisches-Mittel, DurchschnittStreuungsmaße
Geometrisches Mittel
Harmonisches Mittel
Kontraharmonisches Mittel
Log-Geometrisches Mittel
Median
Modus
Minimum und Maximum
Perzentile
Oberes Quartil
Unteres Quartil
Quantile
KurtosisKorrelation & Zusammenhang
Skewness (Statistische Schiefe)
Standardabweichung
Gepoolte Standardabweichungl
Varianz
Gepoolte Varianz
Spannweite
Interquartilsabstand (IQR)
KovarianzVerteilungsfunktionen
Korrelationskoeffizient (Pearson, Spearman)
Rangkorrelation
Empirische inverse Verteilungsfunktion CDFTest & Schätzungen
Empirische Verteilungsfunktion CDF
Five-Number Summary
T-Test (einfach)Spezielle Verteilungen:
Chi-Quadrat-Test
Wilcoxon-Test
NormalverteilungRisiko & Wahrscheinlichkeit
Binomialverteilung
Poisson-Verteilung
Exponentialverteilung
Geburtstagsparadoxon
Satz von Bayes