Binomialverteilung Rechner

Online Berechnung von Wahrscheinlichkeiten der diskreten Bernoulli-Verteilung


🎲 Binomialverteilung (Bernoulli-Versuche)

Berechnung von Wahrscheinlichkeiten bei wiederholten Experimenten

💡 Anzahl der unabhängigen Versuche
💡 Wahrscheinlichkeit pro Versuch
💡 Gewünschte Anzahl Erfolge
🎲
Binomialverteilung: Berechnet P(X = k) für n unabhängige Bernoulli-Versuche mit Erfolgswahrscheinlichkeit p.
⚠️ Fehler:

Geben Sie die Anzahl der Versuche (n), die Erfolgswahrscheinlichkeit (p) und die gewünschte Anzahl der Erfolge (k) ein. Der Rechner berechnet die Wahrscheinlichkeit P(X = k) sowie Erwartungswert und Standardabweichung der Binomialverteilung. Diese diskrete Verteilung beschreibt die Anzahl der Erfolge bei n unabhängigen Bernoulli-Experimenten.


💡 Binomialverteilung Definition

\(P(X = k) = \binom{n}{k} p^k (1-p)^{n-k}\)  |  Wahrscheinlichkeit für k Erfolge bei n Versuchen


Binomialverteilung und Bernoulli-Experimente verstehen

Die Binomialverteilung ist eine der wichtigsten diskreten Wahrscheinlichkeitsverteilungen und beschreibt die Anzahl der Erfolge bei n unabhängigen Bernoulli-Experimenten mit konstanter Erfolgswahrscheinlichkeit p. Sie findet breite Anwendung in der Qualitätskontrolle, Marktforschung, Medizin und vielen anderen Bereichen, wo Ja/Nein-Entscheidungen oder Erfolg/Misserfolg-Szenarien auftreten.

🎲 Grundvoraussetzungen

Bernoulli-Experiment Eigenschaften:

Unabhängig, konstante p, binäres Ergebnis
Nur Erfolg oder Misserfolg möglich
📊 Parameter
  • • n: Anzahl Versuche (≥ 1)
  • • p: Erfolgswahrscheinlichkeit (0 ≤ p ≤ 1)
  • • k: Anzahl Erfolge (0 ≤ k ≤ n)
  • • Notation: X ~ Bin(n, p)
📈 Kennzahlen
  • • Erwartungswert: E(X) = n·p
  • • Varianz: Var(X) = n·p·(1-p)
  • • Standardabweichung: σ = √(n·p·(1-p))
  • • Modus: ⌊(n+1)·p⌋
⚙️ Anwendungen
  • • Qualitätskontrolle
  • • Umfragen und Marktforschung
  • • Medizinische Tests
  • • A/B-Testing

Mathematische Grundlagen

🎲 Wahrscheinlichkeitsfunktion

Die mathematische Definition der Binomialverteilung:

\[\text{Wahrscheinlichkeitsfunktion: } P(X = k) = \binom{n}{k} p^k (1-p)^{n-k}\] \[\text{Binomialkoeffizient: } \binom{n}{k} = \frac{n!}{k!(n-k)!}\] \[\text{Verteilungsfunktion: } F(k) = P(X \leq k) = \sum_{i=0}^k \binom{n}{i} p^i (1-p)^{n-i}\] \[\text{Gültigkeitsbereich: } k \in \{0, 1, 2, ..., n\}, \quad 0 \leq p \leq 1\] \[\text{Normierung: } \sum_{k=0}^n P(X = k) = 1\]

📊 Statistische Eigenschaften

Wichtige Kennzahlen und deren Herleitung:

\[\text{Erwartungswert: } E[X] = \sum_{k=0}^n k \cdot P(X = k) = n \cdot p\] \[\text{Varianz: } \text{Var}(X) = E[X^2] - (E[X])^2 = n \cdot p \cdot (1-p)\] \[\text{Standardabweichung: } \sigma = \sqrt{\text{Var}(X)} = \sqrt{n \cdot p \cdot (1-p)}\] \[\text{Schiefe: } \gamma_1 = \frac{1-2p}{\sqrt{n \cdot p \cdot (1-p)}}\] \[\text{Kurtosis: } \gamma_2 = \frac{1-6p(1-p)}{n \cdot p \cdot (1-p)}\]

🔄 Approximationen

Näherungen für große n:

\[\text{Normalapproximation (n groß, np > 5, n(1-p) > 5):}\] \[X \approx N(np, np(1-p))\] \[\text{Mit Stetigkeitskorrektur: } P(X = k) \approx P(k-0.5 < Y < k+0.5)\] \[\text{Poisson-Approximation (n groß, p klein, np ≈ λ):}\] \[X \approx \text{Poisson}(\lambda = np)\] \[\text{Faustregel: n ≥ 30 \text{ und } p ≤ 0.1}\]

Praktische Berechnungsbeispiele

📝 Beispiel 1: Münzwurf-Experiment

Aufgabe: 10 faire Münzwürfe, Wahrscheinlichkeit für genau 6 Kopf
Gegeben: n = 10, p = 0.5, k = 6
Berechnung:

\[\text{Schritt 1: Binomialkoeffizient}\] \[\binom{10}{6} = \frac{10!}{6! \cdot 4!} = \frac{10 \cdot 9 \cdot 8 \cdot 7}{4 \cdot 3 \cdot 2 \cdot 1} = 210\] \[\text{Schritt 2: Wahrscheinlichkeiten}\] \[p^6 = 0.5^6 = \frac{1}{64}, \quad (1-p)^{n-k} = 0.5^4 = \frac{1}{16}\] \[\text{Schritt 3: Endresultat}\] \[P(X = 6) = 210 \cdot \frac{1}{64} \cdot \frac{1}{16} = \frac{210}{1024} \approx 0.2051\]

Interpretation: 20.51% Wahrscheinlichkeit für genau 6 Kopf bei 10 Würfen

📝 Beispiel 2: Qualitätskontrolle

Aufgabe: Produktionslinie mit 95% Qualitätsrate, 20 Stichproben
Gesucht: Wahrscheinlichkeit für höchstens 1 Defekt
Berechnung:

\[\text{Parameter: } n = 20, \quad p = 0.05 \text{ (Defektrate)}, \quad k \leq 1\] \[P(X \leq 1) = P(X = 0) + P(X = 1)\] \[P(X = 0) = \binom{20}{0} \cdot 0.05^0 \cdot 0.95^{20} = 1 \cdot 1 \cdot 0.3584 = 0.3584\] \[P(X = 1) = \binom{20}{1} \cdot 0.05^1 \cdot 0.95^{19} = 20 \cdot 0.05 \cdot 0.3773 = 0.3773\] \[P(X \leq 1) = 0.3584 + 0.3773 = 0.7357\]

Ergebnis: 73.57% Chance für höchstens 1 defektes Produkt

📝 Beispiel 3: Normalapproximation

Aufgabe: 100 Versuche mit p = 0.3, Wahrscheinlichkeit für 25-35 Erfolge
Methode: Normalapproximation mit Stetigkeitskorrektur
Berechnung:

\[\text{Parameter: } \mu = np = 100 \cdot 0.3 = 30\] \[\sigma = \sqrt{np(1-p)} = \sqrt{100 \cdot 0.3 \cdot 0.7} = \sqrt{21} \approx 4.58\] \[\text{Mit Stetigkeitskorrektur: } P(24.5 < X < 35.5)\] \[Z_1 = \frac{24.5 - 30}{4.58} = -1.20, \quad Z_2 = \frac{35.5 - 30}{4.58} = 1.20\] \[P(25 \leq X \leq 35) \approx \Phi(1.20) - \Phi(-1.20) = 0.8849 - 0.1151 = 0.7698\]

Fazit: 76.98% Wahrscheinlichkeit für 25-35 Erfolge (Approximation)

Anwendungen in verschiedenen Bereichen

🏭 Qualitätskontrolle
  • • Stichprobenprüfung
  • • Defektrate-Analyse
  • • Akzeptanz-Stichprobenprüfung
  • • Six Sigma Prozesse
📊 Marktforschung
  • • Umfrageergebnisse
  • • Kaufwahrscheinlichkeiten
  • • A/B-Testing
  • • Konversionsraten
🏥 Medizin & Pharma
  • • Therapieerfolg
  • • Nebenwirkungsraten
  • • Diagnostische Tests
  • • Klinische Studien
💻 Informatik & IT
  • • Netzwerk-Zuverlässigkeit
  • • Fehlerrate-Analyse
  • • Load Testing
  • • Backup-Strategien

Erweiterte Konzepte und Verwandte Verteilungen

🔗 Verwandte Verteilungen

Zusammenhänge mit anderen Wahrscheinlichkeitsverteilungen:

\[\text{Bernoulli-Verteilung: } \text{Bin}(1, p) = \text{Bernoulli}(p)\] \[\text{Geometrische Verteilung: Anzahl Versuche bis zum ersten Erfolg}\] \[\text{Negative Binomialverteilung: Anzahl Versuche bis zum r-ten Erfolg}\] \[\text{Hypergeometrische Verteilung: Ziehen ohne Zurücklegen}\] \[\text{Multinomiale Verteilung: Mehr als zwei Ausgänge}\] \[\text{Beta-Binomial: Binomial mit variablem p (Beta-verteilt)}\]

🎯 Konfidenzintervalle

Schätzung des Parameters p:

\[\text{Punktschätzer: } \hat{p} = \frac{k}{n}\] \[\text{Wald-Konfidenzintervall:}\] \[\hat{p} \pm z_{\alpha/2} \sqrt{\frac{\hat{p}(1-\hat{p})}{n}}\] \[\text{Wilson-Konfidenzintervall (bessere Eigenschaften):}\] \[\frac{\hat{p} + \frac{z_{\alpha/2}^2}{2n} \pm z_{\alpha/2}\sqrt{\frac{\hat{p}(1-\hat{p})}{n} + \frac{z_{\alpha/2}^2}{4n^2}}}{1 + \frac{z_{\alpha/2}^2}{n}}\]

📈 Hypothesentests

Tests für den Parameter p:

\[\text{Einstichproben-Test: } H_0: p = p_0 \text{ vs. } H_1: p \neq p_0\] \[\text{Teststatistik: } Z = \frac{\hat{p} - p_0}{\sqrt{\frac{p_0(1-p_0)}{n}}}\] \[\text{Exakter Binomialtest bei kleinen n}\] \[\text{Zweistichproben-Test: Vergleich zweier Anteile}\] \[Z = \frac{\hat{p}_1 - \hat{p}_2}{\sqrt{\hat{p}(1-\hat{p})\left(\frac{1}{n_1} + \frac{1}{n_2}\right)}}\]

Computational Aspects

💻 Algorithmen und Implementation

Effiziente Berechnung der Binomialverteilung:

Python (SciPy):
from scipy import stats
import numpy as np
# Binomialverteilung:
stats.binom.pmf(k, n, p) # P(X = k)
stats.binom.cdf(k, n, p) # P(X ≤ k)
stats.binom.ppf(q, n, p) # Quantil
stats.binom.rvs(n, p, size=1000) # Zufallszahlen

R:
dbinom(k, n, p) # P(X = k)
pbinom(k, n, p) # P(X ≤ k)
qbinom(q, n, p) # Quantil
rbinom(1000, n, p) # Zufallszahlen

Excel: BINOM.DIST, BINOM.INV

💡 Praktische Tipps

Hinweise für die korrekte Anwendung:

\[\text{1. Unabhängigkeitsannahme prüfen}\] \[\text{2. Konstante Erfolgswahrscheinlichkeit sicherstellen}\] \[\text{3. Bei großen n: Approximationen verwenden}\] \[\text{4. Normalapproximation nur bei np ≥ 5 und n(1-p) ≥ 5}\] \[\text{5. Bei extremen p-Werten: Exakte Methoden bevorzugen}\]
💡 Wichtige Eigenschaften der Binomialverteilung:
  • Additivität: Summe unabhängiger Binomialverteilungen (gleiche p) ist binomialverteilt
  • Symmetrie: Bei p = 0.5 ist die Verteilung symmetrisch
  • Schiefe: Rechtschief für p < 0.5, linksschief für p > 0.5
  • Maximum: Liegt bei ⌊(n+1)·p⌋ (Modus)
🎲 Wann Binomialverteilung verwenden:
  • Feste Anzahl Versuche: n ist im Voraus bekannt
  • Binäre Ergebnisse: Nur Erfolg oder Misserfolg möglich
  • Unabhängige Versuche: Ergebnis eines Versuchs beeinflusst andere nicht
  • Konstante Wahrscheinlichkeit: p bleibt über alle Versuche gleich