Logit Ableitung Rechner

Online Rechner für die Derivative der Logit-Funktion


📈 Logit Ableitung (logit')

Derivative für statistische Modellierung und Optimierung

logit'( )
Wahrscheinlichkeitswert zwischen 0 und 1 (exklusiv)
📈
logit'(p): Ableitung der Logit-Funktion. Minimum bei p=0.5 mit Wert 4. Wichtig für Fisher-Information.
⚠️ Fehler:

Geben Sie die Wahrscheinlichkeit (p) zwischen 0 und 1 ein und klicken Sie auf Berechnen um die Ableitung der Logit-Funktion zu ermitteln. Die Logit-Ableitung ist fundamental für die statistische Inferenz und hat ihr Minimum bei p=0.5 mit dem Wert 4.


💡 Logit Ableitung

\(\text{logit}'(p) = \frac{d}{dp}\ln\left(\frac{p}{1-p}\right) = \frac{1}{p(1-p)}\)


Logit Ableitung Kurve

Die U-förmige Kurve der Logit-Ableitung mit Minimum bei p=0.5


Die Logit-Ableitung verstehen

Die Ableitung der Logit-Funktion ist von zentraler Bedeutung in der statistischen Modellierung und logistischen Regression. Sie hat eine charakteristische U-förmige Kurve mit ihrem Minimum bei p=0.5 und dem Wert 4. Die Funktion logit'(p) = 1/(p·(1-p)) repräsentiert die Fisher-Information für die Bernoulli-Verteilung und ist fundamental für Konfidenzintervalle und Hypothesentests.

📈 Grundformeln

Verschiedene Darstellungen:

\(\text{logit}'(p) = \frac{1}{p(1-p)}\)
Fisher-Information für Bernoulli-Verteilung
📊 Eigenschaften
  • • Minimum: logit'(0.5) = 4
  • • Symmetrisch um p=0.5
  • • U-förmige Kurve
  • • Divergenz bei p→0 und p→1
🔬 Anwendungen
  • • Fisher-Information-Matrix
  • • Cramér-Rao-Schranke
  • • Asymptotische Varianz
  • • Konfidenzintervalle
⚠️ Besonderheiten
  • • Divergenz an Grenzen
  • • Numerische Instabilität
  • • Varianz-Stabilisierung
  • • Delta-Methode relevant

Mathematische Herleitung

📈 Ableitung der Logit-Funktion

Schritt-für-Schritt Herleitung:

\[\text{Gegeben: } \text{logit}(p) = \ln\left(\frac{p}{1-p}\right)\] \[\text{Umschreibung: } \text{logit}(p) = \ln(p) - \ln(1-p)\] \[\text{Ableitung nach p:}\] \[\frac{d}{dp}\text{logit}(p) = \frac{d}{dp}[\ln(p) - \ln(1-p)]\] \[= \frac{1}{p} - \frac{1}{1-p} \cdot (-1) = \frac{1}{p} + \frac{1}{1-p}\] \[= \frac{1-p+p}{p(1-p)} = \frac{1}{p(1-p)}\]

🔄 Fisher-Information-Beziehung

Verbindung zur statistischen Inferenz:

\[\text{Score-Funktion: } S(p) = \frac{\partial}{\partial p}\ln L(p)\] \[\text{Fisher-Information: } I(p) = E[S(p)^2] = -E\left[\frac{\partial^2}{\partial p^2}\ln L(p)\right]\] \[\text{Für Bernoulli: } I(p) = \frac{1}{p(1-p)} = \text{logit}'(p)\] \[\text{Cramér-Rao: } \text{Var}(\hat{p}) \geq \frac{1}{I(p)} = p(1-p)\]

📊 Charakteristische Werte

Wichtige Punkte der Logit-Ableitung:

\[\text{Minimum bei } p = 0{,}5: \quad \text{logit}'(0{,}5) = \frac{1}{0{,}5 \cdot 0{,}5} = 4\] \[\text{Symmetrie: } \text{logit}'(p) = \text{logit}'(1-p)\] \[\text{Grenzwerte: } \lim_{p \to 0^+} \text{logit}'(p) = +\infty, \quad \lim_{p \to 1^-} \text{logit}'(p) = +\infty\] \[\text{Konvexität: } \text{logit}''(p) = \frac{2p-1}{p^2(1-p)^2} > 0 \text{ für } p \neq 0{,}5\]

Praktische Berechnungsbeispiele

📝 Beispiel 1: Konfidenzintervall berechnen

Aufgabe: 95%-Konfidenzintervall für logistische Regression
Gegeben: Geschätzte Wahrscheinlichkeit p̂ = 0.3, n = 100
Berechnung:

\[\text{Logit-Ableitung: } \text{logit}'(0{,}3) = \frac{1}{0{,}3 \cdot 0{,}7} = \frac{1}{0{,}21} \approx 4{,}76\] \[\text{Asymptotische Varianz: } \text{Var}(\text{logit}(\hat{p})) \approx \frac{1}{n \cdot p(1-p)} = \frac{4{,}76}{100} = 0{,}048\] \[\text{Standard-Fehler: } SE = \sqrt{0{,}048} \approx 0{,}218\] \[\text{95\%-KI für logit: } \text{logit}(0{,}3) \pm 1{,}96 \cdot 0{,}218\] \[= -0{,}847 \pm 0{,}428 = [-1{,}275, -0{,}419]\]

Rücktransformation: KI für p: [0.218, 0.397]

📝 Beispiel 2: Delta-Methode

Aufgabe: Asymptotische Verteilung von g(p̂)
Szenario: Transformation einer Wahrscheinlichkeitsschätzung
Berechnung:

\[\text{Sei } g(p) = \text{logit}(p), \quad \hat{p} \sim N\left(p, \frac{p(1-p)}{n}\right)\] \[\text{Delta-Methode: } g(\hat{p}) \sim N\left(g(p), [g'(p)]^2 \cdot \frac{p(1-p)}{n}\right)\] \[\text{Mit } g'(p) = \text{logit}'(p) = \frac{1}{p(1-p)}:\] \[\text{logit}(\hat{p}) \sim N\left(\text{logit}(p), \frac{1}{np(1-p)}\right)\] \[\text{Varianz-Stabilisierung erreicht!}\]

Vorteil: Konstante asymptotische Varianz unabhängig von p

📝 Beispiel 3: Numerische Stabilität

Aufgabe: Berechnung bei extremen Wahrscheinlichkeiten
Problem: p = 0.0001 oder p = 0.9999
Berechnung:

\[\text{Extreme Werte: } p_1 = 0{,}0001, \quad p_2 = 0{,}9999\] \[\text{logit}'(0{,}0001) = \frac{1}{0{,}0001 \cdot 0{,}9999} \approx 10{.}001\] \[\text{logit}'(0{,}9999) = \frac{1}{0{,}9999 \cdot 0{,}0001} \approx 10{.}001\] \[\text{Problem: Numerische Instabilität bei } p \to 0 \text{ oder } p \to 1\] \[\text{Lösung: Clipping auf } [10^{-6}, 1-10^{-6}]\]

Praxis: Verwendung numerisch stabiler Implementierungen

Statistische Anwendungen

📊 Logistische Regression

Verwendung in der Maximum-Likelihood-Schätzung:

\[\text{Likelihood: } L(\boldsymbol{\beta}) = \prod_{i=1}^n p_i^{y_i}(1-p_i)^{1-y_i}\] \[\text{Log-Likelihood: } \ell(\boldsymbol{\beta}) = \sum_{i=1}^n [y_i \ln p_i + (1-y_i)\ln(1-p_i)]\] \[\text{Score: } \frac{\partial\ell}{\partial\beta_j} = \sum_{i=1}^n (y_i - p_i) x_{ij}\] \[\text{Hessian: } \frac{\partial^2\ell}{\partial\beta_j\partial\beta_k} = -\sum_{i=1}^n p_i(1-p_i) x_{ij}x_{ik}\]

📈 Newton-Raphson-Verfahren

Optimierung mit der Logit-Ableitung:

\[\text{Update-Regel: } \boldsymbol{\beta}^{(t+1)} = \boldsymbol{\beta}^{(t)} - [\mathbf{H}^{(t)}]^{-1}\mathbf{s}^{(t)}\] \[\text{Wobei: } H_{jk} = \sum_{i=1}^n \text{logit}'(p_i) \cdot p_i(1-p_i) \cdot x_{ij}x_{ik}\] \[\text{Gewichte: } w_i = p_i(1-p_i) = \frac{1}{\text{logit}'(p_i)}\] \[\text{IRLS: Iteratively Reweighted Least Squares}\]

🎯 Wald-Test und Konfidenzintervalle

Asymptotische Tests mit Fisher-Information:

\[\text{Wald-Statistik: } W = \frac{(\hat{\beta}_j - \beta_{j0})^2}{\widehat{\text{Var}}(\hat{\beta}_j)} \sim \chi^2_1\] \[\text{Asymptotische Varianz: } \text{Var}(\hat{\beta}_j) = [\mathbf{I}(\boldsymbol{\beta})]^{-1}_{jj}\] \[\text{Konfidenzintervall: } \hat{\beta}_j \pm z_{\alpha/2} \sqrt{\widehat{\text{Var}}(\hat{\beta}_j)}\] \[\text{Likelihood-Ratio: } -2[\ell(\boldsymbol{\beta}_0) - \ell(\hat{\boldsymbol{\beta}})] \sim \chi^2_p\]

📊 Ableitungswerte-Tabelle

p logit(p) logit'(p) SE(logit) Interpretation
0.05 -2.944 21.053 0.145 Hohe Unsicherheit
0.10 -2.197 11.111 0.105 Mittlere Unsicherheit
0.25 -1.099 5.333 0.073 Moderate Unsicherheit
0.50 0.000 4.000 0.063 Minimale Unsicherheit
0.75 1.099 5.333 0.073 Moderate Unsicherheit
0.90 2.197 11.111 0.105 Mittlere Unsicherheit
0.95 2.944 21.053 0.145 Hohe Unsicherheit
SE(logit) basiert auf n=100 Beobachtungen

Implementierung und Code

💻 Code-Implementierungen

Berechnung der Logit-Ableitung:

Python (NumPy):
def logit_derivative(p):
  return 1 / (p * (1 - p))

# Numerisch stabil mit Clipping:
def safe_logit_derivative(p, eps=1e-7):
  p_clipped = np.clip(p, eps, 1-eps)
  return 1 / (p_clipped * (1 - p_clipped))

# Fisher-Information-Matrix:
def fisher_information(p):
  return np.diag(logit_derivative(p))

R:
logit_deriv <- function(p) 1/(p*(1-p))
# Oder mit built-in:
fisher_info <- function(p) 1/(p*(1-p))

⚡ Logistische Regression Implementation

Praktische Umsetzung in statistischen Modellen:

Gewichtete Least Squares (IRLS):
def irls_step(X, y, beta):
  # Predicted probabilities
  eta = X @ beta
  p = 1 / (1 + np.exp(-eta))
  
  # Weights = inverse of logit derivative
  w = p * (1 - p) # = 1/logit'(p)
  
  # Working response
  z = eta + (y - p) / w
  
  # Weighted least squares update
  W = np.diag(w)
  beta_new = np.linalg.solve(X.T @ W @ X, X.T @ W @ z)
  return beta_new

# Standardfehler berechnen:
def standard_errors(X, p):
  W = np.diag(p * (1 - p))
  cov_matrix = np.linalg.inv(X.T @ W @ X)
  return np.sqrt(np.diag(cov_matrix))
💡 Wichtige Eigenschaften der Logit-Ableitung:
  • Fisher-Information: logit'(p) = 1/(p·(1-p)) ist die Fisher-Information
  • Minimum bei 0.5: logit'(0.5) = 4 - niedrigste Varianz bei p=0.5
  • U-förmig: Symmetrische U-Form mit hohen Werten an den Rändern
  • Varianz-Stabilisierung: Delta-Methode führt zu konstanter asymptotischer Varianz
🔬 Anwendungsgebiete der Logit-Ableitung:
  • Logistische Regression: Fisher-Information-Matrix, Newton-Raphson
  • Konfidenzintervalle: Asymptotische Varianzberechnung
  • Hypothesentests: Wald-Tests, Likelihood-Ratio-Tests
  • Experimentaldesign: Optimale Allokation von Beobachtungen