Warum nicht immer logistische Regressionsschätzungen in der Antwortskala (Wahrscheinlichkeit) darstellen?

Nov 22 2020

In der Epidemiologie wird viel über die relativen Vorzüge von Quoten- und Risikoverhältnissen diskutiert. Befürworter des ersteren zitieren die mathematischen Qualitäten von Gewinnchancen (nicht auf 0 bis 1 beschränkt) und ihre Eignung zur Untersuchung gemeinsamer Ergebnisse. Befürworter der letzteren glauben, dass RRs oft besser interpretierbar sind und der Denkweise von Klinikern und der Öffentlichkeit entsprechen.

Einige haben Methoden vorgeschlagen, um Risikokennzahlen direkt zu modellieren (in multivariablen Modellen). Zum Beispiel das Log-Binomial-Modell und die Poisson-Regression mit robusten Standardfehlern.

Was ich nicht verstehe ist - warum passen wir das Modell nicht einfach unter Verwendung der logistischen Standardregression an und führen die inverse Logit-Transformation für die angepassten Schätzungen durch? Nehmen wir zum Beispiel an, wir versuchen, eine koronare Herzkrankheit anhand des BMI (Exposition) und des Alters (Confounder) vorherzusagen. Wir könnten das Modell anpassen und die Wahrscheinlichkeit von KHK über den Wertebereich des BMI (altersbereinigt) je nach Modell schätzen. Wir nehmen dann das inverse Logit dieser angepassten Quoten, um sie auf die Wahrscheinlichkeitsskala zu transformieren.

Auf diese Weise haben wir scheinbar eine Vorstellung vom Risiko des Ergebnisses über alle Werte der Exposition hinweg, die wir darstellen oder auf andere Weise beschreiben können. Aber ich habe noch nie gesehen, dass diese Methode empfohlen wird. Was lässt mich denken, dass es ein konzeptionelles Problem geben muss?

ps nehmen wir an, wir führen eine Querschnitts- oder Kohortenstudie durch (keine Fall-Kontroll-Studie).

Antworten

2 Dave Nov 23 2020 at 23:56

Schauen wir uns ein Beispielmodell an, in dem wir verwenden $\hat{\eta}$ um die (geschätzten) Log-Quoten zu bezeichnen und $\hat{p}$ die (geschätzte) Wahrscheinlichkeit zu bezeichnen.

$$g(\hat{p}) := \hat{\eta} = \hat{\beta}_0 + \hat{\beta}_1x_{1} + \hat{\beta}_2x_{2} $$

Wenn wir die Änderung der Log-Quoten für jede Schicht von wissen wollen $1$ im $x_1$nehmen wir die Ableitung in Bezug auf $x_1$.

$$\dfrac{\partial\hat{\eta}}{\partial x_1} = \hat{\beta}_1 $$

Also unabhängig vom Wert von $x_1$, Eine Zunahme von $1$ im $x_1$ führt zu einer Änderung der Log-Quoten von $\hat{\beta}_1$.

Wenn wir jedoch die Änderung der Wahrscheinlichkeit betrachten wollen, müssen wir die Inverse-Link-Funktion verwenden, um zu isolieren $\hat{p}$.

$$\hat{p} = \dfrac{\exp(\hat{\beta}_0 + \hat{\beta}_1x_{1} + \hat{\beta}_2x_{2})} {\exp(\hat{\beta}_0 + \hat{\beta}_1x_{1} + \hat{\beta}_2x_{2}) + 1} $$

Nehmen Sie nun die partielle Ableitung in Bezug auf $x_1$.

$$ \dfrac{\partial \hat{p}} {\partial x_1} = \dfrac{\hat{\beta}_1\exp(\hat{\beta}_0 + \hat{\beta}_1x_{1} + \hat{\beta}_2x_{2})} {(\exp(\hat{\beta}_0 + \hat{\beta}_1x_{1} + \hat{\beta}_2x_{2}) + 1)^2} $$

Diese Ableitung hängt ab von $x_1$, so die Wirkung von $x_1$ auf $\hat{p}$ ist nicht konstant.