Dlaczego nie zawsze przedstawiać oszacowania regresji logistycznej w skali odpowiedzi (prawdopodobieństwo)?
W epidemiologii toczy się wiele dyskusji na temat względnych zalet ilorazów szans i współczynników ryzyka. Zwolennicy tego pierwszego powołują się na matematyczną jakość kursów (bez ograniczenia do zakresu od 0 do 1) i ich przydatność do badania wspólnych wyników. Zwolennicy tego ostatniego uważają, że RR są często bardziej interpretowalne i pasują do tego, jak myślą lekarze i opinia publiczna.
Niektórzy zaproponowali metody bezpośredniego modelowania współczynników ryzyka (w modelach wielozmiennych). Na przykład model dwumianu logarytmicznego i regresja Poissona z solidnymi błędami standardowymi.
Nie rozumiem - dlaczego po prostu nie dopasujemy modelu przy użyciu standardowej regresji logistycznej i nie wykonamy odwrotnej transformacji logitowej na dopasowanych szacunkach? Na przykład, powiedzmy, że próbujemy przewidzieć chorobę wieńcową serca na podstawie wskaźnika BMI (ekspozycja) i wieku (czynnik zakłócający). Zgodnie z modelem mogliśmy dopasować model i oszacować szanse wystąpienia CHD w zakresie wartości BMI (skorygowanych o wiek). Następnie bierzemy odwrotność-logit tych dopasowanych kursów, aby przekształcić je na skalę prawdopodobieństwa.
Pozornie w ten sposób mamy teraz pojęcie o ryzyku wyniku dla wszystkich wartości ekspozycji, które możemy wykreślić lub opisać w inny sposób. Ale nigdy nie widziałem tej metody zalecanej. Co sprawia, że myślę, że musi być z tym problem koncepcyjny?
ps pozwala założyć, że przeprowadzamy badanie przekrojowe lub badanie kohortowe (nie badanie kliniczno-kontrolne).
Odpowiedzi
Spójrzmy na przykładowy model, w którym używamy $\hat{\eta}$ oznaczać (szacunkowe) log-szanse i $\hat{p}$ do oznaczenia (szacowanego) prawdopodobieństwa.
$$g(\hat{p}) := \hat{\eta} = \hat{\beta}_0 + \hat{\beta}_1x_{1} + \hat{\beta}_2x_{2} $$
Jeśli chcemy poznać zmianę kursów logarytmicznych dla każdej zmiany $1$ w $x_1$, bierzemy pochodną w odniesieniu do $x_1$.
$$\dfrac{\partial\hat{\eta}}{\partial x_1} = \hat{\beta}_1 $$
Więc niezależnie od wartości $x_1$, wzrost o $1$ w $x_1$ powoduje zmianę log-kursów o $\hat{\beta}_1$.
Jeśli jednak chcemy spojrzeć na zmianę prawdopodobieństwa, musimy użyć funkcji odwrotnego łączenia, aby wyodrębnić $\hat{p}$.
$$\hat{p} = \dfrac{\exp(\hat{\beta}_0 + \hat{\beta}_1x_{1} + \hat{\beta}_2x_{2})} {\exp(\hat{\beta}_0 + \hat{\beta}_1x_{1} + \hat{\beta}_2x_{2}) + 1} $$
Teraz weź pochodną cząstkową względem $x_1$.
$$ \dfrac{\partial \hat{p}} {\partial x_1} = \dfrac{\hat{\beta}_1\exp(\hat{\beta}_0 + \hat{\beta}_1x_{1} + \hat{\beta}_2x_{2})} {(\exp(\hat{\beta}_0 + \hat{\beta}_1x_{1} + \hat{\beta}_2x_{2}) + 1)^2} $$
Ta pochodna zależy od $x_1$, więc efekt $x_1$ na $\hat{p}$ nie jest stała.