Was ist der Unterschied zwischen Bias in der Vorhersage und Parameterschätzung?
Ich versuche, den Unterschied zwischen Verzerrung in der Vorhersage und Parameterschätzung zu verstehen. Dieses Beispiel in Gelman, Bayesian Data Analysis , 2. Aufl. 2004 S. 255-256 ist für mich sehr verwirrend.

Warum bekommst du den Kostenvoranschlag$\hat{y} = 160 + 0.25(\theta - 160)$fest gegeben$\theta$und$\hat{\theta} = 160 + 2(y - 160)$unter wiederholter Probenahme von$y$bedingt an$\theta$? Ich bin mir nicht sicher, woher diese Gleichungen kommen.
Liegt das Problem hier daran, dass die Verteilung eher bivariat (normal) ist als$y$mit einer Verteilung, die auf jedem basiert$\theta$?
Antworten
Bedingt an$\theta$, Die Verteilung von$y$ist normal mit Mittelwert$160 + 0.5 (\theta - 160)$. Für jede Erkenntnis$y'$aus dieser bedingten Verteilung der hintere Mittelwert von$\theta$ist$$ \hat\theta(y') = 160 + 0.5 (y' - 160). $$Also der Erwartungswert von$\hat\theta(y')$bedingt an$\theta$ist$$ 160 + 0.5 [160 + 0.5 (\theta - 160) - 160] = 160 + 0.25 (\theta - 160). $$
Die bivariate Verteilung wird in das Beispiel eingeführt, so dass man von „…unter wiederholter Abtastung von sprechen kann$y$bedingt an$θ$...", dh aus der bedingten Verteilung von$y$an$\theta$.
Auf jeden Fall erscheint es sehr bayesianisch und aus frequentistischer Sicht etwas seltsam, von "...unter wiederholtem Abtasten von" zu sprechen$y$bedingt an$θ$...", wo$\theta$ist die Variable, die man vorherzusagen versucht.
(Für einen Frequentisten bedeutet unvoreingenommene Vorhersage der Mittelwert des vorhergesagten Werts$\hat{\theta}$gleich dem Mittelwert der Variablen$\theta$abhängig vom Prädiktor,$E[\theta|y]$.)