Encuentra una estadística suficiente $Y$ para $\theta$ luego encuentra el estimador de Bayes $w(Y)$

Aug 20 2020

Dejar $X_1,...,X_n$ ser una muestra aleatoria de iid con pdf $\theta x^{\theta-1}1(0 < x \le 1)$

Encuentra una estadística suficiente $Y$ para $\theta$ luego encuentra el estimador de Bayes $w(Y)$ basado en esta estadística usando la función de pérdida $L(\theta,a) = (a-\theta)^2$ donde la distribución previa es exponencial con media $\frac{1}{\beta}$.

Primera suficiencia:

La función de probabilidad es $\displaystyle L(\theta) = \Pi_{i = 1}^n\theta x_i^{\theta -1} = \theta^n(x_1\cdots x_n)^\theta(x_1\cdots x_n)^{-1}$ así, por el teorema de factorización podemos tomar $Y = (x_1\cdots x_n)^{-1}$.

Estimador de Bayes:

Para la pérdida de error cuadrado, el estimador $w(Y) = \hat{\theta} = E[\theta \mid Y\,]$ es decir, la media de la parte posterior.

Para la posterior necesidad de resolver primero $m(y) = \displaystyle \int_0^\infty \beta e^{-\beta \theta}y^{1-\theta}d\theta$¿Es esta una integral bien conocida? Estaba tratando de resolverlo mediante sustitución en U, pero estoy cometiendo un error en alguna parte. estoy intentando$u = y^{-\theta}, du = -y^{-\theta}\log(y)d\theta$ pero por alguna razón no veo como cuidar $e^{-\beta\theta}$.

Antes de continuar agradecería saber si esto es correcto:

EDITAR: $y^{-\theta} = e^{-\theta \log(y)}$ así que reescribe como $\displaystyle \beta y \int_{0^\infty}e^{-\theta(\beta + \log(y))}d\theta$ y establecer $u = -\theta(\beta + \log(y)) $

Entonces tendremos $\displaystyle -\frac{\beta y}{\beta + y}e^{-\theta(\beta + \log(y))} \bigg \vert_{\theta = 0}^\infty= \frac{\beta y}{\beta + y}$

Todavía me gustaría saber si se trata de una integral bien conocida.

Ahora el siguiente paso es resolver $\displaystyle E[\theta \mid Y] = \int_0^\infty \theta \frac{y+\beta}{\beta y}\beta e^{-\beta \theta}\theta^ny^{1-\theta}d\theta$¿correcto? y esto le dará uso al estimador que buscamos.

Respuestas

1 tommik Aug 20 2020 at 04:09

Usando el teorema de factorización, el estadístico suficiente para $\theta$ es $y=\prod_i X_i$. Esto porque la función$g(\theta,t(\mathbf{x}))$ depende de los datos sólo a través de la estadística "t = producto".

La función $\frac{1}{\prod_{i}X_{i}}$ usted identificó erróneamente que la estadística suficiente es la función de "x solo".

Entonces el posterior es el siguiente (pista: al calcular el posterior descarte cualquier cantidad que no dependa de $\theta$)

$$\pi(\theta|y) \propto e^{-\beta \theta}\theta^n y^{\theta-1}$$

$$\propto e^{-\beta \theta}\theta^n e^{(\theta-1) log y}$$

$$\propto \theta^ne^{-(\beta-logy)\theta}$$

... inmediatamente reconocemos en esta posterior una distribución Gamma ...

ahora puedes resolver el problema por ti mismo sin resolver la integral analíticamente