Comportamiento asintótico de una distribución de mezcla uniforme

Aug 20 2020

Dejar$X = \{x_1= -\alpha, x_2, \ldots, x_n= \alpha\}$ser un conjunto con$x_{i+1} = x_i + \beta$para algunos$\alpha, \beta \in \mathbb{R}$.

$Y$es una variable aleatoria que se muestrea de una distribución mixta como:$$Y ~ \sim \sum_{i=1}^n p_i \mathbb{U}[x_i, x_{i+1}]$$

dónde$\mathbb{U}[x_i, x_{i+1}]$denota una variable aleatoria uniforme que se muestrea del intervalo$[x_i, x_{i+1}]$.

Elijamos una distribución, por ejemplo, la distribución gaussiana, y dejemos$CDF(x)$denote el valor de la función de distribución acumulativa de esta distribución en$x$.

Mi pregunta es la siguiente: demos pesos$p_i = CDF(x_{i+1}) - CDF ( x_{i})$, por ejemplo, la probabilidad dada a la variable$\mathbb{U}[x_i, x_{i+1}]$es la densidad asignada por la distribución gaussiana en el intervalo$[x_i, x_{i+1}]$. Obviamente, esto es válido cuando tenemos$\alpha \rightarrow \infty$. ¿La distribución de Y converge a (también) una distribución gaussiana (más generalmente, la distribución utilizada en la CDF), cuando$\alpha \rightarrow \infty$y$\beta \rightarrow 0$?

Mi intuición dice que sí, pero no puedo probarlo.

Respuestas

1 snar Aug 20 2020 at 01:46

Esto es cierto suponiendo que eres libre de elegir$\alpha, \beta$como quieras La convergencia en la distribución de una secuencia de variables aleatorias de valor real significa sus cdfs$F_n$satisfacer$\lim_{n\rightarrow\infty} F_n(x) = F(x)$para cada punto$x \in \mathbb{R}$en el cual$F$es continuo Podemos demostrar que, para cualquier$\varepsilon > 0$, existen$A$y$B$tal que para todos$\alpha > A$,$\beta < B$,$$\sup_{x \in \mathbb{R}} |F_{\alpha,\beta}(x) - F(x)| < \varepsilon.$$Esto es suficiente para extraer una secuencia.$\alpha_n, \beta_n$.

Esto se convirtió en una publicación bastante larga, así que déjame decirte que la idea es simple: aproximas la densidad con funciones constantes por partes, y todo lo que importa es que las áreas bajo las curvas convergen uniformemente.

Deja entonces$\varepsilon > 0$ser dado, y dejar$\Phi$denote el cdf de un Gaussiano estándar. Hay$A > 0$lo suficientemente grande como para$\Phi(-A) < \varepsilon/4$, que por simetría también implica$\Phi(A) > 1-\varepsilon/4$. arreglar algunos$\alpha > A$. Acabamos de cortar las colas.

Dado$x_i = -\alpha + i\beta$con$n = 2\alpha/\beta \in \mathbb{Z}$, existen$n$intervalos$I_i = [x_i,x_{i+1})$esa portada$[-\alpha, \alpha)$. Asumiendo$p_i = \Phi(x_{i+1}) - \Phi(x_i)$, la masa de probabilidad total asignada es$1 - 2\Phi(-\alpha)$; la masa restante se puede asignar en cualquier lugar fuera de$[-\alpha,\alpha)$; decir que está asignado a$x > \alpha$. Ignoraré cualquier tecnicismo con el punto final correcto (tiene probabilidad 0).

Definir un mapa "localizador"$\ell : [-\alpha, \alpha) \rightarrow \{0, ..., n-1\}$que se asocia a cualquier$x$el índice único$i$del punto final izquierdo en el intervalo$I_i$(así que en particular$\ell(x_i) = i)$. Recordando que la densidad de la$i^{th}$variable aleatoria uniforme es$(1/\beta)1_{I_i}$, la CDF$F_{\alpha, \beta}$satisface$$F_{\alpha, \beta}(x) = p_{\ell(x)}\frac{x - x_{\ell(x)}}{\beta} + F_{\alpha,\beta}(x_{\ell(x)}),$$y tenga en cuenta que la cdf aproximada concuerda con$\Phi$en los puntos de discretización$x_i$hasta un cambio de$\Phi(-\alpha)$:$$F_{\alpha,\beta}(x_i) = \sum_{i'=1, ..., i-1} p_{i'} = \sum_{i' = 1,...,i-1} (\Phi(x_{i'+1}) - \Phi(x_{i'})) = \Phi(x_{i}) - \Phi(-\alpha).$$Así, para cualquier$x \in [-\alpha, \alpha)$,\begin{align*} F_{\alpha,\beta}(x) - \Phi(x) &= p_{\ell(x)}(x - x_{\ell(x)})/\beta + F_{\alpha,\beta}(x_{\ell(x)}) - \Phi(x) \\ &= p_{\ell(x)}(x - x_{\ell(x)})/\beta + \Phi(x_{\ell(x)}) - \Phi(-\alpha) - [\Phi(x) - \Phi(x_{\ell(x)}) + \Phi(x_{\ell(x)})]\\ &= [p_{\ell(x)}(x - x_{\ell(x)})/\beta - (\Phi(x) - \Phi(x_{\ell(x)}))] - \Phi(-\alpha).\tag{1} \end{align*}El término de la izquierda entre paréntesis en la última igualdad anterior es$$(\Phi(x_{\ell(x)+1}) - \Phi(x_{\ell(x)}))(x - x_{\ell(x)})/\beta - (\Phi(x) - \Phi(x_{\ell(x)})),$$que, si entrecierras los ojos, es el teorema fundamental del cálculo:$$\Phi'(a)(x-a) \approx \frac{\Phi(b) - \Phi(a)}{\beta}(x - a) \approx (\Phi(x) - \Phi(a)).$$Dejo al lector justificar el uso de la compacidad de$[-\alpha,\alpha]$y diferenciabilidad de$\Phi$en$(-\alpha,\alpha)$que uno puede encontrar$B > 0$tal que cualquier$\beta < B$hace que el término entre paréntesis sea tan pequeño como se desee, menos de$\varepsilon/2$.

Volviendo a$(1)$, encontramos que para$\alpha > A$y$\beta < B$y$x \in [-\alpha, \alpha)$, obtenemos$$|F_{\alpha,\beta}(x) - \Phi(x)| < \varepsilon/2 + \varepsilon/4.$$Para los restantes$x$, hemos extraviado a lo sumo$2\Phi(-\alpha)$masa, que está limitada por$\varepsilon/2$. De este modo,$$\sup_{x \in \mathbb{R}} |F_{\alpha,\beta}(x) - \Phi(x)| < \varepsilon,$$que establece la convergencia deseada.