Comportement asymptotique d'une distribution de mélange uniforme
Laisser$X = \{x_1= -\alpha, x_2, \ldots, x_n= \alpha\}$être un ensemble avec$x_{i+1} = x_i + \beta$pour certains$\alpha, \beta \in \mathbb{R}$.
$Y$est une variable aléatoire qui est échantillonnée à partir d'une distribution mixte comme suit :$$Y ~ \sim \sum_{i=1}^n p_i \mathbb{U}[x_i, x_{i+1}]$$
où$\mathbb{U}[x_i, x_{i+1}]$désigne une variable aléatoire uniforme qui est échantillonnée à partir de l'intervalle$[x_i, x_{i+1}]$.
Choisissons une distribution, par exemple une distribution gaussienne, et laissons$CDF(x)$désignent la valeur de la fonction de distribution cumulée de cette distribution à$x$.
Ma question est la suivante : donnons des poids$p_i = CDF(x_{i+1}) - CDF ( x_{i})$, par exemple, la probabilité donnée à la variable$\mathbb{U}[x_i, x_{i+1}]$est la densité attribuée par la distribution gaussienne sur l'intervalle$[x_i, x_{i+1}]$. Ceci est évidemment valable lorsqu'on a$\alpha \rightarrow \infty$. La distribution de Y converge-t-elle vers (également) une distribution gaussienne (plus généralement la distribution utilisée dans le CDF), lorsque$\alpha \rightarrow \infty$et$\beta \rightarrow 0$?
Mon intuition dit oui, mais je ne peux pas le prouver.
Réponses
Ceci est vrai en supposant que vous êtes libre de choisir$\alpha, \beta$comme vous le souhaitez. La convergence dans la distribution d'une séquence de variables aléatoires à valeurs réelles signifie que leurs cdfs$F_n$satisfaire$\lim_{n\rightarrow\infty} F_n(x) = F(x)$pour chaque point$x \in \mathbb{R}$auquel$F$est continue. On peut montrer que, pour tout$\varepsilon > 0$, il y a$A$et$B$telle que pour tout$\alpha > A$,$\beta < B$,$$\sup_{x \in \mathbb{R}} |F_{\alpha,\beta}(x) - F(x)| < \varepsilon.$$Cela suffit pour extraire une séquence$\alpha_n, \beta_n$.
Cela s'est transformé en un article assez long, alors permettez-moi de dire que l'idée est simple : vous approximez la densité avec des fonctions constantes par morceaux, et tout ce qui compte, c'est que les aires sous les courbes convergent uniformément.

Laissez alors$\varepsilon > 0$être donné, et laisser$\Phi$dénotent la cdf d'une gaussienne standard. Il y a$A > 0$assez grand pour que$\Phi(-A) < \varepsilon/4$, ce qui par symétrie implique aussi$\Phi(A) > 1-\varepsilon/4$. Corrigez certains$\alpha > A$. Nous venons de couper les queues.
Donné$x_i = -\alpha + i\beta$avec$n = 2\alpha/\beta \in \mathbb{Z}$, il y a$n$intervalles$I_i = [x_i,x_{i+1})$cette couverture$[-\alpha, \alpha)$. En supposant$p_i = \Phi(x_{i+1}) - \Phi(x_i)$, la masse de probabilité totale allouée est$1 - 2\Phi(-\alpha)$; la masse restante peut être attribuée n'importe où en dehors de$[-\alpha,\alpha)$; dire qu'il est attribué à$x > \alpha$. J'ignorerai tous les détails techniques avec le bon point final (il a une probabilité de 0).
Définir une carte "localisateur"$\ell : [-\alpha, \alpha) \rightarrow \{0, ..., n-1\}$qui s'associe à tout$x$l'indice unique$i$de l'extrémité gauche dans l'intervalle$I_i$(donc notamment$\ell(x_i) = i)$. Rappelant que la densité de$i^{th}$la variable aléatoire uniforme est$(1/\beta)1_{I_i}$, le cdf$F_{\alpha, \beta}$satisfait$$F_{\alpha, \beta}(x) = p_{\ell(x)}\frac{x - x_{\ell(x)}}{\beta} + F_{\alpha,\beta}(x_{\ell(x)}),$$et notez que le cdf approximatif est en accord avec$\Phi$aux points de discrétisation$x_i$jusqu'à un décalage de$\Phi(-\alpha)$:$$F_{\alpha,\beta}(x_i) = \sum_{i'=1, ..., i-1} p_{i'} = \sum_{i' = 1,...,i-1} (\Phi(x_{i'+1}) - \Phi(x_{i'})) = \Phi(x_{i}) - \Phi(-\alpha).$$Ainsi, pour tout$x \in [-\alpha, \alpha)$,\begin{align*} F_{\alpha,\beta}(x) - \Phi(x) &= p_{\ell(x)}(x - x_{\ell(x)})/\beta + F_{\alpha,\beta}(x_{\ell(x)}) - \Phi(x) \\ &= p_{\ell(x)}(x - x_{\ell(x)})/\beta + \Phi(x_{\ell(x)}) - \Phi(-\alpha) - [\Phi(x) - \Phi(x_{\ell(x)}) + \Phi(x_{\ell(x)})]\\ &= [p_{\ell(x)}(x - x_{\ell(x)})/\beta - (\Phi(x) - \Phi(x_{\ell(x)}))] - \Phi(-\alpha).\tag{1} \end{align*}Le terme de gauche entre parenthèses dans la dernière égalité ci-dessus est$$(\Phi(x_{\ell(x)+1}) - \Phi(x_{\ell(x)}))(x - x_{\ell(x)})/\beta - (\Phi(x) - \Phi(x_{\ell(x)})),$$qui, si vous plissez les yeux, est le théorème fondamental du calcul :$$\Phi'(a)(x-a) \approx \frac{\Phi(b) - \Phi(a)}{\beta}(x - a) \approx (\Phi(x) - \Phi(a)).$$Je laisse au lecteur le soin de justifier l'utilisation de la compacité de$[-\alpha,\alpha]$et dérivabilité de$\Phi$sur$(-\alpha,\alpha)$que l'on peut trouver$B > 0$tel que tout$\beta < B$rend le terme entre parenthèses aussi petit que désiré, moins de$\varepsilon/2$.
Revenir à$(1)$, on trouve que pour$\alpha > A$et$\beta < B$et$x \in [-\alpha, \alpha)$, on a$$|F_{\alpha,\beta}(x) - \Phi(x)| < \varepsilon/2 + \varepsilon/4.$$Pour le reste$x$, nous avons tout au plus égaré$2\Phi(-\alpha)$masse, qui est délimitée par$\varepsilon/2$. Ainsi,$$\sup_{x \in \mathbb{R}} |F_{\alpha,\beta}(x) - \Phi(x)| < \varepsilon,$$qui établit la convergence souhaitée.