Prove isso para variáveis ​​aleatórias independentes $X_i$, temos $f_i(X_i)$ são independentes.

Dec 11 2020

Tenho visto muitos posts que descrevem o caso de apenas 2 variáveis ​​aleatórias.

Variáveis ​​aleatórias independentes e função delas

As funções de variáveis ​​independentes também são independentes?

E se $X$ e $Y$ são independentes então $f(X)$ e $g(Y)$ também são independentes.

E se $X$ e $Y$são independentes. E se$X^2$ e $Y$? E que tal$f(X)$ e $g(Y)$?

Os quadrados de variáveis ​​aleatórias independentes são independentes?

Prove que se $X$ e $Y$ são independentes, então $h(X)$ e $g(Y)$são independentes na probabilidade BASIC - podemos usar integração dupla? (oh, eu realmente perguntei o caso elementar de 2 variáveis ​​aqui, mas não há resposta)

Ainda estou para ver uma postagem que descreva o caso de pelo menos 3 .


Por favor responda em 2 situações

1 - para teoria de probabilidade avançada:

Deixei $X_i: \Omega \to \mathbb R$ ser variáveis ​​aleatórias independentes em $(\Omega, \mathscr F, \mathbb P)$. Deixei$i \in I$para qualquer conjunto de índices, eu acho (ou talvez deva ser contável). Claro, assuma$card(I) \ge 3$. Então mostre$f_i(X_i)$são independentes. Dê condições sobre$f_i$ de tal modo que $f_i(X_i)$é independente. Li nos posts acima que a condição é "mensurável", o que acho que significa$\mathscr F$- mensurável, mas eu poderia jurar que li antes que a condição deveria ser 'limitada e mensurável pelo Borel', como em limitada e $\mathscr B(\mathbb R)$-mensurável para $(\mathbb R, \mathscr B(\mathbb R), Lebesgue)$

2 - para teoria de probabilidade elementar

Deixei $X_i: \Omega \to \mathbb R$ser variáveis ​​aleatórias independentes que possuem pdfs. Use a definição de probabilidade elementar de independência que é 'independente se a fdp conjunta se dividir', ou algo assim. Eu acho que o índice definido$I$não precisa ser finito; nesse caso, acho que a definição é que a pdf conjunta de qualquer subconjunto finito de é independente . Dê condições sobre$f_i$ de tal modo que $f_i(X_i)$é independente. Claro que não podemos dizer exatamente isso$f_i$ é 'mensurável'.

  • Contexto para o caso elementar: estou tentando justificar o cálculo da fórmula para a função geradora de momento para combinação linear de variáveis ​​aleatórias independentes . Veja aqui: Provando desigualdade de probabilidade para derivar o limite superior para funções geradoras de momento

  • Com base na aplicação da integral de Riemann-Stieltjes (ou integral de Lebesgue-Stieltjes) à probabilidade , acho que a condição é qualquer$f_i$ de tal modo que $E[f_i(X_i)]$ existe (ou seja $E[|f_i(X_i)|]$ é finito).

    • Esta é a mesma condição em Larsen e Marx - Introdução à Estatística Matemática e suas Aplicações .

    • eu acho que $f$ limitado implica isso, mas não o contrário.

  • Atualização : Também relacionado através de outra pergunta se$g$ é uma função contínua e crescente de $x$, prove isso $g(X)$é uma variável aleatória. -> Mais genericamente para quais funções$g$ é $g(X)$é uma variável aleatória? Claro, em probabilidade avançada, basta dizer$g$ é mensurável pelo Borel ou $\mathscr F$-mensurável ou qualquer outra coisa, mas acho que em probabilidade elementar dizemos $g$ de tal modo que $E[g(X)]$ existe ie $E[|g(X)|] < \infty$, MESMO QUE esta seja, eu acredito, uma condição mais forte do que aquela $g$é 'mensurável', o que quer que isso signifique em probabilidade elementar. Mas, novamente, isso é meio estranho, já que nem necessariamente esperamos$E[X]$ existir (ou seja $E[|X|] < \infty$) ou bem qualquer momento superior $E[X^n]$ Eu acho.

Respostas

3 drhab Dec 18 2020 at 22:46

Para $i\in I$ deixei $\sigma\left(X_{i}\right)\subseteq\mathscr{F}$ denotar o $\sigma$-álgebra gerada por variável aleatória $X_{i}:\Omega\to\mathbb{R}$.

Então, na verdade, temos $\sigma\left(X_{i}\right)=X_{i}^{-1}\left(\mathscr{B}\left(\mathbb{R}\right)\right)=\left\{ X_{i}^{-1}\left(B\right)\mid B\in\mathscr{B}\left(\mathbb{R}\right)\right\} $.

A coleção $(X_i)_{i\in I}$ de variáveis ​​aleatórias é independente iff:

Para cada finito $J\subseteq I$ e cada coleção $\left\{ A_{i}\mid i\in J\right\} $ satisfatório $\forall i\in J\left[A_{i}\in\sigma\left(X_{i}\right)\right]$ temos:

$$P\left(\bigcap_{i\in J}A_{i}\right)=\prod_{i\in J}P\left(A_{i}\right)\tag {1}$$

Agora se $f_{i}:\mathbb{R}\to Y_{i}$ para $i\in I$ Onde $\left(Y_{i},\mathcal{A}_{i}\right)$ denota um espaço mensurável e onde cada $f_{i}$ é mensurável pelo Borel no sentido de que $f_{i}^{-1}\left(\mathcal{A}_{i}\right)\subseteq\mathscr{B}\left(\mathbb{R}\right)$ então, para verificar a independência, devemos olhar para o $\sigma$-álgebras $\sigma\left(f_{i}\left(X_{i}\right)\right)$.

Mas evidentemente: $$\sigma\left(f_{i}\left(X_{i}\right)\right)=\left(f_{i}\circ X_{i}\right)^{-1}\left(\mathcal{A}_{i}\right)=X_{i}^{-1}\left(f_{i}^{-1}\left(\mathcal{A}_{i}\right)\right)\subseteq X_{i}^{-1}\left(\mathscr{B}\left(\mathbb{R}\right)\right)=\sigma\left(X_{i}\right)$$ Então se $\left(1.A\right)$ está satisfeito pelo $\sigma\left(X_{i}\right)$então automaticamente é satisfeito para o menor$\sigma\left(f_{i}\left(X_{i}\right)\right)$.

2)

O conceito de independência de variáveis ​​aleatórias tem impacto nos PDFs e no cálculo dos momentos, mas sua definição fica completamente indefinida. Com base, por exemplo, em uma divisão de PDFs, pode-se deduzir que há independência, mas coisas assim não devem ser promovidas ao status de "definição de independência". Em situações como essa, podemos no máximo dizer que é uma condição suficiente (não necessária) para a independência. Se nos perguntarmos: "o que é necessário para o$f_i(X_i)$ para ser independente? ", então devemos nos concentrar na definição de independência (condições insuficientes). Fazendo isso, descobrimos que a mensurabilidade do $f_i$ é o suficiente sempre que o $X_i$ já são independentes.

Edição BCLC: (deixe que drhab edite esta parte mais adiante): Não há 'mensurável' na probabilidade elementar, então apenas dizemos 'adequado' ou 'bem-comportado' em que quaisquer funções que os alunos de probabilidade elementar encontrarem, esperamos que eles são adequados. Provavelmente, alguns livros usarão condições mais fracas do que 'mensuráveis' que serão usadas como a definição de independência para aquele livro.

Editar : funções que não são mensuráveis ​​(ou inadequadas, se você quiser) são muito raras no contexto usual. O axioma da escolha é necessário para provar a existência de tais funções. Nesse sentido, você poderia dizer que as funções construtíveis (nenhuma função de escolha arbitrária é necessária) são adequadas.

1 nullUser Jan 07 2021 at 09:29

medida-teórica :

A resposta teórica da medida é extremamente geral. Não requer nada de especial sobre a linha real ou conjuntos de Borel, apenas pura mensurabilidade. Suponha$(X)_{i \in I}$ é uma família (não é necessário contar) de elementos aleatórios, onde $X_i: (\Omega, \mathscr{F}) \to (A_i, \mathscr{A}_i)$, ou seja, cada $X_i$ assume valores em algum espaço $A_i$ e $X_i$ é mensurável, mas tudo $X_i$ viver no mesmo espaço de entrada $\Omega$. Nenhuma suposição é feita sobre os espaços$\Omega, A_i$ ou $\sigma$-álgebras $\mathscr{F}, \mathscr{A}_i$.

Deixe uma família de funções correspondente $(f_i)_{i \in I}$ ser dado de forma que para cada $i$, $f_i: (A_i, \mathscr{A}_i) \to (B_i, \mathscr{B}_i)$é mensurável. Ou seja, cada$f_i$ aceita entradas de $A_i$ (o codomínio de $X_i$) e assume valores em algum espaço $B_i$ de tal modo que $f_i$é mensurável. (Isso garante que para cada$i$, $f_i(X_i): (\Omega, \mathscr{F}) \to (B_i, \mathscr{B}_i)$ faz sentido e é mensurável.) Mais uma vez, nenhuma suposição é feita sobre os espaços $B_i$ ou $\sigma$-álgebras $\mathscr{B}_i$.

Agora suponha $(X_i)_i$ é uma família independente sob alguma medida de probabilidade $P$ em $(\Omega, \mathscr{F})$, ou seja, para qualquer subconjunto finito $J \subseteq I$ de índices e quaisquer subconjuntos mensuráveis $U_i \in \mathscr{A}_i$ um tem $$P(X_i \in U_i \text{ for all } i \in J) = \prod_{i \in J} P(X_i \in U_i).$$

Então afirmamos que $(f_i(X_i))_{i \in I}$ também é uma família independente sob $P$. Na verdade, vamos$J \subseteq I$ ser algum subconjunto finito de índices e permitir que subconjuntos mensuráveis $V_i \in \mathscr{B}_i$seja dado. Para cada$i \in J$, pela mensurabilidade de $f_i$ e $V_i$, um tem isso $f_i^{-1}(V_i) \in \mathscr{A}_i$ e assim $$ P(f_i(X_i) \in V_i \text{ for all } i \in J) = P(X_i \in f^{-1}_i(V_i) \text{ for all } i \in J) $$ $$ = \prod_{i \in J} P(X_i \in f^{-1}_i(V_i)) $$ $$ = \prod_{i \in J} P(f_i(X_i) \in V_i). $$ Portanto, $f_i(X_i))_{i \in I}$ é uma família independente.


probabilidade elementar :

Quanto à solução de probabilidade elementar, ela realmente depende de qual é a sua definição de independência. Em todos os casos, a definição envolve apenas subconjuntos finitos das variáveis ​​aleatórias. Eu diria que sem a definição de um$\sigma$-álgebra, a prova está fora de alcance, a menos que você faça suposições extras (desnecessárias). Se sua definição é que as densidades se dividem como um produto, você deve assumir algumas condições para garantir que$f_i(X_i)$tem uma densidade e você pode aplicar as regras usuais de transformação de densidade. Se suas funções assumem valores em um espaço contável, a prova acima pode ser repetida essencialmente literalmente substituindo$U_i, V_i$ com singletons, ou seja, olhe para $P(f_i(X_i) = y_i, \forall i)$.

Alternativamente, visto que você está evitando uma resposta teórica de medida para uma questão cuja própria definição é teórica de medida, talvez a correção do argumento não seja um requisito? Apenas diga a seus alunos que a condição de independência deve ser válida para "todos os conjuntos (asteristk verbal)" e então dê a prova acima sem mencionar a mensurabilidade. Ou, se seus alunos se sentirem mais confortáveis ​​com a topologia, você pode usar apenas funções contínuas e observar pré-imagens de conjuntos abertos.