Diferença entre autocorrelação e autocorrelação parcial

Aug 17 2020

Eu li alguns artigos sobre autocorrelação parcial de séries temporais e tenho que admitir que não compreendo realmente a diferença para uma autocorrelação normal. É frequentemente afirmado que a autocorrelação parcial entre$y_t$ e $y_t-k$ é a correcção entre $y_t$ e $y_t-k$ com a influência das variáveis ​​entre $y_t$ e $y_t-k$removido? Eu não entendo isso. Se calcularmos a correlação entre$y_t$ e $y_t-k$então, de qualquer forma, as variáveis ​​intermediárias não são consideradas de forma alguma se você usar o coeficiente de correlação para fazer isso. O coeficiente de correlação considera duas variáveis ​​apenas até onde eu sei.

Isso realmente me confunde. Eu espero que você possa me ajudar nisso. Eu apreciaria cada comentário e ficaria grato por sua ajuda.

Atualização: Alguém pode tentar explicar como se poderia calcular a autocorrelação e a autocorrelação parcial para uma série temporal. Eu entendi como fazer isso com uma amostra, mas não com uma série temporal (porque você precisa de três variáveis ​​de acordo com o exemplo aquihttps://en.wikipedia.org/wiki/Partial_correlation) Você conhece algum exemplo onde isso seja feito?

Respostas

4 Dayne Oct 11 2020 at 20:14

Por um tempo, esqueça os carimbos de hora. Considere três variáveis:$X, Y, Z$.

Digamos $Z$tem uma influência direta na variável$X$. Você pode pensar em$Z$ como algum parâmetro econômico nos EUA que está influenciando algum outro parâmetro econômico $X$ da China.

Agora pode ser que um parâmetro $Y$ (algum parâmetro na Inglaterra) também é diretamente influenciado por $Z$. Mas existe uma relação independente entre$X$ e $Y$também. Por independência aqui, quero dizer que esta relação é independente de$Z$.

Então você vê quando $Z$ alterar, $X$ mudanças devido à relação direta entre $X$ e $Z$, e também porque $Z$ alterar $Y$ que por sua vez muda $X$. então$X$ muda por dois motivos.

Agora leia isso com $Z=y_{t-h}, \ \ Y=y_{t-h+\tau}$ e $X=y_t$ (Onde $h>\tau$)

Autocorrelação entre $X$ e $Z$ levará em consideração todas as mudanças em $X$ seja vindo de $Z$ diretamente ou através $Y$.

A autocorrelação parcial remove o impacto indireto de $Z$ em $X$ passando $Y$.

Como isso é feito? Isso é explicado na outra resposta dada à sua pergunta.

2 Michael Aug 18 2020 at 10:30

A diferença entre (amostra) ACF e PACF é fácil de ver da perspectiva da regressão linear.

Para obter a amostra ACF $\hat{\gamma}_h$ no atraso $h$, você se encaixa no modelo de regressão linear $$ y_t = \alpha + \beta y_{t-h} + u_t $$ e o resultante $\hat{\beta}$ é $\hat{\gamma}_h$. Por causa da estacionariedade (fraca), a estimativa$\hat{\beta}$ é a correlação de amostra entre $y_t$ e $y_{t-h}$. (Existem algumas diferenças triviais entre como os momentos da amostra são calculados entre séries temporais e contextos de regressão linear, mas são insignificantes quando o tamanho da amostra é grande.)

Para obter a amostra PACF $\hat{\rho}_h$ no atraso $h$, você se encaixa no modelo de regressão linear $$ y_t = \alpha + \, ? y_{t-1} + \cdots + \, ? y_{t-h + 1} + \beta y_{t-h} + u_t $$ e o resultante $\hat{\beta}$ é $\hat{\rho}_h$. então$\hat{\rho}_h$ é a "correlação entre $y_t$ e $y_{t-h}$ depois de controlar os elementos intermediários. "

A mesma discussão se aplica literalmente à diferença entre a população ACF e PACF. Basta substituir as regressões de amostra por regressões de população. Para um processo AR (p) estacionário, você descobrirá que o PACF é zero para atrasos$h > p$. Isso não é surpreendente. O processo é especificado por uma regressão linear.$$ y_t = \phi_0 + \phi_1 y_{t-1} + \cdots \phi_p y_{t-p} + \epsilon_t $$
Se você adicionar um regressor (diga $y_{t-p-1}$) no lado direito que não está correlacionado com o termo de erro $\epsilon_t$, o coeficiente resultante (o PACF no lag $p+1$ neste caso) seria zero.