Diferencia entre autocorrelación y autocorrelación parcial

Aug 17 2020

He leído algunos artículos sobre la autocorrelación parcial de series de tiempo y debo admitir que realmente no comprendo la diferencia con una autocorrelación normal. A menudo se afirma que la autocorrelación parcial entre$y_t$ y $y_t-k$ es la correlación entre $y_t$ y $y_t-k$ con la influencia de las variables entre $y_t$ y $y_t-k$¿remoto? No entiendo esto. Si calculamos la correlación entre$y_t$ y $y_t-k$de todos modos, las variables intermedias no se consumen en absoluto si utiliza el coeficiente de correlación para hacer eso. El coeficiente de correlación considera dos variables solo hasta donde yo sé.

Esto realmente me confunde. Espero que puedas ayudarme con eso. Agradecería cada comentario y estaría agradecido por su ayuda.

Actualización: ¿Alguien puede intentar explicar cómo se podría calcular la autocorrelación y la autocorrelación parcial para una serie de tiempo? Entendí cómo hacer esto con una muestra pero no con una serie de tiempo (porque necesita tres variables de acuerdo con el ejemplo aquíhttps://en.wikipedia.org/wiki/Partial_correlation). ¿Conoce algún ejemplo en el que se haga esto?

Respuestas

4 Dayne Oct 11 2020 at 20:14

Por un tiempo, olvídese de las marcas de tiempo. Considere tres variables:$X, Y, Z$.

Digamos $Z$tiene una influencia directa sobre la variable$X$. Tu puedes pensar en$Z$ como algún parámetro económico en EE. UU. que está influyendo en algún otro parámetro económico $X$ de China.

Ahora puede ser que un parámetro $Y$ (algún parámetro en Inglaterra) también está directamente influenciado por $Z$. Pero existe una relación independiente entre$X$ y $Y$también. Por independencia quiero decir aquí que esta relación es independiente de$Z$.

Entonces ves cuando $Z$ cambios $X$ cambia debido a la relación directa entre $X$ y $Z$, y también porque $Z$ cambios $Y$ que a su vez cambia $X$. Entonces$X$ cambia por dos razones.

Ahora lee esto con $Z=y_{t-h}, \ \ Y=y_{t-h+\tau}$ y $X=y_t$ (dónde $h>\tau$).

Autocorrelación entre $X$ y $Z$ tendrá en cuenta todos los cambios en $X$ si viene de $Z$ directamente oa través de $Y$.

La autocorrelación parcial elimina el impacto indirecto de $Z$ en $X$ pasando $Y$.

¿Como esta hecho? Eso se explica en la otra respuesta dada a su pregunta.

2 Michael Aug 18 2020 at 10:30

La diferencia entre (muestra) ACF y PACF es fácil de ver desde la perspectiva de la regresión lineal.

Para obtener la muestra de ACF $\hat{\gamma}_h$ con retraso $h$, se ajusta al modelo de regresión lineal $$ y_t = \alpha + \beta y_{t-h} + u_t $$ y el resultante $\hat{\beta}$ es $\hat{\gamma}_h$. Debido a la (débil) estacionariedad, la estimación$\hat{\beta}$ es la correlación muestral entre $y_t$ y $y_{t-h}$. (Existen algunas diferencias triviales entre cómo se calculan los momentos muestrales entre series de tiempo y contextos de regresión lineal, pero son insignificantes cuando el tamaño de la muestra es grande).

Para obtener el PACF de muestra $\hat{\rho}_h$ con retraso $h$, se ajusta al modelo de regresión lineal $$ y_t = \alpha + \, ? y_{t-1} + \cdots + \, ? y_{t-h + 1} + \beta y_{t-h} + u_t $$ y el resultante $\hat{\beta}$ es $\hat{\rho}_h$. Entonces$\hat{\rho}_h$ es la "correlación entre $y_t$ y $y_{t-h}$ después de controlar los elementos intermedios ".

La misma discusión se aplica literalmente a la diferencia entre la población ACF y PACF. Simplemente reemplace las regresiones de muestra por regresiones de población. Para un proceso AR (p) estacionario, encontrará que el PACF es cero para los retrasos$h > p$. No es de extrañar. El proceso se especifica mediante una regresión lineal.$$ y_t = \phi_0 + \phi_1 y_{t-1} + \cdots \phi_p y_{t-p} + \epsilon_t $$
Si agrega un regresor (diga $y_{t-p-1}$) en el lado derecho que no está correlacionado con el término de error $\epsilon_t$, el coeficiente resultante (el PACF en lag $p+1$ en este caso) sería cero.