Differenza tra autocorrelazione e autocorrelazione parziale

Aug 17 2020

Ho letto alcuni articoli sull'autocorrelazione parziale delle serie temporali e devo ammettere che non comprendo veramente la differenza con una normale autocorrelazione. Si afferma spesso che la parziale autocorrelazione tra$y_t$ e $y_t-k$ è la correzione tra $y_t$ e $y_t-k$ con l'influenza delle variabili tra $y_t$ e $y_t-k$rimosso? Questo non lo capisco. Se calcoliamo la correlazione tra$y_t$ e $y_t-k$allora comunque le variabili intermedie non vengono considerate affatto se si utilizza il coefficiente di correlazione per farlo. Il coefficiente di correlazione considera due variabili solo per quanto ne so.

Questo mi confonde davvero. Spero che tu possa aiutarmi in questo. Apprezzerei ogni commento e sarei grato per il tuo aiuto.

Aggiornamento: qualcuno può provare a spiegare come si potrebbe calcolare l'autocorrelazione e l'autocorrelazione parziale per una serie temporale. Ho capito come farlo con un campione ma non con una serie temporale (perché hai bisogno di tre variabili secondo l'esempio quihttps://en.wikipedia.org/wiki/Partial_correlation). Conosci qualche esempio in cui questo viene fatto?

Risposte

4 Dayne Oct 11 2020 at 20:14

Per un po 'dimentica i timestamp. Considera tre variabili:$X, Y, Z$.

Diciamo $Z$ha un'influenza diretta sulla variabile$X$. Puoi pensare$Z$ come un parametro economico negli Stati Uniti che sta influenzando altri parametri economici $X$ della Cina.

Ora potrebbe essere un parametro $Y$ (qualche parametro in Inghilterra) è anche direttamente influenzato da $Z$. Ma esiste una relazione indipendente tra$X$ e $Y$anche. Per indipendenza qui intendo che questa relazione è indipendente da$Z$.

Quindi vedi quando $Z$ i cambiamenti, $X$ cambia a causa del rapporto diretto tra $X$ e $Z$, e anche perché $Z$ i cambiamenti $Y$ che a sua volta cambia $X$. Così$X$ cambia a causa di due motivi.

Ora leggi questo con $Z=y_{t-h}, \ \ Y=y_{t-h+\tau}$ e $X=y_t$ (dove $h>\tau$).

Autocorrelazione tra $X$ e $Z$ terrà conto di tutte le modifiche in $X$ se proveniente da $Z$ direttamente o tramite $Y$.

L'autocorrelazione parziale rimuove l'impatto indiretto di $Z$ sopra $X$ attraversando $Y$.

Come si fa? Ciò è spiegato nell'altra risposta data alla tua domanda.

2 Michael Aug 18 2020 at 10:30

La differenza tra ACF (campione) e PACF è facile da vedere dal punto di vista della regressione lineare.

Per ottenere il campione ACF $\hat{\gamma}_h$ in ritardo $h$, ti adatti al modello di regressione lineare $$ y_t = \alpha + \beta y_{t-h} + u_t $$ e il risultato $\hat{\beta}$ è $\hat{\gamma}_h$. A causa della (debole) stazionarietà, la stima$\hat{\beta}$ è la correlazione campionaria tra $y_t$ e $y_{t-h}$. (Esistono alcune differenze banali tra il modo in cui vengono calcolati i momenti campione tra serie temporali e contesti di regressione lineare, ma sono trascurabili quando la dimensione del campione è grande.)

Per ottenere il campione PACF $\hat{\rho}_h$ in ritardo $h$, ti adatti al modello di regressione lineare $$ y_t = \alpha + \, ? y_{t-1} + \cdots + \, ? y_{t-h + 1} + \beta y_{t-h} + u_t $$ e il risultato $\hat{\beta}$ è $\hat{\rho}_h$. Così$\hat{\rho}_h$ è la "correlazione tra $y_t$ e $y_{t-h}$ dopo aver controllato gli elementi intermedi. "

La stessa discussione si applica letteralmente alla differenza tra la popolazione ACF e PACF. Basta sostituire le regressioni campione con regressioni della popolazione. Per un processo AR (p) stazionario, troverai che il PACF è zero per i ritardi$h > p$. Questo non è sorprendente. Il processo è specificato da una regressione lineare.$$ y_t = \phi_0 + \phi_1 y_{t-1} + \cdots \phi_p y_{t-p} + \epsilon_t $$
Se aggiungi un regressore (ad esempio $y_{t-p-1}$) sul lato destro che non è correlato al termine di errore $\epsilon_t$, il coefficiente risultante (il PACF al lag $p+1$ in questo caso) sarebbe zero.