Contre-exemple spécifique pour le non-markovisme de la marche aléatoire des éléphants
Considérez la marche aléatoire des éléphants $(S_n)_{n\in\mathbb{N}}$ Défini par $S_n:=X_1+\ldots+ X_n, n\in\mathbb{N},$ dont les incréments $X_k:=S_k-S_{k-1}$, $k\ge 1$, sont définis de manière récursive comme suit:
- La distribution de $X_1$ est donné par $P(X_1=+1)=q\in(0,1)$ et $ P(X_1=-1)=1-q$.
- À tout moment ultérieur $n\ge 2$, on tire aléatoirement un index temporel entier $k\in\{1,\ldots, n-1\}$ avec une probabilité uniforme et laisse $X_n:=X_k$ avec probabilité $p$ et $X_n:=-X_k$ avec probabilité $1-p$.
Le processus a été introduit en https://arxiv.org/pdf/cond-mat/0406593.pdfet a également été référencé dans une réponse à cette question: Exemple de processus stochastique non Markov? .
Quelqu'un a-t-il un contre-exemple spécifique d'une trajectoire du processus montrant le caractère non-markovien du processus? Jusqu'à présent, j'ai essayé de comparer$P(S_3=1|S_2=0)$, $P(S_4=2|S_3=1)$, $P(S_4=0|S_3=1)$, $P(S_4=0|S_3=-1)$avec les probabilités conditionnelles des trajectoires complètes possibles respectives et n'a pas pu trouver de contre-exemple. Je suis reconnaissant pour toute autre idée, d'autant plus que je n'exclus pas la possibilité de faire des erreurs de calcul.
Réponses
Pour autant que je sache, bien que la marche aléatoire des éléphants ait une «description très non-markovienne», il s'agit en fait d'une chaîne de Markov - bien qu'elle ne soit pas homogène dans le temps, et beaucoup de gens qui parlent de chaînes de Markov supposent une homogénéité. C'est,$$ \Pr[S_n = s_n \mid S_{n-1} = s_{n-1}, S_{n-2} = s_{n-2}, \dots, S_1 = s_1] = \Pr[S_n = s_n \mid S_{n-1} = s_{n-1}] $$ pour chaque trajectoire possible $(s_1, s_2, \dots, s_n)$. Cependant, il est possible que pour$m \ne n$, $$\Pr[S_n = x \mid S_{n-1} = y] \ne \Pr[S_m = x \mid S_{m-1} = y].$$
Voici ma logique. Si nous voulons calculer$\Pr[S_{n+1} = s+1 \mid S_n = s]$ (et de même $\Pr[S_{n+1} = s-1 \mid S_n = s]$, tout ce que nous avons à faire est de comprendre que pour arriver à $S_n = s$ dans $n$ pas, $\frac{n+s}{2}$ des étapes doivent avoir été $+1$ et $\frac{n-s}{2}$ des étapes doivent avoir été $-1$. Cela signifie que lorsque nous choisissons un aléatoire$k \in \{1,2,\dots,n\}$, nous avons un $\frac{n+s}{2n}$ chance de choisir un $k$ avec $X_k = 1$ et un $\frac{n-s}{2n}$ chance de choisir un $k$ avec $X_k = -1$. Dans l'ensemble, il y a un$$p \cdot \frac{n+s}{2n} + (1-p) \cdot \frac{n-s}{2n}$$ chance de finir par choisir $X_{n+1}=1$, et donc obtenir $S_{n+1} = s+1$.
Le conditionnement sur toute autre histoire de la chaîne de Markov n'a pas d'importance: il peut nous dire quelles étapes ont été$+1$ et qui étaient $-1$, mais nous savons déjà combien il y en a. La propriété Markov sera donc toujours valable.
Cependant, la formule ci-dessus dépend de $n$, et pas seulement sur $s$. Si nous arrivons à$s$ le plus tôt possible $n=|s|$, nous avons dû prendre des mesures qui allaient toutes dans le même sens, et nous avons donc un $p$chance de continuer dans cette direction. Si nous arrivons à$s$ plus tard, alors $\frac{n+s}{2}$ et $\frac{n-s}{2}$ seront proches les uns des autres et la probabilité d'aller dans les deux sens est proche de $\frac12$.
Il n'y a donc pas de probabilité fixe de passer de$s$ à $s+1$ (ou de $s$ à $s-1$), ce que nous souhaiterions si la chaîne de Markov était homogène dans le temps.