Contre-exemple spécifique pour le non-markovisme de la marche aléatoire des éléphants

Nov 26 2020

Considérez la marche aléatoire des éléphants $(S_n)_{n\in\mathbb{N}}$ Défini par $S_n:=X_1+\ldots+ X_n, n\in\mathbb{N},$ dont les incréments $X_k:=S_k-S_{k-1}$, $k\ge 1$, sont définis de manière récursive comme suit:

  • La distribution de $X_1$ est donné par $P(X_1=+1)=q\in(0,1)$ et $ P(X_1=-1)=1-q$.
  • À tout moment ultérieur $n\ge 2$, on tire aléatoirement un index temporel entier $k\in\{1,\ldots, n-1\}$ avec une probabilité uniforme et laisse $X_n:=X_k$ avec probabilité $p$ et $X_n:=-X_k$ avec probabilité $1-p$.

Le processus a été introduit en https://arxiv.org/pdf/cond-mat/0406593.pdfet a également été référencé dans une réponse à cette question: Exemple de processus stochastique non Markov? .

Quelqu'un a-t-il un contre-exemple spécifique d'une trajectoire du processus montrant le caractère non-markovien du processus? Jusqu'à présent, j'ai essayé de comparer$P(S_3=1|S_2=0)$, $P(S_4=2|S_3=1)$, $P(S_4=0|S_3=1)$, $P(S_4=0|S_3=-1)$avec les probabilités conditionnelles des trajectoires complètes possibles respectives et n'a pas pu trouver de contre-exemple. Je suis reconnaissant pour toute autre idée, d'autant plus que je n'exclus pas la possibilité de faire des erreurs de calcul.

Réponses

1 MishaLavrov Nov 26 2020 at 07:04

Pour autant que je sache, bien que la marche aléatoire des éléphants ait une «description très non-markovienne», il s'agit en fait d'une chaîne de Markov - bien qu'elle ne soit pas homogène dans le temps, et beaucoup de gens qui parlent de chaînes de Markov supposent une homogénéité. C'est,$$ \Pr[S_n = s_n \mid S_{n-1} = s_{n-1}, S_{n-2} = s_{n-2}, \dots, S_1 = s_1] = \Pr[S_n = s_n \mid S_{n-1} = s_{n-1}] $$ pour chaque trajectoire possible $(s_1, s_2, \dots, s_n)$. Cependant, il est possible que pour$m \ne n$, $$\Pr[S_n = x \mid S_{n-1} = y] \ne \Pr[S_m = x \mid S_{m-1} = y].$$


Voici ma logique. Si nous voulons calculer$\Pr[S_{n+1} = s+1 \mid S_n = s]$ (et de même $\Pr[S_{n+1} = s-1 \mid S_n = s]$, tout ce que nous avons à faire est de comprendre que pour arriver à $S_n = s$ dans $n$ pas, $\frac{n+s}{2}$ des étapes doivent avoir été $+1$ et $\frac{n-s}{2}$ des étapes doivent avoir été $-1$. Cela signifie que lorsque nous choisissons un aléatoire$k \in \{1,2,\dots,n\}$, nous avons un $\frac{n+s}{2n}$ chance de choisir un $k$ avec $X_k = 1$ et un $\frac{n-s}{2n}$ chance de choisir un $k$ avec $X_k = -1$. Dans l'ensemble, il y a un$$p \cdot \frac{n+s}{2n} + (1-p) \cdot \frac{n-s}{2n}$$ chance de finir par choisir $X_{n+1}=1$, et donc obtenir $S_{n+1} = s+1$.

Le conditionnement sur toute autre histoire de la chaîne de Markov n'a pas d'importance: il peut nous dire quelles étapes ont été$+1$ et qui étaient $-1$, mais nous savons déjà combien il y en a. La propriété Markov sera donc toujours valable.

Cependant, la formule ci-dessus dépend de $n$, et pas seulement sur $s$. Si nous arrivons à$s$ le plus tôt possible $n=|s|$, nous avons dû prendre des mesures qui allaient toutes dans le même sens, et nous avons donc un $p$chance de continuer dans cette direction. Si nous arrivons à$s$ plus tard, alors $\frac{n+s}{2}$ et $\frac{n-s}{2}$ seront proches les uns des autres et la probabilité d'aller dans les deux sens est proche de $\frac12$.

Il n'y a donc pas de probabilité fixe de passer de$s$ à $s+1$ (ou de $s$ à $s-1$), ce que nous souhaiterions si la chaîne de Markov était homogène dans le temps.