Jak zabrałbyś się za modelowanie tego jako łańcucha Markowa?
Istnieją dwie maszyny, które psują się w różnym tempie, µ$_A$dla maszyny A i µ$_B$dla maszyny B. Po awarii maszyna może być naprawiona przez jednego z dwóch mechaników. Załóżmy, że dwóch mechaników, X i Y, ma różne umiejętności i naprawia w wykładniczych losowych czasach z parametrami λ$_X$i λ$_Y$odpowiednio. (Ale stawka nie zależy od tego, którą maszynę naprawiają).
Jak zabrałbyś się za modelowanie tego jako łańcucha Markowa?
Odpowiedzi
Załóżmy, że jeśli obie maszyny działają, gdy jedna ulegnie awarii, wówczas mechanicy z równym prawdopodobieństwem zostaną wybrani do naprawy maszyny. Przestrzeń stanów jest $$ S=\{(1,1), (0_X,1), (0_Y,1), (1,0_X), (1,0_Y), (0_X,0_Y), (0_Y,0_X) \}. $$ Stawki przejścia podane są wg $$ q_{(i,j),(i',j')} = \begin{cases} \frac{\mu_A}2,& (i,j)=(1,1)\text{ and } (i',j') \in \{(0_X,1),(0_Y,1)\}\\ \frac{\mu_B}2,& (i,j)=(1,1)\text{ and } (i',j') \in \{(1,0_X),(1,0_Y)\}\\ \lambda_X,& (i,j) \in \{(0_X,1),(1,0_X)\} \text{ and } (i',j') = (1,1)\\ \lambda_Y,& (i,j) \in \{(0_Y,1),(1,0_Y)\} \text{ and } (i',j') = (1,1)\\ \mu_A,& (i,j) = (1,0_X)\text{ and } (i',j') = (0_Y,0_X)\\ \mu_A,& (i,j) = (1,0_Y)\text{ and } (i',j') = (0_X,0_Y)\\ \mu_B,& (i,j) = (0_X,1)\text{ and } (i',j') = (0_X,0_Y)\\ \mu_B,& (i,j) = (0_Y,1)\text{ and } (i',j') = (0_Y,0_X)\\ \lambda_X,& (i,j) = (0_X,0_Y)\text{ and } (i',j') = (1,0_Y)\\ \lambda_X,& (i,j) = (0_Y,0_X)\text{ and } (i',j') = (0_Y,1)\\ \lambda_Y,& (i,j) = (0_X,0_Y)\text{ and } (i',j') = (0_X,1)\\ \lambda_Y,& (i,j) = (0_Y,0_X)\text{ and } (i',j') = (1,0_X)\\ 0,& \text{otherwise.} \end{cases} $$ Pozwolić $Z(t)$ być stanem systemu w danym momencie $t$, następnie $\{Z(t):t\geqslant 0\}$ jest ciągłym łańcuchem Markowa z macierzą generatora $$ Q = \small\left( \begin{array}{ccccccc} -\left(\mu _A+\mu _B\right) & \frac{\mu _A}{2} & \frac{\mu _B}{2} & \frac{\mu _A}{2} & \frac{\mu _B}{2} & 0 & 0 \\ \lambda _X & -\left(\mu _B+\lambda _X\right) & 0 & 0 & 0 & \mu _B & 0 \\ \lambda _Y & 0 & -\left(\mu _B+\lambda _Y\right) & 0 & 0 & 0 & \mu _B \\ \lambda _X & 0 & 0 & -\left(\mu _A+\lambda _X\right) & 0 & 0 & \mu _A \\ \lambda _Y & 0 & 0 & 0 & -\left(\mu _B+\lambda _Y\right) & \mu _B & 0 \\ 0 & \lambda _Y & 0 & 0 & \lambda _X & -\left(\lambda _X+\lambda _Y\right) & 0 \\ 0 & 0 & \lambda _X & \lambda _Y & 0 & 0 & -\left(\lambda _X+\lambda _Y\right) \\ \end{array} \right). $$ Proces ma unikalną stacjonarną dystrybucję $\pi$ który spełnia $$ \pi_{(i,j)} = \lim_{t\to\infty} \mathbb P(Z_t = (i,j)) $$ (niezależnie od dystrybucji $Z_0$). Możemy znaleźć$\pi$ przez obliczenie wykładniczej macierzy $e^{Qt}$ (co jest unikalnym rozwiązaniem równania wstecznego Kołmogorowa $P'(t)=QP(t)$, $P'(0)=Q$) i biorąc dowolny z rzędów $\lim_{t\to\infty} e^{Qt}$. Bardziej praktycznie,$\pi$ spełnia układ równań liniowych $\pi Q=0$. Zwróć na to uwagę$Q$ jest liczba pojedyncza (tj $\det Q=0$), ponieważ wszystkie jego wiersze sumują się do zera, więc musimy zastąpić jedno z równań przez $\sum_{(i,j)\in S} \pi_{(i,j)}=1$. Jednak ze względu na rozmiar tej macierzy i liczbę parametrów rozwiązanie w postaci zamkniętej jest nieco nieporęczne. Na przykład to znalazłem $$ \pi_{(1,1)} = \tiny\frac{2 \lambda _X \lambda _Y \left(2 \mu _B+\lambda _X+\lambda _Y\right) \left(\mu _A+\mu _B+\lambda _X+\lambda _Y\right)}{\lambda _X^2 \left(\mu _B \left(3 \mu _A+10 \lambda _Y\right)+\left(\mu _A+2 \lambda _Y\right){}^2+6 \mu _B^2\right)+\lambda _X \left(\mu _B \left(7 \mu _A \mu _B+4 \mu _A^2+5 \mu _B^2\right)+\lambda _Y^2 \left(6 \mu _A+8 \mu _B\right)+\lambda _Y \left(\mu _A+3 \mu _B\right) \left(3 \mu _A+4 \mu _B\right)+2 \lambda _Y^3\right)+\left(\mu _B \left(3 \mu _A+4 \lambda _Y\right)+2 \lambda _Y \left(\mu _A+\lambda _Y\right)+\mu _B^2\right) \left(\mu _B \left(\mu _A+\mu _B\right)+\mu _A \lambda _Y\right)+2 \lambda _X^3 \left(\mu _B+\lambda _Y\right)} $$ (mianownik jest podzielony na dwie linie, aby zapobiec rozciągnięciu strony).