Da un'introduzione alla modellazione stocastica di Pinsky e Karlin (2011):
π = ( 1
P=∥∥∥0110∥∥∥
ma è un distribuzione stazionaria, poiché
(p. 205).(1π=(12,12)( 12, 12) ∥∥∥0110∥∥∥= ( 12, 12)
In una sezione precedente, avevano già definito una " distribuzione di probabilità limitante " diπ
limn → ∞P( n )io j= πj for j=0,1,…,N
e equivalentemente
limn→∞Pr{Xn=j|X0=i}=πj>0 for j=0,1,…,N
(p. 165).
L'esempio sopra oscilla in modo deterministico e quindi non ha un limite allo stesso modo in cui la sequenza non ha un limite.{1,0,1,0,1,…}
Dichiarano che una normale catena di Markov (in cui tutte le probabilità di transizione n-step sono positive) ha sempre una distribuzione limitante e dimostrano che deve essere l'unica soluzione non negativa a
πj=∑k=0NπkPkj, j=0,1,…,N,∑k=0Nπk=1
(p. 168 )
Quindi sulla stessa pagina dell'esempio, scrivono
Qualsiasi insieme soddisfacente (4.27) è chiamato distribuzione di probabilità stazionaria della catena di Markov. Il termine "stazionario" deriva dalla proprietà che una catena di Markov avviata secondo una distribuzione stazionaria seguirà questa distribuzione in ogni momento. Formalmente, se Pr { X 0 = i } = π i , allora Pr { X n = i } = π i per tutto n = 1 , 2 ,(πi)∞i=0Pr{X0=i}=πiPr{Xn=i}=πi .n=1,2,…
dove (4.27) è l'insieme di equazioni
πio≥ 0 , ∑i = 0∞πio= 1 , a n d π j= ∑i = 0∞πioPio j.
che è esattamente la stessa condizione di stazionarietà di cui sopra, tranne ora con un numero infinito di stati.
Con questa definizione di stazionarietà, l'affermazione a pagina 168 può essere riformulata retroattivamente come:
- La distribuzione limitante di una normale catena di Markov è una distribuzione stazionaria.
- Se la distribuzione limitante di una catena di Markov è una distribuzione stazionaria, la distribuzione stazionaria è unica.