Come vedi che una catena di Markov è irriducibile?


12

Ho qualche problema a capire la proprietà irriducibile della catena Markov .

Si dice che irriducibile significhi che il processo stocastico può "passare da qualsiasi stato a qualsiasi stato".

Ma cosa definisce se può passare dallo stato allo stato j , oppure non può andare?ij


La pagina di Wikipedia fornisce la formalizzazione:

Lo stato è accessibile (scritto i j ) dallo stato i , se esiste un numero intero n i j > 0 st P ( X n i j = j | X 0 = i ) = p ( n i j ) i j > 0jijinij>0

P(Xnij=j | X0=i)=pij(nij)>0

allora la comunicazione è se e j i .ijji

Da queste irriducibilità segue in qualche modo.


Qual è l'intuizione di "accessibilità"? Non capisco perché avere una probabilità condizionata renda qualcosa "accessibile"?
mavavilj,

Puoi guardare dal punto di inaccessibilità . Si dice che lo stato è inaccessibile da i se non vi è alcuna possibilità di arrivarci da i , cioè per un numero qualsiasi di passi n la probabilità di questo evento rimane 0 . Per rendere la definizione di accessibilità si dovrebbero cambiare i quantori, cioè da a e = 0 a 0 (che è lo stesso di > 0 , poiché la probabilità è positiva). jiin0=00>0
nmerci,

Risposte:


12

Ecco tre esempi di matrici di transizione, i primi due per il caso riducibile, l'ultimo per quello irriducibile.

P1=(0.50.5000.90.100000.20.8000.70.3)P2=(0.10.10.40.40.50.10.10.30.20.40.20.20001)
P1

P2

P3=(0.50.500000.900000.10000.800.20.700.100.200000.10.900.90000.10)
Per questo esempio, puoi iniziare in qualsiasi stato e puoi comunque raggiungere qualsiasi altro stato, anche se non necessariamente in un solo passaggio.

5

jiijn0

pijn=P(Xn=jX0=i)>0
ijnpijn

ijjiijij


npijn

P=(pij)pijnijPnn

2

ijijji

ijjim>0pij(m)>0

jin>0pji(n)>0

ijjiijijm>0,n>0pij(m)>0pji(n)>0

Se tutti gli stati della catena di Markov appartengono a una classe di comunicazione chiusa , la catena viene chiamata catena di Markov irriducibile . L'irriducibilità è una proprietà della catena.

In una catena irriducibile di Markov, il processo può andare da qualsiasi stato a qualsiasi stato , qualunque sia il numero di passaggi richiesti.


1

Alcune delle risposte esistenti mi sembrano errate.

Come citato in Processi stocastici da J. Medhi (pagina 79, edizione 4), una catena di Markov è irriducibile se non contiene un sottoinsieme proprio "chiuso" diverso dallo spazio degli stati.

Quindi, se nella tua matrice di probabilità di transizione, c'è un sottoinsieme di stati tali che non puoi "raggiungere" (o accedere) a nessun altro stato a parte questi stati, allora la catena di Markov è riducibile. Altrimenti la catena Markov è irriducibile.


-1

Prima una parola di avvertimento: non guardare mai una matrice a meno che tu non abbia una ragione seria per farlo: l'unica a cui riesco a pensare è la ricerca di cifre digitate per errore o la lettura di un libro di testo.

Pexp(P)PPnn

Irriducibilità significa: puoi passare da qualsiasi stato a qualsiasi altro stato in un numero finito di passaggi.

P3


1
ij

1
Devi davvero chiedere al tuo insegnante. Non ti mangerà, lo sai.
Tito

ePij

Mi riferisco alla matrice esponenziale
titus
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.