Attualmente sto leggendo alcuni articoli sul lump della catena di Markov e non riesco a vedere la differenza tra una catena di Markov e un grafico ponderato diretto.
Ad esempio nell'articolo Raggruppamento ottimale dello spazio di stato nelle catene di Markov forniscono la seguente definizione di un marchio comunitario (catena di Markov a tempo continuo):
Consideriamo un CTMC finito con spazio di stato S = { x 1 , x 2 , … , x n } da una matrice di velocità di transizione Q : S × S → R + .
Non menzionano affatto la proprietà Markov e, in effetti, se il peso sui bordi rappresenta una probabilità credo che la proprietà Markov detenga banalmente poiché la probabilità dipende solo dallo stato corrente della catena e non dal percorso che conduce ad esso.
In un altro articolo sulle proprietà relazionali della grumosità, le catene di Markov sono definite in modo simile:
Una catena Markov sarà rappresentata come una tripletta ( S , P , π ) dove S è l'insieme finito di stati di M , P la matrice di probabilità di transizione che indica la probabilità di passare da uno stato a un altro, e π è la probabilità iniziale distribuzione che rappresenta la probabilità che il sistema si avvii in un determinato stato.
Ancora una volta, nessuna menzione di passato o futuro o indipendenza.
C'è un terzo articolo Simple O (m logn) Time Markov Chain Lumping in cui non solo non affermano mai che i pesi sui bordi sono probabilità, ma dicono anche:
Quindi, ci sono due possibilità che vedo:
- Non ho capito cosa sia una catena Markov, o
- L'uso del termine catena di Markov in quei documenti è falso
Qualcuno potrebbe chiarire la situazione?
Sembra davvero che ci siano diverse comunità che usano quel termine e significano cose molto diverse. Da questi 3 articoli che sto prendendo in considerazione sembra che la proprietà Markov sia o banale o inutile, mentre guardando un diverso tipo di documenti sembra fondamentale.