Qual è la differenza tra catene di Markov e processi di Markov?
Sto leggendo informazioni contrastanti: a volte la definizione si basa sul fatto che lo spazio degli stati sia discreto o continuo, a volte si basa sul fatto che il tempo sia discreto o continuo.
Diapositiva 20 di questo documento :
Un processo di Markov è chiamato catena di Markov se lo spazio degli stati è discreto, ovvero lo spazio finito o numerabile è discreto, ovvero è finito o numerabile.
http://www.win.tue.nl/~iadan/que/h3.pdf :
Un processo Markov è la versione a tempo continuo di una catena Markov.
Oppure si può usare la catena di Markov e il processo di Markov in modo sinonimo, determinando se il parametro time è continuo o discreto e se lo spazio degli stati è continuo o discreto.
Aggiornamento 2017-03-04: la stessa domanda è stata posta su https://www.quora.com/Can-I-use-the-words-Markov-process-and-Markov-chain-interchangeably