Vorrei solo che qualcuno confermasse la mia comprensione o se mi mancasse qualcosa.
La definizione di un processo markov afferma che il passaggio successivo dipende solo dallo stato corrente e non da quelli passati. Quindi, supponiamo di avere uno spazio di stato di a, b, c, d e andiamo da a-> b-> c-> d. Ciò significa che il passaggio a d potrebbe dipendere solo dal fatto che eravamo in c.
Tuttavia, è vero che potresti semplicemente rendere il modello più complesso e in qualche modo "aggirare" questa limitazione? In altre parole, se il tuo spazio di stato fosse ora aa, ab, ac, ad, ba, bb, bc, bd, ca, cb, cc, cd, da, db, dc, dd, significa che il tuo nuovo spazio di stato diventa stato precedente combinato con lo stato corrente, quindi la transizione precedente sarebbe * a-> ab-> bc-> cd e quindi la transizione a cd (equivalente nel modello precedente a d) è ora "dipendente" da uno stato che, se modellato diversamente, è uno stato precedente (mi riferisco ad esso come uno stato secondario di seguito).
Sono corretto in quanto si può fare in modo che "dipenda da stati precedenti (sottostato)" (so tecnicamente che non è nel nuovo modello poiché lo stato secondario non è più uno stato reale) mantenere la proprietà markov espandendo lo spazio degli stati come ho fatto io? Quindi, si potrebbe in effetti creare un processo markov che potrebbe dipendere da un numero qualsiasi di stati secondari precedenti.