Sto cercando risorse (tutorial, libri di testo, webcast, ecc.) Per conoscere Markov Chain e HMM. Il mio background è di biologo e attualmente sono coinvolto in un progetto relativo alla bioinformatica. Inoltre, quali sono le basi matematiche necessarie di cui ho bisogno per avere una comprensione sufficiente dei modelli e …
Lo so, potrebbe sembrare fuori tema, ma ascoltami. Su Stack Overflow e qui otteniamo voti sui post, tutto viene archiviato in forma tabellare. Per esempio: post ID di votazione ID di votazione datetime ------- -------- --------- -------- 10 1 2 2000-1-1 10:00:01 11 3 3 2000-1-1 10:00:01 10 5 2 …
Mi sto solo bagnando i piedi nelle statistiche, quindi mi dispiace se questa domanda non ha senso. Ho usato i modelli Markov per prevedere stati nascosti (casinò ingiusti, lancio di dadi, ecc.) E reti neurali per studiare i clic degli utenti su un motore di ricerca. Entrambi avevano stati nascosti …
Esiste un modo in R (una funzione integrata) per calcolare la matrice di transizione per una catena di Markov da una serie di osservazioni? Ad esempio, prendere un set di dati come il seguente e calcolare la matrice di transizione del primo ordine? dat<-data.frame(replicate(20,sample(c("A", "B", "C","D"), size = 100, replace=TRUE)))
Qual è la differenza tra una rete bayesiana e un processo Markov? Credevo di aver capito i principi di entrambi, ma ora quando ho bisogno di confrontare i due mi sento perso. Significano quasi lo stesso per me. Sicuramente non lo sono. Sono anche apprezzati i collegamenti ad altre risorse.
Devo generare matrici casuali non quadrate con righe e colonne C , elementi distribuiti casualmente con media = 0 e vincolati in modo tale che la lunghezza (norma L2) di ogni riga sia 1 e la lunghezza di ogni colonna sia √RRRCCC111 . Equivalentemente, la somma dei valori quadrati è …
Vorrei solo che qualcuno confermasse la mia comprensione o se mi mancasse qualcosa. La definizione di un processo markov afferma che il passaggio successivo dipende solo dallo stato corrente e non da quelli passati. Quindi, supponiamo di avere uno spazio di stato di a, b, c, d e andiamo da …
Sulla base della scarsa conoscenza che ho dei metodi MCMC (Markov chain Monte Carlo), capisco che il campionamento è una parte cruciale della tecnica di cui sopra. I metodi di campionamento più comunemente usati sono Hamiltoniano e Metropolis. Esiste un modo per utilizzare l'apprendimento automatico o anche l'apprendimento profondo per …
Ho letto un bel po 'di modelli Markov nascosti e sono stato in grado di codificarne una versione piuttosto semplice. Ma ci sono due modi principali che mi sembra di imparare. Uno è di leggerlo e implementarlo nel codice (che è fatto) e il secondo è capire come si applica …
Dopo aver eseguito l'analisi dei componenti principali (PCA), voglio proiettare un nuovo vettore nello spazio PCA (ovvero trovare le sue coordinate nel sistema di coordinate PCA). Ho calcolato PCA in linguaggio R utilizzando prcomp. Ora dovrei essere in grado di moltiplicare il mio vettore per la matrice di rotazione PCA. …
Sto facendo una domanda sulle catene di Markov e le ultime due parti dicono questo: Questa catena di Markov possiede una distribuzione limitante? Se la tua risposta è "sì", trova la distribuzione limitante. Se la tua risposta è "no", spiega perché. Questa catena di Markov possiede una distribuzione stazionaria? Se …
Ho visto molti video tutorial e sono uguali. Questo ad esempio: https://www.youtube.com/watch?v=ip4iSMRW5X4 Spiegano stati, azioni e probabilità che vanno bene. La persona lo spiega bene, ma non riesco proprio a capire cosa potrebbe essere utilizzato nella vita reale. Non ho ancora trovato alcun elenco. Quello più comune che vedo sono …
Sospetto che una serie di sequenze osservate siano una catena di Markov ... X=⎛⎝⎜⎜⎜⎜AB⋮BCA⋮CDA⋮ADC⋮DBA⋮AAD⋮BCA⋮E⎞⎠⎟⎟⎟⎟X=(ACDDBACBAACADA⋮⋮⋮⋮⋮⋮⋮BCADABE)X=\left(\begin{array}{c c c c c c c} A& C& D&D & B & A &C\\ B& A& A&C & A&D &A\\ \vdots&\vdots&\vdots&\vdots&\vdots&\vdots&\vdots\\ B& C& A&D & A & B & E\\ \end{array}\right) Tuttavia, come posso verificare che …
La mia comprensione dell'algoritmo è la seguente: Nessun campionatore di inversione a U (NUTS) è un metodo Monte Carlo Hamiltoniano. Ciò significa che non è un metodo a catena di Markov e, quindi, questo algoritmo evita la parte di camminata casuale, che è spesso considerata inefficiente e lenta a convergere. …
Qualcuno può spiegarmi in modo intuitivo qual è la periodicità di una catena di Markov? È definito come segue: Per tutti gli stati iii in SSS didid_i = gcd{n∈N|p(n)ii>0}=1{n∈N|pii(n)>0}=1\{n \in \mathbb{N} | p_{ii}^{(n)} > 0\} =1 Grazie per l'impegno!
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.