HMM e CRF per modellare i dati di forza delle serie temporali di robot che interagiscono con l'ambiente?


9

Ho una serie temporale di dati di forza di robot che interagiscono con oggetti di ambiente con varie trame. Vorrei sviluppare modelli di varie trame utilizzando i dati delle serie temporali per classificare le trame in categorie uniformi, ruvide, moderate, ecc. A tale scopo, saranno sufficienti i modelli nascosti di Markov o dovrei usare i campi casuali condizionali? Se decido di classificare in più categorie e la distinzione tra ognuna delle categorie sia molto sottile, in tal caso quale sarebbe una buona scelta? I dati forzati saranno sufficienti per acquisire tutte le informazioni necessarie per classificare le trame in queste categorie?

Grazie per le tue risposte :)

Risposte:


5

In base alla descrizione del problema, funzioneranno sia HMM (modello generativo) che CRF (modello discriminativo). Vedi questa discussione per una spiegazione più approfondita dei due approcci:

Qual è la differenza tra un algoritmo generativo e discriminatorio?

Un suggerimento: prima di scegliere un algoritmo, inizia osservando attentamente i tuoi dati numerici, con grafici MATLAB o simili. Se le informazioni sono multidimensionali (ad es. Valori di forza di più sensori), è possibile che alcune dimensioni (ad es. Letture di sensori) non contengano utili informazioni discriminatorie; in questo caso, comprimere i dati con l'analisi dei componenti principali in modo da avere funzionalità più compatte durante l'allenamento e la classificazione.

Ora, per quanto riguarda la tua domanda:

La differenza è che gli HMM possono rappresentare ciascuna delle tue classi di trama con diverse variabili / stati nascosti, catturando così l'evoluzione temporale interna di ciascun contatto. Possiamo affermare che HMM modella meglio la dinamica "di basso livello" (all'interno della classe) dei tuoi dati. Ad esempio, nel tuo caso gli HMM ti permetteranno di modellare esplicitamente tre diverse fasi di ogni acquisizione di dati: (1) inizio del contatto tra robot e oggetto; (2) parte stabile del contatto; (3) fine del contatto e rilascio. Queste fasi potrebbero avere valori diversi nel tempo, anche per la stessa trama dell'oggetto, e potrebbe avere senso separarli per migliorare i risultati della classificazione.

D'altra parte, i CRF sono più adatti per catturare le relazioni "di alto livello" (interclasse) della distribuzione dei dati, che a volte sono importanti quando la variabilità spazio-temporale è elevata o quando le caratteristiche di osservazione sono molto simili tra due campioni appartenenti a classi diverse.

Personalmente trovo gli HMM più facili da usare e vorrei iniziare con quelli, ma il tuo chilometraggio può variare.

Se decido di classificare in più categorie e la distinzione tra ognuna delle categorie sia molto sottile, in tal caso quale sarebbe una buona scelta?

In tal caso, i CRF possono essere una scelta più solida (vedi sopra).

I dati forzati saranno sufficienti per acquisire tutte le informazioni necessarie per classificare le trame in queste categorie?

L'aggiunta di funzioni visive (aspetto dell'oggetto), specialmente se catturate con telecamere ad alta risoluzione, potrebbe aiutare a determinare se l'oggetto ha una trama ruvida o meno.


Perdonami per aver risposto tardi. I tuoi commenti sono stati molto utili. Ho già implementato HMM e sembrano funzionare bene. Non ho convertito i dati nella sua rappresentazione a bassa dimensione usando PCA, ma ho usato HMM che possono contenere dati / distribuzioni continue per evitare di perdere qualsiasi informazione. Ma dal momento che lo sto usando comunque per la classificazione, penso che l'uso di approcci discriminatori potrebbe dare risultati migliori (ancora da vedere e confermare).
Gilmour,

Sono contento di sapere che gli HMM funzionano bene per modellare i dati del sensore di forza. Sarei interessato a saperne di più.
Giovanni Saponaro,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.