Mi sono imbattuto in un ampio corpus di pubblicazioni che sostengono l'uso della metrica Information di Fisher come metrica locale naturale nello spazio delle distribuzioni di probabilità e quindi l'integrazione su di essa per definire distanze e volumi.
Ma queste quantità "integrate" sono effettivamente utili per qualcosa? Non ho trovato giustificazioni teoriche e pochissime applicazioni pratiche. Uno è il lavoro di Guy Lebanon in cui usa "La distanza di Fisher" per classificare i documenti e un altro è l' ABC di selezione dei modelli di Rodriguez ... dove "volume di Fisher" è usato per la selezione dei modelli. Apparentemente, l'uso del "volume di informazioni" offre un miglioramento degli "ordini di grandezza" rispetto ad AIC e BIC per la selezione dei modelli, ma non ho visto alcun seguito su quel lavoro.
Una giustificazione teorica potrebbe essere quella di avere un limite di generalizzazione che utilizza questa misura di distanza o volume ed è migliore dei limiti derivati da MDL o argomenti asintotici, o un metodo basato su una di queste quantità che è decisamente migliore in qualche situazione ragionevolmente pratica, ci sono qualche risultato di questo tipo?