Ho visto un paio di discorsi di non statistici in cui sembrano reinventare le misure di correlazione usando le informazioni reciproche anziché la regressione (o test statistici equivalenti / strettamente correlati).
Presumo che ci sia una buona ragione per cui gli statistici non adottano questo approccio. La comprensione del mio profano è che gli stimatori di entropia / informazione reciproca tendono ad essere problematici e instabili. Presumo che il potere sia anche problematico di conseguenza: cercano di aggirare questo affermando che non stanno usando un framework di test parametrico. Di solito questo tipo di lavoro non si preoccupa dei calcoli di potenza, né degli intervalli di confidenza / credibilità.
Ma per assumere la posizione di avvocato del diavolo, la lenta convergenza è un grosso problema quando i set di dati sono estremamente grandi? Inoltre, a volte questi metodi sembrano "funzionare" nel senso che le associazioni sono validate da studi di follow-up. Qual è la migliore critica contro l'uso di informazioni reciproche come misura di associazione e perché non viene ampiamente utilizzato nella pratica statistica?
modifica: Inoltre, ci sono buoni documenti che trattano questi problemi?