Molti di noi hanno familiarità con - o almeno hanno sentito parlare - dell'entropia di Shannon di una variabile casuale, e di tutte le relative misure teoriche dell'informazione come l'entropia relativa, informazioni reciproche e così via. Ci sono alcune altre misure di entropia che sono comunemente usate nell'informatica teorica e nella teoria dell'informazione, come l'entropia minima di una variabile casuale.
Ho iniziato a vedere queste cosiddette entropie di Renyi più spesso mentre sfoglio la letteratura. Generalizzano l'entropia di Shannon e l'entropia minima, e in effetti forniscono un intero spettro di misure entropiche di una variabile casuale. Lavoro principalmente nell'area delle informazioni quantistiche, dove la versione quantistica dell'entropia di Renyi è anche considerata abbastanza spesso.
Quello che non capisco davvero è perché sono utili. Ho sentito che spesso è più facile lavorare analiticamente piuttosto che dire entropia o entropia minima di Shannon / von Neumann. Ma possono anche essere ricondotti all'entropia / entropia minima di Shannon.
Qualcuno può fornire esempi (classici o quantistici) di quando usare le entropie di Renyi è "la cosa giusta da fare"? Quello che sto cercando è qualche "gancio mentale" o "modello" per sapere quando potrei voler usare le entropie di Renyi.
Grazie!