L'utilità delle entropie di Renyi?


14

Molti di noi hanno familiarità con - o almeno hanno sentito parlare - dell'entropia di Shannon di una variabile casuale, H(X)=E[logp(X)] e di tutte le relative misure teoriche dell'informazione come l'entropia relativa, informazioni reciproche e così via. Ci sono alcune altre misure di entropia che sono comunemente usate nell'informatica teorica e nella teoria dell'informazione, come l'entropia minima di una variabile casuale.

Ho iniziato a vedere queste cosiddette entropie di Renyi più spesso mentre sfoglio la letteratura. Generalizzano l'entropia di Shannon e l'entropia minima, e in effetti forniscono un intero spettro di misure entropiche di una variabile casuale. Lavoro principalmente nell'area delle informazioni quantistiche, dove la versione quantistica dell'entropia di Renyi è anche considerata abbastanza spesso.

Quello che non capisco davvero è perché sono utili. Ho sentito che spesso è più facile lavorare analiticamente piuttosto che dire entropia o entropia minima di Shannon / von Neumann. Ma possono anche essere ricondotti all'entropia / entropia minima di Shannon.

Qualcuno può fornire esempi (classici o quantistici) di quando usare le entropie di Renyi è "la cosa giusta da fare"? Quello che sto cercando è qualche "gancio mentale" o "modello" per sapere quando potrei voler usare le entropie di Renyi.

Grazie!


Addendum alla mia risposta: sembra che esista una definizione probabilistica di entropia q-Renyi ( ) i, e H q ( { p i } n i = 1 ) = 1qZ+. Quindilimq1Hq=-pkln(pk)e questo RHS è chiamato `` Shannon Entropy ". Uno definisce anche l'altro limite, cioèH(X)=ln[1Hq({pi}i=1n)=11qln[k=1npkq]limq1Hq=pkln(pk). Queste idee sembrano aver trovato impiego nella costruzione di expander come visto qui, math.rutgers.edu/~sk1233/courses/topics-S13, math.ias.edu/~avi/PUBLICATIONS/MYPAPERS/CRVW01/crvw01.pdf, arxiv. org / pdf / math / 0406038.pdfH(X)=ln[1maxaPr[X=a]]
Anirbit

Risposte:


15

Prendere in considerazione cercando di fare congetture atomiche per una variabile casuale sconosciuta distribuita su alcuni insieme finito A . Nell'entropia di Shannon, si presume che sia possibile eseguire una query bit per bit, ovvero se A = { 1 , , N } è possibile chiedere:XA.A={1,,N}

è { 1 , ... , N / 2 } ? X{1,,N/2}(assumere pari o utilizzare le funzioni pavimento / soffitto)N

In criptovalute e in alcuni scenari di decodifica questo non è realistico. Nel tentativo di indovinare una password sconosciuta, è necessario eseguire query atomiche, ovvero eseguire una query se è un valore specifico.X

Si scopre che il numero previsto di query per indovinare una variabile casuale dipende strettamente dall'entropia di Renyi dell'ordine 1 / 2. Quindi, fare alcuni momenti più elevati. Per esempioX1/2.

E[G](xAPX(x)1/2)22

e il numeratore è essenzialmente il logaritmo di Renyi entropia di ordine 1/2. Si può anche rendere l'entropia di Shannon molto grande mentre l'entropia di Renyi e l'aspettativa del numero di ipotesi è molto piccola. Se ti affidassi all'entropia di Shannon per motivi di sicurezza, in quel caso ti metteresti nei guai.

Si prega di consultare anche la domanda correlata Indovinare un valore di entropia basso in più tentativi

Alcuni riferimenti:

  1. JO Pliam, Sull'incomparabilità dell'entropia e delle congetture marginali negli attacchi di forza bruta. INDOCRYPT 2000: 67-79
  2. E. Arikan, Una disuguaglianza nell'ipotesi e nella sua applicazione alla decodifica sequenziale. Transazioni IEEE sulla teoria dell'informazione 42 (1): 99-105,1996.
  3. S. Boztas, Sulle entropie di Renyi e le loro applicazioni per indovinare gli attacchi in crittografia, Transazioni IEICE su Fondamenti di elettronica, comunicazione e scienze dei computer 97 (12): 2542-2548, 2014.

Non riesco ad accedere a questo documento di S.Boztas. Hai un link accessibile pubblicamente?
Anirbit il

@Anirbit vedi il repository di ricerca RMIT, researchbank.rmit.edu.au
kodlu,

Ho cercato attraverso quel link. Mi ha portato solo in cerchio. Non ho mai trovato un file pdf accessibile al pubblico!
Anirbit,

@Anirbit, mi dispiace, ho pensato che fosse davvero depositato lì!
Kodlu,

18

L'entropia di Renyi è analoga, in un certo senso, a p -norms, quindi ricordiamo innanzitutto perché queste norme sono utili.

Supponiamo di avere un vettore di numeri . Vogliamo avere un solo numero che rappresenti, in un certo senso, come fa l'elemento tipico di aaRna aspetto .

Un modo per farlo è quello di prendere la media dei numeri in , che corrisponde approssimativamente alla norma 1 : E 1 i n [ | a i | ] . Questo è spesso utile, ma per alcune applicazioni presenta i seguenti problemi: in primo luogo, la norma 1 non ci dà un buon limite superiore sull'elemento più grande di a , perché se c'è un singolo elemento grande e molti zero, il 1 norma sarà significativamente più piccola dell'elemento più grande. D'altra parte, il 1a1E1in[|ai|]1a11inoltre la norma non ci dà un buon limite su quanto piccoli siano gli elementi di , ad esempio quanti zeri aaa ha - questo problema si verifica esattamente lo stesso scenario di prima.

Naturalmente, quando gli elementi di hanno una grande varianza, come nello scenario estremo come sopra, nessun singolo numero può dare la soluzione di entrambi i problemi sopra. Abbiamo un compromesso. Ad esempio, se vogliamo solo conoscere l'elemento più grande, possiamo usare la norma , ma perderemo tutte le informazioni sugli elementi più piccoli. Se vogliamo il numero di zero, possiamo guardare la norma 0 , che è solo la dimensione del supporto di una0a .

Ora, la ragione per considerare le norme è che ci danno l'intero compromesso continuo tra i due estremi. Se vogliamo maggiori informazioni sugli elementi di grandi dimensioni prendiamo ppp come più grande e viceversa.

Lo stesso vale per le entropie di Renyi: l'entropia di Shanon è come 1 norma - ci dice qualcosa circa la probabilità "tipico" di un elemento, ma nulla circa la varianza o gli estremi. L'entropia minima ci fornisce informazioni sull'elemento con la maggiore probabilità, ma perde tutte le informazioni sul resto. La dimensione del supporto dà l'altro estremo. Le entropie di Renyi ci danno un continuo compromesso tra i due estremi.

Ad esempio, molte volte l'entropia Renyi-2 è utile perché è da un lato vicina all'entropia di Shanon e quindi contiene informazioni su tutti gli elementi sulla distribuzione, e dall'altro fornisce maggiori informazioni sugli elementi con il più grande probabilità. In particolare, è noto che i limiti dell'entropia Renyi-2 danno limiti all'entropia min, vedi, ad esempio, l'Appendice A qui: http://people.seas.harvard.edu/~salil/research/conductors-prelim .ps


11

L'entropia di Renyi (di ordine 2) è utile nella crittografia per analizzare la probabilità di collisioni.

Ricordiamo che l'entropia di Renyi dell'ordine 2 di una variabile casuale è data daX

H2(X)=log2xPr[X=x]2.

Si scopre che ci permette di misurare la probabilità che due valori disegnati iid secondo la distribuzione di X siano gli stessi ("scontrarsi"): questa probabilità è esattamente 2 - H 2 ( X ) . Dopo aver attinto n volte da questa distribuzione, il numero previsto di collisioni tra questi n pareggi è C ( n , 2 ) 2 - H 2 ( X ) .H2(X)X2H2(X)nnC(n,2)2H2(X)

Questi fatti sono utili nella crittografia, dove a volte le collisioni possono essere problematiche e consentire attacchi.

Per alcune analisi di altri usi nella crittografia, raccomando la seguente tesi di dottorato:

Christian Cachin. Misure di entropia e sicurezza incondizionata nella crittografia . Tesi di dottorato, ETH Zurigo, maggio 1997.


Esiste una definizione probabilistica così diretta di qualsiasi entropia q-Renyi? (come puoi vedere dalla mia risposta, l'unico modo che conosco per definirlo in q arbitrario è tramite la definizione di funzioni di partizione corrispondenti a un sistema fisico che è stato specificato tramite il suo Lagrangiano o Hamiltoniano o la sua azione)
Anirbit

@Anirbit, non lo so. Nessuno di quelli che ricordo di aver visto (anche se è possibile che l'entropia q-Renyi possa portare a limiti su altri limiti che ci interessano ...)
DW

Inoltre sembra che l '"entropia dell'informazione" sia fondamentalmente l' "entropia termodinamica". Quindi anche nell'entropia (q = 1) -Renyi, ovvero nell'entropia entanglement, esiste un'interruzione concettuale dell'interpretazione della complessità di essa?
Anirbit


@DW Sembra esserci un'interpretazione probabilistica. Vedi il mio commento sulla domanda originale.
Anirbit

3

Quest'altra risposta di stackexchange e questo post sul blog potrebbero essere molto utili per avere un'idea rapida di un esempio di base,

In parole povere, le entropie di Renyi conoscono gli stati eccitati di un sistema quantistico, ma l'entropia di entanglement conosce gli stati fondamentali. ATTENZIONE: questa intuizione potrebbe essere terribilmente grezza ma potrebbe essere solo un buon "gancio mentale": DI sarebbe MOLTO felice di sapere un modo migliore e preciso per dirlo!

S1SqqZ+S1=liomiotq1Sqè terribilmente mal definito. Così spesso l'idea è che si possa calcolareSq ad un valore intero arbitrario e quindi fare una continuazione analitica di quello a qR e quindi provare a definire l'assunzione di q1limite. (anche se sempreqR, questo chiamo continuazione "analitica" perché abbastanza spesso è necessario eseguire l'interpolazione tramite contorni nel piano complesso - e la continuazione può dipendere da quali contorni si scelgono attraverso i poli e i rami Sq quello è iniziato con)

A valori integrali di q>1 in genere esiste sempre una costruzione molto ben definita in termini di integrazione di alcune funzioni su alcune q-collettore ramificato. Dopo aver fatto una tale integrazione, ci si dimentica felicemente del molteplice utilizzato e si tenta semplicemente di fare parametricamente la continuazione analitica nella variabileq.

Ci sono sempre molti problemi sull'esistenza e sulla buona posizione quando si cerca di fare queste continuazioni anayltic - ma per qualcuno come me che è cresciuto con una dieta quotidiana di integrali del percorso di Feynman è un problema molto comune da affrontare e noi avere molti strumenti per affrontarli. Tre buoni documenti per esaminare questi problemi sono, http://arxiv.org/pdf/1306.5242.pdf , http://arxiv.org/pdf/1402.5396.pdf , http://arxiv.org/pdf/1303.7221 .pdf (l'ultimo di questi articoli potrebbe essere un punto di partenza più semplice) Questa presentazione potrebbe anche aiutare, https://www.icts.res.in/media/uploads/Talk/Document/Tadashi_Takayanagi.pdf

Ciò che l'entropia di Renyi dice in termini di teoria della complessità quantistica potrebbe essere una domanda eccitante! Si può pensare all'indice Renyi come a parametrare in qualche modo una gerarchia di classi di complessità? Dovrebbe essere divertente se vero! Fammelo sapere :)


Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.