Generare casualità "infinita" da un numero costante di fonti


11

Di recente mi sono imbattuto in un articolo di Coudron e Yuen sull'espansione della casualità usando dispositivi quantistici. Il risultato principale del lavoro è che è possibile generare casualità "infinita" da un numero costante di sorgenti (ovvero, il numero di bit casuali generati dipende solo dal numero di round del protocollo e non dal numero di sorgenti ).

Ingenuamente, mi sembra che il risultato consenta la derandomizzazione di qualsiasi algoritmo randomizzato con sorgenti quantistiche e implicherebbe un qualche tipo di contenimento di classi di complessità randomizzate all'interno di una corrispondente classe quantica.

Ma non capisco davvero la teoria dell'informazione quantistica e sono sicuro che mi mancano molte sottigliezze. Per non parlare del fatto che se tali affermazioni fossero state possibili, gli autori l'avrebbero fatto. Quindi la mia domanda è:

L'esistenza di "espansione della casualità infinita" come descritta nel documento (e tutto il lavoro correlato) implica una sorta di affermazioni di derandomizzazione per le classi di complessità randomizzate? E se no, perché no?

Aggiornamento: mi è stato fatto riferimento a questa eccellente panoramica di alto livello dell'area e del documento di cui sopra Scott Scott. Purtroppo sono ancora confuso :).


2
Non affrontando direttamente la domanda, ma ecco un'altra descrizione di alto livello e una discussione sull'area e sui risultati di uno dei due autori, sul blog della teoria del MIT .
Clemente C.

Penso che l'espansione della casualità quantistica affronti una domanda ortogonale alla derandomizzazione. In particolare, si presuppone che si disponga già di dispositivi in ​​grado di produrre bit casuali. La domanda che viene posta è la verifica della casualità di tali dispositivi, che a sua volta richiede l'uso di test randomizzati. L'espansione si riferisce a quanta casualità è necessaria per il test rispetto a quanta nuova casualità viene prodotta dai dispositivi durante il test.
Thomas,

Risposte:


15

Questa è un'ottima domanda, Suresh!

Il nostro risultato di espansione della casualità non implica alcun risultato teorico di complessità. Ecco un modo per capire il risultato: crediamo che la meccanica quantistica governa il mondo e, sotto questo presupposto, ci sono dispositivi quantistici che generano casualità vera, vera, teorica dell'informazione.

Tuttavia, immagina di essere diffidente nei confronti di queste scatole che affermano di fare questa roba quantistica traballante e generare casualità (per alcuni, questo potrebbe non richiedere troppo immaginazione). Non vuoi fare i conti con i qubit. Tutto quello che capisci sono stringhe di bit classiche.

L'espansione della casualità è un protocollo in cui tu, come verificatore classico, puoi interagire con un mucchio di scatole nere (pensale come tester non comunicanti ) e dopo aver eseguito un protocollo con queste scatole nere, hai certificato che i loro output contengono entropia molto alta - se i provers passano. Inoltre, la quantità di casualità che hai iniziato è molto inferiore all'entropia di output certificata.

In altre parole, è una prova interattiva per la generazione di casualità.

Quindi, l'unico aspetto della "derandomizzazione" è quello di sostenere che il protocollo stesso richiede una casualità di avvio ridotta. Ma il risultato è molto non randomizzato: l'output prodotto dalle caselle è la vera casualità, non la pseudo casualità (cioè nessuna ipotesi computazionale).


1
Vedo. Quindi, mentre in un argomento "normale" di derandomizzazione (diciamo tramite un expander) è il "progettista dell'algoritmo" che costruisce una prova di correttezza. Qui è una prova interattiva reale che stabilisce una prova di casualità, che è diversa.
Suresh Venkat,

Esatto!
Henry Yuen,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.