L'account standard di notizie popolari dell'informatica quantistica è che un computer quantistico (QC) funzionerebbe suddividendo in esponenzialmente molte copie parallele non interagenti di se stesso in universi diversi e facendo tentare a ciascuno di verificare un certificato diverso, quindi alla fine del calcolo , la singola copia che ha trovato un certificato valido "annuncia" la sua soluzione e le altre filiali svaniscono magicamente.
Le persone che sanno qualcosa sul calcolo quantistico teorico sanno che questa storia è un'assurdità assoluta e che l'idea approssimativa sopra descritta corrisponde più da vicino a una macchina di Turing non deterministica (NTM) che a un computer quantistico. Inoltre, la classe di complessità dei problemi risolvibile in modo efficiente dagli NTM è NP e dai QC è BQP , e queste classi non sono ritenute uguali.
Le persone che cercano di correggere la presentazione popolare sottolineano giustamente che la narrativa semplicistica dei "molti mondi" sopravvaluta notevolmente il potere dei controlli di qualità, che non si ritiene siano in grado di risolvere (diciamo) problemi NP completi. Si concentrano sulla falsa rappresentazione del processo di misurazione: nella meccanica quantistica, quale risultato misuri è determinato dalla regola di Born, e nella maggior parte dei casi la probabilità di misurare una risposta errata inonda completamente la probabilità di misurare quella giusta. (E in alcuni casi, come la ricerca in black box, possiamo dimostrare che nessun circuito quantico intelligente può battere la regola di Born e fornire un aumento esponenziale.) Se potessimomagicamente "decidere cosa misurare", allora saremmo in grado di risolvere efficacemente tutti i problemi nella classe di complessità PostBQP , che si ritiene sia molto più grande di BQP .
Ma non ho mai visto nessuno sottolineare esplicitamente che c'è un altro modo in cui la caratterizzazione popolare è sbagliata, che va nella direzione opposta. Si ritiene che BQP non sia un sottoinsieme rigoroso di NP , ma invece incomparabile ad esso. Esistono problemi come il controllo di Fourier che si ritiene non solo al di fuori di NP , ma in realtà al di fuori dell'intera gerarchia polinomiale PH . Quindi, rispetto a problemi come questi, la narrativa popolare in realtà è sotto gli Stati piuttosto che sopravvaluta il potere dei controlli di qualità.
La mia ingenua intuizione è che se potessimo "scegliere cosa misurare", la narrativa popolare sarebbe più o meno corretta, il che implicherebbe che questi computer super-quantici sarebbero in grado di risolvere esattamente la classe NP . Ma crediamo che sia sbagliato; infatti PostBQP = PP , che riteniamo essere un superset rigoroso di NP .
C'è qualche intuizione per ciò che sta accadendo dietro le quinte che consente a un computer quantistico di essere (per alcuni aspetti) più potente di una macchina di Turing non deterministica? Presumibilmente questo potere "intrinsecamente quantico", quando combinato con la post-selezione (che in un certo senso ha già NTM) è ciò che rende un super-QC molto più potente di un NTM. (Nota che sto cercando qualche intuizione che contrapponga direttamente NTM e QC con postselection, senza "passare attraverso" la classica classe di complessità PP .)