Esistono stime su come la complessità dell'ingegneria quantistica si dimensiona con le dimensioni?


12

Mi sembra che una domanda estremamente rilevante per le prospettive del calcolo quantistico sarebbe come la complessità ingegneristica dei sistemi quantistici si ridimensiona con le dimensioni. Significato, è più facile costruire 1 computer -qubit di un n di computer -qubit. Nella mia mente, questo è più o meno analogo al fatto che è più facile da risolvere analiticamente n 1 problemi -Body di un modo n -corpo problema, dal momento che l'entanglement è il principale fattore motivante dietro Quantum Computing, in primo luogo.n 1nn 1n

La mia domanda è la seguente: sembra che dovremmo davvero preoccuparci di come la "difficoltà" di costruire e controllare un sistema quantico body cresce con n . Correggere un'architettura gate o persino un algoritmo - in linea di principio esiste una difficoltà derivante dal fatto che un computer a n- qubit è un problema quantico a molti corpi? E che matematicamente parlando, la nostra comprensione di come i fenomeni quantistici si espandano nei fenomeni classici è piuttosto scarsa? Qui la difficoltà potrebbe essere definita in qualsiasi numero di modi e la domanda a cui dovremmo preoccuparci, più o meno, è controllare una macchina da 1000 qubit (cioè preservare la coerenza delle sue funzioni d'onda) "semplicemente" 100 volte più difficile del controllo di unnnn1000100Macchina a 10 qubit, o 100 2 o 100 ! o 100 100 ? Abbiamo qualche motivo per credere che sia più o meno il primo, e non il secondo?101002100!100100


Ah, non so che cosa avrei dovuto portare a ...
Keith Rush,

Ciao @KeithRush, non manca anche qualcosa nella prima frase? Ottima domanda a proposito.
MEE - Ripristina Monica

Assolutamente non duplicato, ma ritengo che le risposte alle due domande siano profondamente connesse: quantumcomputing.stackexchange.com/questions/1803/…
agaitaarino,

Risposte:


8

Questa è una domanda a cui sto pensando da più di 10 anni. Nel 2008 ero uno studente e ho detto al mio professore di informatica quantistica che volevo studiare la "complessità fisica" nell'esecuzione di algoritmi quantistici per i quali la "complessità computazionale" era nota per beneficiare del calcolo quantistico.

Ad esempio, la ricerca di Grover richiede porte quantistiche rispetto aO(n)porte classiche, ma cosa succede se il costo del controllo delle porte quantiche si ridimensiona comen4mentre per le porte classiche è solon?O(n)O(n)n4n

Rispose immediatamente:

"Sicuramente la tua idea di complessità fisica dipenderà dall'implementazione"

nn

Questi sono i passaggi che dovresti prendere:



FnFn

E

Ora puoi capire perché sei dovuto venire qui per porre la domanda e la risposta non era in nessun libro di testo:

Il passaggio 1 dipende dal tipo di implementazione (NMR, Photonics, SQUIDS, ecc.) Il
passaggio 2 è molto difficile. Le dinamiche senza decoherence sono state simulate senza approssimazioni fisiche per 64 qubit , ma le dinamiche non markoviane e non perturbative con decoerenza sono attualmente limitate a 16 qubit .
Il passaggio 4 dipende dall'algoritmo. Quindi non esiste un "ridimensionamento universale" della complessità fisica, anche se si lavora con un tipo particolare di implementazione (come NMR, Fotonica, SQUID, ecc.) Il
passaggio 5 dipende dalla scelta del codice di correzione degli errori

Quindi, per rispondere alle tue due domande in particolare:

100101002100!100100

Dipende dalla tua scelta nel passaggio 1 e nessuno è stato in grado di passare completamente dal passaggio 1 al passaggio 3 per ottenere una formula precisa per la complessità fisica rispetto al numero di qubit, anche per un algoritmo specifico. Quindi questa è ancora una domanda aperta, limitata dalla difficoltà di simulare le dinamiche del sistema quantistico aperto.

Abbiamo qualche motivo per credere che sia più o meno il primo, e non il secondo?

n!n100n


1
nρ(C2)nnρn

1
Cosa intendi con "dinamica infinitesimale"? Il campo vettoriale è determinato dalla dinamica valutata in quale punto? Calcola la norma di cosa (utilizzando il campo tensore metrico di Fisher)? Intendi calcolare la norma del campo vettoriale? Sembra possibilmente essere una buona idea, ma se è quello che penso tu voglia dire, che è guardare la decoerenza per il tempo infinitesimale at = 0, non so quanto sia prezioso come metrica, perché ci vuole tempo per la decoerenza di raggiungere la sua piena forza, perché la forza di decoerenza è caratterizzata dalla funzione di risposta del bagno, che è parte integrante della t.
user1271772

1
(Mn,g)nMnρTρMnr(ρ). Se vuoi il supremum su tutti i possibili stati fai l'ascesa a gradiente. Ciò fornisce un limite molto approssimativo del tasso di decoerenza dato il campo vettoriale che ha definito la dinamica. Questo può essere usato per limitare la decoerenza anche in tempi più grandi a causa di quel limite di velocità.
AHusain,

4

Complessità del circuito

Penso che il primo problema sia capire veramente cosa si intende per "controllo" di un sistema quantistico. Per questo, potrebbe essere utile iniziare a pensare al caso classico.

n2n222n2n/nk2n

nϵO(n2), quindi controllare appropriatamente una macchina da 1000 qubit è un po 'più difficile di 10000 volte che controllare una macchina da 10 qubit, nel senso che è necessario proteggerla dalla decoerenza per molto più tempo, implementare molte più porte ecc.

decoerenza

In seguito ai commenti,

Consideriamo un algoritmo specifico o un tipo specifico di circuito. La mia domanda potrebbe essere ribadita: c'è qualche indicazione, teorica o pratica, di come il problema (ingegneristico) di prevenire le scale di decoerenza quando scala il numero di questi circuiti?

Questo si divide in due regimi. Per i dispositivi quantistici su piccola scala, prima della correzione degli errori, potresti dire che siamo nel regime NISQ . Questa risposta è probabilmente più rilevante per quel regime. Tuttavia, man mano che il dispositivo si ingrandisce, ci saranno rendimenti decrescenti; diventa sempre più difficile svolgere il compito di ingegneria solo per aggiungere qualche qubit in più.

pppp1%O(logϵ)ϵO(logϵ)fattore di scala. Per numeri specifici, potresti essere interessato ai tipi di calcoli eseguiti da Andrew Steane: vedi qui (anche se i numeri potrebbero probabilmente essere migliorati un po 'ora).

Ciò che è davvero interessante è vedere come i coefficienti in queste relazioni cambiano man mano che l'errore di gate si avvicina sempre di più alla soglia di correzione dell'errore. Non riesco a mettere le mani su un calcolo adatto (sono sicuro che Andrew Steane ne abbia fatto uno ad un certo punto. Forse è stato un discorso a cui sono andato.), Ma hanno fatto esplodere davvero male, quindi vuoi essere operativo con un margine decente al di sotto della soglia.

Detto questo, ci sono alcuni presupposti che devono essere fatti sulla tua architettura prima che queste considerazioni siano rilevanti. Ad esempio, ci deve essere un parallelismo sufficiente; devi essere in grado di agire su diverse parti del computer contemporaneamente. Se fai solo una cosa alla volta, gli errori si accumuleranno sempre troppo rapidamente. Volete anche essere in grado di scalare il processo di produzione senza che le cose peggiorino. Sembra che, ad esempio, i qubit superconduttori saranno abbastanza buoni per questo. Le loro prestazioni dipendono principalmente dalla precisione con cui è possibile realizzare diverse parti del circuito. Lo fai bene per uno, e puoi "solo" ripetere molte volte per fare molti qubit.


1
Questo è essenzialmente ciò che intendevo, ma rimuovere la complessità algoritmica e concentrarmi sulla complessità dell'ingegneria, soprattutto prevenendo la decoerenza. Consideriamo un algoritmo specifico o un tipo specifico di circuito. La mia domanda potrebbe essere ribadita: c'è qualche indicazione, teorica o pratica, di come il problema (ingegneristico) di prevenire le scale di decoerenza quando scala il numero di questi circuiti?
Keith Rush

@KeithRush OK! Ora comincio a capire cosa cerchi :) in sostanza, questa è la complessità computazionale della tolleranza agli errori - quali sono le spese generali di tempo e spazio per ottenere un certo numero di qubit logici di alta qualità - ed è qualcosa che le persone hanno elaborato abbastanza attentamente. Proverò a estrarre le informazioni pertinenti domani, a meno che qualcun altro non mi picchi.
DaftWullie,

2

mn

Quindi, in un certo senso, la "fedeltà" potrebbe fornire una stima di quanto sia incline all'errore il processore. Se hai usato il computer quantistico per calcolare la dinamica della reazione chimica, o qualsiasi altro problema, che potrebbe usare la sovrapposizione per raggiungere la velocità quantistica (o anche la "supremazia quantistica" alla fine) potresti essere influenzato dalla decoerenza o anche dalla velocità con cui raggiungi una sovrapposizione , potrebbe svolgere un ruolo nel funzionamento senza errori. "Fedeltà" potrebbe fornire una stima dell'errore, sia che utilizziamo 1 qubit, sia che diciamo 200 qubit. Si potrebbe anche "progettare" un hamiltoniano, per dare qubit ad alta fedeltà, nel caso adiabatico, dove si verificano errori di dispersione.

Si noti che, in pratica, sono altamente desiderabili percentuali di errore del 99,5% +, per facilitare un'efficace correzione degli errori. I tassi di errore potrebbero essere del tipo di lettura di giri di elettroni tra qubit e precisione. In tal caso, tassi di errore del 99,5% o 99,8% (confidenza di tipo cinque o sei sigma) richiederebbero meno spese generali (correzione degli errori) quando si ridimensiona il sistema.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.