La parte quantistica dell'algoritmo di Shor è essenzialmente una singola esponenziazione modulare eseguita in sovrapposizione seguita da una trasformata di Fourier e quindi da una misurazione. L'esponenziazione modulare è di gran lunga la parte più costosa.
Supponiamo che [...] ogni operazione logica elementare di fattorizzazione matematica sia ugualmente costosa in termini di fattorizzazione classica e quantistica
Se assumiamo che l'esponenziazione modulare impieghi esattamente tanto tempo su un computer quantistico come su un computer classico, allora la transizione in cui il calcolo quantistico diventava migliore avverrebbe ad un numero molto basso. Il calcolo esponenziale modulare è molto veloce, in modo classico, perché è possibile utilizzare la quadratura ripetuta. Stimerei selvaggiamente che il crossover avvenga anche prima ancora di arrivare a numeri di 30 bit (numeri oltre un miliardo).
Ma i computer quantistici non faranno la matematica quasi alla stessa velocità dei computer classici . Ad esempio, sul mio laptop, posso eseguire un'esponenziazione modulare a 1000 bit in Python in una frazione di secondo. Ma su computer quantistici prevedibili, occorrerebbero ore o giorni. Il problema è l'enorme differenza ( enorme ) nel costo di un gate AND.
| T⟩
Supponiamo quindi di ottenere un milione di stati T al secondo e di convertirlo in un tasso di aggiunte a 64 bit da confrontare con la macchina classica. Un'aggiunta a 64 bit richiede 64 porte AND, ognuna delle quali richiede 4 porte T. 1 milione diviso per 4 diviso per 64 dà ... circa 4KHz. Al contrario, una macchina classica farà facilmente un miliardo di aggiunte al secondo. Gli additivi quantistici sono un milione di volte più lenti degli additivi classici (di nuovo, stimano selvaggiamente e tieni presente che questo numero dovrebbe migliorare nel tempo).
Un altro fattore da considerare è il diverso costo dei computer quantistici e classici. Se hai cento milioni di dollari e stai scegliendo tra un computer quantistico e un migliaio di computer classici, è necessario tenere conto di quel fattore 1000. In questo senso, potremmo dire che gli additivi quantistici sono un miliardo di volte meno efficienti degli additivi classici (in FLOPS / $).
Una penalità di fattore costante di un miliardo è normalmente un breaker immediato. E per gli algoritmi quantistici con un mero vantaggio quadratico (come Grover), sostengo che in realtà è un rompicapo. Ma l'algoritmo di Shor migliora in modo esponenziale rispetto alla strategia classica quando si aumenta il numero di bit nel numero da fattorizzare. Quanti bit prima di mangiare quella costante "misera" 10 ^ 9 con la nostra crescita esponenziale in vantaggio?
Considera che RSA-640 è stato preso in considerazione nel 2005 usando ~ 33 anni CPU. Un computer quantistico dovrebbe essere in grado di fare quel numero in meno di un giorno. Se hai un migliaio di computer classici che lavorano al problema, finirebbero tra circa due settimane. Quindi sembra che il quantum stia vincendo di 640 bit, ma solo di un ordine di grandezza o tre. Quindi forse il taglio si verificherebbe da qualche parte intorno ai 500 bit?
Comunque, so che questa non è una risposta difficile e veloce. Ma spero di aver trasmesso un senso delle quantità a cui avrei pensato confrontando classico e quantistico. Davvero nessuno conosce ancora i fattori costanti coinvolti, quindi sarei sorpreso se qualcuno potesse darti una stima adeguata meglio di "da qualche parte nelle centinaia di bit".