L'entanglement è spesso considerato l'ingrediente chiave che rende gli algoritmi quantistici ben ... quantici, e questo può essere ricondotto agli stati di Bell che distruggono l'idea della fisica quantistica come modello probabilistico a stato nascosto. Nella teoria dell'informazione quantistica (dalla mia comprensione piuttosto debole), l'entanglement può anche essere usato come una risorsa concreta che limita la capacità di fare determinati tipi di codifica.
Ma da altre conversazioni (di recente ho fatto parte del comitato di dottorato di un fisico che lavora con metodi quantistici), mi rendo conto che l'entanglement è difficile da quantificare, specialmente per gli stati quantistici a stato misto. In particolare, sembra difficile affermare che un particolare stato quantistico abbia X unità di entanglement in esso (la tesi di dottorato dello studente riguardava il tentativo di quantificare quantità di entanglement "aggiunte" da operazioni di gate ben note). In effetti, una recente tesi di dottorato suggerisce che una nozione definita "discordia quantistica" potrebbe anche essere rilevante (e necessaria) per quantificare la "quantita '" di un algoritmo o di uno stato.
Se vogliamo considerare l'entanglement come una risorsa come la casualità, è giusto chiedersi come misurare quanto di esso è "necessario" per un algoritmo. Non sto parlando di completa dequantizzazione , ma solo un modo per misurare la quantità.
Quindi esiste attualmente un modo accettato per misurare la "quantumness" di uno stato o un operatore o un algoritmo in generale?