Questa risposta esaminerà il contesto "più ampio" della tua domanda. L'informatica è in realtà una scienza relativamente giovane e in qualche modo aperta e non ha ancora grandi o addirittura buone risposte ad alcune domande di base e fondamentali. La questione fondamentale "ciò che è efficiente calcolato" o è accurato o più o meno formalizzato nel CS (a seconda del parere) come il famoso P vs problema NP (o strettamente correlata P vs problema EXPTIME), e la sua ancora aperta dopo più di quattro decenni di inizialmente introdotto da Cook / Levin ~ 1970 e intenso lavoro dei più grandi scienziati informatici del mondo (e molti matematici sono anche interessati al problema come fondamentale).
Quindi, in altre parole, anche con una definizione approssimativa di "efficiente" come tempo P, e uno dei premi scientifici più apprezzati - vale a dire un premio di $ 1 milione assegnato al problema per oltre 10 anni - l'informatica non può nemmeno dimostrare che alcuni problemi (vicino a questo limite) deve o non deve avere algoritmi efficienti (Ptime). Pertanto la definizione esatta di "efficiente" più precisa del tempo P non è necessaria o addirittura possibile in questo momento. Se / quando la congettura P vs NP è regolata in un modo o nell'altro, una definizione più rigorosa di "efficiente" potrebbe o presumibilmente essere possibile.
Inoltre, si potrebbe pensare che la definizione Ptime di "efficiente" potrebbe anche essere un po '"sciatta", e la maggior parte degli scienziati informatici sarebbe probabilmente d'accordo, e quasi tutti pensano che la congettura P vs NP sia della massima importanza da risolvere, per il punto che potrebbero persino considerare questa affermazione o osservazione come banale .... in altre parole, per così dire, è un lavoro in corso / ci stiamo lavorando . (in effetti, gli scienziati informatici tradizionali vanno persino così lontano, solo per metà scherzosamente, a riferire sistematicamente al divario e alla mancanza di progressi / separazioni definitive come imbarazzanti ).
In effetti esiste persino una congettura strettamente correlata / significativamente più forte di P vs NP, vale a dire NP vs P / poly, che al momento non può essere risolta dall'informatica. ipotizza che i problemi del tempo NP non possano essere risolti da nessun circuito di "dimensione P", vale a dire nemmeno limitato a quei circuiti che possono essere creati da algoritmi / macchine di Turing.
Quanto a quanto sia difficile P vs NP - c'è qualche solida ragione per pensare che potrebbe essere difficile almeno quanto la vecchia congettura di Riemann in matematica (ora vecchia di 1,5 secolo ), perché entrambi hanno avuto lo stesso premio da $ 1M per oltre un decennio, e nessuno dei due è stato ancora risolto / primo.
Quindi, in altre parole, definire con precisione quali algoritmi sono veramente "efficienti" è in realtà uno dei problemi aperti più importanti e più difficili esistenti nella scienza teorica e matematica .
In effetti la questione di "cosa viene calcolato in modo efficiente" è in realtà ancora più sottile, perché esiste una variante della tesi di Church-Turing chiamata T-time CT tesi, e non è noto se il calcolo quantistico la violi effettivamente . Con il risultato rivoluzionario di Shor di P-time QM, il factoring ha considerato una svolta drammatica in questa ricerca. In altre parole, il problema di ciò che viene calcolato in modo efficace scende in modo plausibile fino ai principi della fisica profonda e si riferisce al fatto che il calcolo quantistico possa calcolare in modo più efficiente rispetto al calcolo classico, che è anche un problema generalmente aperto nella CS teorica e nella fisica avanzata.
Quindi si può anche aggiungere che P vs NP e la questione del calcolo efficiente possono essere di importanza cruciale o fondamentale per la fisica, oltre a CS e matematica .
[1] Problema P vs NP, wikipedia
[2] Problemi del premio del millennio
[3] Classe P / Poly, Wikipedia
[4] Algoritmo di Shor