Alcuni paradossi matematici e logici potrebbero essere applicati automaticamente ai computer probabilmente, ma ci sono dei paradossi scoperti nell'informatica stessa?
Per paradosso intendo contro risultati intuitivi che sembrano una contraddizione.
Alcuni paradossi matematici e logici potrebbero essere applicati automaticamente ai computer probabilmente, ma ci sono dei paradossi scoperti nell'informatica stessa?
Per paradosso intendo contro risultati intuitivi che sembrano una contraddizione.
Risposte:
Trovo intuitivo il fatto che il flusso di rete sia un contatore dei tempi polinomiale. A prima vista sembra molto più difficile di molti problemi NP-Hard. O, in altre parole, ci sono molti risultati in CS in cui il tempo di esecuzione per risolverli è molto meglio di quello che ti aspetteresti.
Una famiglia di risultati contro-intuitivi è l'intera famiglia di risultati "dimostra un limite superiore per dimostrare un limite inferiore". Il risultato Meyer che implica E X P ⊈ P / p o l y è un esempio di questo, e questo mi è venuto in mente sia dal lavoro GCT di Ketan Mulmuley, sia dal recente risultato di Ryan Williams che ha usato di nuovo una tomaia associato a CIRCUIT-SAT per dimostrare un limite inferiore per N E X P in termini di .
SAT ha un algoritmo a tempo polinomiale solo se P = NP. Non sappiamo se P = NP. Tuttavia, posso scrivere un algoritmo per SAT che è polinomiale se P = NP è vero. Non conosco il riferimento corretto per questo, ma la pagina di Wikipedia fornisce un tale algoritmo e crediti Levin.
La calcolabilità certamente vizia la maggior parte degli studenti. Un bell'esempio con un alto tasso di confusione è questo:
È calcolabile?
La risposta è si; vedere una discussione qui . Molte persone provano immediatamente a costruire con le conoscenze attuali. Ciò non può funzionare e porta a un paradosso percepito che è davvero solo sottigliezza.
Come affermano Arora e Barak (p. 157) "Sappiamo che l'interazione da sola non ci dà alcuna lingua al di fuori di NP. Sospettiamo anche che la randomizzazione da sola non aggiunga un potere significativo al calcolo. Quindi quanta potenza potrebbe la combinazione di randomizzazione e interazione fornire? "
Apparentemente un bel po '!
Che ne dici delle pubblicazioni di Martin Escardo che mostrano che ci sono infiniti set che possono essere esaustivamente cercati a tempo finito? Vedi il post sul blog degli ospiti di Escardo sul blog di Andrej Bauer, ad esempio, su "Programmi funzionali apparentemente impossibili" .
Il Teorema della ricorsione sembra certamente controintuitivo la prima volta che lo vedi. Sostanzialmente dice che quando descrivi una Turing Machine, puoi presumere che abbia accesso alla sua stessa descrizione. In altre parole, posso costruire macchine di Turing come:
TM M accetta n se f n è un multiplo del numero di volte in cui "1" appare nella rappresentazione di stringa di M.
TM N accetta un numero n e produce n copie di se stesso.
Si noti che la "rappresentazione di stringhe" qui non si riferisce alla descrizione informale del testo, ma piuttosto a una codifica.
Fornire risultati teorici delle informazioni basati su ipotesi teoriche della complessità è un altro risultato controintuitivo. Ad esempio, Bellare et al. nel loro articolo La (vera) complessità della conoscenza statistica dello zero ha dimostrato in modo costruttivo che, secondo il presupposto log discreto certificato , qualsiasi lingua che ammette la conoscenza dello zero statistico verificatore onesto ammette anche la conoscenza dello zero statistico.
Il risultato è stato così strano che sorprende gli autori. Hanno sottolineato questo fatto più volte; per esempio, nell'introduzione:
Dato che la conoscenza statistica zero è una nozione indipendente dal punto di vista computazionale, è alquanto strano che le proprietà al riguardo possano essere dimostrate sotto un'ipotesi di intrattabilità computazionale.
PS: Un risultato più forte è stato successivamente dimostrato incondizionatamente da Okamoto ( sulle relazioni tra prove statistiche a conoscenza zero ).
Poiché il risultato di cui sopra include un sacco di gergo crittografico, provo a definire in modo informale ogni termine.
Che ne dite del fatto che il calcolo permanente sia # P-Completo ma determinante per il calcolo - un modo in cui un'operazione più strana sembra essere nella classe NC?
Questo sembra piuttosto strano - non doveva essere così (o forse sì ;-))
Il problema di programmazione lineare è risolvibile in un tempo polinomiale (debolmente). Ciò sembra molto sorprendente: perché dovremmo essere in grado di trovarne uno tra un numero esponenziale di vertici di un politopo ad alta dimensione? Perché dovremmo essere in grado di risolvere un problema che è così ridicolmente espressivo?
Per non parlare di tutti i programmi lineari di dimensioni esponenziali che possiamo risolvere usando il metodo ellissoide e gli oracoli di separazione e altri metodi (aggiunta di variabili, ecc.). Ad esempio, è sorprendente che un LP con un numero esponenziale di variabili come il rilassamento Karmakar-Karp del Bin Packing possa essere approssimato in modo efficiente.
Ogni volta che insegno automi, chiedo sempre ai miei studenti se trovano sorprendente che il non determinismo non aggiunga alcun potere agli automi a stati finiti (cioè che per ogni NFA esiste un DFA equivalente, forse molto più grande). Circa metà della classe riferisce di essere sorpresa, quindi eccoti. [Io stesso ho perso il "feeling" per ciò che sorprende a livello di introduzione.]
Ho trovato il semplice sistema di crittografia a chiave pubblica con un meccanismo di decodifica a doppia botola e le sue applicazioni paradossali, perché si tratta di uno schema di sicurezza crittografico scelto adattivo che è omomorfo.