Stavo guardando questa lettura del MIT sulla complessità computazionale e al minuto 15:00 Erik Demaine si imbarca in una dimostrazione per mostrare ciò che è affermato nel titolo di questa domanda. Comunque non posso seguire il suo ragionamento, in pratica quello che dice è questo:
possiamo affermare un problema di decisione come una serie di e che in pratica è la tabella di verità della funzione.
Continua dicendo che un problema di decisione è una stringa infinita di bit mentre un programma è una stringa finita di bit e fino a qui nessun problema. Ciò che non capisco è la continuazione della dimostrazione da questo punto in poi: problemi di decisione sono presenti perché puoi mettere un punto decimale prima della stringa che rappresenta il problema, ottenendo così la parte decimale di un reale
for example if you have 0111011010101010101... it could become x.0111011010101010101...
Un programma è "solo" un numero intero in perché è una stringa finita di bit. Il punto che non riesco a capire è come sia possibile che un problema decisionale sia paragonabile a un numero reale anziché a un numero intero ... Voglio dire, se usiamo l'argomento "metti un punto davanti al numero" non potrebbe lo stesso ragionamento si applica anche al numero di possibili algoritmi che possano mai essere prodotti?