Nel capitolo 26 del libro Intelligenza artificiale: un approccio moderno (terza edizione), il libro di testo discute della "singolarità tecnologica". Cita IJ Good, che scrisse nel 1965:
Lascia che una macchina ultra-intelligente sia definita come una macchina che può superare di gran lunga tutte le attività intellettuali di qualsiasi uomo per quanto intelligente. Poiché la progettazione di macchine è una di queste attività intellettuali, una macchina ultra-intelligente potrebbe progettare macchine ancora migliori; ci sarebbe quindi senza dubbio una "esplosione di intelligenza" e l'intelligenza dell'uomo sarebbe lasciata molto indietro. Quindi la prima macchina ultra-intelligente è l' ultima invenzione che l'uomo deve mai fare, a condizione che la macchina sia abbastanza docile da dirci come tenerla sotto controllo.
Più avanti nel libro di testo hai questa domanda:
26.7 - IJ Good afferma che l'intelligenza è la qualità più importante e che la costruzione di macchine ultra-intelligenti cambierà tutto. Un ghepardo senziente ribatte che "In realtà la velocità è più importante; se potessimo costruire macchine ultraveloci, ciò cambierebbe tutto" e un elefante senziente afferma "Sbagli entrambi; ciò di cui abbiamo bisogno sono macchine ultrastrong," Cosa ne pensi di queste argomenti?
Sembra che la questione del libro di testo sia un argomento implicito contro IJ Good. Il bene può essere considerare l'intelligenza come preziosa, semplicemente perché i punti di forza dell'uomo risiedono in quel tratto chiamato "intelligenza". Ma altri tratti potrebbero essere valutati allo stesso modo (velocità o forza) e gli esseri senzienti possono speculare selvaggiamente sul fatto che i loro tratti preferiti siano "massimizzati" da una macchina o da un'altra.
Questo mi chiedo se una singolarità potrebbe verificarsi se avessimo costruito macchine che non massimizzavano l'intelligenza, ma invece massimizzavano qualche altro tratto (una macchina che aumenta sempre la sua forza o una macchina che aumenta sempre la sua velocità). Questi tipi di macchine possono essere altrettanto trasformativi: le macchine ultraveloci possono risolvere rapidamente i problemi a causa della "forza bruta" e le macchine ultrastrongenti possono usare la sua potenza grezza per una varietà di compiti fisici. Forse una macchina ultra-X non può costruire un'altra macchina ultra-X (dato che IJ Good ha trattato il design delle macchine come un'attività intellettuale), ma una macchina in continuo miglioramento si lascerebbe comunque indietro i suoi creatori e costringerebbe i suoi creatori ad essere dipende da esso.
Le singolarità tecnologiche sono limitate alle ultra-intelligenze? O le singolarità tecnologiche possono essere causate da macchine che non sono "un'intelligenza artificiale forte" ma che sono ancora "ultra" ottimizzatori?