No , con un ma . Possiamo avere una risoluzione dei problemi creativa ma etica se il sistema ha un sistema etico completo, ma altrimenti la creatività non sarà sicura per impostazione predefinita.
Si possono classificare gli approcci decisionali dell'IA in due tipi: pensatori interpolativi e pensatori estrapolati.
I pensatori interpolativi imparano a classificare e imitare qualunque cosa stiano imparando, e non cercano di dare risultati ragionevoli al di fuori del loro dominio di addestramento. Puoi considerarli come interpolazione tra esempi di formazione e beneficiare di tutte le garanzie e disposizioni matematiche come altre tecniche statistiche.
I pensatori estrapolativi imparano a manipolare i principi di base, il che consente loro di combinare tali principi in modi precedentemente non considerati. Il campo rilevante per l'intuizione qui è l'ottimizzazione numerica , di cui l'esempio più semplice e famoso è la programmazione lineare , piuttosto che i campi statistici che hanno dato origine all'apprendimento automatico. Puoi pensarli come estrapolare oltre gli esempi di addestramento (in effetti, molti di loro non richiedono nemmeno esempi di addestramento, o usano quegli esempi per inferire i principi sottostanti).
La promessa dei pensatori estrapolati è che possono trovare queste soluzioni "laterali" molto più rapidamente di quanto le persone sarebbero in grado di fare. Il problema con questi pensatori estrapolati è che usano solo i principi parlati, non quelli non dotti che potrebbero sembrare troppo ovvi per essere menzionati.
Un attributo di soluzioni ai problemi di ottimizzazione è che il vettore di funzionalità è spesso "estremo" in qualche modo. Nella programmazione lineare, almeno un vertice dello spazio di soluzione possibile sarà ottimale, e così i metodi di soluzione semplici trovano un vertice ottimale (che è quasi impossibile per natura di essere un vertice).
Come altro esempio, la soluzione a combustibile minimo per spostare un veicolo spaziale da una posizione all'altra è chiamata " bang-bang ", dove si accelera l'imbarcazione il più rapidamente possibile all'inizio e alla fine della traiettoria, andando alla massima velocità tra .
Mentre una virtù quando il sistema è compreso correttamente (il bang-bang è ottimale per molti casi), questo è catastrofico quando il sistema è compreso in modo errato. Il mio esempio preferito qui è il problema di dieta di Dantzig (la discussione inizia a pagina 5 del pdf), dove cerca di ottimizzare la sua dieta usando la matematica. Sotto il suo primo vincolo, dovrebbe bere 500 litri di aceto al giorno. Sotto il suo secondo, 200 cubetti di brodo. Sotto il suo terzo, due chili di crusca. Le considerazioni che rendono queste idee ovviamente cattive non sono inserite nel sistema, e quindi il sistema le suggerisce innocentemente.
Se riesci a codificare completamente le conoscenze e i valori che una persona usa per giudicare questi piani nell'intelligenza artificiale, i sistemi estrapolativi sono sicuri come quella persona. Saranno in grado di considerare e rifiutare il tipo sbagliato di piani estremi e lasciarti con il giusto tipo di piani estremi.
Ma se non ci riesci, allora ha senso non costruire un decisore estrapolato e costruirne uno interpolativo. Cioè, invece di chiedersi "come posso realizzare al meglio l'obiettivo X?" si sta chiedendo "cosa farebbe una persona in questa situazione?". Quest'ultimo potrebbe essere molto peggio nel raggiungere l'obiettivo X, ma ha molto meno rischio di sacrificare altri obiettivi per raggiungere X.