C'è una ragione per la fiducia eccessiva iniziale di scienziati e ingegneri che lavorano sull'intelligenza artificiale negli anni '60?


21

Ho appena iniziato un corso di AI e Data Mining e il libro. La programmazione delle applicazioni AI, inizia con una panoramica della storia dell'IA. Il primo capitolo tratta della storia dell'intelligenza artificiale dagli anni '40 ad oggi. Mi è venuta in mente una dichiarazione particolare:

[Negli anni '60] Ingegneri di intelligenza artificiale iperpromessi e sottoconsegnati ...

Qual è stato il motivo della fiducia eccessiva? È stato a causa di modelli matematici di previsione che mostravano una svolta dietro l'angolo, o a causa della sempre crescente capacità hardware di cui trarre vantaggio?


4
Il problema di Hubris è universale. Leggi 'Fooled by Randomness' per maggiori dettagli. en.wikipedia.org/wiki/Fooled_by_Randomness
Lavoro

1
Se la tua biblioteca ne ha una copia, l'articolo di Doug Lenat, "Perché AM e EURISKO sembrano funzionare". Intelligenza artificiale 23 (3): pagg. 269–294. potrebbe valere la pena leggere. (AM e EURISKO erano i programmi di Doug Lenat). Questo, tuttavia, è ben dopo gli anni '60. Personalmente penso che sia stato perché alcuni dei primi progetti hanno avuto molto successo, quindi sembrava che molti problemi sarebbero stati solubili usando alcune semplici tecniche. Purtroppo, questo non ha dimostrato di essere il caso.
MZB,

7
Il problema era più difficile del previsto. Molto più difficile.

8
@ Thorbjørn Non so perché, ma posso immaginare che essere scarabocchiato ai margini di un quaderno di uno scienziato ingegnere poco prima che lasci l'ufficio e raggiunga il punto di ribaltamento, perdendo ogni sanità mentale.
Thomas Owens

3
Non vale la pena dare una risposta, ma dovresti anche guardare al contesto sociale di quei tempi. Il mondo occidentale, in particolare gli Stati Uniti, aveva attraversato la seconda guerra mondiale e aveva sviluppato molta tecnologia che ha risolto molti problemi difficili. C'era una sensazione generale che potremmo superare qualsiasi problema che ci poniamo di risolvere. Chiamarlo arroganza o arroganza è probabilmente un po 'esagerato; Vorrei di più per qualcosa come l'ottimismo sfrenato.
Blrfl,

Risposte:


30

La mia opinione personale è che era dovuto all'arroganza . C'erano alcuni grandi ego potenti che camminavano nelle sale del MIT, Stanford, ecc. Negli anni '60 e '70 e sapevano solo di aver risolto questo problema. Destra.

Anche se non facevo parte di quell'universo a quei tempi, nella seconda metà degli anni '80 lavoravo con la ricerca della somiglianza. Il nostro lavoro inizialmente era basato sulla ricerca condotta da Gerard Salton alla Cornell negli anni '60, che utilizzava vettori di attributi ponderati per rappresentare documenti e domande. In realtà si trattava di un approccio utilizzabile, ma quando le reti neurali andarono in fiamme (almeno fino a quando non scoprirono la propagazione posteriore ), il lavoro di Salton ne fu incluso a causa di somiglianze (gioco di parole inteso) con le reti neurali. Stava cercando di fare qualcosa di diverso, ma ci sono stati diversi anni in cui è stato coinvolto nel resto.

Ogni volta che qualcuno trova una soluzione per Current Brick Wall ™, si eccitano molto e dichiarano che l'IA è un problema risolto. Solo non lo è. Perché dietro quel muro di mattoni ce n'è un altro. Questo ciclo si è ripetuto ancora e ancora e ancora e ancora, e non solo nell'intelligenza artificiale. Sono fermamente convinto che tutti i futuri scienziati e ingegneri informatici debbano essere tenuti a frequentare un semestre di storia della storia dell'informatica, con particolare enfasi sul numero di Next Big Things ™ che è salito come razzi ... e poi ha fatto molto grande cratere nel fondovalle.

Addendum: ho trascorso il weekend della festa dei lavoratori con un vecchio amico e ne abbiamo parlato un po '. Il contesto - capire cosa significa, come rappresentarlo e quindi come utilizzarlo - è emerso come forse il più grande ostacolo da eliminare. E più a lungo lo guardi, più grande diventa un ostacolo. Gli esseri umani sono in grado di abbinare in modo quasi istantaneo lo schema parziale di "ciò che sta accadendo" contro un vasto archivio di "ciò che è accaduto prima" e quindi combinare quella conoscenza del passato con la situazione attuale per creare un contesto in cui la comprensione può portare all'azione. Ad esempio, possiamo usarlo come un potente filtro di "cose ​​che possiamo / non possiamo ignorare" mentre scendiamo dal Waldo Grade a 60 km / h con traffico 4 corsie al passo e separato da solo 3 o 4 piedi (o meno!).

Sullo spettro di stuff > data > information > knowledge > understanding > judgementnoi stiamo ancora tendendo ad arrivare alle fasi di informazione / conoscenza, e anche questo è limitato a domini di discorso fortemente vincolati .


1
L'intelligenza artificiale è come una catena montuosa. Siamo da qualche parte ai piedi e possiamo vedere la vetta che vogliamo scalare, ma non abbiamo idea di cosa ci sia sopra la prossima collina o quante altre colline ci siano rimaste per raggiungere il nostro obiettivo.
CdMnky,

1
IMO, non può succedere senza un riconoscimento di pattern davvero sofisticato e altamente generalizzato. Leggendo solo un sacco di cose che hanno provato, mi è sembrato un tipo ingenuo o forse eccessivamente sinistro, il che mi ha dato il senso di programmare la programmazione in generale, almeno quando ne sono venuto a conoscenza negli anni '80.
Erik Reppen,

17

Molto semplicemente, hanno sottovalutato in modo massiccio la portata del problema attuale, specialmente per quanto riguarda l'esplosione combinatoria. Molte soluzioni di intelligenza artificiale funzionano bene per i campioni "giocattolo", ma falliscono duramente quando si adattano ai problemi a livello umano.

Probabilmente, erano anche semplicemente inesperti. L'intelligenza artificiale come campo era stata (relativamente) appena inventata in termini di applicazioni pratiche, quindi nessuno aveva esperienza significativa nell'applicazione della teoria a nulla.


Non ne so molto, ma ho sempre pensato che molte delle funzionalità di Google siano basate sull'intelligenza artificiale. O la mia cattiva comprensione su questo?
user10326

@ user10326: Lo sono. Ma non vedo cosa abbia a che fare con l'oggetto in questione - Google non esisteva da 30 anni dopo il periodo in questione.
DeadMG

Ok, ma quello che sto dicendo è che loro (Google) hanno usato l'IA in modo pratico, giusto? Voglio dire, potrebbe non essere quello che "immaginavano" allora, ma è ancora possibile offrire le funzionalità di Google usando un non- Lingua AI?
user10326

4
@ user10326, a quanto ho capito, Google sta utilizzando un sistema di ipotesi molto avanzato. Fondamentalmente, analizza montagne di attività dell'utente e tenta di estrapolare i modelli. La visione originale dell'intelligenza artificiale era quella di creare una vera mente digitale che funzionasse proprio come un cervello umano. In effetti, l'incapacità persino di concordare su ciò che costituisce l'IA è una delle cadute del campo.
jiggy,

@ user10326: ancora non riesco a capire la rilevanza.
DeadMG

15

Mi vengono in mente un paio di ragioni.

L'intelligenza artificiale ha avuto un successo così rapido con alcuni dei problemi del giocattolo affrontati alla fine degli anni '50 e all'inizio degli anni '60, che hanno sopravvalutato ciò che avevano realizzato. ELIZA e SHRDLU hanno sbalordito la gente nonostante fossero programmi relativamente semplici. Sfortunatamente, gran parte di ciò che ha reso sbalorditivi questi programmi è stata solo una novità. Nessuno è rimasto molto colpito da una conversazione con ELIZA oggi, ma all'epoca la gente pensava fosse quasi miracolosa.

Inoltre, poiché i problemi vengono "risolti" o almeno diventano trattabili, la gente non li considera più come AI. L'ottimizzazione del codice era un problema di intelligenza artificiale. L'apprendimento statistico è nato dall'intelligenza artificiale nella sua specialità e ha portato con sé il riconoscimento vocale. Man mano che il data mining diventa mainstream, perderà la sua associazione con l'IA. Nel tempo l'IA dimentica i suoi successi e si blocca aggrappandosi ai problemi intrattabili e insolubili, e finisce per sembrare un flop.


5
Buon punto su "se non è più magia (3), non è più AI".
Piskvor,

Ma l'apprendimento statistico e l'IA di data mining non sono in linea di principio?
user10326

@ user10326, certamente la maggior parte dei riferimenti ancora classifica l'apprendimento automatico come una branca dell'IA, ma ho l'impressione che molte persone che lavorano in ML ti disapproverebbero se dicessi loro che hanno lavorato nell'intelligenza artificiale. Penso che te lo direbbero pragmaticamente, ML è una branca della statistica e non fornisce alcuna visione particolare dell'intelligenza, artificiale o di altro tipo.
Charles E. Grant,

12

Penso che le persone negli anni '60 abbiano usato la propria esperienza umana per dividere i problemi in "problemi difficili" e "problemi facili": cose come vincere gli scacchi, risolvere enigmi logici, risolvere equazioni matematiche sembrano difficili per noi umani. Cose come comprendere i linguaggi naturali o trovare i contorni degli oggetti in un'immagine sembrano facili, perché il nostro cervello fa tutto il lavoro senza sforzo cosciente. Quando proviamo a spiegare come facciamo queste cose, arriviamo a semplici spiegazioni come "Le frasi inglesi hanno sempre la struttura soggetto-predicato-oggetto in cui soggetto può essere un semplice termine o una frase ...", o "Io sono cercare i bordi e collegarli ai confini degli oggetti ". Oggi sappiamo che le cose non sono così semplici, ma solo perché tutte le soluzioni semplici (e molte non così semplici) sono state provate e non

Inoltre, questo errore non è iniziato negli anni '60: ci sono secoli di ricerche su come risolvere quei "problemi difficili" (euristica, teoria dei giochi, teoria delle decisioni, matematica, logica, ecc.) Ma non sono sicuro che nessuno abbia mai preoccupato di ricercare come i linguaggi naturali potrebbero essere analizzati prima degli anni '50.

E anche oggi, puoi trovare regolarmente domande su StackOverflow, dove le persone chiedono come possono analizzare le frasi inglesi, stimare l'età di una persona in un'immagine, giudicare se un'immagine è "sicura per il lavoro" o se due immagini mostrano la stessa cosa . Non credo che le persone che pongono queste domande soffrano di troppa arroganza o arroganza: questi problemi sembrano così semplici, è incredibile che non ci sia un semplice algoritmo per risolverli.


3
Credo che questa sia la risposta corretta piuttosto che la teoria dell'arroganza, che sembra fortemente supportata su questo sito. Le cose che pensavamo fossero incredibilmente difficili per gli umani si sono rivelate relativamente facili per le macchine, d'altra parte le cose incredibilmente semplici per gli umani sono molto difficili per le macchine.
AlexC

11

L'intelligenza artificiale ha una lunga storia di delusioni, ma penso che molti critici spesso semplifichino eccessivamente ciò che è accaduto, ad esempio con la tua citazione "Gli ingegneri degli anni '60 erano troppo promessi e sottodimensionati".

Negli anni '60, l'IA era il dominio di una manciata relativa di ricercatori (il campo non era ancora sufficientemente sviluppato per chiamarlo ingegneria), soprattutto nelle università, e pochissimi di loro erano programmatori esperti.

L'improvvisa disponibilità di macchine informatiche negli anni '50 aveva portato a grandi aspettative per l'automazione, in particolare nella traduzione automatica del linguaggio naturale, nel gioco degli scacchi e problemi simili. Potresti trovare alcune effettive previsioni di successo di quei giorni, ma le promesse inevitabilmente arrivarono PRIMA che qualcuno affrontasse uno di quei problemi in profondità. (Oppure, presumevano erroneamente che un successo ne garantisse un altro, come aspettarsi di essere in grado di implementare un buon gioco di scacchi dopo che Samuel ebbe così tanto successo con le pedine.)

Inoltre, diffidare di qualsiasi affermazione di "hanno detto", "hanno sentito", "hanno pensato", ecc .; le opinioni retrospettive (come questa!) sono facili da lanciare, mentre le prove documentate di previsioni reali da parte di "esperti" (coloro che hanno effettivamente cercato di risolvere un determinato problema) possono essere molto più difficili da trovare.

Sovrapromissione e mancata consegna è sempre stato un sintomo dello sviluppo del software, indipendentemente dal campo specifico in cui viene applicata la programmazione. Una grande difficoltà con l'IA è che problemi non banali vanno oltre le capacità della maggior parte degli ingegneri. Ad esempio, anche se la risposta di Charles E. Grant classifica ELIZA e SHRDLU come "relativamente semplici", direi che è vero solo per ELIZA (che la maggior parte degli studenti di programmazione del primo anno potrebbe probabilmente implementare senza troppe difficoltà). D'altra parte, SHRDLU è un programma ampio ed estremamente sofisticato che la maggior parte dei programmatori avrebbe un momento molto difficile da inventare, per non parlare dell'implementazione. In effetti, due team di studenti universitari non sono nemmeno riusciti a far funzionare nuovamente il codice sorgentee abilità simili a SHRDLU sono ancora difficili da trovare al giorno d'oggi, oltre 40 anni dopo.

Poiché l'IA è probabilmente uno dei problemi meno compresi e più intrattabili in cui i computer possono essere applicati, nel complesso direi che i progressi nell'IA sono stati generalmente alla pari per il corso. Ci sono ancora grandi aspettative , e la nostra velocità e capacità hardware sono aumentate enormemente dagli anni '60, ma direi che le capacità degli ingegneri e la comprensione dell'IA non stanno migliorando così tanto, quindi un Santo Graal come il superamento del test di Turing è ancora probabilmente molto lontano, e la promozione eccessiva e la sottopubblicazione continueranno probabilmente per qualche tempo.


Ri: Test di Turing: ho letto di un programma di assistente all'insegnamento della Georgia Tech che la maggior parte degli studenti non può dire che è un "AI". Potrebbero non averlo cercato, ma di certo non è saltato fuori da loro. Penso che la conversazione generale sarà presto risolta. Di recente ho visto qualcuno giocare con una nuova cosa di Google Echo (come si chiama). Pietoso, ma per quanto tempo rimarrà in questo modo, con milioni di scimmie che le alimentano campioni di conversazione?

5

Penso che la ragione sia stata l'arroganza. Se fossi stato un ingegnere negli anni '60 lavorando sull'intelligenza artificiale, sarei stato piuttosto arrogante.

Penso che per realizzare grandi cose, devi raggiungere grandi cose. Quindi il superpromesso non è necessariamente una cosa negativa se non si supera il limite. Oggi gli scienziati stanno promettendo cose che non credo possano essere possibili, ma se non lo raggiungono, perderemo ciò che sarà realizzato di conseguenza.


4

Può essere molto difficile arrivare da qualche parte quando non sai dove stai andando.

Se avessimo una spiegazione ragionevole di cosa sia l'intelligenza e come funzioni, forse avremmo la possibilità di imitarla efficacemente. Il test di Turing è affascinante e utile, ma probabilmente non è sufficiente per aiutarci a modellare la vera intelligenza. Per quanto ne sappiamo, un "modello" di intelligenza potrebbe non essere sufficiente per la vera intelligenza.


3
+1 per la prima frase.
Mason Wheeler,

Forse non siamo abbastanza intelligenti da essere in grado di comprendere l'intelligenza, o addirittura un suo modello. Ma potremmo costruire un modello scadente, quindi farlo funzionare su se stesso ...

2

Bene, direi che è più o meno la stessa cosa che sta succedendo con OWL in questo momento. Guardati intorno e prova a tracciare parallelismi.

Suona bene sulla carta, sembra funzionare bene sui problemi dei giocattoli, diventa incredibilmente complicato sulla maggior parte dei dati reali.


Che cos'è OWL? Ostwestfalen-Lippe?
sleske,


2

Oltre alle buone risposte fornite, due osservazioni:

Alcune citazioni del giorno sembrano implicare che molti dei ricercatori stessero pensando che le soluzioni banali potessero essere ridimensionate una volta progettati i computer più veloci. Per alcuni tipi di sistemi di apprendimento questo era molto vero, ma per il tipo di cose che penso che l'OP si riferisca ad esso in realtà non è migliorato su larga scala.

I ricercatori all'epoca avevano una stima molto bassa della complessità della mente umana (concentrarsi su idee come il test di Turing, l'idea che le persone usino solo una piccola percentuale del loro cervello, ecc.). L'intelligenza artificiale a livello di un semplice animale è stata raggiunta da alcune misure man mano che le cose si ingrandivano, ma il salto a un livello umano L'intelligenza artificiale era molto più grande del previsto. Ciò ha portato alcuni ricercatori a provare ad apprendere i sistemi del bambino e altre simulazioni basate sulla crescita / evoluzione nel tentativo di colmare tale divario.


Un cervello semplice (insetto, pesce, rettile) può gestire bene il comportamento , ma gestire il ragionamento è un problema diverso. Quindi penso che l'IA sarà presto in grado di conversare su un dominio problematico, ma non avrà nulla di significativo da contribuire o essere in grado di risolvere nuovi problemi. L'interessante area è quella in cui i piccoli cervelli (uccelli) possono fare cose complesse come rispondere all'input conversazionale e inventare cose divertenti da fare (pappagallo che imita il suono del campanello per vedere le persone che vanno alla porta, poi emettono un suono ridente).

1

Uno dei motivi è stato il successo che stavamo ottenendo ALTROVE negli anni '60. Avevamo appena lanciato nello spazio e presto sarebbe atterrato un uomo sulla luna. Avevamo appena scoperto cure per la poliomielite e altre importanti malattie.

Ma "l'intelligenza artificiale" era un animale diverso dai problemi di "ingegneria" che abbiamo affrontato allora. Era un problema "di ragionamento" piuttosto che "meccanico".

In breve, AI (negli anni '60) era un'idea "il cui tempo non era ancora arrivato". Ci volle più sviluppo, nei decenni successivi, prima che diventasse accessibile come gli altri problemi.


0

Un altro motivo potrebbe essere che la padronanza di un computer / la scrittura di programmi per computer ci dà pochi maniaci del controllo, una sensazione di onnipotenza - in effetti, si creano piccoli universi, anche se chiusi.

Questo, più la mancanza di educazione filosofica / epistemologica e la fiducia ingenua in spiegazioni semplici come "L'intelligenza non è altro che ...." può portare ad arroganza.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.