L'intelligenza umana è l'obiettivo intelligente? [chiuso]


9

Sembra essere sempre stato al centro della letteratura per approssimare i componenti della mente umana, supponendo che fosse il più avanzato. Se altri animali sono entrati nel panorama dell'intelligenza artificiale, era solo per studiare i primati in modi che non sono pratici per studiare gli esseri umani o per simulare l'attività neurale di una lumaca perché il suo sistema nervoso è semplice.

Forse c'è una ragione più lungimirante per considerare l'uso di forme di vita inferiori come modello per l'intelligenza artificiale desiderata. Ho letto cosa hanno detto EO Wilson e altri sulle capacità collaborative di altre specie. Ci sono notevoli qualità negli organismi semplici e adattivi come i batteri. Certamente, le formiche sono le specie modello per la collaborazione. Le api da miele sono probabilmente le più esperte nella costruzione, portando la sostenibilità dello stile di vita e delle interrelazioni con altre specie in una forma d'arte molto al di sopra delle capacità dell'intelligenza umana.

Usando analogie sportive per caratterizzare le opzioni, l'intelligenza umana è più simile agli sport dei gladiatori pre-illuminismo o almeno all'hockey su ghiaccio, dove ferire l'avversario è considerata la strategia intelligente. Quello che fanno le api è più simile all'arrampicata in montagna, che costruisce con precisione e cura.

Quello che fanno le formiche è molto simile alla staffetta, dove c'è poco interesse per la squadra avversaria perché ogni colonia, proprio come ogni corsia della pista è indipendente e le corsie sono contrassegnate. Allo stesso modo le formiche segnano il loro territorio e le rivendicazioni territoriali sono rispettate come nel migliore stato politico geopolitico della Westfalia. Non ci sono né piccole gelosie né competizioni per il solo orgoglio del primato. Con le formiche, proprio come con l'allenatore intelligente di pista e campo, l'obiettivo è che ogni tappa della gara si esibisca bene contro il migliore precedente del pilota.

I batteri sono i corridori di lunga distanza. Si scambiano DNA l'uno con l'altro e ignorano tutte le regole del dolore e della paura. Si comportano in modo sostenibile che non dà nulla per scontato e usa tutto per sopravvivere. E sono sopravvissuti per quasi tutta la durata dell'esistenza della terra. Probabilmente rimarranno in giro per cento miliardi di anni dopo la scomparsa dell'umanità, se il sole non passerà prima per la supernova.

Perché dovremmo voler programmare i computer affinché si comportino all'infinito come concorrenti? Le persone scaricano programmi di scacchi intelligenti in modo da poter perdere ripetutamente? No, scaricano il sistema operativo Android perché collabora e non costa nulla. Non possiamo trovare giochi con somma diversa da zero in cui sono possibili scenari vincenti?

Non abbiamo già abbastanza agenti pungenti, gossip, ipercritici all'interno della nostra stessa specie? Perché non inviare l'IA nella direzione dell'intelligenza collaborativa, come le formiche? Non sarebbe meglio avere nuovi amici artificiali che vorrebbero condividere l'onere delle nostre attività quotidiane?

Non vogliamo che i nostri robot del futuro si costruiscano come le api da miele, in esagoni? O vogliamo che i nostri robot seguano il nostro esempio, sprecando il 70% di materiali in costruzione verticale a causa di un'insistenza irrazionale su angoli di novanta gradi, come farebbero solo gli umani?


3
Hai acquisito una visione molto rosea della competizione tra colonie di insetti sociali. L'affermazione "non c'è interesse nella squadra avversaria perché ogni colonia, proprio come ogni corsia in pista è indipendente" non è semplicemente vera. Le colonie di formiche competeranno e combatteranno con altri membri della loro stessa specie, e sicuramente contro altre specie. Sebbene io (e penso che molte persone) sarei d'accordo sul valutare altre forme di abilità / intelligenza altrettanto ben adattate degli umani, in tutte le specie è ancora in atto una feroce competizione tra specie, tra specie e spesso tra relazioni.
Neil Slater,

1
@NeilSlater molto corretto ... Gli organismi vogliono solo propagare il loro DNA e formiche e api (lavoratore) condividono il 50% di DNA con gli altri lavoratori ... Questa è la loro motivazione principale
DuttaA

Come ho detto, condividono i geni solo nella loro colonia e uccidono le formiche di altre colonie anche se della stessa specie ... Gli umani non condividono i geni a meno che non sia un membro della famiglia in cui vedi un aiuto disinteressato (in generale) ... Ma dal momento che abbiamo un cervello così grande (cervello capace) che accumuliamo esperienze che cambiano il nostro comportamento genetico e possiamo diventare ostili nei confronti della famiglia ... Voglio rispondere alla tua domanda ma sarà abbastanza grande, quindi lo farò quando avrò tempo
DuttaA

Batteri / formiche / api, non sanno che ciò che stanno facendo è intelligente, non possono riflettere su ciò che stanno facendo e escogitare metodi più efficienti. Riesci a far sì che questi semplici esseri raggiungano obiettivi diversi da quelli che già raggiungono? No.
Ankur,

1
@Ankur Tuttavia, puoi studiare i principi di come funziona il loro comportamento di successo e applicarlo artificialmente a un nuovo problema. Questo è qualcosa che viene fatto e la domanda del PO pone alcuni punti interessanti, come se questo sia sufficiente a coprire tutti i casi d'uso desiderati per l'IA e se sarebbe un approccio più sicuro / migliore. Penso "no" e "no" a quelle domande, ma ci vorrebbe un certo sforzo per mettere insieme una risposta.
Neil Slater,

Risposte:


6

Ho una visione abbastanza debole degli umani come specie e ho proposto un test di Turing inverso in base al quale gli umani sono valutati per l'umanità sufficiente ( ). (sto scherzando, ma non del tutto;)

Gli esseri umani sono chiaramente non le maggior parte delle specie di successo sulla terra se si va a biomasse:

inserisci qui la descrizione dell'immagine

Concordo pienamente sul fatto che forme di vita meno complesse sono molto efficaci e che vale la pena emulare per problemi specifici (vedere gli algoritmi di ottimizzazione delle colonie di formiche come esempio).

Ma che aspetto ha un mondo quando è gestito dalle formiche? È un mondo in cui vogliamo vivere?

Non solo la competizione in natura è assolutamente brutale, ma questa brutalità è il meccanismo attraverso il quale le specie vengono ottimizzate (evoluzione).

Gli esseri umani sono imperfetti, ma abbiamo anche ottenuto grandi trionfi e ciò che potrebbe separarci dagli animali è che i nostri successi possono anche rientrare nella categoria dei "trionfi dello spirito". Dove ci sono forze di egoismo e avidità che guidano la società in una direzione, abbiamo anche la contro-forza, che spinge in direzioni alternative.

Alcuni giochi sono semplicemente a somma zero e non c'è niente da fare, ma ciò non significa che debbano essere "tutto o niente" (raccomandiamo il Sudoku partigiano sugli scacchi proprio per questo motivo).

C'è un concetto che vale la pena considerare noto come Pareto Efficiency . La speculazione finanziaria, su cui gran parte dell'economia mondiale sembra ora basata, dipende dal principio "maggiore follia" , in cui un agente beneficia dipende interamente dalla perdita di un altro agente. Il peggio di noi sembra essere concentrato su questi meccanismi con l'esclusione di tutti gli altri perché non richiede un impegno reale, solo un'analisi più forte e / o una migliore informazione e liquidità.

Ciò che il meglio di noi sembra raggiungere invece è il miglioramento di Pareto, grazie al quale gli agenti possono essere migliorati senza richiedere che altri agenti vengano peggiorati.

Il punto qui è che l'intelligenza umana ha impiegato per identificare e definire queste condizioni. (Alla natura potrebbe importare di meno.) L'ottimalità di Pareto è stata controversa a causa della sua origine, ma questo era prima del settore tecnologico, che è molto bravo a creare nuove opportunità, e mi sembra che possa anche essere usato per bilanciare la distribuzione delle risorse a cerca di massimizzare la stabilità sociale. (cioè a volte può essere più ottimale essere un po 'peggio.)

La mia triste visione della nostra specie non deriva dall'essere inefficiente o, spesso, sciocco, ma dall'idea che, in questa fase della storia, stiamo ancora agendo come se fossimo appena scesi dagli alberi, regredendo al tribalismo e al conflitto partigiano invece di cooperazione.

Contrariamente alla tua tesi:

  • Credo che non sia solo importante raggiungere l'intelligenza algoritmica a livello umano, ma spetta a noi "umanizzare" tali algoritmi nella massima misura possibile.

Superintelligence e AGI sono ancora all'orizzonte e del tutto teorici, ma, se vengono raggiunti e questi algoritmi sono un meccanismo puro, privo dei valori che noi umani, al meglio, amiamo, potremmo finire per diventare semplicemente un'altra vittima del processo evolutivo , superato da nuove forme di vita artificiale, non abbiamo alcuna possibilità di competere contro.

In un certo senso, la spinta verso l'umano può essere considerata come una celebrazione dell'umanità, più sofisticata, ma non completamente diversa nello spirito del David di Michelangelo.


@DouglasDaseeco In realtà mi piace molto la tua domanda b / c Sono d'accordo al 100% con te per quanto riguarda l'utilità / beneficio generale delle funzioni "di basso livello". Parte del mio progetto prevede la misurazione delle prestazioni dell'euristica generalizzata rispetto agli algoritmi di apprendimento su determinati insiemi di problemi in cui il tempo / le risorse sono fortemente limitati e, in particolare, dove la topologia dell'attuale problema non è nota in anticipo. Quando le decisioni economiche sane ma meno ottimali raggiunte più rapidamente producono maggiori benefici aggregati rispetto alle decisioni più ottimali che richiedono più risorse e tempo?
DukeZhou

@DouglasDaseeco Sul fronte della "mitologia dell'IA", alcuni dei principali autori come Stephenson e Gibson sono stati più interessati recentemente al tipo di intelligenza limitata che stai descrivendo. (Stephenson ha una formazione ingegneristica e non è mai stato interessato all'AGI, ma Gibson ha fatto il suo nome scrivendone nei suoi primi libri.)
DukeZhou

@DouglasDaseeco Concordato. Vale anche la pena notare che il consenso generale della nostra specie sembra che il genocidio sia un anatema, e abbiamo iniziato a pensare all'importanza della biodiversità, con qualche sforzo per conservare le specie in pericolo. Il mio pensiero è che se mai cadessimo dalla nostra posizione ai vertici della catena alimentare, sarebbe un'ottima cosa se qualunque cosa ci sostituisse condividesse quegli obiettivi in ​​b / c potremmo essere quelli che necessitano di protezione! (Trovo Philip K. Dick più saliente perché la sua ipotesi è che l'empatia sia una funzione naturale dell'intelligenza sufficientemente avanzata.)
DukeZhou

3

Sebbene la natura umana abbia molti difetti, è stata sicuramente la più efficace fintanto che è esistita, come sottolineato da @ DukeZhou. Il successo può essere interamente e interamente alluso al fatto che abbiamo un cervello molto ben funzionante e capace. Rispetto ad altre specie siamo fisicamente (abilità fisica) molto più incapaci. Quindi, se stiamo cercando di creare un'intelligenza artificiale, non dovremmo provare a modellare il nostro cervello, il miglior sistema intelligente in circolazione?

L'unica cosa che hai perso è che gli umani sono molto più pacifici di tutti gli altri animali. Gli animali sono in costante guerra per la sopravvivenza, noi umani siamo stati in grado di superare tutto ciò e abbiamo vissuto nei periodi più pacifici dell'intero millennio. Possono sorgere conflitti, questo forse attribuito ai nostri geni. I nostri geni provengono dai nostri antenati animali, dove visualizzano molte cose come minacce (inclusi animali della stessa specie di sesso opposto, il processo di pensiero opposto può anche essere percepito come una minaccia). Quindi è destinato a penetrare nella nostra mentalità. Possiamo cambiarlo? Forse no (forse va contro le leggi della natura e della selezione naturale).

Vediamo 2 casi in cui non c'era competizione:

  • Jarawas - Queste persone vivono isolate su un'isola (anche adesso). Di conseguenza vivono ancora uno stile di vita da cacciatore-raccoglitore, il che può essere attribuito al fatto che non sentivano il bisogno di cambiare poiché non vedevano alcuna minaccia per la loro vita o posizione. Dato che siamo saggi, non invadiamo i loro territori sapendo che non sarebbero durati contro la tecnologia moderna (anche perché non rappresentano una minaccia per noi).
  • Nativi americani : mentre l'Europa e l'Asia erano in guerra queste persone vivevano su un'isola (con solo combattimenti). Di conseguenza le loro tecnologie si sono appena evolute e sono state quasi spazzate via.

Le formiche e le api che collaborano sono un termine improprio per me. È interamente dovuto al fatto che tutte le formiche / api in una particolare colonia sono fratelli (altrimenti macellano brutalmente altre colonie). Inoltre mantengono i confini territoriali fintanto che vi sono abbondanti risorse al suo interno, altrimenti c'è una guerra (non posso citare alcuna fonte ma ho sentito un sacco di formiche che invadono i territori di altre formiche).

I batteri non hanno dolore o paura, ma dire che sono esistiti a lungo a causa della cooperazione non mi sembra del tutto corretto. Probabilmente hanno un meccanismo di sopravvivenza efficiente.

Il punto di tutto ciò è che non esiste un'immagine rosea del regno animale, come ha detto @Neil Slater.

Venendo a come dovremmo creare il comportamento di un'intelligenza artificiale? L'intelligenza artificiale non ha geni per ora, quindi non ha alcun obbligo nei confronti della sua progenie e non avrà gelosia, ciò significa che mancano dei mattoni fondamentali di un organismo biologico (e quindi non hanno alcun obbligo / interesse nei suoi confronti). Ma credo che la concorrenza sia buona tra l'IA, altrimenti come impareranno nuove strategie? Quindi la competizione senza gelosia è lo scenario migliore per gli agenti dell'IA (potrebbe non essere il caso nel regno animale). se non c'è competizione, la conoscenza tra le IA probabilmente ristagnerà.

Non sono un esperto di teoria dei giochi, ma se 2 o più agenti sono in competizione tra loro devono seguire la teoria dei giochi per massimizzare i loro risultati (probabilmente dichiarando Pareto Efficiency come ha sottolineato @DukeZhou, o dal punto di vista della fisica l'energia non viene né creata né distrutta , distribuito solo da un sistema all'altro). Ma c'è un problema qui, ci sono più strategie praticabili che dipendono interamente dall'ambiente . Questo era un argomento che è stato studiato dagli informatici Axelrod e Hamilton in cui hanno testato più strategie. Una versione semplificata dei loro esperimenti può essere trovata in The Selfish Genelibro capitolo 12. I loro esperimenti (simulati su un computer) sembrano fornire alcune prove del fatto che i bravi ragazzi (ragazzi che fanno favori incondizionatamente) non perdono sempre i ragazzi egoisti. Questo deve essere più ricercato se vogliamo davvero creare una colonia di AI.

TL; DR : Non è giusto confrontare l'IA con il regno animale poiché mancano dell'unità di sopravvivenza di base (il gene). Gli umani sono di gran lunga i più intelligenti e pacifici dell'intero regno animale. La competizione senza gelosia è probabilmente il miglior modo di agire in qualsiasi colonia o specie.


1
Nella teoria dei giochi, l'equilibrio di Nash è un punto stabile e l'efficienza di Pareto è una misura dell'utilità totale. Il dilemma del prigioniero è un buon esempio in cui i due non sono massimizzati allo stesso modo; il punto logico minimax ha entrambi i prigionieri che disertano, ma la massima utilità totale si verifica quando entrambi i prigionieri cooperano. Purtroppo, molti sistemi competitivi hanno questa differenza tra gli ottimum di Pareto e Nash.
Neil Slater,

@NeilSlater axelrod ha indagato sul dilemma dei prigionieri in un senso più ampio ... a quanto pare ha avuto alcuni risultati interessanti
DuttaA

0

Alcune caratteristiche dell'intelligenza umana fanno certamente parte dell'obiettivo principale a lungo termine dell'IA. La maggior parte di queste caratteristiche sono ovviamente proprietà anche di altre specie. Una questione davvero cruciale è come potrebbe un computer percepire non solo in modo umano, ma percepire del tutto? I simboli emessi dai sensori digitali non indicano ciò che è stato rilevato. Tutti i computer ottengono i simboli, quindi come può un computer percepire qualcosa?

Un altro problema davvero cruciale è che gli umani e probabilmente la maggior parte degli altri animali hanno in qualche modo un'intelligenza generale - possono applicare ciò che è stato appreso in passato a nuove situazioni. Con gli umani esiste una versione del problema di conoscenza generale che si applica al linguaggio, quindi è una questione puramente umana. Ma molti animali hanno chiaramente una sorta di conoscenza generale. L'intelligenza artificiale non ha ancora prodotto una macchina con conoscenze generali. Gli effetti disastrosi dei "casi limite" sul software AI per veicoli a guida autonoma sono una prova molto preoccupante. Anche il modo di ottenere un'intelligenza generale è un problema assolutamente fondamentale.

Quindi, per riassumere la mia risposta: al momento attuale, un'intelligenza simile all'uomo non è l'obiettivo intelligente. L'IA ha problemi molto più fondamentali. L'obiettivo intelligente al momento è comprendere i principi della percezione e come incarnarli in un computer (supponendo che ciò sia possibile) e comprendere i principi dell'intelligenza generale e come incorporarli.

Cioè, per capire come gli animali conoscono il loro ambiente e come reagiscono adeguatamente alle nuove situazioni sulla base dell'esperienza passata.


La visione molto comune di roadkill dimostra chiaramente che molti animali subiscono effetti disastrosi di "casi limite". L'affermazione "I simboli emessi dai sensori digitali non indicano ciò che è stato rilevato." è interessante e fa emergere alcuni argomenti di base che sono AI pro o anti-forte. Un neurobiologo può ugualmente dire "i segnali emessi da coni e bastoncelli, e i motoneuroni emessi che controllano i muscoli non indicano ciò che è stato rilevato". È principalmente la nostra esperienza cosciente personale a dare la chiave che qualcosa sta succedendo. Non capiamo di cosa si tratti.
Neil Slater,

@Neil Slater Esattamente, quindi non conosciamo neanche i principi di come un cervello organico ottenga strutture semantiche. E negli impulsi neuronali c'è qualcosa che indica ciò che è stato rilevato. Ma cervelli organici fanno ottenere una semantica. Penseresti che questo fatto ispirerebbe i guru a capire cosa c'è che non va nella stanza cinese di Searle e nella sua premessa che i simboli sono semanticamente vuoti. Certo che lo sono. Ma lo sono anche gli impulsi neurali.
Roddus,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.