Quali sono i componenti necessari per rendere auto-programmabile l'agente AI?


9

Spesso si pensa che un agente AI abbia "sensori", "memoria", "processori di apprendimento automatico" e componenti "reazione". Tuttavia, una macchina con queste non diventa necessariamente un agente AI autoprogrammante. Oltre alle parti sopra menzionate, ci sono altri elementi o dettagli necessari per rendere una macchina in grado di essere un agente AI autoprogrammante?

Ad esempio, un documento del 2011 ha dichiarato che la risoluzione del problema di ottimizzazione della massimizzazione dell'intelligence è una caratteristica indispensabile per il processo di autoprogrammazione, come riportato di seguito:

Si dice che un sistema esegua un'istanza di autoprogrammazione quando subisce l'apprendimento di alcuni elementi della sua "infrastruttura cognitiva", dove quest'ultimo è definito come l'insieme sfocato delle caratteristiche "critiche dell'intelligenza" del sistema; e la criticità dell'intelligence di una funzionalità di sistema è definita come la "qualità delle funzionalità", considerata dal punto di vista della risoluzione del problema di ottimizzazione della massimizzazione dell'intelligenza di un sistema multi-funzionalità.

Tuttavia, questa descrizione di "ottimizzazione dell'intelligence" è vaga. Qualcuno può fornire una definizione chiara o un riepilogo migliore dei componenti necessari per gli agenti di autoprogrammazione?

Questa domanda è della closed beta del 2014, con il richiedente che ha un UID di 23.


3
Ecco praticamente l'ultima parola sull'auto-ottimizzazione: arxiv.org/abs/cs/0309048
NietzscheanAI

Grazie per il rilancio dei contenuti persi e buoni nella beta perduta. :-)
Peter - Ripristina Monica il

Risposte:


5

Al livello più alto, tutto ciò che serve è che i vari sistemi già discussi incorporino oggetti di codice. Se è in grado di interpretare la sua architettura del codice sorgente / modello dagli oggetti di testo formattati su cui si basano, può "capirli" in termini di avere un utile modello ML e alterare il codice con la sua reazione, quindi può auto-programmare.

Cioè, il ciclo di base dietro un'intelligenza che migliora ricorsivamente è semplice. Esamina se stesso, scrive una nuova versione, quindi quella nuova esamina se stessa e scrive una nuova versione e così via.

Il componente difficile arriva a livelli più bassi. Non abbiamo bisogno di inventare un nuovo concetto come "sensore", ciò che dobbiamo fare è costruire sensori molto, molto sofisticati che siano uguali al compito di comprendere il codice abbastanza bene da rilevare e scrivere miglioramenti.


2
Sebbene la reazione dell'informatica istintiva alle dichiarazioni sui sistemi che comprendono il proprio codice spesso citi il ​​problema dell'arresto, si scopre che gli approcci AI hanno qualcosa di utile da dire al riguardo: cs.stackexchange.com/questions/62393/ …
NietzscheanAI

3
Bene, l'Halting Problem è un teorema irrinunciabile per comprendere appieno tutto il codice possibile , ma non impedisce a nessuno di avere una buona comprensione della maggior parte del codice che si incontra realmente.
Matthew Graves,

Realisticamente, il problema dell'arresto si applica solo alle "macchine di tornitura" che sono puri costrutti matematici che non possono realmente esistere (ad esempio richiedono un nastro infinito per memoria illimitata) e possono funzionare per un tempo infinito. I computer del mondo reale hanno una quantità limitata di memoria. Esistono modi per scrivere software che può essere verificato formalmente (Idris, Coq). Utilizzando tipi dipendenti. Limitare le dimensioni di un array (ovvero <la quantità o la ram). Non consentire a un programma di modificarsi in memoria in modo tale da violare le prove formali. Nessun loop infinito. Nessun loop / divisione byte per zero. Ecc ...
David C. Bishop,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.