In che modo un'IA imparerebbe la lingua?


11

Stavo pensando agli AI e al loro funzionamento, quando mi sono reso conto che non riuscivo a pensare a un modo in cui un'IA potesse insegnare la lingua. Un bambino tende a imparare la lingua attraverso associazioni di linguaggio e immagini a un oggetto (ad esempio, le persone che dicono la parola "cane" mentre si trovano intorno a un cane, e in seguito si rendono conto che le persone dicono "un cane" e "un'auto" e imparano cosa "a "significa, ecc.). Tuttavia, un'intelligenza artificiale basata su testo non può utilizzare questo metodo per apprendere, poiché non avrebbe accesso a nessun tipo di dispositivo di input.

L'unico modo in cui potrei venire in mente è programmare in ogni parola e regola, in lingua inglese (o in qualunque lingua si intenda "parlare"), tuttavia, ciò richiederebbe potenzialmente anni.

Qualcuno ha qualche idea su come farlo? O se è già stato fatto, se sì come?

A proposito, in questo contesto, sto usando l'IA per indicare un sistema di Intelligenza Artificiale con intelligenza quasi umana e nessuna conoscenza del linguaggio.

Risposte:


12

L'area di ricerca generale è conosciuta come induzione grammaticale .

È generalmente definito come un problema di apprendimento supervisionato, con l'input presentato come testo non elaborato e l'output desiderato l' albero di analisi corrispondente . L'insieme di addestramento spesso consiste di esempi sia positivi che negativi.

Non esiste un metodo migliore per raggiungere questo obiettivo, ma alcune delle tecniche che sono state utilizzate finora includono:


6

Il termine generico per il tuo problema si chiama elaborazione del linguaggio naturale (PNL) , un argomento sotto intelligenza artificiale.

Esistono molti argomenti secondari in questo campo, tra cui la semantica della lingua, l'analisi grammaticale, le parti del tag vocale, l'analisi del contesto specifico del dominio, ecc.


5

Solo per completezza, farò notare che le reti neurali ricorrenti (cioè le reti neurali con connessioni all'indietro) sono spesso utilizzate per l'elaborazione del linguaggio naturale (NLP). Ciò include varianti come Bidirectional, Jordan ed Elman Networks. La memoria a breve termine (LSTM) è un algoritmo di rete neurale più sofisticato che può svolgere le stesse attività basate sulla sequenza temporale, ma che può sfruttare metodi di apprendimento standard come il backprop poiché non soffre del "problema del gradiente di fuga". Questo perché gli LSTM sono stati brillantemente progettati come "integratori perfetti", il che rende molto più semplice calcolare i gradienti di errore ecc. Per lunghi periodi di tempo. In contrasto, l'apprendimento con le RNN non è ancora teoricamente ben fondato ed è difficile da calcolare attraverso metodi esistenti come Backpropagation Through Time (BPTT). In Time Delay Neural Networks (TDNNs), l'idea è quella di aggiungere nuovi neuroni e connessioni con ogni nuovo esempio di allenamento in un arco di tempo o sequenza di allenamento; sfortunatamente, questo pone una limitazione pratica su quanti esempi puoi alimentare nella rete prima che le dimensioni della rete sfuggano di mano o inizi a dimenticare, proprio come con gli RNN. Gli LSTM hanno ricordi molto più lunghi (specialmente se aumentati con Neural Turing Machines), quindi questa sarebbe la mia prima scelta, supponendo che volessi usare le reti neurali per scopi di PNL. La mia conoscenza della materia è tuttavia limitata (sto ancora cercando di imparare le corde) quindi potrebbero esserci altri importanti algoritmi di reti neurali che sto trascurando ...

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.