Nassim Taleb ha ragione sull'intelligenza artificiale che non è in grado di prevedere con precisione determinati tipi di distribuzioni?


8

Quindi Taleb ha due euristiche per descrivere in genere le distribuzioni di dati. Uno è il Mediocristan, che in pratica significa cose che si trovano su una distribuzione gaussiana come altezza e / o peso delle persone.

L'altro si chiama Extremistan, che descrive una distribuzione più simile a Pareto o adiposa. Un esempio è la distribuzione della ricchezza, l'1% delle persone possiede il 50% della ricchezza o qualcosa di simile e quindi la prevedibilità da set di dati limitati è molto più difficile o addirittura impossibile. Questo perché è possibile aggiungere un singolo campione al set di dati e le conseguenze sono così grandi da interrompere il modello o avere un effetto così grande da annullare qualsiasi beneficio derivante da previsioni accurate precedenti. In effetti è così che afferma di aver fatto soldi nel mercato azionario, perché tutti gli altri stavano usando cattivi modelli di distribuzione gaussiani per predire il mercato, che in realtà avrebbe funzionato per un breve periodo di tempo, ma quando le cose sono andate male, sono andate davvero sbagliato che potrebbe causare perdite nette sul mercato.

Ho trovato questo video di Taleb che mi veniva chiesto dell'IA. La sua affermazione è che l'IA non funziona (anche) per le cose che cadono in estremistan.

Ha ragione? Alcune cose saranno intrinsecamente imprevedibili anche con l'IA?

Ecco il video a cui mi riferisco https://youtu.be/B2-QCv-hChY?t=43m08s

Risposte:


6

Sì e no!

Non vi è alcuna ragione intrinseca che i sistemi di apprendimento automatico non possano gestire eventi estremi. Come una versione semplice, puoi imparare dai dati i parametri di una distribuzione Weibull o un altro modello di valore estremo.

Il problema maggiore riguarda le incognite e le incognite. Se sai che sono possibili eventi rari (come, ad esempio, la previsione del terremoto), puoi incorporare quella conoscenza nei modelli che sviluppi e otterrai qualcosa che funziona altrettanto bene o meglio degli umani in quel dominio. Se non sai che sono possibili eventi rari (come, ad esempio, un crollo del mercato azionario causato da valori predefiniti abitativi correlati), anche il tuo modello lo rifletterà.

Tendo a pensare che Taleb sia un po 'ingiusto qui: l'IA non può gestire questo tipo di eventi proprio perché i suoi creatori (noi) non possono gestirli! Se sapessimo che erano possibili, allora potremmo gestirli abbastanza bene, e anche AI.


1
L'incapacità di questi modelli (compresi quelli umani nel cervello) non è in grado di gestire le sue incognite? Poiché esiste sempre un limite alla quantità di dati precisi che possiamo raccogliere nei nostri campioni e in casi di distribuzioni fat-tail l'effetto di un outlier può essere enorme, mentre in una distribuzione normale l'effetto o il danno di un outlier estremo di solito essere piuttosto piccolo. Quindi è come se stesse dicendo che questa è una caratteristica fondamentale della conoscenza e dei sistemi predittivi, biologici o basati su macchine, quindi perché l'IA sarà limitata in alcuni settori.
Josiah Swaim,

2
Hmm. Penso che ci siano due problemi. Uno è l'affermazione che non possiamo gestire le distribuzioni dalla coda grassa con l'IA. Questo è falso L'altro è che, se non sai quali distribuzioni sono adatte al problema che stai studiando (cioè, se non capisci davvero il tuo problema), rimarrai sorpreso da eventi imprevisti. Questo è vero. Penso che Taleb stia fondendo i due problemi, quando in realtà sono separati.
John Doucette
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.