Secondo Wikipedia (citazioni omesse):
Nella storia dell'intelligenza artificiale, un inverno di intelligenza artificiale è un periodo di finanziamenti e interessi ridotti nella ricerca dell'intelligenza artificiale. Il termine è stato coniato per analogia all'idea di un inverno nucleare. Il settore ha subito diversi cicli di campagna pubblicitaria, seguiti da delusioni e critiche, seguite da tagli ai finanziamenti, seguiti da rinnovati interessi anni o decenni dopo.
La pagina di Wikipedia discute un po 'delle cause degli inverni AI. Sono curioso, tuttavia, se è possibile fermare un inverno AI. Non mi piace la allocazione errata delle risorse causata da investimenti eccessivi seguiti da investimenti insufficienti.
Una delle cause dell'inverno dell'IA elencata in quella pagina di Wikipedia è "hype":
Gli inverni dell'IA possono essere in parte intesi come una sequenza di aspettative eccessivamente gonfiate e dei successivi incidenti visti nei mercati azionari ed esemplificati dalla mania ferroviaria e dalla bolla delle dotcom. In un modello comune nello sviluppo di nuove tecnologie (noto come ciclo di hype), un evento, tipicamente una svolta tecnologica, crea pubblicità che si nutre di se stessa per creare un "picco di aspettative gonfiate" seguito da un "trogolo di disillusione". Poiché il progresso scientifico e tecnologico non può tenere il passo con l'aumento delle aspettative alimentato dalla pubblicità tra gli investitori e le altre parti interessate, deve seguire un incidente. La tecnologia AI sembra non fare eccezione a questa regola.
E sembra che questo paragrafo indichi che qualsiasi nuova tecnologia sarà bloccata in questo modello di "aspettative gonfiate" seguite da disillusione.
Quindi, gli inverni AI sono inevitabili? È inevitabile che le tecnologie di intelligenza artificiale saranno sempre sovrascritte in futuro e che si verifichino sempre "correzioni"? O può esistere un modo per gestire questo ciclo di hype per fermare aumenti / diminuzioni gravi nei finanziamenti?