Ho ascoltato un discorso di gruppo composto da due influenti scienziati cinesi: Wang Gang e Yu Kai e altri.
Alla domanda sul più grande collo di bottiglia dello sviluppo dell'intelligenza artificiale nel prossimo futuro (da 3 a 5 anni), Yu Kai, che ha un background nel settore hardware, ha affermato che l'hardware sarebbe il problema essenziale e dovremmo pagare la maggior parte di la nostra attenzione a questo. Ci ha dato due esempi:
- Nel primo sviluppo del computer, confrontiamo le nostre macchine con i suoi chip;
- L'intelligenza artificiale che è molto popolare in questi anni sarebbe quasi impossibile se non potenziata dalla GPU di Nvidia.
Gli algoritmi fondamentali esistevano già negli anni '80 e '90, ma l'intelligenza artificiale ha attraversato 3 inverni AI e non è stata empirica fino a quando non siamo in grado di addestrare modelli con mega server potenziati dalla GPU.
Quindi il Dr. Wang ha commentato le sue opinioni sul fatto che dovremmo anche sviluppare sistemi software perché non possiamo costruire un'auto automatica anche se abbiamo combinato tutte le GPU e il calcolo nel mondo insieme.
Quindi, come al solito, la mia mente si è allontanata e ho iniziato a pensare che cosa accadrebbe se coloro che erano in grado di gestire i supercomputer negli anni '80 e '90 utilizzassero gli algoritmi della rete neurale allora esistenti e li addestrassero con tonnellate di dati scientifici? Alcune persone a quel tempo possono ovviamente tentare di costruire sistemi di intelligenza artificiale che stiamo costruendo ora. Ma perché l'IA è diventata un argomento caldo ed è diventata empirica fino a decenni dopo? È solo una questione di hardware, software e dati?