Mi chiedevo, perché è così importante avere l'apprendimento automatico di principio / teorico? Da una prospettiva personale come essere umano, posso capire perché l'apprendimento automatico basato sui principi sarebbe importante:
- agli umani piace capire cosa stanno facendo, troviamo bellezza e soddisfazione per la comprensione.
- dal punto di vista della teoria, la matematica è divertente
- quando ci sono principi che guidano la progettazione delle cose, c'è meno tempo speso per ipotesi casuali, strane prove ed errori. Se capissimo, diciamo, come funzionavano davvero le reti neurali, forse potremmo passare molto più tempo a progettarle piuttosto che alle enormi quantità di tentativi ed errori che si verificano proprio ora.
- più recentemente, se i principi sono chiari e anche la teoria è chiara, allora dovrebbe esserci (si spera) una maggiore trasparenza del sistema. Questo è positivo perché se capiamo cosa sta funzionando il sistema, allora l'intelligenza artificiale rischia che molte persone chiedano a gran voce se ne va quasi immediatamente.
- i principi sembrano essere un modo conciso per sintetizzare le strutture importanti che il mondo potrebbe avere e quando usare uno strumento piuttosto che un altro.
Tuttavia, questi motivi sono abbastanza forti da giustificare un intenso studio teorico dell'apprendimento automatico? Una delle maggiori critiche alla teoria è che, poiché è così difficile da fare, di solito finiscono per studiare un caso molto ristretto o le ipotesi che devono essere portate rendono essenzialmente i risultati inutili. Penso di averlo sentito una volta durante un discorso al MIT dal creatore di Tor. Il fatto che alcune delle critiche a Tor che ha ascoltato sia l'argomento teorico, ma essenzialmente le persone non sono mai in grado di provare cose sugli scenari reali della vita reale perché sono così complicate.
In questa nuova era con così tanta potenza e dati di elaborazione, possiamo testare i nostri modelli con set di dati e set di test reali. Possiamo vedere se le cose funzionano usando l'empirismo. Se possiamo invece ottenere AGI o sistemi che funzionano con ingegneria ed empirismo, vale comunque la pena perseguire una giustificazione di principio e teorica per l'apprendimento automatico, specialmente quando i limiti di quantificazione sono così difficili da raggiungere, ma intuizioni e risposte qualitative sono molto più facili da ottenere ottenere con un approccio basato sui dati? Questo approccio non era disponibile nelle statistiche classiche, motivo per cui penso che la teoria fosse così importante in quei tempi, perché la matematica era l'unico modo in cui potevamo essere sicuri che le cose fossero corrette o che funzionassero davvero come pensavamo che facessero.
Personalmente ho sempre amato e pensato la teoria e un approccio di principio era importante. Ma con il potere di provare semplicemente le cose con dati reali e la potenza di calcolo mi ha fatto domandare se valga ancora la pena lo sforzo elevato (e potenzialmente i bassi premi) della ricerca teorica.
La ricerca teorica e di principio dell'apprendimento automatico è davvero così importante?