Sto esaminando i video del corso di apprendimento automatico online di Andrew Ng a Stanford. Discute Gradient Descent come un algoritmo per risolvere la regressione lineare e scrivere funzioni in Octave per eseguirlo. Presumibilmente potrei riscrivere quelle funzioni in R, ma la mia domanda è: la funzione lm () non mi dà già l'output della regressione lineare? Perché dovrei voler scrivere la mia funzione di discesa gradiente? C'è qualche vantaggio o è puramente un esercizio di apprendimento? Lm () fa la discesa gradiente?