Qual è la differenza tra minimi quadrati e regressione lineare? È la stessa cosa?
Qual è la differenza tra minimi quadrati e regressione lineare? È la stessa cosa?
Risposte:
La regressione lineare assume una relazione lineare tra la variabile indipendente e quella dipendente. Non ti dice come è montato il modello. Il montaggio meno quadrato è semplicemente una delle possibilità. Altri metodi per addestrare un modello lineare sono nel commento.
I minimi quadrati non lineari sono comuni ( https://en.wikipedia.org/wiki/Non-linear_least_squares ). Ad esempio, il popolare algoritmo Levenberg-Marquardt risolve qualcosa del tipo:
È un'ottimizzazione dei minimi quadrati ma il modello non è lineare.
Non sono la stessa cosa .
Oltre alla risposta corretta di @Student T, voglio sottolineare che i minimi quadrati sono una potenziale funzione di perdita per un problema di ottimizzazione, mentre la regressione lineare è un problema di ottimizzazione.
Dato un determinato set di dati, la regressione lineare viene utilizzata per trovare la migliore funzione lineare possibile, che spiega la connessione tra le variabili.
In questo caso, il "migliore" possibile è determinato da una funzione di perdita, confrontando i valori previsti di una funzione lineare con i valori effettivi nel set di dati. Minimi quadrati è una possibile funzione di perdita.
L'articolo di minimi quadrati di Wikipedia mostra anche le immagini sul lato destro che mostrano l'uso di minimi quadrati per altri problemi oltre alla regressione lineare come:
La seguente gif dell'articolo di Wikipedia mostra diverse funzioni polinomiali adattate a un set di dati usando i minimi quadrati. Solo uno di questi è lineare (polinomio di 1). Questo è tratto dall'articolo di Wikipedia in tedesco sull'argomento.