In particolare, mi riferisco al coefficiente di correlazione momento-prodotto di Pearson.
In particolare, mi riferisco al coefficiente di correlazione momento-prodotto di Pearson.
Risposte:
Qual è la differenza tra la correlazione tra e e una regressione lineare che prevede da ?Y Y X
Innanzitutto, alcune somiglianze :
In secondo luogo, alcune differenze :
lm
e cor.test
in R
, produrrà valori p identici.
Ecco una risposta che ho pubblicato sul sito Web graphpad.com :
La correlazione e la regressione lineare non sono uguali. Considera queste differenze:
Nel singolo caso predittore di regressione lineare, la pendenza standardizzata ha lo stesso valore del coefficiente di correlazione. Il vantaggio della regressione lineare è che la relazione può essere descritta in modo tale da poter prevedere (in base alla relazione tra le due variabili) il punteggio sulla variabile prevista, dato qualsiasi valore particolare della variabile predittore. In particolare, un'informazione una regressione lineare ti dà che una correlazione non è l'intercettazione, il valore sulla variabile prevista quando il predittore è 0.
In breve: producono risultati identici dal punto di vista computazionale, ma ci sono più elementi che sono in grado di interpretare nella semplice regressione lineare. Se sei interessato a caratterizzare semplicemente l'entità della relazione tra due variabili, usa la correlazione - se sei interessato a prevedere o spiegare i tuoi risultati in termini di valori particolari, probabilmente desideri una regressione.
L'analisi di correlazione quantifica solo la relazione tra due variabili ignorando quale è una variabile dipendente e quale è indipendente. Ma prima di applicare la regressione devi verificare l'impatto di quale variabile vuoi controllare sull'altra variabile.
Tutte le risposte fornite finora forniscono importanti spunti, ma non bisogna dimenticare che è possibile trasformare i parametri dell'uno nell'altro:
Regressione:
Connessione tra parametri di regressione e correlazione, covarianza, varianza, deviazione standard e medie: b= ˉ y -m ˉ x
Quindi puoi trasformarli entrambi l'uno nell'altro ridimensionando e spostando i loro parametri.
Un esempio in R:
y <- c(4.17, 5.58, 5.18, 6.11, 4.50, 4.61, 5.17, 4.53, 5.33, 5.14)
x <- c(4.81, 4.17, 4.41, 3.59, 5.87, 3.83, 6.03, 4.89, 4.32, 4.69)
lm(y ~ x)
##
## Call:
## lm(formula = y ~ x)
##
## Coefficients:
## (Intercept) x
## 6.5992 -0.3362
(m <- cov(y, x) / var(x)) # slope of regression
## [1] -0.3362361
cor(y, x) * sd(y) / sd(x) # the same with correlation
## [1] -0.3362361
mean(y) - m*mean(x) # intercept
## [1] 6.599196
Citando Altman DG, "Statistiche pratiche per la ricerca medica" Chapman & Hall, 1991, pagina 321: "La correlazione riduce un insieme di dati a un singolo numero che non ha alcuna relazione diretta con i dati reali. La regressione è un metodo molto più utile, con risultati che sono chiaramente correlati alla misurazione ottenuta. La forza della relazione è esplicita e l'incertezza può essere vista chiaramente da intervalli di confidenza o intervalli di predizione "
L'analisi di regressione è una tecnica per studiare la causa dell'effetto di una relazione tra due variabili. mentre, L'analisi di correlazione è una tecnica per studiare quantifica la relazione tra due variabili.
La correlazione è un indice (solo un numero) della forza di una relazione. La regressione è un'analisi (stima dei parametri di un modello e test statistico della loro significatività) dell'adeguatezza di una particolare relazione funzionale. La dimensione della correlazione è correlata alla precisione delle previsioni della regressione.
La correlazione è un termine in una statistica che determina se esiste una relazione tra due e quindi il grado di relazione. L'intervallo è compreso tra -1 e +1. Mentre la regressione significa tornare alla media. Dalla regressione prevediamo il valore mantenendo una variabile dipendente e l'altra indipendente, ma dovrebbe essere chiarire il valore di quale variabile vogliamo prevedere.