Sto eseguendo una regressione basata su GAM usando il pacchetto R gamlss e assumendo una distribuzione beta a zero inflazionata dei dati. Ho solo una singola variabile esplicativa nel mio modello, quindi è fondamentalmente: mymodel = gamlss(response ~ input, family=BEZI)
.
L'algoritmo mi dà il coefficiente per l'impatto della variabile esplicativa nella media ( ) e il valore p associato per , qualcosa del tipo:μ k ( input ) = 0
Mu link function: logit
Mu Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -2.58051 0.03766 -68.521 0.000e+00
input -0.09134 0.01683 -5.428 6.118e-08
Come puoi vedere nell'esempio sopra, l'ipotesi di viene respinta con grande fiducia.
Quindi eseguo il modello null: null = gamlss(response ~ 1, family=BEZI)
e confronto le probabilità usando un test del rapporto di verosimiglianza:
p=1-pchisq(-2*(logLik(null)[1]-logLik(mymodel)[1]), df(mymodel)-df(null)).
In un certo numero di casi, ottengo anche quando i coefficienti in ingresso sono altamente significativi (come sopra). Lo trovo abbastanza insolito - almeno non è mai successo nella mia esperienza con regressione lineare o logistica (in realtà, questo non è mai accaduto quando stavo usando una gamma a regolazione zero con gamlss).
La mia domanda è: posso ancora fidarmi della dipendenza tra risposta e input quando questo è il caso?