I valori t e R2 sono usati per giudicare cose molto diverse. I valori t sono usati per giudicare l'accuratezza della tua stima dei βi , ma R2 misura la quantità di variazione nella variabile di risposta spiegata dalle tue covariate. Supponiamo che stiate stimando un modello di regressione con n osservazioni,
Yi=β0+β1X1i+...+βkXki+ϵi
dove ϵi∼i.i.dN(0,σ2) , i=1,...,n .
Grande t -Valori (in valore assoluto) si porterà a rifiutare l'ipotesi nulla che βi=0 . Ciò significa che puoi essere sicuro di aver stimato correttamente il segno del coefficiente. Inoltre, se |t|> 4 e hai n>5 , quindi 0 non è in un intervallo di confidenza del 99% per il coefficiente. Il valore t per un coefficiente βi è la differenza tra la stima βi^ e 0 normalizzata dall'errore standard se{βi^} .
t=βi^se{βi^}
che è semplicemente la stima divisa per una misura della sua variabilità. Se si dispone di un set di dati abbastanza grande, si avranno sempre valori t statisticamente significativi (grandi) . Ciò non significa necessariamente che le covariate spieghino gran parte della variazione nella variabile di risposta.
Come accennato da @Stat, R2 misura la quantità di variazione nella variabile di risposta spiegata dalle variabili dipendenti. Per ulteriori informazioni su R2 , vai su Wikipedia . Nel tuo caso, sembra che tu abbia un set di dati abbastanza grande da stimare con precisione i βi , ma le tue covariate fanno un cattivo lavoro di spiegazione e \ o previsione dei valori di risposta.