Qual è la distribuzione di nella regressione lineare sotto l'ipotesi nulla? Perché la sua modalità non è zero quando ?


26

Qual è la distribuzione del coefficiente di determinazione, o R al quadrato, , nella regressione multipla univariata lineare sotto l'ipotesi nulla ?R 2 R2H 0 : β = 0H0:β=0

In che modo dipende dal numero di predittori e dal numero di campioni ? Esiste un'espressione a forma chiusa per la modalità di questa distribuzione?k kn > kn>k

In particolare, ho la sensazione che per la regressione semplice (con un predittore ) questa distribuzione abbia modalità a zero, ma per la regressione multipla la modalità ha un valore positivo diverso da zero. Se questo è davvero vero, esiste una spiegazione intuitiva di questa "transizione di fase"?Xx


Aggiornare

Come mostrato da @Alecos di seguito, la distribuzione raggiunge un picco pari a zero quando e e non a zero quando . Sento che dovrebbe esserci una visione geometrica su questa transizione di fase. Considera la vista geometrica di OLS: è un vettore in , definisce lì un sottospazio k -dimensionale. OLS equivale a proiettare \ mathbf y su questo sottospazio e R ^ 2 è il coseno quadrato dell'angolo tra \ mathbf y e la sua proiezione \ hat {\ mathbf y} .k = 2 k=2k = 3 k=3k > 3 k>3y yR n RnXX k ky yR 2 R2y yyy^

Ora, dalla risposta di @Alecos, ne consegue che se tutti i vettori sono casuali, la distribuzione di probabilità di questo angolo raggiungerà il picco a 90 90 per k = 2k=2 e k = 3k=3 , ma avrà una modalità con un altro valore < 90 <90 per k > 3k>3 . Perché?!


Aggiornamento 2: sto accettando la risposta di Alecos, ma ho ancora la sensazione che mi sto perdendo alcune informazioni importanti qui. Se qualcuno dovesse mai suggerire un'altra visione (geometrica o meno) di questo fenomeno che lo renderebbe "ovvio", sarò felice di offrire una generosità.


1
Sei disposto ad assumere la normalità dell'errore?
Dimitriy V. Masterov,

1
Sì, suppongo che si debba presumere che questa domanda sia responsabile (?).
ameba dice Ripristina Monica il


1
@Khashaa: in effetti, devo ammettere che ho trovato quella pagina blogspot prima di pubblicare la mia domanda qui. Onestamente, volevo ancora discutere di questo fenomeno sul nostro forum, quindi ho fatto finta di non averlo visto.
ameba dice Ripristina Monica il

Risposte:


33

Per l'ipotesi specifica (che tutti i coefficienti regressori sono zero, escluso il termine costante, che non viene esaminato in questo test) e sotto la normalità, sappiamo (vedi ad esempio Maddala 2001, p. 155, ma nota che lì kk conta regressori senza il termine costante, quindi l'espressione appare leggermente diversa) rispetto alla statistica

F = n - kk - 1 R21 - R 2

F=nkk1R21R2
è distribuito come unavariabile casualeF(k-1,n-k) centraleF(k1,nk).

Nota che sebbene non testiamo il termine costante, k lok conta anche.

Muovendo le cose,

( k - 1 ) F - ( k - 1 ) F R 2 = ( n - k ) R 2( k - 1 ) F = R 2 [ ( n - k ) + ( k - 1 ) F ]

(k1)F(k1)FR2=(nk)R2(k1)F=R2[(nk)+(k1)F]

R 2 = ( k - 1 ) F( n - k ) + ( k - 1 ) F

R2=(k1)F(nk)+(k1)F

Ma il lato destro è distribuito come una distribuzione Beta , in particolare

R 2B e t a ( k - 12 ,n-k2 )

R2Beta(k12,nk2)

La modalità di questa distribuzione è

modalità R 2 = k - 12 -1k - 12 +n-k2 -2=k-3n - 5

modeR2=k121k12+nk22=k3n5

MODALITÀ FINITA E UNICA
Dalla relazione di cui sopra possiamo dedurre che per la distribuzione deve avere una modalità unica e finita che dobbiamo avere

k 3 , n > 5

k3,n>5

Ciò è coerente con il requisito generale per una distribuzione Beta, che è

{ α > 1 , β 1 } ,O{ α 1 , β > 1 }

{α>1,β1},OR{α1,β>1}

come si può dedurre da questo thread CV o leggere qui .
Nota che se { α = 1 , β = 1 } , otteniamo la distribuzione Uniforme, quindi tutti i punti di densità sono modi (finiti ma non unici). Il che crea la domanda: perché, se k = 3 , n = 5 , R 2 è distribuito come U ( 0 , 1 ) ?{α=1,β=1}k=3,n=5R2U(0,1)

IMPLICAZIONI
Supponi di avere k = 5 regressori (inclusa la costante) e n = 99 osservazioni. Bella regressione, nessun eccesso di adattamento. Poik=5n=99

R 2 | β = 0B e t a ( 2 , 47 ) , modalità R 2 = 1470,021

R2β=0Beta(2,47),modeR2=1470.021

e diagramma di densità

enter image description here

Intuizione per favore: questa è la distribuzione di R 2 secondo l'ipotesi che nessun regressore appartenga effettivamente alla regressione. Quindi a) la distribuzione è indipendente dai regressori, b) man mano che la dimensione del campione aumenta, la sua distribuzione si concentra verso lo zero poiché le informazioni aumentate inondano la variabilità del piccolo campione che può produrre un certo "adattamento" ma anche c) come il numero di regressori irrilevanti aumenta a seconda della dimensione del campione, la distribuzione si concentra verso 1 e abbiamo il fenomeno dell '"adattamento spurio". R21

Ma nota anche quanto sia "facile" rifiutare l'ipotesi nulla: nell'esempio particolare, per R 2 = 0,13 la probabilità cumulativa ha già raggiunto 0,99 , quindi un R 2 > 0,13 ottenuto respingerà il nulla di "regressione insignificante" a livello di significatività 1 %.R2=0.130.99R2>0.131

ADDENDUM
Per rispondere al nuovo problema relativo alla modalità di distribuzione R 2 , posso offrire la seguente linea di pensiero (non geometrica), che lo collega al fenomeno "adattamento spurio": quando eseguiamo i minimi quadrati su un set di dati , essenzialmente risolviamo un sistema di n equazioni lineari con k incognite (l'unica differenza rispetto alla matematica del liceo è che all'epoca chiamavamo "coefficienti noti" ciò che nella regressione lineare chiamiamo "variabili / regressori", "sconosciuto x" ciò che noi ora chiamiamo "coefficienti sconosciuti" e "termini costanti" ciò che sappiamo chiamare "variabile dipendente"). Finché k < nR2nkk<nil sistema è troppo identificato e non esiste una soluzione esatta, solo approssimativa e la differenza emerge come "varianza inspiegabile della variabile dipendente", che viene catturata da 1 - R 2 . Se k = n il sistema ha una soluzione esatta (assumendo l'indipendenza lineare). Nel mezzo, quando aumentiamo il numero di k , riduciamo il "grado di sovraidentificazione" del sistema e "ci spostiamo" verso la singola soluzione esatta. Sotto questo punto di vista, ha senso il motivo per cui R 2 aumenta in maniera spuria con l'aggiunta di regressioni irrilevanti e, di conseguenza, perché la sua modalità si sposta gradualmente verso 1 , poiché k aumenta1R2k=nkR21kn .n


1
È matematico. Per k = 2 il primo parametro della distribuzione beta (la " α " nella notazione standard) diventa più piccolo dell'unità. In tal caso la distribuzione Beta non ha una modalità finita, gioca con keisan.casio.com/exec/system/1180573226 per vedere come cambiano le forme. k=2α
Alecos Papadopoulos,

1
@Alecos Ottima risposta! (+1) Posso suggerire vivamente di aggiungere alla risposta il requisito per la modalità di esistere? Questo di solito è indicato come α > 1 e β > 1 ma più sottilmente, va bene se l'uguaglianza vale in uno dei due ... Penso che per i nostri scopi questo diventi k 3 e n k + 2 e almeno uno di queste disuguaglianze sono severe . α>1β>1k3 nk+2
Silverfish,

2
@Khashaa Tranne se la teoria lo richiede, non escludo mai l'intercettazione dalla regressione: è il livello medio della variabile dipendente, i regressori o nessun regressore (e questo livello è generalmente positivo, quindi sarebbe una pazzesca auto-creazione errata per omettilo). Ma lo escludo sempre dal test F della regressione, poiché ciò che mi interessa non è se la variabile dipendente ha una media incondizionata diversa da zero, ma se i regressori hanno qualche potere esplicativo per quanto riguarda le deviazioni da questa media.
Alecos Papadopoulos,

1
+1! Are there results for the distribution of R2R2 for nonzero βjβj?
Christoph Hanck


18

I won't rederive the Beta(k12,nk2)Beta(k12,nk2) distribution in @Alecos's excellent answer (it's a standard result, see here for another nice discussion) but I want to fill in more details about the consequences! Firstly, what does the null distribution of R2R2 look like for a range of values of nn and kk? The graph in @Alecos's answer is quite representative of what occurs in practical multiple regressions, but sometimes insight is gleaned more easily from smaller cases. I've included the mean, mode (where it exists) and standard deviation. The graph/table deserves a good eyeball: best viewed at full-size. I could have included less facets but the pattern would have been less clear; I have appended R code so that readers can experiment with different subsets of nn and kk.

Distribution of R2 for small sample sizes

Values of shape parameters

The graph's colour scheme indicates whether each shape parameter is less than one (red), equal to one (blue), or more than one (green). The left-hand side shows the value of αα while ββ is on the right. Since α=k12α=k12, its value increases in arithmetic progression by a common difference of 1212 as we move right from column to column (add a regressor to our model) whereas, for fixed nn, β=nk2β=nk2 decreases by 1212. The total α+β=n12α+β=n12 is fixed for each row (for a given sample size). If instead we fix kk and move down the column (increase sample size by 1), then αα stays constant and ββ increases by 1212. In regression terms, αα is half the number of regressors included in the model, and ββ is half the residual degrees of freedom. To determine the shape of the distribution we are particularly interested in where αα or ββ equal one.

The algebra is straightforward for αα: we have k12=1k12=1 so k=3k=3. This is indeed the only column of the facet plot that's filled blue on the left. Similarly α<1α<1 for k<3k<3 (the k=2k=2 column is red on the left) and α>1α>1 for k>3k>3 (from the k=4k=4 column onwards, the left side is green).

For β=1β=1 we have nk2=1nk2=1 hence k=n2k=n2. Note how these cases (marked with a blue right-hand side) cut a diagonal line across the facet plot. For β>1β>1 we obtain k<n2k<n2 (the graphs with a green left side lie to the left of the diagonal line). For β<1β<1 we need k>n2k>n2, which involves only the right-most cases on my graph: at n=kn=k we have β=0β=0 and the distribution is degenerate, but n=k1n=k1 where β=12β=12 is plotted (right side in red).

Since the PDF is f(x;α,β)xα1(1x)β1f(x;α,β)xα1(1x)β1, it is clear that if (and only if) α<1α<1 then f(x)f(x) as x0x0. We can see this in the graph: when the left side is shaded red, observe the behaviour at 0. Similarly when β<1β<1 then f(x)f(x) as x1x1. Look where the right side is red!

Symmetries

One of the most eye-catching features of the graph is the level of symmetry, but when the Beta distribution is involved, this shouldn't be surprising!

The Beta distribution itself is symmetric if α=βα=β. For us this occurs if n=2k1n=2k1 which correctly identifies the panels (k=2,n=3)(k=2,n=3), (k=3,n=5)(k=3,n=5), (k=4,n=7)(k=4,n=7) and (k=5,n=9)(k=5,n=9). The extent to which the distribution is symmetric across R2=0.5R2=0.5 depends on how many regressor variables we include in the model for that sample size. If k=n+12k=n+12 the distribution of R2R2 is perfectly symmetric about 0.5; if we include fewer variables than that it becomes increasingly asymmetric and the bulk of the probability mass shifts closer to R2=0R2=0; if we include more variables then it shifts closer to R2=1R2=1. Remember that kk includes the intercept in its count, and that we are working under the null, so the regressor variables should have coefficient zero in the correctly specified model.

There is also an obviously symmetry between distributions for any given nn, i.e. any row in the facet grid. For example, compare (k=3,n=9)(k=3,n=9) with (k=7,n=9)(k=7,n=9). What's causing this? Recall that the distribution of Beta(α,β)Beta(α,β) is the mirror image of Beta(β,α)Beta(β,α) across x=0.5x=0.5. Now we had αk,n=k12αk,n=k12 and βk,n=nk2βk,n=nk2. Consider k=nk+1k=nk+1 and we find:

αk,n=(nk+1)12=nk2=βk,n

αk,n=(nk+1)12=nk2=βk,n
βk,n=n(nk+1)2=k12=αk,n
βk,n=n(nk+1)2=k12=αk,n

So this explains the symmetry as we vary the number of regressors in the model for a fixed sample size. It also explains the distributions that are themselves symmetric as a special case: for them, k=kk=k so they are obliged to be symmetric with themselves!

This tells us something we might not have guessed about multiple regression: for a given sample size nn, and assuming no regressors have a genuine relationship with YY, the R2R2 for a model using k1k1 regressors plus an intercept has the same distribution as 1R21R2 does for a model with k1k1 residual degrees of freedom remaining.

Special distributions

When k=nk=n we have β=0β=0, which isn't a valid parameter. However, as β0β0 the distribution becomes degenerate with a spike such that P(R2=1)=1P(R2=1)=1. This is consistent with what we know about a model with as many parameters as data points - it achieves perfect fit. I haven't drawn the degenerate distribution on my graph but did include the mean, mode and standard deviation.

When k=2k=2 and n=3n=3 we obtain Beta(12,12)Beta(12,12) which is the arcsine distribution. This is symmetric (since α=βα=β) and bimodal (0 and 1). Since this is the only case where both α<1α<1 and β<1β<1 (marked red on both sides), it is our only distribution which goes to infinity at both ends of the support.

The Beta(1,1)Beta(1,1) distribution is the only Beta distribution to be rectangular (uniform). All values of R2R2 from 0 to 1 are equally likely. The only combination of kk and nn for which α=β=1α=β=1 occurs is k=3k=3 and n=5n=5 (marked blue on both sides).

The previous special cases are of limited applicability but the case α>1α>1 and β=1β=1 (green on left, blue on right) is important. Now f(x;α,β)xα1(1x)β1=xα1f(x;α,β)xα1(1x)β1=xα1 so we have a power-law distribution on [0, 1]. Of course it's unlikely we'd perform a regression with k=n2k=n2 and k>3k>3, which is when this situation occurs. But by the previous symmetry argument, or some trivial algebra on the PDF, when k=3k=3 and n>5n>5, which is the frequent procedure of multiple regression with two regressors and an intercept on a non-trivial sample size, R2R2 will follow a reflected power law distribution on [0, 1] under H0H0. This corresponds to α=1α=1 and β>1β>1 so is marked blue on left, green on right.

You may also have noticed the triangular distributions at (k=5,n=7)(k=5,n=7) and its reflection (k=3,n=7)(k=3,n=7). We can recognise from their αα and ββ that these are just special cases of the power-law and reflected power-law distributions where the power is 21=121=1.

Mode

If α>1α>1 and β>1β>1, all green in the plot, f(x;α,β)f(x;α,β) is concave with f(0)=f(1)=0f(0)=f(1)=0, and the Beta distribution has a unique mode α1α+β2α1α+β2. Putting these in terms of kk and nn, the condition becomes k>3k>3 and n>k+2n>k+2 while the mode is k3n5k3n5.

All other cases have been dealt with above. If we relax the inequality to allow β=1β=1, then we include the (green-blue) power-law distributions with k=n2k=n2 and k>3k>3 (equivalently, n>5n>5). These cases clearly have mode 1, which actually agrees with the previous formula since (n2)3n5=1(n2)3n5=1. If instead we allowed α=1α=1 but still demanded β>1β>1, we'd find the (blue-green) reflected power-law distributions with k=3k=3 and n>5n>5. Their mode is 0, which agrees with 33n5=033n5=0. However, if we relaxed both inequalities simultaneously to allow α=β=1α=β=1, we'd find the (all blue) uniform distribution with k=3k=3 and n=5n=5, which does not have a unique mode. Moreover the previous formula can't be applied in this case, since it would return the indeterminate form 3355=003355=00.

When n=kn=k we get a degenerate distribution with mode 1. When β<1β<1 (in regression terms, n=k1n=k1 so there is only one residual degree of freedom) then f(x)f(x) as x1x1, and when α<1α<1 (in regression terms, k=2k=2 so a simple linear model with intercept and one regressor) then f(x)f(x) as x0x0. These would be unique modes except in the unusual case where k=2k=2 and n=3n=3 (fitting a simple linear model to three points) which is bimodal at 0 and 1.

Mean

The question asked about the mode, but the mean of R2R2 under the null is also interesting - it has the remarkably simple form k1n1k1n1. For a fixed sample size it increases in arithmetic progression as more regressors are added to the model, until the mean value is 1 when k=nk=n. The mean of a Beta distribution is αα+βαα+β so such an arithmetic progression was inevitable from our earlier observation that, for fixed nn, the sum α+βα+β is constant but αα increases by 0.5 for each regressor added to the model.

αα+β=(k1)/2(k1)/2+(nk)/2=k1n1

αα+β=(k1)/2(k1)/2+(nk)/2=k1n1

Code for plots

require(grid)
require(dplyr)

nlist <- 3:9 #change here which n to plot
klist <- 2:8 #change here which k to plot

totaln <- length(nlist)
totalk <- length(klist)

df <- data.frame(
    x = rep(seq(0, 1, length.out = 100), times = totaln * totalk),
    k = rep(klist, times = totaln, each = 100),
    n = rep(nlist, each = totalk * 100)
)

df <- mutate(df,
    kname = paste("k =", k),
    nname = paste("n =", n),
    a = (k-1)/2,
    b = (n-k)/2,
    density = dbeta(x, (k-1)/2, (n-k)/2),
    groupcol = ifelse(x < 0.5, 
        ifelse(a < 1, "below 1", ifelse(a ==1, "equals 1", "more than 1")),
        ifelse(b < 1, "below 1", ifelse(b ==1, "equals 1", "more than 1")))
)

g <- ggplot(df, aes(x, density)) +
    geom_line(size=0.8) + geom_area(aes(group=groupcol, fill=groupcol)) +
    scale_fill_brewer(palette="Set1") +
    facet_grid(nname ~ kname)  + 
    ylab("probability density") + theme_bw() + 
    labs(x = expression(R^{2}), fill = expression(alpha~(left)~beta~(right))) +
    theme(panel.margin = unit(0.6, "lines"), 
        legend.title=element_text(size=20),
        legend.text=element_text(size=20), 
        legend.background = element_rect(colour = "black"),
        legend.position = c(1, 1), legend.justification = c(1, 1))


df2 <- data.frame(
    k = rep(klist, times = totaln),
    n = rep(nlist, each = totalk),
    x = 0.5,
    ymean = 7.5,
    ymode = 5,
    ysd = 2.5
)

df2 <- mutate(df2,
    kname = paste("k =", k),
    nname = paste("n =", n),
    a = (k-1)/2,
    b = (n-k)/2,
    meanR2 = ifelse(k > n, NaN, a/(a+b)),
    modeR2 = ifelse((a>1 & b>=1) | (a>=1 & b>1), (a-1)/(a+b-2), 
        ifelse(a<1 & b>=1 & n>=k, 0, ifelse(a>=1 & b<1 & n>=k, 1, NaN))),
    sdR2 = ifelse(k > n, NaN, sqrt(a*b/((a+b)^2 * (a+b+1)))),
    meantext = ifelse(is.nan(meanR2), "", paste("Mean =", round(meanR2,3))),
    modetext = ifelse(is.nan(modeR2), "", paste("Mode =", round(modeR2,3))),
    sdtext = ifelse(is.nan(sdR2), "", paste("SD =", round(sdR2,3)))
)

g <- g + geom_text(data=df2, aes(x, ymean, label=meantext)) +
    geom_text(data=df2, aes(x, ymode, label=modetext)) +
    geom_text(data=df2, aes(x, ysd, label=sdtext))
print(g)

1
Really illuminating visualization. +1
Khashaa

Great addition, +1, thanks. I noticed that you call 00 a mode when the distribution goes to ++ when x0 (and nowhere else) -- something @Alecos above (in the comments) did not want to do. I agree with you: it is convenient.
amoeba says Reinstate Monica

1
@amoeba from the graphs we'd like to say "values around 0 are most likely" (or 1). But the answer of Alecos is also both self-consistent and consistent with many authorities (people differ on what to do about the 0 and 1 full stop, let alone whether they can count as a mode!). My approach to the mode differs from Alecos mostly because I use conditions on alpha and beta to determine where the formula is applicable, rather than taking my starting point as the formula and seeing which k and n give sensible answers.
Silverfish

1
(+1), this is a very meaty answer. By keeping k too close to n and both small, the question studies in detail, and so decisively, the case of really small samples with relatively too many and irrelevant regressors.
Alecos Papadopoulos

@amoeba You probably noticed that this answer furnishes an algebraic answer for why, for sufficiently large n, the mode of the distribution is 0 for k=3 but positive for k>3. Since f(x)x(k3)/2(1x)(nk2)/2 then for k=3 we have f(x)(1x)(n5)/2 which will clearly have mode at 0 for n>5, whereas for k=4 we have f(x)x1/2(1x)(n6)/2 whose maximum can be found by calculus to be the quoted mode formula. As k increases, the power of x rises by 0.5 each time. It's this xα1 factor which makes f(0)=0 so kills the mode at 0
Silverfish
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.