Perché utilizziamo un test F con una coda per l'analisi della varianza (ANOVA)?


13

Potete fornire il motivo per usare un test a una coda nell'analisi del test di varianza?

Perché utilizziamo un test a una coda - il test F - in ANOVA?


2
Alcune domande per guidare il tuo pensiero ... Cosa significa una statistica t molto negativa? È possibile una statistica F negativa? Cosa significa una statistica F molto bassa? Cosa significa una statistica F alta?
Russellpierce,

Perché hai l'impressione che un test con una coda debba essere un test F? Per rispondere alla tua domanda: l'F-Test consente di verificare un'ipotesi con più di una combinazione lineare di parametri.
IMA

1
Vuoi sapere perché uno dovrebbe usare un test a una coda anziché a due code?
Jens Kouros,

@tree cosa costituisce una fonte credibile o ufficiale per i tuoi scopi?
Glen_b -Restate Monica,

1
@tree nota che la domanda di Cynderella qui non riguarda un test di varianza, ma in particolare un test F di ANOVA - che è un test per l' uguaglianza dei mezzi . Se sei interessato a test di uguaglianza di varianze, questo è stato discusso in molte altre domande su questo sito. (Per il test di varianza, sì, ti preoccupi di entrambe le code, come è chiaramente spiegato nell'ultima frase di questa sezione , proprio sopra ' Proprietà ')
Glen_b -Reinstate Monica

Risposte:


17

I test F sono più comunemente usati per due scopi:

  1. in ANOVA, per testare l'uguaglianza dei mezzi (e varie analisi simili); e

  2. nel test dell'uguaglianza delle varianze

Consideriamo ciascuno a turno:

1) I test F in ANOVA (e similmente, i soliti tipi di test chi-quadrati per i dati di conteggio) sono costruiti in modo tale che più i dati sono coerenti con l'ipotesi alternativa, più grande tende a essere la statistica del test, mentre le disposizioni del campione i dati che sembrano più coerenti con il null corrispondono ai valori più piccoli della statistica test.

Prendi in considerazione tre campioni (della dimensione 10, con uguale varianza del campione) e disponili in modo da avere mezzi di campionamento uguali, quindi sposta i loro mezzi in diversi schemi. Man mano che la variazione nel campione aumenta da zero, la statistica F diventa più grande:

Disposizione di 3 campioni e corrispondente statistica F

Le linee nere (||

Se l'ipotesi nulla (uguaglianza delle medie di popolazione) fosse vera, ti aspetteresti una variazione nelle medie del campione e in genere ti aspetteresti di vedere rapporti F approssimativamente intorno a 1. Le statistiche F più piccole risultano da campioni più vicini di quanto avresti in genere aspettatevi ... quindi non concluderete che la popolazione significa che differisce.

Cioè, per ANOVA, respingerai l'ipotesi di uguaglianza di mezzi quando otterrai valori F insolitamente grandi e non respingerai l'ipotesi di uguaglianza di mezzi quando otterrai valori insolitamente piccoli (può indicare qualcosa , ma non che la popolazione significa diverso).

Ecco un'illustrazione che potrebbe aiutarti a vedere che vogliamo rifiutare solo quando F è nella sua coda superiore:

Descrizione di F per ANOVA, rifiuto quando la statistica F è nella coda superiore

2) Test F per l'uguaglianza di varianza * (basato sui rapporti di varianza). Qui, il rapporto tra due stime di varianza del campione sarà grande se la varianza del campione numeratore è molto più grande della varianza nel denominatore e il rapporto sarà piccolo se la varianza del campione del denominatore è molto più grande della varianza nel numeratore.

Cioè, per verificare se il rapporto delle varianze della popolazione differisce da 1, ti consigliamo di rifiutare il valore nullo sia per i valori grandi che piccoli di F.

* (Lasciando da parte il problema dell'alta sensibilità all'assunzione distributiva di questo test (ci sono alternative migliori) e anche il problema che se sei interessato all'idoneità delle ipotesi di parità di varianza ANOVA, la tua migliore strategia probabilmente non è una test formale.)


2
@TaylerJones Il test di Levene è in qualche modo più robusto. Browne-Forsythe è più robusto (ma perde un po 'di potenza vicino al normale). Fligner-Killeen ancora di più. In diversi decenni, ho usato Levene o Browne-Forsythe non più di due volte ciascuno. (Se riapparisse, probabilmente qualcosa come Browne-Forsythe mi andrebbe bene, ma in genere non ho situazioni in cui ha senso testare le variazioni di diversi gruppi per l'uguaglianza.)
Glen_b -Restate Monica

2
F=MSTREUNTMENTMSERROR1F

2
@tree sembra che tu non capisca qualcosa sui test di ipotesi più in generale, ma è difficile essere certi esattamente dove. Dici di capire che se ottieni una F grande vuoi rifiutare e se ottieni una F piccola non vuoi rifiutare. I grandi valori di F sono quei valori nella coda superiore mentre i piccoli valori di F sono quei valori nella coda inferiore. Vuoi rifiutare solo quando i valori sono grandi ... cioè nella coda superiore, ma non nella coda inferiore. Come fai a non vedere quello con la coda? Includerò un'altra trama che potrebbe aiutare.
Glen_b -Restate Monica

1
@jeramy I miei commenti si riferiscono ai test che si basano su rapporti di varianza (in particolare, ho affermato " Qui, il rapporto tra due stime di varianza del campione sarà ..."). I test a cui ti riferisci per cercare le differenze di posizione nei residui assoluti da una certa misura di posizione al fine di individuare le differenze di diffusione; funzionano naturalmente come funzionano i test per le differenze di posizione. Dal momento che stavo cercando di mostrare un caso in cui avresti guardato la coda inferiore della F, la Brown-Forsythe (e alcuni altri test che cercano differenze di posizione in una certa misura di deviazione per inferire differenze di diffusione) non sarebbero di alcun aiuto
Glen_b -Restorta Monica il

1
@jeramy Ho aggiunto alcune parole per renderlo più esplicito. È possibile notare che, sebbene Brown-Forsythe, Levene e così via utilizzino le tabelle F, la distribuzione delle statistiche del test in realtà non è distribuita in F, anche sotto i presupposti del test.
Glen_b

2

Si deve comprendere che l'obiettivo di ANOVA è verificare se esiste una disparità di mezzi ... il che implica che siamo interessati a grandi variazioni tra i campioni (e quindi significa che le variazioni sono calcolate dai mezzi) rispetto alle variazioni all'interno dei campioni (nuovamente calcolato dalla media del singolo campione). Quando le variazioni tra i campioni sono piccole (con il risultato che il valore F si trova sul lato sinistro) non importa poiché questa differenza è insignificante. Le variazioni tra i campioni sono importanti se sono significativamente più alte delle variazioni interne e in tal caso il valore F sarebbe maggiore di 1, e quindi nella coda destra.

L'unica domanda che rimane è perché mettere l'intero livello di significato nella coda giusta e la risposta è di nuovo simile. Il rifiuto si verifica solo quando il rapporto F è sul lato destro e mai quando il rapporto F è sul lato sinistro. Il livello di significatività è la misura dell'errore dovuta a limiti statistici. Poiché il rifiuto si verifica solo a destra, l'intero livello di significatività (rischio di errore di errata inclusione) viene mantenuto a destra. `


0

Il valore atteso per il quadrato medio (SM) all'interno dei trattamenti è la varianza della popolazione, mentre il valore atteso per la SM tra i trattamenti è la varianza della popolazione PIÙ la varianza del trattamento. Pertanto, il rapporto tra F = MS tra / MS e dentro è sempre maggiore di 1 e mai inferiore a 1.

Poiché la precisione di un test a 1 coda è migliore di un test a 2 code, preferiamo utilizzare il test a 1 coda.


Non credo che l'affermazione nell'ultima frase del tuo primo paragrafo sia corretta ... E (numeratore)> E (denominatore) non implica quel numeratore> denominatore.
Glen_b -Restate Monica

A parte il punto di Glen_b, non sono sicuro di "dato che la precisione di un test a 1 coda è migliore di un test a 2 code, preferiamo usare il test a 1 coda". Puoi spiegarci cosa intendi con questo? Parlare di precisione mi sembra che manchi il punto.
Silverfish,

La precisione è uguale all'intervallo di metà sicurezza. Per lo stesso F-stat, un test a 1 coda rifiuterà l'ipotesi nulla con un valore p minore (metà, in effetti). Al contrario, un test a 1 coda può rifiutare l'ipotesi nulla con valori più piccoli dell'F-stat. Ciò implica che un test a 1 coda può rilevare un effetto del trattamento con un minor numero di campioni o con una varianza di causa più comune presente nel campione. Questo rende il test di 1 coda più desiderabile, se si è alla ricerca di un effetto.
Jeff Cotter,

Sì, una statistica F calcolata può essere inferiore a 1.0. Tuttavia, la conclusione non riuscirebbe a respingere l'ipotesi nulla di "nessun effetto terapeutico". Pertanto, non vi è alcuna regione critica nella coda inferiore. Pertanto, il test F è un test con una coda superiore. In ANOVA, l'argomento logico si basa sui valori previsti per MS_treat e MS_error. Nell'ipotesi "nessun effetto terapeutico", H0: E (MS_treat) = E (MS_error) = varianza della popolazione. Qualsiasi effetto significativo del trattamento provoca HA: E (MS_treat)> E (MS_error). (Fonte qualsiasi testo Montgomery che copre ANOVA). Pertanto, HA implica un test con una coda.
Jeff Cotter,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.