Se "Errore standard" e "Intervalli di confidenza" misurano la precisione della misurazione, quali sono le misurazioni della precisione?


15

Nel libro "Biostatistica per i manichini" a pagina 40 leggo:

L'errore standard (abbreviato SE) è un modo per indicare la precisione della stima o della misurazione di qualcosa.

e

Gli intervalli di confidenza forniscono un altro modo per indicare la precisione di una stima o misurazione di qualcosa.

Ma non è stato scritto nulla su come indicare l'accuratezza della misurazione.

Domanda: come indicare quanto è accurata la misurazione di qualcosa? Quali metodi sono usati per questo?


Da non confondere con l'accuratezza e la precisione del test: https://en.wikipedia.org/wiki/Accuracy_and_precision#In_binary_classification


Stai chiedendo l'accuratezza di un singolo parametro o l'accuratezza di un modello complessivo?
Steven L. Johnson,

La precisione è influenzata da errori sistematici (o distorsioni)
Aksakal,

@Aksakal e precisione con errore casuale?
vasili111,

Risposte:


18

La precisione può essere stimata direttamente dai punti dati, ma l'accuratezza è correlata al progetto sperimentale. Supponiamo che io voglia trovare l'altezza media dei maschi americani. Dato un campione di altezze, posso stimare la mia precisione. Se il mio campione viene prelevato da tutti i giocatori di basket, tuttavia, la mia stima sarà distorta e imprecisa e questa imprecisione non può essere identificata dal campione stesso.

Un modo per misurare l'accuratezza consiste nell'eseguire la calibrazione della piattaforma di misurazione. Utilizzando la tua piattaforma per misurare una quantità nota, puoi testare in modo affidabile l'accuratezza del tuo metodo. Questo potrebbe aiutarti a trovare una distorsione di misura, ad esempio, se la misura del nastro per l'esempio di altezza mancava di un pollice, riconosceresti che tutti i tuoi campioni di calibrazione hanno un pollice troppo corto. Tuttavia, non aiuterebbe a risolvere il problema di progettazione sperimentale.


2
S=Σ(Xio-X¯)2n(che è di parte bassa, soprattutto per piccoli campioni).

2

La presunzione è guidata da errori casuali e la precisione è definita da errori sistematici. La precisione spesso può essere aumentata da prove ripetute aumentando la dimensione del campione. Non è possibile correggere la precisione raccogliendo più dati della stessa misurazione perché l'errore sistematico non scomparirà.

L'errore sistematico porta a distorsioni della media e non può essere determinato o corretto nell'ambito dello stesso esperimento. Considera questo: l'intero punto del tuo esperimento è spesso nel rilevare l'effetto, come la deviazione da zero. Misuri il significato confrontando la deviazione con l'errore standard, ma quella deviazione può essere essa stessa un pregiudizio (errore sistematico)! Ecco perché l'errore sistematico è il peggior tipo di errore nella scienza fisica.

In fisica, ad esempio, dovresti determinare il bias (errore sistematico) al di fuori del tuo esperimento, quindi correggerlo nelle tue misurazioni. È interessante notare che, nel campo delle previsioni economiche, il problema più grande sono i cambiamenti della media, che sostanzialmente equivalgono a errori sistematici o pregiudizi nelle scienze fisiche.

Potresti ricordare quanto imbarazzo l'errore sistematico causato ai ragazzi di OPERA che "hanno rilevato " i neutrini che si muovono più velocemente della luce! Non hanno tenuto conto di una serie di fonti di errori sistematici e hanno dovuto annullare la conclusione. Dopotutto, il neutrino non viola la velocità della luce, bummer!

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.