Supponiamo che tu abbia un dispositivo di misurazione di cui non conosci la precisione e un dispositivo di misurazione di riferimento. Entrambi misurano una variabile . L'intervallo di interesse è x 0 < x < x 1 . Come si determina l'accuratezza del dispositivo sconosciuto in questo intervallo?
Il mio corso d'azione sarebbe quello di raccogliere valori per entrambi i dispositivi da a x 1 e costruire una distribuzione di errori . L' accuratezza potrebbe quindi essere l'intervallo di errore, ± 3 σ o qualcosa di simile - è corretto?
ipotesi:
- Il dispositivo di misurazione di riferimento è calibrato e non presenta praticamente alcun errore