L'intervallo di precisione è la tolleranza per lo strumento?
L'intervallo di precisione indica una singola deviazione standard? E, soprattutto, la precisione assume un operatore perfetto (quindi la varianza è dovuta semplicemente alla casualità) o tiene conto di una lettura / tecnica degli operatori?
Il motivo per cui lo chiedo è perché ho fatto un sacco di misurazioni usando una micropipetta da 1 mL con una "precisione" di 0,002 mL e ho ottenuto una deviazione standard di 0,0026 e sono curioso di sapere se quell'errore aggiuntivo di 0.0006 è dovuto alla mia scarsa tecnica che aggrava gli strumenti incertezza "inerente".