La domanda che vorrei porre è questa: come varia la percentuale di campioni entro 1 DS della media di una distribuzione normale all'aumentare del numero di variate?
(Quasi) tutti sanno che in una distribuzione normale monodimensionale, il 68% dei campioni può essere trovato entro 1 deviazione standard della media. Che dire delle dimensioni 2, 3, 4, ...? So che diventa meno ... ma di quanto (precisamente)? Sarebbe utile avere una tabella che mostri le figure per 1, 2, 3 ... 10 dimensioni, nonché 1, 2, 3 ... 10 SD. Qualcuno può indicare un tavolo del genere?
Un po 'più di contesto: ho un sensore che fornisce dati su un massimo di 128 canali. Ogni canale è soggetto a rumore elettrico (indipendente). Quando rilevo un oggetto di calibrazione, posso calcolare la media di un numero sufficiente di misurazioni e ottenere un valore medio sui 128 canali, insieme a 128 singole deviazioni standard.
MA ... quando si tratta delle singole letture istantanee, i dati non rispondono tanto come 128 letture individuali quanto una singola lettura di una quantità vettoriale (fino a) 128-dimensonale. Certamente questo è il modo migliore per trattare le poche letture critiche che prendiamo (in genere 4-6 dei 128).
Voglio avere un'idea di ciò che è una variazione "normale" e di ciò che è "anomalo" in questo spazio vettoriale. Sono sicuro di aver visto un tavolo come quello che ho descritto che si applicherebbe a questo tipo di situazione - qualcuno può indicarne uno?