In breve: file "grezzi" più piccoli aggregano i valori del sensore in blocchi di pixel .
Ad esempio, il formato RAW di Canon trasmette informazioni sui singoli "sensori". Ogni sensel (o "photosite") risponde a una gamma ristretta di frequenze (chiamate rosso, verde e blu). Ognuno di questi, quando successivamente "sviluppato", si troverà in un singolo sito pixel nell'immagine finale.
Il formato sRAW di Canon, tuttavia, trasmette informazioni di riepilogo su 2 x 2 blocchi di sensori. Riporta i dati di luminosità (luminanza) per ciascun blocco, ma "decima" (salta in modo regolare) alcune delle informazioni sul colore. Pertanto, accadono diverse cose importanti:
I dati dei singoli sensori non sono più disponibili. (I dati sRAW sono effettivamente "elaborati").
La risoluzione dell'immagine è ridotta (è dimezzata, il che implica che ci sono un quarto di pixel).
La dimensione del file dei dati è ridotta approssimativamente di due terzi.
I dati sRAW non sono un "sottoinsieme" dei dati RAW. Sono una diversa codifica dei dati grezzi, con meno informazioni . Nessun senso viene "ignorato".
(Normalmente, ridurre la risoluzione di un fattore due di un fattore riduce la sua dimensione sul disco a un quarto dell'originale. Qui, tuttavia, i sensori originali forniscono circa 14 bit di informazioni, pari a 56 bit in ciascun blocco 2 x 2 nel formato RAW. In sRAW, ogni blocco 2 x 2 è codificato come tre pezzi da 8 bit o 24 bit. Il flusso di dati risultante è quindi solo 24/56 = circa 1/2 della dimensione dell'originale e viene ridotto di un altro 1/3 mediante la decimazione dei dati di crominanza, per una riduzione netta di 2/3. La compressione senza perdita viene applicata in sRAW, quindi il rapporto può differire leggermente.)
Questa informazione è stata ottenuta attraverso un ampio reverse engineering riportato l'anno scorso da Douglas Kerr, il cui rapporto ho riassunto molto brevemente qui (senza troppe distorsioni, spero).