Il RAW a 14 bit è migliore del RAW a 12 bit?


13

Un'immagine JPEG normale ha solo 8 bit per memorizzare informazioni sulla tonalità di ciascun pixel. Quando si memorizza l'immagine in formato RAW (ad esempio, DNG), è possibile memorizzare il tono utilizzando più bit per pixel, il che ci offre una gamma più ampia e più opzioni per l'elaborazione sul computer.

La mia attuale fotocamera è in grado di registrare immagini come DNG a 12 bit e normalmente utilizzo RAW. Ho notato che i modelli più recenti di DSLR sono in grado di memorizzare 14 bit per pixel. A me sembra un enorme vantaggio ottenere quei 2 bit in più, ma in realtà è una grande differenza? Vedrei la differenza nella post-elaborazione? La differenza sarebbe più nelle parti scure (sottoesposte) o in quelle alte (sovraesposte) dell'immagine?


8
Correzione piccola ma importante: i JPEG memorizzano 8 bit per canale per pixel: 8 bit di rosso, 8 di verde, 8 di blu, 24 bit in totale. Allo stesso modo RAW memorizza 12/14 bit per canale per pixel: 36/42 bit per pixel in totale. 8 bit per pixel è ciò che ottieni con il formato GIF (o un PNG a 8 bit): una tavolozza massima di 256 colori che non va bene per le foto.
Mark Whitaker,

3
+1 alla correzione, ma si noti che il file raw in realtà memorizza solo quel numero di bit per pixel, in cui ciascun pixel - ogni fotosite - viene filtrato su un determinato colore. La conversione da RAW comporta una demosaicing, in cui le informazioni a colori sono abilmente estrapolate dai vicini. Quindi RAW non memorizza realmente 36/42 bit per pixel. (Supponendo un Bayer standard o un array di filtri colorati simile a quello normale per tutti tranne le fotocamere Foveon di Sigma.)
Leggi il profilo

@MarkWhitaker - ulteriore correzione (ancora più piccola ;-): RAW (nella maggior parte delle fotocamere) memorizza 12/14 bit per pixel, di uno dei 3 colori primari. Gli altri due colori vengono aggiunti in post-elaborazione dalla demosaicing di Bayer (o altro modello). Un'eccezione è rappresentata dai sensori del tipo Foveon in cui il sensore rileva 3 colori per pixel.

La maggior parte delle immagini JPEG memorizza l'immagine nel formato YCC ( en.wikipedia.org/wiki/YCbCr ). Il numero di bit per ciascun canale (luminanza, delta-blu, delta-rosso) viene determinato quando l'immagine viene compressa. Il rendering dell'immagine viene solitamente eseguito su RGB888, il che comporta una piccola perdita aggiuntiva (più della compressione) delle informazioni. Ci sono anche JPEG CMYK e YCCK, sebbene siano più rari, e ci sono JPEG '12 bit ', che eseguono il rendering in RGB [12] [12] [12] anziché RGB [8] [8] [8]
rsaxvc,

Risposte:


14

Fa una differenza misurabile ma non racconta l'intera storia. La colonna sonora di DxOMark è una valutazione tecnica dell'output di varie fotocamere, in particolare in termini di profondità del colore, che descrivono attentamente come avente una " correlazione " con la sensibilità del colore, che è l'effettiva sfumatura di colore.

Se guardi i risultati di quella metrica , puoi vedere che le telecamere con il punteggio più alto hanno 16 bit per pixel, seguite da quelle con 14 bit per pixel. I costosi dorsi digitali di medio formato ottengono punteggi DxOMark di circa 24-26, seguiti dai primissimi reflex con una gamma di 23-25. Quindi, arrivano le telecamere con 12 bit / pixel: penso che quella in alto sia 22 punti.

Ma nota che DxOMark descrive una differenza di 1 in questo punteggio come "appena percettibile". Questo se ti accorgi a malapena con molta attenzione. Per la maggior parte delle persone, differenze molto più grandi nel punteggio non sono evidenti nemmeno nei risultati del mondo reale.

L'impatto sul mondo reale e la percezione finale sono uno dei motivi per cui non è un grosso problema. Ma c'è di più! Se vai più in basso nell'elenco, troverai le fotocamere più vecchie con profondità di 14 bit e punteggi inferiori rispetto alle nuove fotocamere di 12 bit. Quindi quel numero da solo non racconta nemmeno l'intera storia tecnica. La più recente tecnologia di sensori e elaborazione migliora i risultati reali in altri modi. Se stai confrontando le generazioni attuali, maggiore profondità è meglio, ma non dare per scontato che sia tutto.

Se questo ti dà più spazio nelle ombre o nelle alte luci: non è davvero che i bit vengano aggiunti ad entrambe le estremità - invece, c'è solo più gradazione. Immagina che un giornale dia film da una a quattro stelle, mentre un altro usa una scala 1-10. Un "10" del secondo giornale non è necessariamente molto meglio di una recensione a quattro stelle del primo, ma i "bit" aggiuntivi consentono più sfumature. Questa è la stessa idea

Questi sensori soffrono ancora del duro taglio delle alte luci , quindi come sempre con il digitale è meglio esporre in modo che siano conservati e trarre dettagli dall'ombra: e sì, una migliore profondità lo aiuterà in una certa misura, se vuoi postare- processo per illuminare le aree scure, poiché ci sarà (in teoria) più sfumature da allungare.

Una cosa importante da capire è che i 12 o 14 bit dal sensore, mentre i JPEG usano una curva gamma che si adatta alla percezione umana. Questo non è solo un modo per comprimere i dati in JPEG: è necessario applicare una curva affinché l'immagine appaia corretta. Poiché questa curva "schiaccia" i bit, questo fa parte del motivo per cui c'è meno differenza percettiva di quanto ci si possa aspettare. (Ma avere quei dati lineari in forma non curva fa parte di ciò che dà a RAW la sua flessibilità: è facile scegliere una curva diversa.)

Il mio punto complessivo, tuttavia, è che non guarderei il numero sottostante per prendere una decisione tra due telecamere. Invece, guarda i risultati finali.


Un altro riferimento esterno, che presenta lo stesso punto di vista, dalla sezione del sito Web "Digital Best Best Practices and Workflow" della American Society of Media Photographers sui sensori :

Al momento della stesura di questo documento [ nb 2009 o precedente ], nessuna fotocamera DSLR da 35 mm con capacità di acquisizione a 14 bit mostra chiaramente un vantaggio in termini di qualità dell'immagine rispetto alla cattura a 12 bit .

Alcuni produttori di sensori di medio formato sostengono un vantaggio con l'acquisizione a 16 bit. Tuttavia, non abbiamo mai visto uno studio (diverso da quello del produttore) che mostri che una maggiore profondità di bit si traduce in una migliore qualità dell'immagine basata sulla sola acquisizione a 16 bit. In generale, la differenza tra acquisizione a 14 e 16 bit non sarebbe visibile (comunque agli umani) se non fosse applicata una curva di tono fortemente ripida all'immagine (nell'ordine di 6-7 stop).

(Enfasi aggiunta. Grazie a una precedente risposta di Aaron Hockley per il puntatore.)


Bella risposta! Penso che potresti voler considerare il modo in cui i bit sono divisi tra luci, mezzitoni e ombre. Hai detto che "non è che i bit vengano aggiunti alle due estremità, invece c'è solo più spazio per la gradazione". Secondo la mia comprensione, i livelli sono assegnati in modo tale che i punti salienti ottengano di più, seguiti dai mezzitoni, seguiti da ombre e poi da oscurità. Aumentare la profondità di bit da 12 (4096 livelli) a 14 (16384 livelli) DOVREBBE avere un impatto sulle alte luci ... e una significativa sul roll-off delle alte luci quando raggiungono il picco. Hai 12.288 livelli di luminanza discreti aggiuntivi oltre i 12 bit.
jrista

Supponendo una distribuzione binaria di livelli nelle alte luci, luci, mezzitoni, ombre e ombre a 12 bit: 2048, 1024, 512, 256, 256. Per 14 bit: 8192, 4096, 2048, 1024, 1024. Un po 'forzato, ma dimostra il punto.) Questa differenza dovrebbe essere visibile nelle alte luci, in particolare con RAW (la maggior parte degli strumenti non elaborati applica una curva di tono durante l'importazione) e si traduce in un decadimento più regolare e più recuperabile prima che le alte luci si spengano.
jrista

1
@jrista - capovolgi quel pensiero. Il problema evidente dell'evidenziazione è un inevitabile arresto, dovuto alla piena capacità dei fotositi. Una profondità di bit maggiore non significa pozzi più grandi; è che i pozzetti vengono campionati più finemente. Poiché i dati luminoso già ha più bit, aggiungendo ulteriori campionamento là non acquistare tanto quanto l'aggiunta più alle aree scure più-scarsamente rappresentate fa.
Leggi il profilo

Nel tuo esempio, andare dal 2048 all'8192 è 4 ×, e quindi da 256 a 1024. Ma il livello superiore aveva già migliaia di livelli di sfumatura. Considera anche più in basso, dove si potrebbe passare da 16 possibili livelli di colori scuri a 64 - questo è un cambiamento molto più significativo rispetto al 4096 al 16384, anche se il successivo è chiaramente più.
Leggi il profilo

1
So che le alte luci soffiate sono un problema difficile, tuttavia penso che quando hai più livelli da attenuare, è MENO di un problema. Concordo pienamente con te sul fatto che avere più bit nell'ombra limiti la necessità di preoccuparsi del conteggio dei fotoni.
jrista

12

Più bit di solito non significano più portata, ma maggiore precisione. Vale a dire, le estremità delle scale, i neri più neri e i bianchi più bianchi, rimarranno dove sono (a 0 e il valore massimo) ma il numero di valori tra loro sarà maggiore con più bit.

Qui cadi rapidamente in rendimenti decrescenti in quanto semplicemente non c'è bisogno di tanta precisione e il sensore della fotocamera spesso non è nemmeno in grado di risolvere tale precisione comunque.


Si. :) Questo è un modo molto più conciso di dire la stessa cosa della mia risposta. +1 e benvenuto in Stack Exchange!
Leggi il profilo

4

Penso che ci sia un po 'di confusione legata alle differenze tra RAW a 12 e 14 bit quando si tratta del suo impatto sulla gamma dinamica.

La mia comprensione è che il RAW a 14 bit non espande la gamma dinamica. Non espande né le luci né le ombre. Ti dà informazioni più graduali tra i dettagli più scuri e più luminosi che il sensore è in grado di catturare (è come se avessi 4 volte più sfumature di grigio). Sono abbastanza sicuro di non notare alcuna differenza tra le immagini grezze a 12 o 14 bit catturate dallo stesso sensore.

Solo per divertimento dai un'occhiata a questo Color IQ Test , sono abbastanza sicuro che abbia una gradualità inferiore a 12 bit.


1
Questo test di acuità del colore è fantastico! (Di nuovo) ha dimostrato il mio punto (a me stesso) sull'importanza di un buon monitor. Ho un ottimo Dell U2410 collegato a un laptop HP con uno schermo medio brillante (vero colore o qualunque cosa chiamino questa terribile tecnologia). Il mio browser è aperto sul desktop del laptop e ho prima fatto quel test su quel monitor. A 40 anni, ho ottenuto un punteggio di 12, il che non è affatto male. Quindi ho deciso di farlo di nuovo, questa volta sul monitor Dell. Il mio punteggio con un buon monitor ora è un prefetto 0!

Ad ogni modo, avere livelli di colore più intermedi fa sicuramente parte della definizione di un intervallo dinamico. Fondamentalmente, è il rapporto tra il valore massimo e l'unità minima misurabile.

... un'altra cosa: visualizzi questo test di colore sul tuo monitor, che è probabilmente 10 bit nel migliore dei casi, con il tuo browser molto probabilmente non è in grado di eseguire il rendering di più di 8 o 10 bit, quindi sì, il test è inferiore a 12 bit.

Non sono sicuro che sia più che tangenzialmente rilevante per la domanda, ma quel test è così interessante che ottiene comunque un +1 da parte mia. :)
Leggi il profilo
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.