Che senso ha catturare immagini a 14 bit e modificarle su monitor a 8 bit?


37

Sono un po 'confuso. Se la mia DSLR sta catturando un'immagine a 14 bit durante la ripresa RAW. Non ho bisogno di un monitor a 14 bit anche per sfruttare appieno l'acquisizione in RAW? Qual è il punto di catturare un'immagine in 14 bit e aprirla e modificarla solo con un monitor a profondità di 8 bit?



1
Sono necessari almeno 10 bit di RAW solo per applicare la curva gamma richiesta da sRGB, poiché l'acquisizione è lineare.
Mark Ransom,

Risposte:


52

Puoi modificare le tue foto con un vecchio monitor CRT in bianco e nero bruciato ed è sempre la stessa cosa: i bit aggiuntivi contano.

Ecco una simulazione di un istogramma a 14 bit (A) e uno a 8 bit (B). Entrambi sono su una griglia blu che simula una visualizzazione a 8 bit o un formato di file a 8 bit.

In B, tutte le linee coincidono. (Il formato a 8 bit è abbastanza buono perché è vicino a ciò che i nostri occhi possono percepire in diversi livelli di grigio)


Adesso. Immagina di dover spostare l'istogramma perché desideri un'immagine più luminosa e felice.

I diversi livelli sul lato sinistro scorrono verso destra.

Sul tuo file raw ci sono abbastanza "sotto-livelli" per riempire le stesse linee blu. (C).

Ma i dati sull'immagine a 8 bit iniziano a formare "vuoti" (zona rossa). Ciò creerà problemi di fasciatura, aumento del rumore ecc.

inserisci qui la descrizione dell'immagine

Quindi la differenza importante è quando manipoli o controlli la tua immagine e disponi di dati aggiuntivi. Questo ti dà la libertà.


10
+1 bell'esempio, ma non si dovrebbe prenderlo alla lettera: in realtà il raw a 14 bit è lineare mentre l'output a 8 bit non lo è (a causa della gamma). è ancora un buon modo per visualizzare ciò che l'elaborazione delle immagini può fare all'istogramma!
szulat,

7
Sì, molto letteralmente. La gamma è in realtà il problema principale che richiede 12 o 14 bit. La gamma è essenzialmente il più grande spostamento tonale del genere e, nei primi giorni, è stato fatto male e inadeguatamente in 8 bit. Quindi i dispositivi per la creazione di immagini (scanner e quindi fotocamere, che devono fare gamma) dovevano migliorare a 10 bit, quindi a 12 e ora a 14 bit ... tutti i bit a cui possiamo permetterci l'hardware, almeno fino a poco tempo fa. È vero ovviamente che il nostro occhio non vede mai i dati gamma (tranne nel grafico dell'istogramma). Continua ..
WayneF,

3
@WayneF questo è un malinteso comune. la gamma è ugualmente utile ora nell'era digitale come era tornata nei giorni CRT analogici. il display deve presentare gli stessi livelli dell'originale, vero! ma la nostra percezione non è lineare. ecco perché puoi codificare la luminosità come 8 bit usando gamma e ottenere il risultato simile alla codifica linearmente con 11-12 bit. più bit significa più memoria, più larghezza di banda, più potenza - sprecata senza effetti visibili. ecco perché gamma è qui per dire. vedi anche i gradienti di esempio qui: cambridgeincolour.com/tutorials/gamma-correction.htm
szulat

2
Corretta. La gamma ha ancora un posto nell'imaging digitale e nel video perché fa buon uso dei valori del codice. Sul limite inferiore dell'intervallo di luminosità, 8 bit con gamma è equivalente a 10 bit lineare (poiché la pendenza gamma è vicina a 4). Nei flussi di lavoro cinematografici, le codifiche dei log sono più comuni delle codifiche gamma, ma per lo stesso motivo: economia dei valori del codice.
Dithermaster il

3
Versione breve: le modifiche a una foto digitale vengono applicate matematicamente e la profondità in bit del display è indipendente dalla profondità in bit della matematica (a meno che non si stia utilizzando un software di modifica delle immagini spazzatura). Le modifiche vengono calcolate utilizzando la profondità di bit completa e pertanto beneficiano della disponibilità aggiuntiva di precisione.
aroth,

41

Profondità di bit più elevate offrono più opzioni per la modifica senza perdere dati.

Non commettere l'errore di legare la rappresentazione di un'immagine con il modo in cui è resa . La modifica produce i migliori risultati di qualità quando operi sulla rappresentazione, dove i dati sottostanti hanno la risoluzione più alta. Accade solo che il tuo monitor offra una visione a risoluzione più bassa dell'immagine ma ciò non è legato alla qualità della rappresentazione sottostante.

Se ricordi dalla matematica della scuola, c'era sempre una regola empirica: non arrotondare mai i calcoli intermedi durante il calcolo dei risultati; eseguire sempre la matematica quindi arrotondare alla fine quando si presentano i risultati. L' esatto stessa cosa si applica qui. Il tuo monitor è la fine, in cui si verifica il "arrotondamento" quando te lo presenta. La stampante potrebbe "arrotondare" in modo diverso. Ma in tutti i passaggi intermedi si utilizzano i dati non elaborati per i risultati più accurati e si memorizza la rappresentazione originale ad alta risoluzione su disco in modo da poter mantenere tali informazioni e continuare a eseguire modifiche accurate in un secondo momento.

Considera questo: supponi di avere un'immagine sorgente 5760 x 3840. Manterrai la massima flessibilità di modifica e rendering modificando l'immagine a quella dimensione e lasciandola a quella dimensione. Se ti capitasse di visualizzarlo su un monitor 1440 x 900, avresti semplicemente ridotto lo zoom nel tuo editor, probabilmente non avresti effettivamente ridimensionato e ricampionato i dati per adattarlo. La stessa cosa esatta vale per la risoluzione del colore.

L'audio è simile. Forse la scheda audio del tuo computer ha solo capacità di output a 12 bit. Ma se registri, memorizzi e operi su audio a 16 o 24 bit, potresti rendere un segnale a basso volume 16x o 4096x più forte (rispettivamente) e ottenere comunque una perdita minima di qualità di uscita su quel computer. Converti verso il basso solo alla fine quando stai per presentare il risultato finale. L'equivalente visivo sta schiarendo un'immagine estremamente scura con bande minime.

Indipendentemente dalla capacità del monitor, se si esegue un'operazione di modifica, ad esempio moltiplicando la luminosità per 2, si desidera eseguirla sulla rappresentazione originale ad alta risoluzione dell'immagine.


Ecco un esempio simulato. Diciamo che hai scattato una foto davvero scura. Questa immagine scura è la riga superiore in basso, con formati di memoria interna simulati a 4, 8 e 14 bit per canale. La riga inferiore è il risultato di schiarire ogni immagine. La luminosità era moltiplicativa, fattore di scala 12x:

inserisci qui la descrizione dell'immagine ( Fonte , fotografato da Andrea Canestrari)

Nota la perdita permanente di informazioni. La versione a 4 bit è solo un esempio illustrativo di un estremo. Nella versione a 8 bit puoi vedere alcune strisce in particolare nel cielo (fai clic sull'immagine per ingrandirla). La cosa più importante da notare qui è che la versione a 14 bit è stata ridimensionata con la massima qualità, indipendentemente dal fatto che la sua forma di output finale era il PNG a 8 bit che l'ho salvato e dal fatto che probabilmente lo stai visualizzando su un display a 8 o meno bit .


1
O anche un display a 6 bit. Non tutti i monitor LCD visualizzano effettivamente una profondità completa di 8 bit per canale.
Casuale 832,

@ Random832 esiste un test affidabile per sapere di cosa è capace il tuo LCD? Ho un'immagine sfumata generata dal computer che mostra il banding, ma non sono mai stato sicuro che ciò fosse dovuto al fatto che i miei occhi erano in grado di vedere differenze di 1 livello o se il mio monitor lo stava distorcendo.
Mark Ransom,

@Mark Dai un'occhiata a questo bel commento sull'argomento: avsforum.com/forum/… - può essere complicato, ci sono molti posti per i colli di bottiglia nella catena del segnale dall'uscita video alla luce che esce dallo schermo , molta disinformazione nelle specifiche (ad es. profondità pubblicizzate essendo BS a causa di un decodificatore a 6 bit su alcuni circuiti casuali) e descrittori edid, ecc. È un sistema complesso e conoscere la profondità effettiva non è un caso d'uso comune, quindi , in bocca al lupo! Ymmv
Jason C,

1
@MarkRansom ciò che mi ha chiarito è che ho potuto vedere le strisce a confini chiaramente definiti, ogni quarto livello. Alcuni display eseguono il dithering che può essere un po 'più complicato da identificare
Random832,

^ Inoltre, alcuni display eseguono il dithering temporale piuttosto che spaziale, il che è probabilmente impossibile da notare se fatto correttamente, ma potresti essere in grado di individuarlo nelle aree scure se hai gli occhi acuti.
Jason C,

4

14 bit Raw non è correlato alla profondità di bit del monitor. Raw è un formato che viene minimamente elaborato. Vedi Formato immagine non elaborato .

Il formato non elaborato consente a software di post-elaborazione come Lightroom e Photoshop di apportare modifiche precise alle immagini che non sarebbero possibili con i file JPEG.

Per quanto riguarda il monitor, i monitor wide-gamut sono generalmente a 10 bit e hanno una LUT interna che memorizza le informazioni di calibrazione da calibratori come X-Rite o Spyder. La tua scheda video deve essere in grado di supportare anche 10 bit.

Per i chip Nvidia, le schede di classe workstation supportano 10 bit. La maggior parte, se non tutte le carte di classe Gaming, non provengono dalla mia esperienza. È simile con i set di chip AMD.

Se non hai intenzione di postelaborare le tue immagini, puoi facilmente passare a JPEG.


vale la pena notare che in quasi tutti i casi l'occhio umano non vedrà comunque più di 8 bit, ad eccezione dei rari gradienti lisci (principalmente sintetici, al contrario delle foto rumorose naturali, dove la posterizzazione è nascosta nel rumore)
szulat

8 bit sono in realtà solo 256 sfumature e non abbastanza per visualizzare sfumature uniformi senza dithering.
Gmck,

2
vero, ma tali gradienti non si vedono quasi mai nelle foto della vita reale a causa del rumore
szulat

1
@Gmck: c'è una differenza enorme tra lo 0,39% di luminosità e lo 0,78% di luminosità. Una curva logaritmica a 256 livelli sarebbe sufficiente per gradienti uniformi, ma molti effetti di filtro richiedono essenzialmente una mappatura lineare dei valori alla luminosità (quindi la sostituzione di due valori di pixel con la loro media lascerà inalterata la luminosità complessiva).
supercat il

1

Forse dovresti leggere prima questa domanda.

In che modo la gamma dinamica dell'occhio umano si confronta con quella delle fotocamere digitali?

Fondamentalmente, l'intervallo dinamico di carta è inferiore a 8 bit e l'intervallo dinamico dell'essere umano non è dissimile.

Il vantaggio dell'alta gamma dinamica nelle immagini RAW è che puoi post-elaborarle per portare i bit che ti interessano entro l'intervallo che il dispositivo di visualizzazione può rappresentare, il che a sua volta si riferisce a ciò che l'occhio umano può vedere.

Quindi l'esempio classico è un interno della stanza con la luce solare all'esterno. Man mano che l'occhio umano passa dall'interno verso l'esterno, l'iride si contrae per ridurre la quantità di luce che entra, permettendoti di vedere sia i dettagli esterni che quelli interni.

Una fotocamera non lo fa, quindi normalmente dovresti esporre o per l'interno della stanza (e ottenere punti salienti) o per l'esterno (ottenere un interno sottoesposto) - o fare due scatti e creare un composito HDR.

La gamma dinamica più elevata di Raw ti consente di scattare una singola foto e di "spingere" o "tirare" selettivamente determinate aree per rivelare i dettagli che si trovano in quelle aree sovra / sottoesposte.

Gli scatti qui mostrano questo tipo di scenario. https://www.camerastuffreview.com/camera-guide/review-dynamic-range-of-60-camera-s


3
...is that you can post-process them to bring the bits you're interested in within the rnage that the human eye can see. Più preciso nel dire che si schiacciano i bit desiderati nell'intervallo che il monitor può visualizzare . L'occhio umano ha una gamma ancora più dinamica persino di un'immagine RAW a 14 bit. Non si tratta di ciò che l'occhio può vedere, si tratta di catturare tutta quella gamma dinamica in modo che possa essere successivamente compresso nella gamma dinamica di visualizzazione di un dispositivo video standard.
J ... il

2
No, la gamma dinamica di visualizzazione è quella che è perché è tecnologicamente difficile e costoso migliorarla. Un display a 14 bit sarebbe sorprendente. Una gamma più dinamica significa uno spazio colore più ampio - immagini più vivaci, colorate e accurate. Il mio display principale, ad esempio, è internamente un pannello a 12 bit (anche se tramite ricerca) e può produrre il 99% della gamma di colori AdobeRGB. La differenza tra questo e un normale pannello sRGB a 8 bit (di solito circa 6 bit efficace) è incredibile. Una gamma più dinamica è sempre migliore.
J ... il

1
la gamma dinamica non è correlata allo spazio colore e la copertura sRGB, la calibrazione e i "bit" sono qui per la precisione, non per la visualizzazione di immagini più colorate
szulat,

1
@J ... en.wikipedia.org/wiki/Adaptation_(eye) "in un dato momento, l'occhio può percepire solo un rapporto di contrasto di mille". = 10 bit.
Roddy,

1
@Roddy Sì, ma c'è di più nell'equazione che in assoluto chiaro e scuro. Come sopra, si tratta anche della risoluzione del colore.
J ... il

-3

I "Wikisperts" dimenticano che qualunque profondità di bit tu elabori, vedi SOLO il risultato in 8 bit. Inserisci un file a 3 bit (8 livelli) nel tuo sistema a 8 bit e il display mostrerà 8 livelli (256/7 = da 0 a 7) da 0 a 255 con incrementi di 36. Un 4 bit mostrerà 16 (da 0 a 15). Inserisci un file a 10, 12 o 14 bit e vedrai 256 livelli. La tua scheda video convertirà i livelli 1024, 4096 o 16.384 fino a 256. Ecco perché, il file RAW watever che carichi, non appena viene offerto al tuo processore video diventa livelli a 8 bit (256). Ho lavorato in fisica medica, la maggior parte dei dipartimenti di imaging ora ha l'imaging a 12 bit per lo screening del seno e simili. Tuttavia, l'occhio umano non è in grado di rilevare livelli migliori di 900 ish, quindi il software viene utilizzato per rilevare minime variazioni nella densità dei tessuti, quindi se incontri qualcuno che ha un sistema a 10, 14 o 14 bit, saranno fortemente indebitati e mega delusi. Per inciso, facciamo anche fatica a rilevare i cambiamenti di colore, la nostra visione rotola al di sotto di 16 Milioni di colori a meno che piccoli cambiamenti in una tonalità simile, in cui notiamo bande. Le nostre macchine fotografiche sono in grado di avere circa 4 trilioni di colori ma, come molte altre cose, ciò che teoricamente possibile e effettivamente possibile può essere due animali molto diversi.


1
Quello che vedi con un monitor a 8 bit non è quello che hai nel tuo file a 14 bit, e allora? Come affermato nella risposta precedente, ulteriori informazioni sembrano sempre essere migliori ...
Olivier,

Lo terrò semplice. Prendi le tue foto in raw, produci i tuoi jpg dal tuo file raw. Per vedere il vantaggio, confronta il tuo jpg con quelli prodotti dalla fotocamera. È la differenza tra un obiettivo professionale e un obiettivo spazzatura.
Bob_S,

Puoi spiegare la tua argomentazione sull'obiettivo? Per me non ha nulla a che fare con questa discussione: avere 12 bit di gamma dinamica e scegliere ciò che si desidera conservare dopo la post-elaborazione non è assolutamente correlato alla qualità dell'obiettivo. E sì, puoi vedere 12 bit di gamma dinamica su uno schermo a 8 bit, basta giocare con le correzioni EV!
Olivier,

No, non puoi. Il display a 8 bit visualizzerà i livelli n / 256 o 256 / n, a seconda che si offra un file più piccolo o più grande di 8 bit. Possiamo regolare il punto in cui quei bit sono selezionati dalle regolazioni in PS, ma NON abbiamo CONTROLLO su quali bit siano visualizzati, ovvero lo spazio tra i bit sarà lo stesso, quindi i dati mancanti !. Se lo avessimo fatto, noi (l'NHS per uno) non ci preoccuperemmo di spendere £ 46k per apparecchiature di imaging a 12 bit che non fornissero immagini migliori di 8 bit.
Bob_S,

Mi chiedo cosa non capisca riguardo alla possibilità di sfruttare una gamma dinamica superiore al visibile per creare un'immagine. Se hai un file con un intervallo dinamico di 12 bit, puoi scegliere di visualizzare qualsiasi intervallo di 8 bit desiderato, è così facile. Se fossi un fotografo, capiresti quanto sia importante: avere i dettagli in evidenza e nell'ombra è il sogno di tutti. Non approfondirò ulteriormente l'argomento, leggi le risposte precedenti.
Olivier,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.