Qual è la differenza tra “HDR falso” e HDR a esposizione reale, con bracketing?
L'unica differenza è in che misura decidi di definire il termine High Dynamic Range Imaging (HDR). Usi il termine più ampio in quanto è stato storicamente utilizzato per oltre 150 anni per fare riferimento a tecniche utilizzate per visualizzare una scena con un intervallo dinamico più elevato rispetto all'intervallo dinamico del mezzo di visualizzazione? O insisti su una definizione molto ristretta che utilizza tecniche che sono state solo un paio di decenni per sostenere che l'unica definizione legittima di HDR è una versione con mappatura dei toni a 8 bit di una mappa luminosa a virgola mobile a 32 bit creata da combinando più esposizioni tra parentesi? È praticamente tutto.
HDR come il termine è comunemente usato oggi è solo una forma di High Dynamic Range Imaging (HDRI) che esiste da almeno il 1850.
Gustave Le Grey ha effettuato esposizioni multiple a diversi valori di esposizione per creare paesaggi marini che utilizzavano il cielo luminoso da una lastra di vetro negativa e il mare più scuro e la costa da un'altra.
Il sistema a zone durante le riprese e lo sviluppo e la mappatura dei toni eseguite nella camera oscura a metà del XX secolo fu elevato a una forma d'arte da Ansel Adams e altri mentre usavano i tempi di sviluppo e schivando e bruciando le stampe per ridurre la gamma dinamica totale di un scena per ciò che i documenti fotografici che stavano usando erano in grado di visualizzare.
Nel regno della fotografia digitale ci sono più tecniche usate per rappresentare una scena con un High Dynamic Range usando un mezzo, come un monitor di un computer o una stampa, che non è in grado di avere un contrasto altrettanto grande tra le parti più luminose e più scure di una scena come contiene la scena stessa. Ciò che molte persone intendono quando dicono che l' HDR è solo una di queste tecniche.
Sebbene lungi dall'essere l'unico legittimo, la comprensione più comune oggi del termine HDRè ciò che si è evoluto dalle idee introdotte per la prima volta nel 1993 e che hanno portato a una teoria matematica di immagini diversamente esposte dello stesso argomento pubblicate nel 1995 da Steve Mann e Rosalind Picard. Crea una mappa della luce ad alta gamma dinamica da più immagini digitali esposte a valori diversi usando solo operazioni di immagine globali (su tutta l'immagine). Il risultato è spesso una 'immagine' a virgola mobile a 32 bit che nessun monitor o stampante è in grado di eseguire il rendering. Deve quindi essere mappato in tono riducendo il contrasto generale preservando al contempo il contrasto locale per adattarlo alla gamma dinamica del supporto di visualizzazione. Ciò porta spesso a artefatti nelle transizioni tra aree con valori di luminanza elevati e aree con valori di luminanza bassi. (Anche quando apri un file "raw" a 12 o 14 bit nella tua applicazione fotografica sul computer, quello che vedi sullo schermo è un rendering a 8 bit del file raw demosaurato, non l'attuale filtro monocromatico Bayer-filtered 14 -bit file. Man mano che modificate le impostazioni e i cursori, i dati "grezzi" vengono rimappati e resi nuovamente in 8 bit per canale di colore).
Quando le tecniche delineate da Mann e Picard sono state applicate per la prima volta nelle applicazioni di imaging tradizionali a livello di consumatore, quelle applicazioni di solito richiedevano che le immagini fossero in formato jpeg. Un po 'più tardi, se volessi diventare davvero esotico, potresti trovare un programma che ti consente di utilizzare i TIFF. Spesso gli utenti prendono un singolo file raw, creano una serie di jpeg dal singolo file con differenze di esposizione / luminosità di -2, 0, +2 e poi li combinano usando il programma HDR. Anche un file raw a 12 bit può contenere una gamma dinamica pari a una serie di jpeg -2, 0, +2. Un file raw a 14 bit può contenere informazioni equivalenti a quelle di una serie di jpeg -3, 0, +3. Solo di recente la maggior parte delle applicazioni HDR basate sulla creazione di mappe luminose a virgola mobile ha consentito l'utilizzo di dati di file non elaborati come punto di partenza.
Nell'uso più ampio dei termini HDR (o HDRI ), sono inclusi anche altri processi che non coinvolgono mappe di luminanza a 32 bit e la necessità di mappare i toni. La combinazione di diverse aree di diverse esposizioni della stessa scena, sia attraverso un "incolla" fisico come Le Gray più di 150 anni fa o tramite moderne applicazioni di imaging digitale che utilizzano i livelli, è un modo. Altre tecniche, come Exposure Fusion o Digital Blendingeseguire digitalmente le regolazioni globali in un modo che non richiede lo stesso tipo di mappatura dei toni di una mappa di luce a virgola mobile a 32 bit. Come accennato in precedenza, molte delle tecniche utilizzate nella camera oscura per produrre stampe da film esposti nel 20 ° secolo erano un mezzo per visualizzare scene con una gamma dinamica molto ampia utilizzando carta fotografica che aveva la capacità di una gamma dinamica inferiore rispetto al film negativo usato per catturare la scena. Lo stesso vale per queste varie tecniche digitali.
Anche convertendo un file raw a 14 bit, in cui i dati per ciascun pixel hanno solo un valore di luminanza ma non colori reali, e usando algoritmi di demosaicing per interpolare un valore di colore rosso, verde e blu per canale di 8 bit per ogni pixel in base sui diversi valori di luminanza dei pixel adiacenti che vengono filtrati utilizzando una maschera Bayer con motivi alternati di rosso, verde e blu possono essere considerati HDRI , specialmente quando vengono applicate curve di tono di forma irregolare ai valori RGB risultanti.