Qual è la differenza tra “HDR falso” e HDR a esposizione reale, con bracketing?


10

Quando ho iniziato a rispolverare le mie abilità nella fotografia di paesaggio, mi sono imbattuto nel problema polarizzante (inteso come gioco di parole) della fotografia HDR. Più specificamente, mi sono imbattuto in un post di blog ben scritto intitolato " Is a Lightroom HDR" Effect ", Really HDR? ". Per citare il post:

Ho visto questo post l'altro giorno su 500px (link: http://500px.com/photo/8023755 ) e mi sono meravigliato. Il fotografo, Jose Barbosa (il cui lavoro penso sia favoloso a proposito), ha scritto "No HDR" accanto alla sua foto. Ma la foto (almeno per me) sembra una foto HDR. (...) Ho scavato un po 'nei metadati della sua foto e ho visto un sacco di pennello di regolazione fatto con Clarity (Fondamentalmente il cursore dell'effetto HDR in Lightroom). E nei commenti sul post 500px, il fotografo stesso ha scritto "elaborazione in Lightroom e Viveza 2". (...)

Il mio punto (e la tua domanda) è se l'HDR (che non è proprio l'HDR), è ancora l'HDR? L'HDR non è semplicemente diventato ed effetto? Un po 'come il bianco e nero o l'effetto cross-processing. Abbiamo ancora bisogno di 3 o 5 o 7 foto tra parentesi che sono state elaborate in un programma come Photomatix, per classificare un'immagine come una foto HDR ufficiale? O l'HDR è semplicemente l'effetto di mettere in evidenza più dettagli nelle ombre e nelle luci (e forse un po 'grintoso / surreale).

Sembra che io abbia la stessa domanda dell'autore: qual è davvero la differenza tra questi effetti "fake hdr" aggiunti tramite dire, la regolazione della chiarezza di lightroom, insieme a un recupero di ombre / luci rispetto al "vero" HDR che coinvolge esposizioni tra parentesi a + / - n EV? C'è del rumore extra nel metodo "falso"? C'è qualche differenza (evidente) a tutti? Su una nota simile, c'è qualche motivo per scattare un'immagine HDR se possiamo semplicemente usare il recupero di ombre / luci per esporre uniformemente l'intera scena?

Risposte:


22

Qual è la differenza tra “HDR falso” e HDR a esposizione reale, con bracketing?

L'unica differenza è in che misura decidi di definire il termine High Dynamic Range Imaging (HDR). Usi il termine più ampio in quanto è stato storicamente utilizzato per oltre 150 anni per fare riferimento a tecniche utilizzate per visualizzare una scena con un intervallo dinamico più elevato rispetto all'intervallo dinamico del mezzo di visualizzazione? O insisti su una definizione molto ristretta che utilizza tecniche che sono state solo un paio di decenni per sostenere che l'unica definizione legittima di HDR è una versione con mappatura dei toni a 8 bit di una mappa luminosa a virgola mobile a 32 bit creata da combinando più esposizioni tra parentesi? È praticamente tutto.

HDR come il termine è comunemente usato oggi è solo una forma di High Dynamic Range Imaging (HDRI) che esiste da almeno il 1850.

Gustave Le Grey ha effettuato esposizioni multiple a diversi valori di esposizione per creare paesaggi marini che utilizzavano il cielo luminoso da una lastra di vetro negativa e il mare più scuro e la costa da un'altra.

Il sistema a zone durante le riprese e lo sviluppo e la mappatura dei toni eseguite nella camera oscura a metà del XX secolo fu elevato a una forma d'arte da Ansel Adams e altri mentre usavano i tempi di sviluppo e schivando e bruciando le stampe per ridurre la gamma dinamica totale di un scena per ciò che i documenti fotografici che stavano usando erano in grado di visualizzare.

Nel regno della fotografia digitale ci sono più tecniche usate per rappresentare una scena con un High Dynamic Range usando un mezzo, come un monitor di un computer o una stampa, che non è in grado di avere un contrasto altrettanto grande tra le parti più luminose e più scure di una scena come contiene la scena stessa. Ciò che molte persone intendono quando dicono che l' HDR è solo una di queste tecniche.

Sebbene lungi dall'essere l'unico legittimo, la comprensione più comune oggi del termine HDRè ciò che si è evoluto dalle idee introdotte per la prima volta nel 1993 e che hanno portato a una teoria matematica di immagini diversamente esposte dello stesso argomento pubblicate nel 1995 da Steve Mann e Rosalind Picard. Crea una mappa della luce ad alta gamma dinamica da più immagini digitali esposte a valori diversi usando solo operazioni di immagine globali (su tutta l'immagine). Il risultato è spesso una 'immagine' a virgola mobile a 32 bit che nessun monitor o stampante è in grado di eseguire il rendering. Deve quindi essere mappato in tono riducendo il contrasto generale preservando al contempo il contrasto locale per adattarlo alla gamma dinamica del supporto di visualizzazione. Ciò porta spesso a artefatti nelle transizioni tra aree con valori di luminanza elevati e aree con valori di luminanza bassi. (Anche quando apri un file "raw" a 12 o 14 bit nella tua applicazione fotografica sul computer, quello che vedi sullo schermo è un rendering a 8 bit del file raw demosaurato, non l'attuale filtro monocromatico Bayer-filtered 14 -bit file. Man mano che modificate le impostazioni e i cursori, i dati "grezzi" vengono rimappati e resi nuovamente in 8 bit per canale di colore).

Quando le tecniche delineate da Mann e Picard sono state applicate per la prima volta nelle applicazioni di imaging tradizionali a livello di consumatore, quelle applicazioni di solito richiedevano che le immagini fossero in formato jpeg. Un po 'più tardi, se volessi diventare davvero esotico, potresti trovare un programma che ti consente di utilizzare i TIFF. Spesso gli utenti prendono un singolo file raw, creano una serie di jpeg dal singolo file con differenze di esposizione / luminosità di -2, 0, +2 e poi li combinano usando il programma HDR. Anche un file raw a 12 bit può contenere una gamma dinamica pari a una serie di jpeg -2, 0, +2. Un file raw a 14 bit può contenere informazioni equivalenti a quelle di una serie di jpeg -3, 0, +3. Solo di recente la maggior parte delle applicazioni HDR basate sulla creazione di mappe luminose a virgola mobile ha consentito l'utilizzo di dati di file non elaborati come punto di partenza.

Nell'uso più ampio dei termini HDR (o HDRI ), sono inclusi anche altri processi che non coinvolgono mappe di luminanza a 32 bit e la necessità di mappare i toni. La combinazione di diverse aree di diverse esposizioni della stessa scena, sia attraverso un "incolla" fisico come Le Gray più di 150 anni fa o tramite moderne applicazioni di imaging digitale che utilizzano i livelli, è un modo. Altre tecniche, come Exposure Fusion o Digital Blendingeseguire digitalmente le regolazioni globali in un modo che non richiede lo stesso tipo di mappatura dei toni di una mappa di luce a virgola mobile a 32 bit. Come accennato in precedenza, molte delle tecniche utilizzate nella camera oscura per produrre stampe da film esposti nel 20 ° secolo erano un mezzo per visualizzare scene con una gamma dinamica molto ampia utilizzando carta fotografica che aveva la capacità di una gamma dinamica inferiore rispetto al film negativo usato per catturare la scena. Lo stesso vale per queste varie tecniche digitali.

Anche convertendo un file raw a 14 bit, in cui i dati per ciascun pixel hanno solo un valore di luminanza ma non colori reali, e usando algoritmi di demosaicing per interpolare un valore di colore rosso, verde e blu per canale di 8 bit per ogni pixel in base sui diversi valori di luminanza dei pixel adiacenti che vengono filtrati utilizzando una maschera Bayer con motivi alternati di rosso, verde e blu possono essere considerati HDRI , specialmente quando vengono applicate curve di tono di forma irregolare ai valori RGB risultanti.


5

A mio avviso, è semplice come questo: una foto HDR è una foto in cui si tenta di far apparire i dettagli in ogni parte di una scena con una gamma dinamica elevata. Dopotutto è quello che dice il nome "HDR" da solo.

Ora, cos'è una gamma dinamica elevata? È quando le parti in ombra dell'immagine sono molto più scure delle parti luminose dell'immagine. Storicamente, si scattavano più foto con esposizioni diverse per catturare i dettagli in ogni parte della scena, perché le fotocamere non erano in grado di catturare una gamma dinamica elevata. Al giorno d'oggi, la fotocamera può facilmente catturare 14 stop di esposizione (il che significa che il dettaglio nel tono più scuro è 2 ^ 14 volte meno luce fisica rispetto ai toni più luminosi che la fotocamera può catturare) (ad esempio: la Nikon D750 ha 14,5 stop di gamma dinamica ). Questo è molto, e in più situazioni prima che sufficiente per ottenere lo stesso effetto di una "foto HDR" usando esposizioni multiple. Quindi in breve, le fotocamere sono diventate migliori nel catturare grandi distanze, e quindi è diminuita la necessità di più foto di diverse esposizioni, ma ciò non lo rende HDR. Per concludere, la foto su 500 px che hai collegato è sicuramente una foto HDR, dal momento che puoi dire che puoi vedere molti dettagli in tutte le parti dell'immagine per una scena con originariamente molta gamma dinamica.


1

se riusciamo a usare solo il recupero di ombre / luci per esporre uniformemente l'intera scena

Ciò dipende dalla gamma dinamica della scena che si sta tentando di catturare e dalla gamma dinamica che il sensore è in grado di catturare.

Se quando esponi riesci a malapena a trovare dettagli nelle ombre per non far risaltare le luci, hai bisogno di più esposizioni.

Se riesci a ottenere abbastanza dettagli nell'ombra (con livelli di rumore minimi o accettabili) preservando anche le alte luci, potresti essere soddisfatto della cattura e della regolazione di una singola foto.


0

La mia risposta sarà una sorta di modo pratico e sperimentale per ottenere la comprensione.

  1. Vai nel luogo come la città con l'edificio e la strada dove puoi guardare direttamente il sole o il cielo nella giornata di sole, o andare nel luogo dove ad esempio c'è una foresta e puoi anche vedere il sole o il cielo.

  2. Guarda (usando i tuoi occhi) gli edifici o gli alberi.

  3. Guarda il cielo o da vicino al sole (piuttosto non guardare direttamente il sole).

Puoi osservare come gli occhi si stanno adattando. Puoi vedere sia gli alberi che il cielo.

  1. Prendi la tua fotocamera quando hai l'opzione live view che puoi accendere.

  2. Metti a fuoco la tua fotocamera sugli stessi punti che avevi guardato.

Vedrai che la fotocamera non può efficacemente su una e l'unica esposizione ottiene la vista del cielo e degli oggetti più scuri. Anche se riprenderai la scena con una sorta di impostazioni di esposizione media, ci sono luoghi che saranno neri e alcuni che saranno bianchi (sottosaturi e saturi). Anche se proverai a ridurre o aumentare localmente l'esposizione nel software specializzato (ce ne sono molti), non ci sarà modo di ottenere la forma e i colori da bianchi e neri.

È la realtà. I sensori attuali non sono così avanzati come gli occhi. A proposito, per il bene dell'arte, è anche la caratteristica desiderata, che viene utilizzata nella fotografia Low key e High key.

Continuiamo l'esperimento.

  1. Se riesci a scattare un paio di foto per ottenere più informazioni e poi unirle nel software HDR in un secondo momento, combinerai tutte le informazioni di tutte le foto.

  2. La cosa migliore è scattare più immagini con un passo EV più piccolo, quando la scena è statica. Se ci sono oggetti in movimento, deve esserci un leggero compromesso tra la quantità di colpi e il passo EV.

A seconda della situazione, è possibile scattare da 3 immagini +/- 1 EV o 3 con + / 2 EV fino a 9 o più scatti +/- 0,5 EV o anche +/- 2 EV.

Importante è anche il modo in cui esegui il cambio EV. Fondamentalmente il modo più popolare è aumentare o diminuire il tempo di posa. Con alcuni limiti si possono usare le modifiche ISO per ottenere lo stesso, ma con valori ISO elevati le immagini sono più rumorose. La modifica dell'apertura rende le immagini difficili da unire e gli effetti sono interessanti (direi artistico o concettuale). Ovviamente si possono usare i filtri ND, per estendere la propria gamma EV - provare ad usare un filtro ND 3.0 estremo.

Infine, quando il set di immagini è ben preparato e con una gamma davvero ampia di EV, il risultato HDR sarà sorprendente e non c'è modo di fingere da una singola immagine, poiché la singola immagine avrà sicuramente meno informazioni.

Commenti finali.

Questo tipo di scena è possibile acquisire utilizzando il filtro gradiente, ma l'HDR è più generale, soprattutto quando il confine tra i luoghi chiari e scuri non è lineare.

Consiglio di usare il treppiede per qualsiasi esperimento con HDR :-).


0

C'è un malinteso di "HDRI"

Un'immagine ad alta gamma dinamica ha una gamma più dinamica di un'immagine normale. Sembrava una spiegazione piuttosto scadente ma questo è quello che è.

Ecco alcune animazioni che ho realizzato spiegando cos'è un Hdri: http://www.otake.com.mx/Apuntes/Imagen/EnviromentMaps/Index.html#HighDynamicRangeImages

L'idea sbagliata è che una parte del processo di manipolazione di queste immagini, chiamata mappatura dei toni, è la stessa dell'immagine Hdri stessa. Non è. Un'immagine Hdri contiene davvero più informazioni. Esterni soleggiati e interni scuri insieme.

Per poter visualizzare nuovamente tali informazioni su un monitor normale, l'immagine Hdr deve essere "rimappata". Un'immagine mappata in toni ha un tipo specifico di contrasto. Non un contrasto complessivo ma un contrasto sulle zone adiacenti. Ora puoi vedere nuvole contrastanti e interni scuri contrastati per esempio.

Il punto è che potresti scattare una foto normale (senza bracketing) e mapparla in tono, in modo da poter avere l'aspetto "hdri".

Ecco 3 scatti. Uno è mappato a toni da un set di 3 foto tra parentesi (hdri reale ma ora mappato a toni in un'immagine a 8 bit)

Il secondo è un tono mappato da una singola ripresa.

Il terzo è solo il normale tiro singolo, ma sposta molto i livelli, per rivelare alcune informazioni adizionali sul cielo che non avevamo mai visto prima.

Il punto è che una foto normale può essere manipolata, schivare e bruciare per ottenere un aspetto simile, uno sguardo contrastato su una foto.

Ecco le foto originali tra parentesi Quella usata per (2) e (3) è Ev0:

Alcune informazioni sono nascoste lì. Ma una volta elaborato potrebbe diventare a bande, perché hai informazioni limitate nei pixel. Per evitare il banding, è meglio se hai più informazioni, più livelli di tonalità chiare e più livelli sulle ombre ... Ecco perché hai scattato le immagini tra parentesi.

Il punto è simile a questo post: qual è lo scopo di catturare immagini a 14 bit e modificarle su monitor a 8 bit? Più livelli di informazioni è meglio sulla modifica delle immagini.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.