In che modo il software aumenta l'esposizione nella post-elaborazione?


9

Qualcuno conosce qualche algoritmo o può spiegare matematicamente come la luminosità (EV) viene eseguita in post-elaborazione? Regola il livello di luminosità / RBG / contrasto per ciascun pixel? Si riferisce all'istogramma?

Quali sono i tecnicismi della compensazione dell'esposizione per un'immagine sottoesposta nella post elaborazione?

EDIT: In questa domanda qui, è stato pubblicato un link. Ha esempi di modifica dell'EV e si sposta a sinistra / a destra. Nella risposta di Matt Grumm, afferma che ogni pixel è "moltiplicato" (il che nella mia mente indica che l'istogramma viene spostato su / giù).

Qualcuno può spiegare perché questo è il caso? (Che EV cambia da sinistra a destra)


Intendi limitare questa domanda a quei particolari prodotti Adobe o sei interessato agli aggiustamenti dell'esposizione nella post-elaborazione in generale?
Leggi il mio profilo


2
L'ho letto due volte e lo trovo ancora una domanda piuttosto confusa. Potresti riformulare per eliminare alcune delle parti più discorsive e concentrarti chiaramente sulla tua domanda principale?
Mark Whitaker,

@mattdm Sì, in generale. Itai Kinda non proprio. :) Mark Whitaker lo farà. (Mi è stato detto che non posso più di una persona)
BBking

@Mark Whitaker L'ho reso ancora più chiaro?
BBking

Risposte:


6

So che siamo tutti entusiasti di avere fotocamere digitali, ma il fatto è che non lo facciamo . Abbiamo telecamere analogiche che hanno un formato di uscita digitale (e molti circuiti digitali che non sono direttamente correlati all'immagine).

Ogni volta che un segnale analogico viene convertito in un segnale digitale, si introduce un rumore di quantizzazione. Cioè, è molto improbabile che il segnale che entra nella conversione corrisponda esattamente al valore del numero digitale che esce dall'altra estremità - pensalo come errori di troncamento o arrotondamento.

Quando si esegue la post-elaborazione su un file di immagine digitale, il rumore di quantizzazione aggiunto dalla telecamera viene "inserito". Non importa quello che bit di profondità si sta lavorando in post, i dati che si sta lavorando con ha sia l'analogico (beh, quantum) componenti di rumore (rumore termico e girato, amplificatore di distorsione, ecc) e il rumore di quantizzazione dell'output della videocamera. La qualità dei dati di base non è perfetta, quindi qualsiasi calcolo fatto sui dati difettosi comporterà un output difettoso. GIGO , come si suol dire.

Nella fotocamera, d'altra parte, hai l'opportunità di amplificare (o attenuare) il segnale analogico prima della quantizzazione. Ciò non aiuta affatto con il rumore nel dominio analogico, ma riduce il rumore di quantizzazione a un determinato livello di luminosità .

Diciamo che hai un valore analogico di 4,4 whatchamacallits. Se scatti usando ISO 100, la nostra ipotetica fotocamera "digitale" la convertirà in un valore digitale esattamente di 4. Se scegli di aumentare l'esposizione apparente in post, sei bloccato a lavorare con la 4, che viene troncata. Se si aumenta l'ISO nella fotocamera (di meno di un punto), quel 4,4 verrà amplificato dai circuiti analogici prima che venga convertito in digitale e potrebbe risultare in un valore digitale 1-più elevato rispetto all'elaborazione interamente digitale. Una differenza a singolo bit potrebbe non sembrare molto, ma quando inizi ad accumulare tutti gli errori lungo il percorso durante l'elaborazione, un dato pixel potrebbe essere piuttosto lontano dai valori che dovrebbe avere. Questo è il rumore.

(C'è anche il fatto che la fotocamera "conosce" le proprie caratteristiche di risposta e può spiegarle durante l'elaborazione. Lightroom, ad esempio, non esegue la sottrazione del rumore del sensore basata su ISO specifica della fotocamera. Le fotocamere possono , sebbene non lo fanno tutti .)


Grazie Stan. Sì, ci sono tutti i tipi di rumore in un'immagine fotografica. Quindi, se regolate l'EV in PP, amplificate anche quel rumore. Proprio come l'ISO amplifica qualsiasi rumore.
BBking

2
Bumping ISO ed EV amplificano entrambi il rumore, ma penso che Stan stia dicendo che regolare ISO verso l'alto nella fotocamera è meglio che aumentare l'esposizione in post-elaborazione (perché stai essenzialmente amplificando il segnale prima che il rumore di quantizzazione sia introdotto in A / Passaggio D).
seanmc,

4

È questa la formula che stai cercando?

RGB[c] = max( RGB[c] * pow(2,EV), RGBmax )

Ciò significa sostanzialmente che per ogni canale (di ciascun pixel) dei dati RGB, moltiplicalo per 2 ^ EV e poi aggancialo a qualunque sia il valore massimo per i tuoi dati. Per il colore a 8 bit RGBmax sarà 255, per il colore a 16 bit sarà 65535, ecc.

EV qui è EV relativo quindi EV + 2.0 moltiplica (illumina) ogni pixel per un fattore di quattro ed EV-2.0 divide (scurisce) ogni pixel per un fattore di quattro.

La formula stessa non dipende dall'istogramma, ma se è necessario decidere quale valore di esposizione utilizzare per regolare in modo ottimale l'immagine, dall'istogramma si farebbe una sorta di statistica per calcolare l'EV.


1
Credo che i valori RGB rappresentino già la luminosità percepita, quindi la tua formula non è corretta. Sarebbe corretto per i valori misurati dal sensore (che è vicino alla lineare, vedi la risposta di Matt) ma non per i valori RGB già convertiti. (Prova cosa succede se applichi la tua formula.)
Szabolcs

@Szabolcs, pensavo che l'OP stesse chiedendo un algoritmo per fare la compensazione EV in post elaborazione, no? Ammetto che la domanda non mi è abbastanza chiara, ma stanno chiedendo matematica.
Polpo,

Grazie per la tua risposta! Hai un link per quelle formule in modo che io possa esaminarlo più da vicino?
BBking

1
@Octopus Sì, ma il mio punto era che la tua formula non è corretta se applicata ai valori RBG . I valori RGB vengono calcolati dai dati del sensore grezzo prendendo il logaritmo del valore grezzo (la nostra percezione è approssimativamente logaritmica) e quindi riscalando il risultato in modo lineare (che corrisponde all'impostazione del punto nero e del punto bianco). (Più alcune altre cose che Matt ha menzionato.) Pertanto la tua formula è corretta quando applicata a valori di pixel non elaborati, ma non è corretta per i valori RGB. Se in realtà cerchi di eseguire la trasformazione di un'immagine in pratica, capirai cosa intendo.
Szabolcs,

Prendi un file non elaborato, estrai i dati utilizzando dcrawcon l' -4interruttore per assicurarti che non esegua la trasformazione del log stesso, quindi prova a eseguire tu stesso una conversione raw di base e applica una compensazione dell'esposizione durante il processo.
Szabolcs,

3

NB la domanda è stata modificata in quanto la risposta di Stan a questo indirizza una domanda effettivamente diversa:

Qualcuno conosce qualche algoritmo o può spiegare matematicamente come la luminosità (EV) viene eseguita in post-elaborazione? Regola il livello di luminosità / RBG / contrasto per ciascun pixel? Si riferisce all'istogramma?

Quali sono i tecnicismi della compensazione dell'esposizione per un'immagine sottoesposta nella post elaborazione?

Può essere semplice come moltiplicare tutti i valori dei pixel (ad es. Luminosità, contrasto non è un termine che si applica ai singoli pixel) e applicare un offset. Se viene eseguito dopo la demosaicing, moltiplica semplicemente i valori rosso verde e blu per lo stesso fattore.

Il processo di compensazione dell'esposizione è un po 'più complesso nel contesto della conversione RAW, poiché i sensori della fotocamera sono intrinsecamente dispositivi lineari mentre la maggior parte dei convertitori RAW applica una curva tonale non lineare per provare ad emulare la curva a S contrastata che si ottiene con il film.

Pertanto, il momento migliore per eseguire la compensazione dell'esposizione è prima che questo venga applicato. Questo in pratica significa usare la funzione EC del tuo convertitore RAW, senza aspettare 'fino a quando non avrai esportato Photoshop poiché la curva non lineare sarà quasi sicuramente applicata da allora.

La situazione è ancora più complessa poiché alcuni convertitori RAW * usano profili di colore "contorti", che fanno sì che la tonalità / saturazione venga mappata su valori diversi a seconda dell'intensità. Questo viene fatto per produrre colori più piacevoli a scapito dell'accuratezza e può influire sui risultati della compensazione dell'esposizione.

Alcuni convertitori RAW offrono anche strumenti per recuperare luci e aumentare le ombre. Eseguono regolazioni locali (ovvero tengono conto di molto più dei singoli valori di pixel). Se vuoi conoscere i dettagli di questi algoritmi, probabilmente dovrai aspettare e sperare che uno sviluppatore di Lightroom si presenti qui.

* quando dico "alcuni convertitori RAW" sto sostanzialmente parlando di Lightroom / ACR, dato che è l'unico che ho studiato, altri convertitori RAW avanzati probabilmente fanno simili.


Da quello che sai, sei in grado di dimostrare come moltiplicando il valore RGB si ottiene una maggiore luminosità? Come in, una struttura di pixel ha valori per colore e luminosità? Per quanto ne so, puoi moltiplicare un valore di pixel per cambiarne anche il colore. Mi piace la curva a S in. So che sto chiedendo specificamente di un singolo pixel, ma capisco di più quando sono coinvolto con un'immagine nel suo insieme. Capisco che anche l'interpolazione è coinvolta.
BBking

1
I file RAW di @BBking contengono solo valori di intensità (luminosità), ogni pixel ha un filtro colorato in modo da alternare intensità di rosso, verde e blu. Poiché i sensori della fotocamera sono dispositivi lineari, il ridimensionamento dei valori registrati dà praticamente lo stesso risultato dell'esposizione del sensore più a lungo. Dopo che le immagini di demosaicing possono essere archiviate in diversi formati di colore, il più comune è RGB, dove ad ogni pixel viene registrata la quantità di luce rossa, verde e blu. Moltiplicare ciascuno di questi valori per lo stesso fattore aumenta la luminosità, moltiplicando ciascun valore per una quantità diversa cambia il colore.
Matt Grum,

"Dato che i sensori della fotocamera sono dispositivi lineari" ... Per essere pedanti, i sensori della fotocamera sono "quasi lineari" come ([hai già sottolineato]) ( photo.stackexchange.com/a/33986/6294 ). (Ho pensato che valesse la pena menzionarlo, poiché l'OP è anche interessato alla formulazione matematica del problema). Un buon algoritmo potrebbe in teoria prendere in considerazione la risposta tipica del sensore, anche se funziona solo con valori RGB.
Alberto,

@Alberto sì, questo è un buon punto, avrei dovuto dire "approssimativamente lineare" ma dato che il mio commento era già lungo 598 caratteri che avrebbe portato oltre 600 e avrebbe richiesto la divisione in due commenti;)
Matt Grum

3

Matematicamente, la luminosità di una matrice (immagine) è influenzata complessivamente agendo sul valore della funzione CIE L * della tonalità dei pixel. È una relazione aritmetica. Aggiungi, sottrai, moltiplica e dividi.

Ancora una volta, matematicamente, una matrice di trasformazione (numerica) viene aggiunta alla matrice esistente in pp. Queste possono essere fatte selettivamente sul soggetto o sulla matrice generale (immagine).

Buona esposizione e cattiva esposizione sono termini arbitrari, a condizione che la gamma di illuminamento del soggetto rientri nella gamma utile del sensore della fotocamera. La gamma del soggetto può essere ampia o ridotta all'estremo.

Nota: l'istogramma è un aiuto visivo che rappresenta la distribuzione relativa degli illuminamenti nell'immagine. È lineare. Non ha nulla a che fare con l'esposizione, la relazione reciproca di intensità e tempo, che è sempre rappresentata logaritmicamente.


2

Quali sono i tecnicismi della compensazione dell'esposizione per un'immagine sottoesposta in post elaborazione?

Il semplice potenziamento di tutti i valori in un'immagine aumenterà tutti i valori di una quantità uguale. Questa risposta "lineare" è peculiare delle immagini digitali.

Non percepiamo le cose in questo modo e l'immagine risultante apparirà innaturale.

L'immagine analogica (emulsione cinematografica) appariva più naturale poiché la risposta di un'emulsione fotografica assomigliava quasi alla risposta del sistema visivo umano. Sono stati fatti riferimenti a una curva a "S". Quella caratteristica forma a "S" è una risposta analogica.

Compensare la differenza tra la nostra risposta visiva umana proporzionale e la risposta digitale lineare invita vari mezzi per armonizzare esteticamente la differenza.

È necessario un modo efficace per fornire una compensazione proporzionale della differenza. Questo è il tecnicismo.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.