Molte delle operazioni che stai descrivendo manipolano i dati nell'immagine in modo tale che le informazioni vengano perse o trasformate. Per la maggior parte, non penso che questo abbia importanza per la fotografia tradizionale (ad es. Stampe e simili), ma è sicuramente importante quando ogni pixel è considerato una misura del numero di fotoni.
Ciò a cui penso quando eseguo operazioni è la propagazione dell'errore. Può esistere un errore a livello di singolo pixel, a livello spaziale e a livello di colore.
Il rumore è un errore del sensore a singolo pixel durante il processo di rilevamento, introdotto da fotoni erranti, effetti quantistici (la traduzione di un fotone in un elettrone per il conteggio è un evento probabilistico a livello quantico) e la conversione da analogico a digitale. Se le operazioni successive faranno cose come il contrasto di stiramento (equalizzazione dell'istogramma) o enfatizzeranno le regioni più scure (riempire la luce), allora dovresti ridurre il rumore prima di farlo.
Per un esempio completamente ridotto di ciò che intendo, scatta un'immagine in campo scuro (foto con il copriobiettivo inserito). Il risultato è rumore. Puoi contrastarlo per migliorarlo, o quello che vuoi, ma è comunque rumore. Un algoritmo di riduzione del rumore perfetto dovrebbe rimuovere tutto, quindi non è possibile trovare alcun contrasto per migliorare nei passaggi successivi.
L'errore spaziale può essere introdotto in diversi modi. Quando si ruota un'immagine, si introducono errori spaziali. Se pensi che ci sia un'immagine "vera" (nel senso ideale platonico), la fotocamera ne registra una versione digitale. Anche quando usi il film, i grani / i cristalli del film sono di dimensioni finite e accadrà un certo campionamento dell'immagine "vera". Quando si ruota un'immagine digitale, si introducono effetti di aliasing. I bordi più nitidi saranno leggermente opachi (a meno che non si ruoti di 90 gradi, nel qual caso il campionamento della griglia rimane valido). Per vedere cosa intendo, scatta un'immagine e ruotala di incrementi di 1 grado. Il bordo tagliente ora sarà (leggermente) sfocato a causa del campionamento necessario per eseguire piccole rotazioni.
Il campionamento Bayer potrebbe essere solo un errore di campionamento spaziale con cui dobbiamo convivere. È una delle grandi estrazioni (forse l'unica vera attrazione) per il sensore Foveon. Ogni pixel ha il colore misurato in quella posizione, piuttosto che ottenere gli altri colori dai pixel vicini. Ho un dp2 e devo dire che i colori sono piuttosto sorprendenti rispetto al mio d300. L'usabilità, non tanto.
Gli artefatti da compressione sono un altro esempio di errore spaziale. Comprimi un'immagine più volte (apri un jpg, salvalo in un'altra posizione, chiudi, riapri, risciacqua, ripeti) e vedrai cosa intendo qui, specialmente con una compressione del 75%.
Gli errori dello spazio colore vengono introdotti quando si passa da uno spazio colore a quello successivo. Se prendi un png (lossless) e lo sposti da uno spazio colore a un altro, quindi salvalo. Quindi torna allo spazio colore originale, vedrai alcune sottili differenze in cui i colori in uno spazio non sono mappati all'altro.
Quando sto elaborando le foto, quindi, il mio ordine è generalmente questo:
- riduzione del rumore
- miglioramento del contrasto, esposizioni, ecc.
- rotazioni
- spazio colore
- compressione finale all'immagine di output.
E salvo sempre il raw.