Perché non abbiamo ancora sensori ad alta gamma dinamica che hanno la giusta esposizione in ogni parte di un'immagine?
Perché non abbiamo ancora sensori ad alta gamma dinamica che hanno la giusta esposizione in ogni parte di un'immagine?
Risposte:
Esistono già telecamere con DR più grande dell'occhio umano, sia istantaneamente che complessivamente. La gamma dinamica dell'occhio umano non è così ampia come la maggior parte delle persone tende a pensare che lo sia. Per quanto ricordo, è da qualche parte circa 12 a 16 EV, che è proprio al livello di una moderna DSLR.
La differenza principale è che disponiamo di un controllo dell'apertura estremamente naturale che si adatta a diverse parti dell'immagine. In effetti, i nostri cervelli eseguono automaticamente lo stacking delle immagini per noi. Quando guardiamo la parte luminosa di una scena, i nostri allievi si restringono e vediamo i dettagli della parte luminosa. Se spostiamo l'attenzione sulla parte più scura, le nostre pupille si aprono rapidamente e vediamo i dettagli della parte scura. Il nostro cervello sa come appariva la parte precedente e quindi non notiamo il cambiamento nella nostra visione periferica, ma in realtà non stiamo vedendo più dettagli in cui non siamo più concentrati.
Allo stesso modo, anche per l'intera gamma della visione umana, ci sono telecamere specializzate che possono andare molto più scure di noi e vedere ancora, in particolare i colori, sono attualmente troppo costose per essere prodotte per il grande pubblico poiché richiedono materiali e costruzioni di altissima qualità per ottenere il rumore di fondo super basso. Esistono anche sensori in grado di guardare oggetti molto luminosi che potrebbero essere dolorosi per le persone.
Un grosso problema è che guardare con gli occhi è molto diverso dalla cattura di un'immagine: un'immagine deve includere tutte le informazioni che lo spettatore potrebbe guardare, ma la visione normale è un processo attivo che coinvolge il movimento degli occhi, la rifocalizzazione e la dilatazione delle pupille secondo agli oggetti che stiamo guardando. Pertanto, se si desidera catturare "ciò che l'occhio vede" è necessario, in sostanza, catturare il punto di vista di tutte le impostazioni che l'occhio potrebbe usare.
La tua domanda riguarda l'intervallo dinamico, ma lo stesso problema appare con dettagli visivi e focus. Un'immagine 'equivalente alla vita' richiede molto, molto più pixel di quanto il tuo occhio possa effettivamente catturare, poiché la risoluzione dell'occhio è molto disuguale e mentre stai guardando solo un piccolo punto con il tuo centro di retina ad alta risoluzione, un'immagine ha bisogno maggiori dettagli disponibili poiché ti sposterai gli occhi. I film devono scegliere un singolo focus, mentre un essere umano può visualizzare una 'singola immagine' con maggiore profondità rifocalizzando rapidamente gli occhi e / o spostandoli per una corretta visione binoculare a diverse distanze previste (ad es. Guardando la superficie di una finestra o attraverso di essa ), eccetera.
Parte della soluzione è esattamente questo: utilizzando una singola fotocamera più volte rapidamente (o più telecamere) per catturare una varietà di immagini con impostazioni diverse e fonderle in seguito, l'HDR è l'esempio più evidente - proprio come fa il nostro occhio, sembra attivamente in vari luoghi diversi con "impostazioni" diverse, e solo successivamente il tuo cervello fonde il tutto in un'immagine o un film coerente. Le "immagini" reali prese dai nostri occhi sono già peggiori delle buone fotocamere, semplicemente la loro combinazione mentale è piacevole.
La tua immagine mentale è il prodotto non solo della retina, ma della sua interazione con tutti gli altri componenti coinvolti nella visione, incluso l'allievo e ovviamente il tuo cervello. Ciò che può sembrare una "sola immagine" è in realtà il risultato di regolazioni ad alta velocità ed elaborazione delle informazioni e non di una singola istantanea.
Puoi trovare maggiori informazioni su questo argomento qui .
È del tutto possibile realizzare un sensore di luce con proprietà logaritmiche: un tale sensore avrebbe un'incredibile gamma dinamica a scapito di una risoluzione limitata per una particolare esposizione. Ottenere entrambi richiede un ADC ad alta risoluzione. Per l'imaging CT viene in genere utilizzato 24 bit lineari, quindi il logaritmo viene acquisito dopo la regolazione dell'offset per creare l'immagine CT.
Un sensore che esegue il controllo dell'esposizione (tempo di integrazione - pensa alla velocità dell'otturatore) può fare di meglio, e se permetti cambiamenti nell'efficienza di raccolta della luce (pensa al numero f) otterrai una flessibilità ancora maggiore.
La massima gamma dinamica è in genere limitata dal rumore di lettura - quando si legge la carica accumulata si verificherà un errore - rispetto al segnale più grande che l'elettronica può supportare. Come ho detto, 24 bit sono comuni nell'imaging medico e questo è meglio di 1 parte su 10 milioni. Questa è una gamma dinamica molto più alta rispetto alla retina per una data esposizione. Ma non è comunemente usato nelle macchine fotografiche convenzionali perché l'occhio non ha potuto apprezzare quei dettagli nell'immagine e la risoluzione è a scapito della velocità.