Quali sono le difficoltà tecniche alla base della costruzione di un sensore ad alta gamma dinamica come l'occhio umano?


17

Perché non abbiamo ancora sensori ad alta gamma dinamica che hanno la giusta esposizione in ogni parte di un'immagine?


2
In realtà dopo aver risposto ho visto che questo è già stato discusso qui . Se questo non risponde a tutto per te, considera di espandere la tua domanda con maggiori dettagli.
mivilar

Una videocamera BlackMagic (video Full HD) ha un EV di 14, le moderne videocamere professionali (4K) hanno 18 EV. Quindi abbiamo questi sensori ...
TFuto

Risposte:


20

Esistono già telecamere con DR più grande dell'occhio umano, sia istantaneamente che complessivamente. La gamma dinamica dell'occhio umano non è così ampia come la maggior parte delle persone tende a pensare che lo sia. Per quanto ricordo, è da qualche parte circa 12 a 16 EV, che è proprio al livello di una moderna DSLR.

La differenza principale è che disponiamo di un controllo dell'apertura estremamente naturale che si adatta a diverse parti dell'immagine. In effetti, i nostri cervelli eseguono automaticamente lo stacking delle immagini per noi. Quando guardiamo la parte luminosa di una scena, i nostri allievi si restringono e vediamo i dettagli della parte luminosa. Se spostiamo l'attenzione sulla parte più scura, le nostre pupille si aprono rapidamente e vediamo i dettagli della parte scura. Il nostro cervello sa come appariva la parte precedente e quindi non notiamo il cambiamento nella nostra visione periferica, ma in realtà non stiamo vedendo più dettagli in cui non siamo più concentrati.

Allo stesso modo, anche per l'intera gamma della visione umana, ci sono telecamere specializzate che possono andare molto più scure di noi e vedere ancora, in particolare i colori, sono attualmente troppo costose per essere prodotte per il grande pubblico poiché richiedono materiali e costruzioni di altissima qualità per ottenere il rumore di fondo super basso. Esistono anche sensori in grado di guardare oggetti molto luminosi che potrebbero essere dolorosi per le persone.


AJ, DSLR non hanno la stessa gamma dinamica di eye. per DSLR è 2 alla potenza di 14, per l'occhio umano è 10 alla potenza di 14
Romeo Ninov,

@RomeoNinov - non per DR istantaneo, solo per apparente. Hai una fonte per il tuo reclamo? La mia fonte è qui "se dovessimo invece considerare la gamma dinamica istantanea del nostro occhio (dove la nostra apertura della pupilla è invariata), allora le telecamere vanno molto meglio. Sarebbe simile a guardare una regione all'interno di una scena, lasciando che i nostri occhi si adeguino, e non guardando da nessun'altra parte. In tal caso, la maggior parte stima che i nostri occhi possano vedere ovunque da 10-14 f-stop della gamma dinamica "
AJ Henderson

@RomeoNinov - risorsa leggermente migliore . Quindi vale la pena sottolineare che i nostri occhi fanno meglio dove le telecamere fanno male, ma i nostri occhi fanno peggio dove le telecamere fanno meglio. Nelle ombre, abbiamo 20 EV in cui le telecamere hanno ridotto i veicoli elettrici. In luminosità abbiamo circa 10 EV, ma le telecamere hanno da 12 a 14 EV. Il 10 ^ 14 è la gamma totale che possiamo vedere quando i nostri occhi si adattano, non quello che vediamo in qualsiasi momento. A tale proposito, le fotocamere non sono limitate a 2 ^ 14.
AJ Henderson

sì, le telecamere sono limitate alla profondità di bit dell'immagine grezza. Non puoi ottenere più bit o più informazioni dall'immagine. Concordo sul fatto che il cervello dell'immagine "vedere" non provenga da una sola istantanea dall'occhio, inoltre utilizziamo due occhi, che aggiungono molte informazioni aggiuntive all'immagine nel cervello. E nella risorsa che menzioni nel secondo commento vedi una gamma dinamica di occhi mostrata in potenza di 10. Ciò conferma solo le mie parole. Anche se DR è solo 12 EV è 10 ^ 12 che è milioni di milioni, rispetto a 2 ^ 14 che è 16384
Romeo Ninov,

1
Ma anche un sensore fortemente limitato, per esempio, a sei stop DR in qualsiasi momento può essere utilizzato per misurare i dettagli da valori molto scuri a molto luminosi in fotogrammi successivi modificando Tv e Av! In termini di apertura, questo è ciò che fa il sistema occhio / cervello.
Michael C,

10

Vedere è un processo attivo

Un grosso problema è che guardare con gli occhi è molto diverso dalla cattura di un'immagine: un'immagine deve includere tutte le informazioni che lo spettatore potrebbe guardare, ma la visione normale è un processo attivo che coinvolge il movimento degli occhi, la rifocalizzazione e la dilatazione delle pupille secondo agli oggetti che stiamo guardando. Pertanto, se si desidera catturare "ciò che l'occhio vede" è necessario, in sostanza, catturare il punto di vista di tutte le impostazioni che l'occhio potrebbe usare.

La tua domanda riguarda l'intervallo dinamico, ma lo stesso problema appare con dettagli visivi e focus. Un'immagine 'equivalente alla vita' richiede molto, molto più pixel di quanto il tuo occhio possa effettivamente catturare, poiché la risoluzione dell'occhio è molto disuguale e mentre stai guardando solo un piccolo punto con il tuo centro di retina ad alta risoluzione, un'immagine ha bisogno maggiori dettagli disponibili poiché ti sposterai gli occhi. I film devono scegliere un singolo focus, mentre un essere umano può visualizzare una 'singola immagine' con maggiore profondità rifocalizzando rapidamente gli occhi e / o spostandoli per una corretta visione binoculare a diverse distanze previste (ad es. Guardando la superficie di una finestra o attraverso di essa ), eccetera.

Parte della soluzione è esattamente questo: utilizzando una singola fotocamera più volte rapidamente (o più telecamere) per catturare una varietà di immagini con impostazioni diverse e fonderle in seguito, l'HDR è l'esempio più evidente - proprio come fa il nostro occhio, sembra attivamente in vari luoghi diversi con "impostazioni" diverse, e solo successivamente il tuo cervello fonde il tutto in un'immagine o un film coerente. Le "immagini" reali prese dai nostri occhi sono già peggiori delle buone fotocamere, semplicemente la loro combinazione mentale è piacevole.


1
+1 per il tuo punto di messa a fuoco nei film. Ciò è anche correlato a uno dei motivi principali per cui molte persone soffrono di mal di testa durante la visione di film in 3D. L'occhio deve focalizzarsi fisicamente sullo schermo, ma l'immagine stereoscopica induce il cervello a pensare che alcune parti dello schermo siano più vicine o più lontane di quanto non siano in realtà, causando affaticamento della vista quando provi a guardarle direttamente. Gli studi cercano di minimizzare ciò visualizzando il punto focale della scena nello stesso posto sia nelle immagini sinistra che destra. Quindi, se ti piace dare un'occhiata ai dettagli dello sfondo, non dimenticare l'ibuprofene!
Bcrist,

Il fatto che vedere sia un processo attivo è uno dei motivi per cui artisti davvero bravi possono produrre dipinti che sembrano migliori di una semplice fotografia. Una semplice fotografia catturerà tutto nella scena con le stesse caratteristiche di punto di vista, messa a fuoco, esposizione e bilanciamento del bianco, mentre gli occhi di qualcuno che stava effettivamente visualizzando la scena potrebbero adattarsi costantemente mentre osservano parti diverse. Un pittore, a differenza di una macchina fotografica, può produrre un'immagine in cui ogni parte della scena assomiglia a una persona che si trovava effettivamente in quel luogo, a guardarla.
supercat,

6

La tua immagine mentale è il prodotto non solo della retina, ma della sua interazione con tutti gli altri componenti coinvolti nella visione, incluso l'allievo e ovviamente il tuo cervello. Ciò che può sembrare una "sola immagine" è in realtà il risultato di regolazioni ad alta velocità ed elaborazione delle informazioni e non di una singola istantanea.

Puoi trovare maggiori informazioni su questo argomento qui .


1

È del tutto possibile realizzare un sensore di luce con proprietà logaritmiche: un tale sensore avrebbe un'incredibile gamma dinamica a scapito di una risoluzione limitata per una particolare esposizione. Ottenere entrambi richiede un ADC ad alta risoluzione. Per l'imaging CT viene in genere utilizzato 24 bit lineari, quindi il logaritmo viene acquisito dopo la regolazione dell'offset per creare l'immagine CT.

Un sensore che esegue il controllo dell'esposizione (tempo di integrazione - pensa alla velocità dell'otturatore) può fare di meglio, e se permetti cambiamenti nell'efficienza di raccolta della luce (pensa al numero f) otterrai una flessibilità ancora maggiore.

La massima gamma dinamica è in genere limitata dal rumore di lettura - quando si legge la carica accumulata si verificherà un errore - rispetto al segnale più grande che l'elettronica può supportare. Come ho detto, 24 bit sono comuni nell'imaging medico e questo è meglio di 1 parte su 10 milioni. Questa è una gamma dinamica molto più alta rispetto alla retina per una data esposizione. Ma non è comunemente usato nelle macchine fotografiche convenzionali perché l'occhio non ha potuto apprezzare quei dettagli nell'immagine e la risoluzione è a scapito della velocità.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.