Quali sono le cause del rumore da bande nei sensori CMOS?


9

Sto cercando informazioni (e riferimenti) su tre argomenti correlati:

  • Quali sono le cause del rumore da bande nei sensori CMOS? Qual è la causa fisica / tecnologica? La causa è la stessa nei sensori CCD e CMOS?

  • In che modo i vari fattori rilevanti (impostazione ISO, tempo di esposizione e livello di esposizione) influenzano la forza e il motivo delle strisce?

  • Lo schema di banda è stabile nel breve termine (scatti sequenziali) e nel lungo termine? C'è una possibilità che il modello di banda di un sensore reale possa essere misurato e utilizzato per ridurre l'effetto nelle foto reali?


Per chiarire cosa intendo per banding, ecco un'immagine di esempio dal sito Web TopazLabs. Notare le bande orizzontali nell'immagine rumorosa.

banding


Un ingenuo esperimento non ha mostrato alcuna correlazione positiva tra il bendaggio in diverse immagini di una semplice superficie bianca.


Grazie per questa domanda Ho visto simili manufatti a strisce orizzontali e verticali sulle foto fatte da una fotocamera reflex digitale Canon con sensibilità ISO 100 quando le foto erano molto sottoesposte (di 5 o 6 stop perché il flash non si è ripreso).
b_jonas,

Risposte:


14

Il rumore da bande orizzontali e verticali (HVBN) è causato dalla lettura del sensore, dall'amplificazione a valle e dall'ADC. Possono esserci più fonti di HVBN, alcune di esse causano uno schema relativamente fisso, altre possono causare uno schema casuale. L'interferenza del segnale esterno è spesso una fonte di bande più morbide e più casuali. Esattamente ciò che causa la formazione di bande in cui i sensori dipendono realmente, e nessuno, tranne il produttore, ha informazioni sufficienti per indicare le cause esatte per una determinata fotocamera.

In primo luogo, HVBN è causato dal modo in cui vengono attivate le righe di pixel e viene letta ogni colonna per una riga e dalla natura dei transistor coinvolti in quel processo di lettura. Innanzitutto, i transistor prodotti tramite fotolitografia sono imperfetti. Le imperfezioni nel silicio di base, le imperfezioni nel modello e l'attacco, ecc. Possono influenzare la risposta dei transistor. Pertanto, ogni pixel di un sensore, così come i secchi per l'elaborazione di immagini on-die come CDS (Correlated Double Sampling), non si comporteranno necessariamente come tutti gli altri, producendo differenze. Nei moderni sensori CMOS (esclusi i sensori di tipo Sony Exmor), i circuiti CDS on-die sono spesso un colpevole per l'introduzione del rumore di fascia con impostazioni ISO inferiori (da ISO 100 a forse 800) nelle ombre profonde.

Alcuni progetti di lettura comportano anche un ulteriore amplificatore a valle utilizzato in determinate circostanze, utilizzato in aggiunta agli amplificatori per pixel. Il rumore di banda introdotto all'interno del sensore stesso sarà esacerbato da qualsiasi amplificatore a valle. Questi tipi di amplificatori di solito si attivano a valori ISO molto elevati, come 6400 e superiori, motivo per cui l'output relativamente "pulito" a ISO 1600 e forse 3200 improvvisamente peggiora molto con impostazioni ancora più elevate.

Un'altra fonte di bande è l'ADC. Ci sono potenzialmente due colpevoli qui. Nel caso di una fotocamera come la 7D, che utilizza la lettura parallela divisa (in cui quattro canali di lettura sono diretti su un chip DIGIC 4 e altri quattro sono diretti su un altro chip DIGIC 4 in modo intercalato), una fascia abbastanza pronunciata ma persino verticale può verificarsi, anche nei mezzitoni, grazie alla diversa risposta dei processori di immagini DSP DIGIC che ospitano quattro unità ADC ciascuna. Poiché le bande pari vengono inviate alle unità ADC di una DIGIC e le bande dispari vengono inviate alle altre unità ADC della DICIC, è improbabile un'elaborazione identica al 100% e lievi differenze si manifestano come bande verticali.

La fonte potenziale finale è componenti ad alta frequenza. La logica ad alta frequenza ha la tendenza ad essere rumorosa. Usando nuovamente la 7D come esempio, si tratta di un sensore da 18 megapixel, che deve elaborare un totale di otto unità ADC, a una velocità abbastanza veloce da supportare una velocità dell'otturatore di 8 fps. (Tecnicamente parlando, la 7D ha anche più di 18 milioni di pixel ... in realtà è un sensore da 19,1 megapixel, poiché Canon maschera sempre un bordo di pixel per l'offset di polarizzazione e la calibrazione del punto nero.) A 8 fps, pixel totali elaborati al secondo deve essere almeno 152.800.000 e poiché ci sono otto unità ADC, ogni unità deve elaborare 19,1 milioni di pixel ogni secondo. Ciò richiede una frequenza più elevata, che può (attraverso una varietà di meccanismi che non entrerò qui) introdurre ulteriore rumore.


Ci sono modi in cui HVBN può essere ridotto. Alcuni progetti di sensori ritagliano valori di segnale negativo dai pixel (o, in altre parole, non usano un offset di bias), che ha l'effetto di dimezzare la banda, ma costa anche alcuni dettagli potenzialmente recuperabili in profondità nelle ombre dell'immagine. I sensori che utilizzano un offset di polarizzazione (che consente valori di segnale negativi fino a un livello preimpostato) tendono ad avere più HVBN a ISO più bassi poiché viene eseguito un minor clipping per supportare una capacità più ampia del full-well. Un design ADC più avanzato può ridurre il rumore, alcuni addirittura utilizzano il rumore insieme a una forma di dithering per eliminare quasi il rumore introdotto da ADC.

Un altro modo per ridurre il rumore da bande è spostando il segnale analogico in digitale prima, preferibilmente sul sensore stesso. I dati digitali possono essere corretti da errori durante il trasferimento, quando i segnali analogici tendono a captare il rumore più viaggiano lungo bus elettronici e unità di elaborazione. Un aumento del numero di unità ADC migliora il parallelismo, riducendo la velocità alla quale ciascuna unità deve operare, consentendo quindi l'utilizzo di componenti a frequenza più bassa. Migliori tecniche di produzione (generalmente offerte da un processo di fabbricazione più piccolo, che aumenta lo spazio per hardware più complesso) e migliori wafer di silicio possono essere utilizzati per normalizzare la curva di risposta per ciascun transistor o unità logica, consentendo loro di produrre risultati più puliti, anche a frequenze più alte.


Sony Exmor, il noto sensore quasi privo di rumore nelle fotocamere D800 e D600 di Nikon, ha adottato un approccio abbastanza radicale per ridurre la forma di rumore più invadente e frustrante. Exmor sposta l'intera tubazione di elaborazione delle immagini fino all'ADC incluso e incluso sulla matrice del sensore. Ha iperparallelizzato l'ADC, aggiungendone una per colonna di pixel (CP-ADC o ADC parallelo di colonna). Ha eliminato l'amplificazione analogica per pixel e i CDS analogici a favore dell'amplificazione digitale e dei CDS digitali. Ha isolato i componenti ad alta frequenza in un'area remota della matrice del sensore, eliminando quasi completamente il rumore introdotto da ciascuna unità ADC. La lettura di pixel comporta la conversione immediata da una carica analogica in un'unità digitale e rimane digitale da quel momento in poi. Una volta digitale, tutti i trasferimenti di informazioni sono effettivamente senza rumore,

Una delle grandi vittorie per Exmor (secondo la Sony) è stata l'eliminazione dei circuiti analogici CDS e il passaggio alla logica digitale CDS. L'affermazione di Sony era che le differenze di risposta per le unità CDS analogiche fossero una fonte di rumore da bande. Invece di memorizzare la carica di ripristino di ciascun pixel come carica, viene eseguita una "lettura di ripristino", che la lettura di ripristino viene eseguita attraverso lo stesso processo ADC di una normale immagine letta, con l'eccezione che l'uscita digitale viene tracciata come valori negativi. Quando si legge l'esposizione effettiva, questa viene letta come valori positivi e la precedente lettura CDS "negativa" viene applicata in linea (ovvero ogni lettura di pixel inizia con un valore negativo e il conteggio aumenta da lì). Ciò elimina il rumore sia dalla risposta transistor non uniforme che dalla corrente scura contemporaneamente.

Con un sensore Exmor, la lettura è effettivamente priva di ISO (potresti aver sentito quel termine altrove sulla rete). Tutte le impostazioni ISO sono ottenute tramite un semplice boost digitale (amplificazione digitale) al livello appropriato. Per RAW, l'impostazione ISO deve semplicemente essere archiviata come metadata e gli editor RAW aumentano il valore di ciascun pixel al livello appropriato durante la demosaicing. Questo è il motivo per cui uno scatto ISO 100 D800 può essere sottoesposto, quindi sollevato in post da molti stop, senza introdurre rumore di bande nell'ombra.


-1

Il bendaggio è causato da una serie di fattori.

Proprio come nella gestione del colore, qualsiasi dispositivo lungo il processo di imaging può farti vedere delle strisce. Potrebbe essere causato da un monitor mal calibrato, una stampante mal calibrata, un monitor non in grado di mostrare un vero LUT a 8 bit / 12 bit. Dalla mia esperienza, la maggior parte delle bande non è in realtà inerente. È causato dal fatto che il monitor non è in grado di distinguere tra livelli discreti di grigio su una sfumatura fine.

Non vedo davvero come CMOS / CCD farebbe la differenza. Per capire questo richiede un po 'di competenza tecnica, è necessario capire che il fattore più importante che influenzerà la banda è la profondità di bit del sensore, questo da solo determina la quantità di valori tonali discreti che il sensore può registrare. Un sensore a 12 bit registra 2 ^ 12 livelli di grigio mentre un sensore a 14 bit registra 2 ^ 14 = 16384 livelli di grigio. Ora, per complicare le cose, la maggior parte delle fotocamere digitali non assegna una funzione di peso lineare alla distribuzione tonale dei loro sensori, ciò significa che la fotocamera (in effetti la maggior parte delle fotocamere) può essere più distorta nella parte più chiara dello spettro (questo è dove la frase "spara a destra" viene, per quanto riguarda gli istogrammi).

Per complicare ulteriormente le cose, la maggior parte dei processori di sensori può fare (sicuramente fare) la propria interpolazione tra valori tonali sparsi. Ciò significa, ad esempio, che se ho un valore tonale di 5 in una particolare parte dell'immagine e un'area vicina ha un valore tonale di 8, la fotocamera "indovina" quale dovrebbe essere il valore tonale intermedio. L'ISO può anche essere un fattore in quanto influenza la gamma dinamica e la latitudine di esposizione.

Quello che dovresti indagare è se la fascia viene visualizzata su più di un dispositivo. Se lo trovi, puoi provare ad aggiungere il rumore gaussiano con un metodo di fusione e una maschera per sbarazzartene. Includerò alcune immagini per mostrarti cosa intendo:

Ha creato delle strisce con una sfumatura scura

Ora aggiungi un livello di rumore:

(1) Crea nuovo livello

(2) Riempilo con il 50% di grigio: Modifica -> Riempi -> 50% di grigio

(3) Imposta il Metodo di fusione di quel livello su Luce intensa

(4) Aggiungi rumore: Filtro -> Aggiungi rumore (gaussiano, circa l'1%)

Puoi quindi giocare con l'opacità di quel livello fino a quando la fascia non scompare, puoi anche creare una maschera su di esso se vuoi.

Aggiunta del livello di rumore


1
Grazie per i commenti, ma stavo chiedendo un diverso tipo di banda. Si prega di vedere l'esempio che ho collegato da "banding". Intendevo le linee orizzontali (o verticali) che appaiono in immagini ISO alte sottoesposte. È una specie di rumore "strutturato", e questa struttura (linee orizzontali nel mio caso) lo rende molto più distraente del solito rumore casuale.
Szabolcs,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.