Perché è ancora necessario un filtro antialiasing fisico sulle moderne DSLR?


13

Comprendo che lo scopo del filtro antialiasing (AA) è prevenire la moiré. Quando sono emerse per la prima volta le fotocamere digitali, era necessario un filtro AA per creare una sfocatura sufficiente per prevenire i modelli di moiré. A quel tempo la potenza dei processori della fotocamera era molto limitata. Ma perché è ancora necessario posizionare un filtro AA sul sensore nelle moderne fotocamere DSLR? Ciò non potrebbe essere realizzato con la stessa facilità dagli algoritmi applicati quando l'output dal sensore viene demosurato?Sembrerebbe che l'attuale potenza di elaborazione disponibile nella fotocamera lo consentirebbe ora molto più di qualche anno fa. L'attuale processore Digic 5+ di Canon ha una potenza di elaborazione 100 volte superiore a quella del processore Digic III, che riduce la potenza delle prime fotocamere digitali. Soprattutto quando si riprendono file RAW, la sfocatura AA non può essere eseguita nella fase di post-elaborazione? È questa la premessa di base della Nikon D800E, anche se utilizza un secondo filtro per contrastare il primo?


Non è. Esistono già DSLR senza filtro anti-alias, tra cui Pentax K-5 II, Nikon D800E, oltre a modelli mirrorless come Olympus PEN E-PM2 e tutti i Fujis (X-E1, X-Pro1). Inoltre hanno anche annunciato telecamere con obiettivo fisso senza filtro AA (X20 e X100S).
Itai,

1
E tutte quelle macchine fotografiche mostrano talvolta l'effetto moiré a colori.
Kendall Helmstetter Gelner,

3
Anzi, ma lo saranno anche altre fotocamere. Sospetto che un filtro anti-alias che eviti ogni moiré sia ​​troppo forte, quindi i produttori usano filtri AA di minore resistenza. Ad esempio, nel mio confronto K-5 II e K-5 II , la moiré si verifica su entrambe le fotocamere, solo molto di più con il K-5 II.
Itai,

1
IIRC la nuova Nikon D7100 non ne ha nemmeno una.
James Snell,

1
E ora, il Pentax K-3 non ha filtri ma ha una modalità per far vibrare il sensore molto, molto leggermente durante l'esposizione per simularne uno. Molta innovazione interessante in questo settore.
Leggi il profilo il

Risposte:


12

L'aliasing è il risultato della ripetizione di schemi di circa la stessa frequenza che interferiscono l'uno con l'altro in modo indesiderato. Nel caso della fotografia, le frequenze più alte dell'immagine proiettata dall'obiettivo sul sensore creano un modello di interferenza (moiré in questo caso) con la griglia di pixel. Questa interferenza si verifica solo quando tali frequenze sono all'incirca uguali o quando la frequenza di campionamento del sensore corrisponde alla frequenza wavelet dell'immagine. Questo è il limite di Nyquist. Nota ... questo è un problema analogico ... il moiré si verifica a causa di interferenze che si verificano in tempo reale nel mondo reale prima che l'immagine venga effettivamente esposta.

Una volta esposta l'immagine, quel modello di interferenza viene effettivamente "inserito". È possibile utilizzare il software in una certa misura per ripulire i modelli moiré in post, ma è minimamente efficace rispetto a un filtro passa basso fisico (AA) davanti al sensore. La perdita di dettaglio dovuta a moiré può anche essere maggiore di quella persa con un filtro AA, poiché moiré è in realtà un dato senza senso, in cui i dettagli leggermente sfocati potrebbero essere ancora utili.

Un filtro AA è progettato per offuscare quelle frequenze su Nyquist in modo che non creino schemi di interferenza. Il motivo per cui abbiamo ancora bisogno dei filtri AA è perché i sensori di immagine e gli obiettivi sono ancora in grado di risolversi alla stessa frequenza. Quando i sensori migliorano al punto in cui la frequenza di campionamento del sensore stesso è costantemente più alta rispetto persino ai migliori obiettivi con la loro apertura ottimale, la necessità di un filtro AA diminuisce. L'obiettivo stesso gestirà efficacemente la sfocatura necessaria per noi e i modelli di interferenza non emergerebbero mai in primo luogo.


Qui è parte un commento pubblicato su photo.stackexchange.com/questions/10755/… . Credi ancora che sia accurato? In tal caso, come viene inserito il modello fino a quando i dati RAW non sono stati sottoposti a demosaicing? "Ironia della sorte, almeno con RAW, il limite teorico di nyquist non sembra sempre essere un limite rigido, probabilmente a causa delle diverse lunghezze d'onda della luce rossa, verde e blu e della distribuzione dei pixel RGB in un sensore. - jrista ♦ 10 aprile 11 alle 18:50 "
Michael C

1
Credo che stavo parlando della risoluzione in generale lì, e non direttamente dell'aliasing nel segnale digitale registrato. Il limite di nyquist è una specie di cosa difficile da definire in un sensore bayer a causa del modello irregolare di file RGRG e GBGB. La risoluzione spaziale del verde è superiore alla risoluzione spaziale del rosso o del blu, quindi il limite di nyquist alla luce rossa o blu è a una frequenza inferiore rispetto al limite di nyquist alla luce verde. Il limite nyquist in un'immagine demosaiced è un po 'difficile da chiamare esattamente, quindi diventa un po' una banda sfocata, piuttosto che un limite matematico concreto.
jrista

1
... quel modello diventa parte dell'immagine. Anche se conoscessi le esatte caratteristiche wavelet dell'immagine virtuale e ne potessi produrre una serie di quattro, allora dovresti cambiare l'orientamento dell'immagine rispetto al concetto virtuale del sensore per eliminare "perfettamente" il moiré. Questo è un lavoro eccessivamente intenso e altamente matematico ... supponendo che tu conoscessi la natura ESATTA del segnale originale dell'immagine virtuale e la sua relazione con il sensore. Una volta che l'aliasing viene inserito in un RAW, viene praticamente eseguito, in realtà non è possibile annullarlo senza ammorbidire i dettagli.
jrista

1
Conosco tutto sulla differenza di frequenza tra rosso / blu e verde. Come per tutti gli attuali filtri AA ottici che filtrano solo su nyquist, dipende davvero dalla fotocamera. Non tutti i filtri AA sono progettati esattamente allo stesso modo, e anche per lo stesso marchio, modelli diversi e linee diverse spesso hanno filtri AA che si comportano in modo diverso. So che storicamente le linee 1D e 5D hanno consentito ALCUNE frequenze appena sopra la nyquist, tuttavia penso che sia una questione di bilanciamento con la risoluzione dell'obiettivo.
jrista

1
Sui sensori con pixel più piccoli, come la Canon 18mp APS-C, la D800, la D3200, i pixel stanno diventando molto, molto piccoli. Al di fuori di un piccolo segmento se obiettivi davvero nuovi (come la generazione della serie L Mark II di Canon, e quindi, solo quelli rilasciati negli ultimi due-tre anni) possono risolvere dettagli sufficienti per superare in modo significativo il sensore e causare aliasing a frequenze superiori a Nyquist. Filtra intorno a nyquist e l'obiettivo stesso sfocerà i dettagli oltre a quello. Penso che sia parte del motivo per cui la linea 5D ha avuto un filtro AA troppo forte ... gli obiettivi lo superano più facilmente.
jrista

11

La fisica semplicemente non funziona in questo modo. L'aliasing trasforma irreversibilmente le frequenze oltre il limite di Nyquist per apparire come frequenze al di sotto del limite, anche se quegli "alias" non sono realmente presenti. Nessuna quantità di elaborazione di un segnale con alias può recuperare il segnale originale nel caso generale. Le fantasiose spiegazioni matematiche sono piuttosto lunghe da approfondire a meno che tu non abbia una classe nella teoria del campionamento e nell'elaborazione del segnale digitale. Se l'avessi fatto, non avresti fatto la domanda. Sfortunatamente, la risposta migliore è semplicemente "Non è così che funziona la fisica. Mi dispiace, ma dovrai fidarti di me su questo." .

Per provare a dare una sensazione approssimativa che quanto sopra potrebbe essere vero, considera il caso di una foto di un muro di mattoni. Senza un filtro AA, ci saranno modelli di moiré (che in realtà sono gli alias) che rendono le linee di mattoni ondulate. Non hai mai visto il vero edificio, solo l'immagine con le linee ondulate.

Come fai a sapere che i veri mattoni non sono stati disposti in uno schema ondulato? Si assume che non erano dalla conoscenza generale di mattoni e l'esperienza umana del vedere muri di mattoni. Tuttavia, qualcuno potrebbe semplicemente fare un punto deliberatamente fare un muro di mattoni in modo che sembrasse nella vita reale (se visto con i tuoi occhi) come l'immagine? Sì, potevano. Pertanto, è possibile distinguere matematicamente un'immagine con alias di un normale muro di mattoni e un'immagine fedele di un muro di mattoni deliberatamente ondulato? No non lo è. In realtà, non puoi nemmeno dire la differenza, tranne per il fatto che la tua intuizione su ciò che un'immagine probabilmente rappresenta può darti l'impressione che puoi. Ancora una volta, a rigor di termini non si può dire se le onde sono artefatti moiré o sono reali.

Il software non può rimuovere magicamente le onde perché non sa cosa è reale e cosa non lo è. Matematicamente si può dimostrare che non può saperlo, almeno guardando solo l'immagine ondulata.

Un muro di mattoni può essere un caso ovvio in cui puoi sapere che l'immagine con alias è sbagliata, ma ci sono molti altri casi sottili in cui davvero non lo sai e potresti anche non essere consapevole che l'aliasing sta succedendo.

Aggiunto in risposta ai commenti:

La differenza tra aliasing di un segnale audio e di un'immagine è solo che il primo è 1D e il secondo 2D. La teoria e qualsiasi matematica per realizzare effetti è sempre la stessa, solo che viene applicata in 2D quando si tratta di immagini. Se i campioni si trovano su una griglia rettangolare regolare, come in una fotocamera digitale, sorgono altri problemi interessanti. Ad esempio, la frequenza di campionamento è sqrt (2) inferiore (circa 1,4x inferiore) lungo le direzioni diagonali applicate alle direzioni allineate agli assi. Tuttavia, la teoria del campionamento, la frequenza di Nyquist e ciò che sono realmente gli alias non differiscono in un segnale 2D rispetto a un segnale 1D. La differenza principale sembra essere che questo può essere più difficile per coloro che non sono abituati a pensare nello spazio delle frequenze per avvolgere la mente e proiettare ciò che tutto ciò significa in termini di ciò che vedi in un'immagine.

Ancora una volta, no, non è possibile "demosaico" un segnale dopo il fatto, almeno non nel caso generale in cui non si sa quale dovrebbe essere l'originale. I pattern moiré causati dal campionamento di un'immagine continua sono alias. La stessa matematica si applica a loro così come si applica all'alias delle alte frequenze in un flusso audio e che suona come fischi di sottofondo. È la stessa roba, con la stessa teoria per spiegarla e la stessa soluzione per affrontarla.

Tale soluzione è eliminare le frequenze al di sopra del limite di Nyquist prima del campionamento. Nell'audio che può essere eseguito con un semplice filtro passa-basso, è possibile creare un resistore e un condensatore. Nel campionamento delle immagini, hai ancora bisogno di un filtro passa-basso, in questo caso sta prendendo parte della luce che colpirebbe solo un singolo pixel e lo diffonderebbe ai pixel vicini. Visivamente, questo sembra un leggero offuscamento dell'immagine primaè campionato. I contenuti ad alta frequenza sembrano dettagli fini o spigoli vivi in ​​un'immagine. Al contrario, i bordi nitidi e i dettagli precisi contengono alte frequenze. Sono esattamente queste alte frequenze che vengono convertite in alias nell'immagine campionata. Alcuni alias sono quelli che chiamiamo modelli moiré quando l'originale aveva un contenuto regolare. Alcuni alias danno l'effetto "gradino della scala" a linee o spigoli, specialmente quando sono quasi verticali o orizzontali. Ci sono altri effetti visivi causati da alias.

Solo perché l'asse indipendente nei segnali audio è il tempo e gli assi indipendenti (due dei quali poiché il segnale è 2D) di un'immagine sono la distanza non invalida la matematica o in qualche modo la rende diversa tra segnali audio e immagini. Probabilmente perché la teoria e le applicazioni di aliasing e anti-aliasing sono state sviluppate su segnali 1D che erano tensioni basate sul tempo, il termine "dominio del tempo" è usato per contrastare il "dominio della frequenza". In un'immagine, la rappresentazione dello spazio senza frequenza è tecnicamente il "dominio della distanza", ma per semplicità nell'elaborazione del segnale viene spesso indicato come "dominio del tempo". Non lasciarti distrarre da ciò che è realmente l'aliasing. E no, non è affatto la prova che la teoria non si applica alle immagini, solo che a volte viene usata una scelta fuorviante di parole per descrivere le cose per ragioni storiche. In realtà, il collegamento "dominio del tempo" applicato al dominio non di frequenza delle immagini è in realtàperché la teoria è la stessa tra immagini e segnali reali basati sul tempo. L'aliasing è aliasing indipendentemente da quale sia l'asse (o gli assi) indipendente.

A meno che tu non sia disposto a approfondire questo a livello di un paio di corsi universitari sulla teoria del campionamento e l'elaborazione del segnale, alla fine dovrai solo fidarti di quelli che hanno. Alcune di queste cose non sono intuitive senza un significativo background teorico.


Tutto il mio background nel campionamento e nell'elaborazione del segnale digitale è stato per quanto riguarda l'audio digitale. Capisco come agisce un filtro passa-basso per impedire ai suoni al di sopra di una certa frequenza di entrare nella conversione AD. Se stai campionando a 44.100hz, applichi un filtro che inizia a decollare a circa 20Khz e qualsiasi risposta da 22Khz è praticamente sparita. Ma con l'imaging digitale non è così semplice, perché anche con i filtri AA passa un po 'di aliasing. Ho letto altrove che i filtri non provano a bloccare tutto sopra Nyquist perché ciò ridurrebbe troppo la risoluzione.
Michael C,

1
Dovrei essere d'accordo sul fatto che il problema affrontato da un filtro passa-basso in una telecamera non è lo stesso del problema affrontato da un filtro passa-basso nell'elaborazione audio. Immagino che il modo migliore per dirlo sia che un filtro passa-basso audio funzioni direttamente con un segnale elettronico, dove un filtro passa-basso ottico funziona sulle frequenze spaziali di un segnale di immagine prodotto da un obiettivo. Il segnale elettronico con cui sei abituato a lavorare è di natura diversa rispetto a un segnale di immagine.
jrista

1
@Michael: vedi aggiunta alla mia risposta.
Olin Lathrop,

1
"I motivi moiré causati dal campionamento di un'immagine continua sono alias." - Olin. Penso che questo sia il punto chiave proprio lì! Quando effettivamente esponi, non stai registrando una versione pura dell'immagine virtuale originale ... stai registrando alias di punti dati all'interno di quell'immagine virtuale originale. I dati sul tuo computer contengono alias. Modo molto bello, conciso e chiaro per dirlo. :)
jrista

1
@Michael: Quello che dici su come i pixel a colori sono interpolati dai valori dei sensori non elaborati è corretto, ma non influisce sulla discussione di aliasing. In definitiva, l'immagine reale continua viene ancora campionata in punti discreti, quindi è necessario un filtro anti-alising prima del campionamento per evitare alias. Per quanto riguarda il tuo commento sull'algebra, non ha assolutamente senso. Naturalmente l'algebra si applica ai polinomi di ordine superiore e alle equazioni 2D, solo che diventa più complessa a causa della presenza di variabili più indipendenti.
Olin Lathrop,

6

Non è possibile ottenere lo stesso effetto nel software. Puoi andare da qualche parte nelle vicinanze, date alcune ipotesi. Ma il filtro AA diffonde la luce in modo che colpisca più pixel di diversi colori dandoti informazioni che sono assenti dal sensore del filtro senza AA.

La Nikon D800E non fa assolutamente nulla per provare a replicare il filtro AA. Se nell'immagine ci sono schemi ad alta frequenza, ottieni la moiré e questo è il tuo problema: devi affrontarlo!

L'aliasing è peggiore quando la frequenza dei dettagli nell'immagine è molto vicina alla frequenza di campionamento. Per le fotocamere meno recenti con sensori a bassa risoluzione (e quindi campionamento a bassa frequenza) la moiré era un problema serio con molti tipi di dettagli dell'immagine, quindi i filtri AA erano forti (niente a che fare con una potenza di elaborazione limitata). Ora abbiamo frequenze di campionamento molto più alte, ci vogliono dettagli di immagine di frequenza molto più alta per far apparire moiré.

Alla fine le frequenze di campionamento saranno così elevate che i dettagli degli oggetti ad alta frequenza necessari non supereranno le aberrazioni dell'obiettivo e gli effetti di diffrazione, rendendo ridondante il filtro AA. Questo è in parte il motivo per cui alcuni dorsi MF non dispongono di un filtro AA, ad altissima risoluzione e ai fotografi di moda che amano scattare in f / 32 con giganteschi alimentatori Profoto che dimostrano l'illuminazione.


Mi sembra che l'interpolazione fatta nel processo di demosaicing possa essere modificata per ottenere la stessa identica cosa, dato che la media dei pixel adiacenti è ciò che viene fatto lì. La Nikon D800E ha due componenti di filtro AA proprio come le altre fotocamere, ma invece di una luce polarizzante in orizzontale e l'altra polarizzante in verticale la seconda è a 180 gradi dalla prima e prende i raggi polarizzati dalla prima e li combina in un unico flusso. Vedi foto.stackexchange.com/questions/22720/…
Michael C

2
@MichaelClark No, non è possibile ottenere lo stesso effetto nel processo di demosaicing. Un singolo punto di luce che colpisce il sensore D800E produrrà la carica in un solo photosite. Non c'è modo di dire di che colore fosse quella luce guardando i pixel vicini, le informazioni sono state perse per sempre. Lo stesso punto di luce che colpisce il sensore D800 (con filtro AA) colpirà fortemente un pixel e i pixel circostanti in misura minore. Dato che i pixel adiacenti hanno filtri di colore diversi osservandone l'intensità, è possibile per un algoritmo di demosaicing stimare il colore della luce.
Matt Grum,

1
@MichaelClark L'unico motivo per cui la D800E ha questa disposizione è semplificare il processo di produzione, è molto più semplice cambiare l'orientamento di uno dei filtri nella fase di input piuttosto che scambiare due filtri con un elemento di vetro trasparente - in definitiva il filtro lo stack deve avere la stessa altezza in quanto ha un effetto di rifrazione e i moderni design delle lenti ne tengono conto. Il semplice fatto di non inserire nessuno dei filtri sul D800E avrebbe introdotto una leggera aberrazione nelle immagini.
Matt Grum,

Ma allo stesso tempo quel singolo punto di luce colpisce un sito di sensori, i punti di luce corrispondenti colpiscono tutti i siti di sensori adiacenti e il filtro AA sta facendo sì che tutti loro si riversino luce l'uno sull'altro. La maggior parte degli algoritmi di demosaicing non usa l'interpolazione per confrontare i livelli di luminosità non solo dei pozzetti pixel immediati ma anche di altri pozzetti pixel vicini con la stessa sensibilità del colore? In effetti, non stai sfocando matematicamente i pixel adiacenti l'uno nell'altro ciò che stai facendo?
Michael C,

1
@MichaelClark l'alias non è una sfocatura. Influisce sui pixel molto distanti tra loro. Ad esempio, otterrai un battito ogni 50 pixel, con dissolvenza in entrata / in uscita superiore a 10. Quella striscia era reale o causata da strisce più piccole dei pixel? Non puoi saperlo
JDługosz,

2

Queste sono tutte buone risposte e buone informazioni. Ho una spiegazione molto semplificata. Passiamo dal 2D al 1D (si applica lo stesso concetto).

Quando una frequenza colpisce il sensore che è superiore alla "frequenza massima consentita", in realtà creerà una frequenza speculare nella parte inferiore . Una volta che la tua immagine è stata campionata vedrai questo segnale più basso ma la fotocamera o il tuo computer non sanno se questo era un segnale più basso che era davvero lì o se era un alias creato da un segnale che era troppo alto. Questa informazione è persa. Questo è il motivo della "frequenza massima consentita" o della frequenza di nyquist. Dice che questa è la frequenza più alta che può essere campionata e al di sopra di essa le informazioni andranno perse.

un analogo all'audio: supponiamo che il tuo sistema sia impostato dove desideri una gamma di frequenze da 0hz a 1000hz. per lasciare un po 'di spazio in più si campiona a 3000Hz che rende il tuo Niquist 1500Hz. qui è dove entra il filtro aa. Non vuoi che entri nulla al di sopra di 1500Hz, in realtà il tuo cut-off inizierà subito dopo 1000Hz, ma ti assicuri che quando arrivi a 1500Hz che non è rimasto nulla.

supponiamo che tu dimentichi il filtro aa e permetti a un tono di 2500 hz di entrare nel tuo sensore. si speccherà attorno alla frequenza di campionamento (3000hz) in modo che il sensore rilevi un tono a 500 hz (3000hz - 2500hz). ora che il tuo segnale è campionato non saprai se la 500hz era effettivamente lì o se è un alias.

btw. le immagini speculari si verificano per tutte le frequenze ma non rappresentano un problema se non si è al di sopra del nyquist perché è possibile filtrarle facilmente in un secondo momento. il tono di input di esempio è 300 hz. avrai alias a (3000 - 300 = 2700hz [e per essere corretti anche 3000 + 300 = 3300hz]). tuttavia, poiché sai che stai considerando solo fino a 1000 hz, questi saranno facilmente rimossi. quindi di nuovo il problema sorge quando le immagini speculari entrano nello spettro che si desidera effettivamente, perché non si sarà in grado di dire la differenza e questo è ciò che significano per "cottura".

spero che sia di aiuto


1
Tranne il fatto che "aliasing" nel contesto della fotografia è "spaziale" basato sulla ripetizione di schemi nell'immagine proiettata sul sensore, non su particolari frequenze di luce che colpiscono bene un singolo pixel. I filtri ottici passa-basso sulla maggior parte dei sensori della fotocamera non filtrano "tutte" le frequenze al di sopra del limite di Nyquist, filtrano solo i pattern "più" ripetuti al limite di Nyquist e i relativi multipli.
Michael C,

Apprezzo il tuo commento Inoltre non mi riferivo alle frequenze della luce ma alla velocità di variazione dell'intensità da un pixel all'altro. Stavo ignorando i colori. Immagino di vederlo come 3 singole immagini in bianco e nero. Successivamente ognuno ottiene un colore e sovrapposti insieme formano tutti i colori. È ancora difficile per me avvolgere la testa attorno alle frequenze nelle immagini. Immagino che quando hai un pixel bianco proprio accanto a un pixel nero rappresenti le alte frequenze a causa della rapida velocità di cambiamento e un pixel grigio chiaro accanto a un pixel grigio scuro è una frequenza inferiore.
pgibbons,

Non è esattamente il modo in cui funziona il demosaicing di un sensore mascherato Bayer, ed è uno dei motivi per cui inizialmente ho posto la domanda.
Michael C

Le frequenze più alte in questo contesto sono schemi ripetitivi con minore distanza sul sensore tra ogni ripetizione. Le frequenze più basse ripetono schemi con più distanza tra ogni ripetizione. Se il pixel pitch di un sensore è di 6 µm, i pattern che si ripetono ogni 3 µm sarebbero alla frequenza di Nyquist. I pattern che si ripetono ogni 4 µm sarebbero al di sotto dell'NF e quelli che si ripetono ogni 2 µm sarebbero al di sopra di esso.
Michael C
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.