Perché i pixel effettivi sono maggiori della risoluzione effettiva?


16

Questa pagina confronta le fotocamere Canon EOS 550D e Canon EOS 500D e le menzioni

18,7 milioni di pixel effettivi

per 550D. Tuttavia, la migliore risoluzione possibile utilizzando questa fotocamera è

5184 * 3456 = 17915904 ~ 17.9 million pixels

Cosa sono i pixel effettivi e perché questo numero è superiore a 17,9 milioni in questo caso?


1
Inoltre, tieni presente che "risoluzione" ha due significati. Nei computer, lo usiamo per fare riferimento alle dimensioni in pixel di uno schermo o di un'immagine. E in un disegno al computer o in un'immagine generata, che di solito corrisponde alla risoluzione "reale" - la quantità di dettagli effettivamente risolti nell'immagine. Ma in una fotografia, non è necessariamente il caso.
Mattdm,

1
Non è quello che sta succedendo qui - solo un'ulteriore fonte di confusione.
Mattdm,

Risposte:


9

Parte di ciò che stiamo vedendo qui è (ne sono ragionevolmente certo) nient'altro che un semplice errore di battitura (o qualcosa su quell'ordine) da parte di DPReview.com. Secondo Canon , [PDF, pagina 225] il numero di pozzetti sul sensore è "Circa 18,00 megapixel".

Questi vengono quindi ridotti a circa 17,9 megapixel quando gli input del modello Bayer vengono trasformati in ciò che la maggior parte di noi penserebbe come pixel. La differenza è abbastanza semplice: ogni pozzetto sul sensore rileva solo un colore di luce, ma un pixel come normalmente previsto nell'output (ad esempio un file JPEG o TIFF) ha tre colori per ogni pixel. A prima vista, potrebbe sembrare che significhi che un file avrebbe solo circa un terzo del numero di pixel quanti sono i pozzetti del sensore nell'input. Ovviamente, non è così. Ecco (una visione semplificata di) come funzionano le cose:

modello Bayer semplificato

Ogni lettera rappresenta un pozzetto sul sensore. Ogni casella rappresenta un pixel tricromia come andrà nel file di output.

Nella parte "interna" del sensore, ciascun pixel di uscita dipende dall'input da quattro pozzetti del sensore, ma ogni pozzetto del sensore viene utilizzato come input per quattro pixel di output diversi, quindi il numero di input e il numero di output rimane invariato.

Intorno ai bordi, tuttavia, abbiamo pozzetti per sensori che contribuiscono solo a due pixel anziché a quattro. Agli angoli, ciascun pozzetto del sensore contribuisce solo a un pixel di output.

Ciò significa che il numero totale di pixel di output è inferiore al numero di pozzetti del sensore. In particolare, il risultato è più piccolo di una riga e una colonna rispetto all'input (ad esempio, nell'esempio, abbiamo un sensore 8x3, ma pixel di output 7x2).


+1 soprattutto per il diagramma. Ma sono ancora perplesso, perché ciò spiegherebbe l'assenza di 2 (5184-1 + 3456-1) = circa 17K pixel, che andrebbero semplicemente persi nell'arrotondamento nell'informatica 18,0 - 17,9 = 0,1 M pixel. Sembrerebbe che almeno tre volte il numero di pixel debba essere rimosso dal limite (perché qualcosa di meno di 50 K dovrebbe arrotondare per difetto a 0,0 M). Forse il demosaicing sta usando un quartiere più grande di quelli 2 x 2 mostrati qui: forse sta usando un quartiere 7 x 7?
whuber

1
@whuber: A parte, non sono sicuro di poter rendere conto direttamente del resto. È certamente possibile utilizzare più sensori per produrre un singolo pixel di output, ma non ho alcun modo reale di sapere che è ciò che Canon sta facendo in questo caso. Un file raw dalla fotocamera fornirebbe il numero esatto di pozzetti del sensore, ma non direbbe esattamente come Canon stia ottenendo dall'input X all'output Y.
Jerry Coffin

3
In buoni algoritmi di demosaicing (ad es. Orientati all'omogeneità adattativa) ogni sensore contribuisce bene a più di quattro pixel di output, quindi si perde più di una sola riga o colonna. È abbastanza facile afferrare l'output non elaborato da dcraw e confrontare le dimensioni dell'immagine con l'output del DPP di Canon per ottenere una risposta definitiva, ci proverò quando avrò tempo.
Matt Grum,

@Matt Grum: A destra, guardando indietro, il mio commento precedente è piuttosto scarsamente formulato. Quello che stavo cercando di ottenere è che ci sono diversi algoritmi che potrebbero (e andranno) perdere / scartare ~ 3 righe / colonne di pixel, ma il conteggio dei pixel da solo non ti dirà quale di quelli che stanno usando. L'uso di un algoritmo più sofisticato che utilizza più sensori per pixel di output è praticamente un dato di fatto.
Jerry Coffin,

5

Non so perché il termine "efficace" sia utilizzato da DPReview, ma ci sono un paio di ragioni per la discrepanza tra il numero di fotositi (pixel) sul chip e la dimensione in pixel delle immagini risultanti.

Alcuni sensori della fotocamera hanno una striscia di pixel mascherati su ciascun lato. Questi pixel sono identici alla maggior parte dei pixel sul sensore, tranne per il fatto che non ricevono luce. Sono utilizzati per rilevare le interferenze e sottrarle dal segnale prodotto dai pixel sensibili alla luce.

In secondo luogo [buoni] algoritmi di demosaicing usano molte "operazioni di vicinato", ciò significa che il valore di un pixel dipende in qualche modo dal valore dei pixel adiacenti. I pixel sul bordo estremo dell'immagine non hanno vicini, quindi contribuiscono ad altri pixel ma non aumentano le dimensioni dell'immagine.

È anche possibile che la fotocamera ritaglia il sensore per altri motivi (ad es. Il cerchio dell'immagine dell'obiettivo non copre completamente il sensore) anche se dubito che sia il caso della 550D.


I pixel del bordo vengono utilizzati per rimuovere le interferenze o semplicemente per impostare il punto nero?
mattdm,

1
Immagino entrambi, se non ci fossero interferenze (inclusa la risposta termica) il punto nero sarebbe 0
Matt Grum

Descrizione di DPReview . Mi sembra che vada avanti e indietro tra due concetti opposti, e non vedo che in realtà definisca il termine, se non implicitamente. La tua risposta penso che aiuti un po ', ma mi lascia ancora chiedermi perché i pixel "efficaci" sarebbero più dei siti di foto reali, anche se la pagina dpreview offre alcune possibilità. Efficace: utilizzato per effettuare i dati delle immagini? O la data dell'immagine alla fine è stata così effettuata? (nota: effetto verbo con una e: creazione dell'esistenza.) Mi chiedo ancora cosa significano.
termina il

5

Vi sono due ragioni per cui i pixel effettivi sono inferiori al numero effettivo di pixel del sensore (elementi di rilevamento o sensori). Innanzitutto, i sensori Bayer sono composti da "pixel" che rilevano un singolo colore di luce. Di solito, ci sono sensels rossi, verdi e blu, organizzati in coppie di righe sotto forma di:

RGRGRGRG
GBGBGBGB

Un singolo "pixel" come la maggior parte di noi ha familiarità con esso, il pixel in stile RGB dello schermo di un computer, viene generato da un sensore Bayer combinando quattro sensori, un quartetto RGBG:

          R G 
(sensor)       -->  RGB (computer)
          G B

Poiché una griglia 2x2 di quattro sensori RGBG viene utilizzata per generare un singolo pixel del computer RGB, non sempre ci sono abbastanza pixel lungo il bordo di un sensore per creare un pixel completo. Un bordo "extra" di pixel è solitamente presente sui sensori Bayer per far fronte a questo. Un bordo aggiuntivo di pixel può anche essere presente semplicemente per compensare il design completo di un sensore, fungere da pixel di calibrazione e ospitare componenti extra-sensore che di solito includono filtri IR e UV, filtri anti-aliasing, ecc. Che possono ostruire un piena quantità di luce dal raggiungere la periferia esterna del sensore.

Infine, i sensori Bayer devono essere "sottoposti a demosaicing" per produrre una normale immagine RGB dei pixel del computer. Esistono diversi modi per demosaizzare un sensore Bayer, tuttavia la maggior parte degli algoritmi tenta di massimizzare la quantità di pixel RGB che possono essere estratti fondendo pixel RGB da ogni possibile set sovrapposto di quartetti RGBG 2x2:

Demosaicing Bayer

Per un sensore con un totale di 36 sensori monocromatici, è possibile estrarre un totale complessivo di 24 pixel RGB. Notare la natura sovrapposta dell'algoritmo di demosaicing guardando la GIF animata sopra. Si noti inoltre come durante il terzo e il quarto passaggio non siano state utilizzate le righe superiore e inferiore. Ciò dimostra come i pixel del bordo di un sensore potrebbero non essere sempre utilizzati quando si esegue il demosaicing di un array di sensori Bayer.

Per quanto riguarda la pagina DPReview, credo che possano avere informazioni errate. Credo che il numero totale di sensels (pixel) sul sensore Bayer Canon 550D sia 18.0mp, mentre i pixel effettivi, o il numero di pixel del computer RGB che possono essere generati da quella base 18mp, sono 5184x3456 o 17.915.904 (17,9mp). La differenza si ridurrebbe a quei pixel di bordo che non riescono a costituire un quartetto completo, e forse alcuni pixel di bordo aggiuntivi per compensare il design dei filtri e l'hardware di montaggio che si trovano davanti al sensore.


Ho appena notato che ho contato i sensi errati nella mia immagine animata. Nei primi due passaggi, non combina 8 sensori ... combina 28 sensori in 8 pixel. Negli ultimi due passaggi, combina 14 sensori in 4 pixel. Ci scusiamo per la discrepanza. Proverò a risolverlo presto.
jrista

-3

Mi dispiace deludere, ma nessuna di queste spiegazioni è vera. Su ogni sensore c'è una regione al di fuori dell'area di imaging che contiene anche i fotositi. Alcuni di questi sono disattivati, alcuni sono completamente attivi e altri sono utilizzati per altri scopi di monitoraggio. Questi sono usati per impostare i livelli di ampli e bilanciamento del bianco, come un "set di controllo" rispetto a quelli che eseguono l'imaging reale.

Se si acquisiscono i dati del sensore RAW da una qualsiasi delle fotocamere Powershot compatibili CHDK e si utilizza dcraw per convertirli, è possibile ottenere l'immagine completa del sensore, comprese queste regioni al 100% in bianco e al 100% in bianco.

Ciò che è interessante è che la risoluzione della dimensione dell'immagine RAW nella fotocamera è sempre maggiore rispetto ai risultati JPG nella fotocamera. Il motivo è che i metodi di interpolazione più semplici e veloci utilizzati nella fotocamera per passare da RAW a JPG richiedono i fotositi RGB circostanti per determinare il colore finale di ogni pixel. Per fare ciò, i photosite per bordi e angoli non hanno questi riferimenti cromatici circostanti su tutti i lati. Se esegui il processo in un secondo momento su un computer con un software di interpolazione RAW migliore, ti consentirà di riguadagnare una risoluzione leggermente più grande di quella che puoi ottenere da un JPG integrato nella fotocamera.

ps I recensori di DPReview e gli autori di articoli non dovrebbero mai essere considerati come vangelo da nessuno. Ho trovato così tanti buchi nei loro test ed esempi palesi in cui i tester non sapevano nemmeno come usare le telecamere, che ho scontato i loro consigli molti anni fa.


5
Nonostante il tuo commento secondo cui "nessuna di queste spiegazioni è vera", altre risposte in realtà lo riguardano già.
Mattdm,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.