Gara megapixel non necessaria?


15

Siamo arrivati ​​al punto in cui la corsa in megapixel riguarda più la gara, di avere più dell'altro ragazzo, che della qualità dell'immagine?

Solo pochi anni fa, il 6MP era considerato il numero ottimale di MP di cui avevi bisogno per scattare foto davvero belle.

Ma ultimamente, come la maggior parte della tecnologia, MP ha saltato l'uno sull'altro a passi da gigante.

Nikon ha recentemente rilasciato la d800 con un (a mio avviso) folle 36.3MP. Ma va bene, la d800 è una fotocamera di fascia alta, un modo semplice per perdere qualche grand. Ma poi hanno anche rilasciato d3200, che mirava a diventare una DSLR 'principiante' entry level, con 24.2MP. Questo è il doppio di d5000 che ho comprato due anni fa.

So che più deputati sono buoni. MP più alto = immagine più nitida. Ma a che punto questi aumenti di nitidezza diventano nella migliore delle ipotesi trascurabili, e gli aumenti del numero di MP non servono altro che vantarsi dei diritti?

Se consideri che le persone hanno scattato splendide fotografie per decenni, che sono state scattate alcune foto straordinarie sulle prime reflex digitali con meno di 10 MP, con quale frequenza 36 MP saranno davvero utili?


1
Questo è esattamente ciò che stavo cercando di ottenere. I megapixel sono importanti con la moderna tecnologia dei sensori? .
Leggi il profilo

Tutto quello che posso dire è che anche quando non si visualizzano ritagli folli di grandi dimensioni o al 100%, è possibile vedere alcuni dettagli in più con la D800.
rfusca,

La dimensione dei pixel è più rilevante da confrontare rispetto ai megapixel, quindi prendi la radice quadrata del numero di pixel. Ora stai confrontando una dimensione di pixel di 3,2 con le prime reflex digitali, che a quanto pare va bene, con il "folle" d800 del 6
Matt Grum

@MattGrum: sono confuso sull'ultima affermazione. Quando dici "dimensione pixel", intendi il passo dei pixel? In tal caso, la D800 ha un pixel pitch di circa 4,6 micron. Rispetto ad altre fotocamere: 7D = 4.3, D7000 = 4.8, 5D III = 6.2, 1D X = 6.9, D3s = 8.4. Il D800 ha un pixel pitch più piccolo di praticamente tutti gli altri sensori tranne il 7D (e, una volta rilasciato, il D3200, che avrà un pixel pitch di circa 3,8 micron.) Sono arrivato a questi numeri dividendo l'altezza fisica di il sensore (diciamo 24 mm, 15,7 mm, 14,9 mm) dalle file di pixel. Non sono davvero sicuro di dove giochi la radice quadrata.
jrista

2
@MattGrum: Ah, sì, sono totalmente d'accordo con te lì. :) La differenza tra numero di pixel "lineare" e "area" di pixel. Ho discusso così tante volte di recente su altri forum ... è un concetto che la gente non capisce. Forse potremmo usare un post sul blog sull'argomento ...
jrista

Risposte:


16

I megapixel sono necessari!

La gara dei megapixel non è certamente "superflua". Coerentemente nell'ultimo decennio, sono stati fatti progressi sul fronte dei megapixel aumentando costantemente la qualità dell'immagine. Gli adagio aneddotici ti farebbero pensare che fosse impossibile, ma ci sono alcuni miglioramenti tecnologici e di fabbricazione che hanno reso più basso il rumore, un maggiore rapporto segnale-rumore e un aumento della gamma dinamica, nonostante la riduzione delle aree di pixel.

Penso che l'avvento del sensore Sony Exmor 36.3mp attualmente utilizzato nella Nikon D800 sia un esempio squisito di ciò che i miglioramenti tecnologici di basso livello possono fare per ridurre il rumore e aumentare la dinamica, pur consentendo significativi aumenti della risoluzione dell'immagine. In quanto tale, penso che la D800 sia un superbo esempio del motivo per cui la corsa dei megapixel non è assolutamente finita in alcun modo.

Per quanto riguarda se si tratta solo di vantarsi? Ne dubito. Strumenti migliori possono sempre essere usati efficacemente nelle mani di un abile artigiano. Una risoluzione più elevata e una gamma dinamica più bassa ISO presentano alcuni casi d'uso specifici di alto valore. Vale a dire, la fotografia di paesaggio e alcune forme di fotografia in studio. La D800 si trova in una posizione davvero unica, offrendo una qualità d'immagine di formato quasi medio in un pacchetto di circa 1/10 del costo. Per alcuni studi, non c'è sostituto per il meglio e utilizzeranno fotocamere digitali di medio formato da $ 40.000 per fornire la giusta percezione ai loro clienti. Per molti altri studi, tuttavia, e per molti fotografi di paesaggi, la D800 è un sogno diventato realtà: un sacco di megapixel e una gamma dinamica elevata.

No, la corsa dei megapixel sicuramente non è finita e non è certamente superflua. La concorrenza su tutti i fronti produce progressi su tutti i fronti, e questo è sempre e solo una cosa positiva per il consumatore.


Potenziale di miglioramento

Per andare un po 'più in profondità delle mie conclusioni sopra, c'è di più nella storia che semplicemente che la competizione su tutti i fronti è buona. Tecnologicamente, fisicamente e praticamente, ci sono limitazioni che limiteranno effettivamente i potenziali guadagni mentre continuiamo ad aumentare il numero di pixel del sensore. Una volta raggiunti tali limiti, altri utili utili a costi ragionevoli dovranno essere realizzati altrove. Due aree in cui ciò può accadere sono l'ottica e il software.

Limitazioni tecnologiche

Tecnologicamente, ci sono limiti distinti a quanto puoi migliorare il QI. La principale fonte di degradazione dell'immagine nei sensori è il rumore e ci sono una varietà di forme di rumore introdotte elettronicamente che possono essere controllate. Penso che la Sony, con i suoi sensori Exmor, sia molto vicina al raggiungimento dei limiti tecnologici, se non lo ha già fatto. Hanno utilizzato una varietà di brevetti per ridurre le fonti di produzione di rumore a livello hardware direttamente nei loro sensori. Principali fonti di rumore sono controllabili rumore corrente di buio , rumore di lettura , rumore di fondo , il rumore non uniformità , conversione (o quantizzazione) rumore e rumore termico .

Sia Sony che Canon utilizzano CDS , o doppio campionamento correlato , per ridurre il rumore di corrente scura. L'approccio di Sony è un tocco più efficiente, ma entrambi utilizzano essenzialmente lo stesso approccio. Il rumore di lettura è un sottoprodotto dell'amplificazione dovuto alle fluttuazioni della corrente attraverso il circuito. Esistono una varietà di approcci brevettati e sperimentali per rilevare la variazione di tensione in un circuito e correggerla durante l'amplificazione, per produrre un risultato di lettura "più puro, accurato". Sony utilizza un proprio approccio brevettato nei sensori Exmor, incluso quello 36.3mp utilizzato nel D800. Gli altri due tipi di rumore elettronico pre-conversione sono il rumore a trama e il rumore di non uniformità. Questi sono il risultato di discontinuità nella risposta e nell'efficienza del circuito.

Il rumore del pattern è un aspetto fisso di ciascuno dei transistor utilizzati per costruire un singolo pixel del sensore e le porte elettroniche utilizzate per avviare la lettura e il segnale flush. A livello quantico è quasi impossibile rendere ogni singolo transistor esattamente identico tra loro, e questo produce uno schema fisso di linee orizzontali e verticali nel rumore del sensore. In generale, il rumore del pattern contribuisce in misura minore al rumore generale ed è realmente un problema solo nelle regioni SNR molto basse o durante esposizioni molto lunghe. Il rumore del pattern può essere relativamente facile da rimuovere dato che si affronta correttamente il problema. Una "cornice scura" può essere costruita calcolando la media di più campioni insieme per creare un modello di disturbo del motivo che può essere differenziato con una cornice di colore per rimuovere il rumore del motivo. Questo è essenzialmente il modo in cui funziona la rimozione del rumore a lunga esposizione, ed è anche il modo in cui è possibile rimuovere manualmente il rumore di pattern fisso da lunghe esposizioni. A livello hardware, il rumore del pattern fisso può essere mitigato dalla masterizzazione in un template che inverte gli effetti di FPN in modo tale che le differenze possano essere aggiunte / sottratte al momento della lettura, in modo simile al CDS, migliorando così la "purezza" delle letture dei pixel. Oggi esistono diversi approcci sperimentali alla masterizzazione nei modelli FPN, così come approcci più astratti.

Il rumore di non uniformità, spesso chiamato PRNU o Pixel Response Non Uniformity, è il risultato di lievi variazioni nell'efficienza quantica (QE) di ciascun pixel. QE si riferisce alla capacità di pixel di catturare fotoni ed è generalmente valutato in percentuale. La Canon 5D III, ad esempio, ha un QE del 47%, il che indica che è abbastanza efficiente da catturare regolarmente il 47% dei fotoni che raggiungono ciascun pixel. Il QE effettivo per pixel può variare di +/- un paio per cento, il che produce un'altra fonte di rumore, poiché ogni pixel potrebbe non catturare lo stesso numero di fotoni dei suoi vicini nonostante riceva la stessa quantità di luce incidente. Anche la PRNU cambia con la sensibilità e questa forma di rumore può aggravarsi con l'aumentare dell'ISO. PRNU può essere mitigato normalizzando l'efficienza quantistica di ciascun pixel, minimizzare la variazione tra vicini e attraverso l'intera area del sensore. È possibile ottenere miglioramenti del QE riducendo il divario tra i fotodiodi in ciascun pixel, l'introduzione di uno o più strati di microlenti sopra ogni pixel per rifrangere la luce incidente non fotodiodo sul fotodiodo e l'uso della tecnologia dei sensori retroilluminata (che si muove molto o tutti i cavi di lettura e i transistor dietro il fotodiodo, eliminando la possibilità che possano ostruire i fotoni incidenti e rifletterli o convertirli in energia termica.)

Il rumore termico è il rumore introdotto dal calore. Il calore è essenzialmente solo un'altra forma di energia e può eccitare la generazione di elettroni in un fotodiodo proprio come un fotone può. Il rumore termico è causato direttamente dall'applicazione del calore, spesso attraverso componenti elettronici caldi come un processore di immagini o ADC. Può essere mitigato isolando termicamente tali componenti dal sensore o raffreddando attivamente il sensore.

Infine c'è rumore di conversione o rumore di quantizzazione. Questo tipo di rumore viene generato a causa di imprecisioni intrinseche durante ADC o conversione da analogico a digitale. Un guadagno non integrale (un guadagno decimale con parte intera e frazionaria) viene solitamente applicato al segnale di immagine analogica letto dal sensore durante la digitalizzazione di un'immagine. Poiché un segnale e un guadagno analogici sono numeri reali, il risultato digitale (integrale) della conversione è spesso incoerente. Un guadagno di 1 produrrebbe una ADU per ogni elettrone catturato da un pixel, tuttavia un guadagno più realistico potrebbe essere 1,46, nel qual caso potresti ottenere 1 ADU per elettrone in alcuni casi e 2 ADU per elettrone in altri casi. Questa incoerenza può introdurre rumore di conversione / quantizzazione nell'uscita digitale post-ADC. Questo contributo al rumore è piuttosto basso, e produce una discreta deviazione del rumore da pixel a pixel. Spesso è abbastanza facile da rimuovere con la riduzione del rumore del software.

La rimozione di forme elettroniche di rumore ha il potenziale di migliorare il punto nero e la purezza del nero di un'immagine. Più forme di rumore elettronico è possibile eliminare o mitigare, migliore sarà il rapporto segnale-rumore, anche per livelli di segnale molto bassi. Questo è il principale fronte sul quale Sony ha fatto progressi significativi con i suoi sensori Exmor, che ha aperto la possibilità di una vera gamma dinamica a 14 stop con un recupero dell'ombra davvero sorprendente. Questa è anche l'area principale in cui molte tecnologie di fabbricazione di sensori concorrenti sono in ritardo, in particolare i sensori Canon e di medio formato. I sensori Canon, in particolare, hanno livelli di rumore di lettura molto elevati, livelli più bassi di normalizzazione del QE, un QE complessivo più basso e usano solo CDS per mitigare il rumore di corrente scura nei loro sensori. Ciò si traduce in una gamma dinamica complessiva molto più bassa,

Una volta che tutte le forme di rumore elettronico sono mitigate a livelli in cui non contano più, ci saranno pochi produttori che possono fare per migliorare i sensori stessi. Una volta raggiunto questo punto, l'unica cosa che conta davvero dal punto di vista dell'efficienza quantica per pixel è l'area dei pixel ... e con caratteristiche elettroniche quasi perfette, potremmo probabilmente sopportare dimensioni dei pixel considerevolmente inferiori rispetto ai sensori DSLR a densità più elevata oggi (che sarebbe la Nikon D800 con i suoi pixel da 4,6 micron, la Canon 7D con i suoi pixel da 4,3 micron, e infine la Nikon D3200 con pixel da 3,8 micron.) I sensori per telefoni cellulari utilizzano pixel intorno alla dimensione di 1 micron e hanno dimostrato che tale i pixel sono vitali e possono produrre un QI abbastanza decente. La stessa tecnologia in una DSLR potrebbe andare ancora più lontano con la massima riduzione del rumore,

Limitazioni fisiche

Oltre i limiti tecnologici alla perfezione della qualità dell'immagine, ci sono alcuni limiti fisici. Le due limitazioni principali sono il rumore dei fotoni e la risoluzione spaziale . Questi sono aspetti della realtà fisica e sono cose su cui non abbiamo molto controllo. Non possono essere mitigati con miglioramenti tecnologici e sono (e sono stati) presenti indipendentemente dalla qualità delle nostre apparecchiature.

Disturbo del fotone o colpo di fotonerumore, è una forma di rumore a causa della natura intrinsecamente imprevedibile della luce. A livello quantico non possiamo prevedere esattamente quale pixel potrebbe colpire un fotone o quanto frequentemente i fotoni potrebbero colpire un pixel e non un altro. Possiamo adattare grossolanamente i colpi di fotone a una curva di probabilità, ma non possiamo mai rendere perfetta la misura, quindi i fotoni da una fonte di luce uniforme non si distribuiranno mai perfettamente e uniformemente sull'area di un sensore. Questo aspetto fisico della realtà produce la maggior parte del rumore che incontriamo nelle nostre fotografie e l'amplificazione di questa forma di rumore da parte degli amplificatori del sensore è il motivo principale per cui le foto diventano più rumorose con impostazioni ISO più elevate. Rapporti segnale-rumore inferiori significano che c'è un intervallo di segnale totale inferiore entro il quale catturare e amplificare i fotoni, quindi un SNR più elevato può aiutare a mitigare gli effetti del rumore del fotone e aiutarci a raggiungere impostazioni ISO più elevate ... tuttavia il rumore del fotone stesso non può essere eliminato e sarà sempre un limite al QI della fotocamera digitale. Il software può svolgere un ruolo nel ridurre al minimo il rumore dei fotoni, e poiché esiste una certa prevedibilità alla luce, algoritmi matematici avanzati possono eliminare la stragrande maggioranza di questa forma di rumore dopo che una foto è stata scattata e importata in un formato RAW. L'unica vera limitazione qui sarebbe la qualità, l'accuratezza e la precisione del software di riduzione del rumore. algoritmi matematici avanzati possono eliminare la stragrande maggioranza di questa forma di rumore dopo che una foto è stata scattata e importata in un formato RAW. L'unica vera limitazione qui sarebbe la qualità, l'accuratezza e la precisione del software di riduzione del rumore. algoritmi matematici avanzati possono eliminare la stragrande maggioranza di questa forma di rumore dopo che una foto è stata scattata e importata in un formato RAW. L'unica vera limitazione qui sarebbe la qualità, l'accuratezza e la precisione del software di riduzione del rumore.

La risoluzione spaziale è un altro aspetto fisico delle immagini bidimensionali con cui dobbiamo lavorare. Le frequenze spaziali, o forme d'onda bidimensionali di diversa luminosità, sono un modo di concettualizzare l'immagine proiettata da una lente e registrata da un sensore. La risoluzione spaziale descrive la scala di queste frequenze ed è un attributo fisso di un sistema ottico. Quando si tratta di sensori, la risoluzione spaziale è una conseguenza diretta delle dimensioni del sensore e della densità dei pixel.

La risoluzione spaziale viene spesso misurata in coppie di linee per millimetro (lp / mm) o cicli per millimetro. Il D800 con i suoi pixel da 4,3 micron, o 4912 file di pixel con un'altezza del sensore di 24 mm, è in grado di raggiungere 102,33 lp / mm. Curiosamente, la Canon 7D, con le sue 3456 righe di pixel a 14,9 mm di altezza del sensore, è in grado di 115,97 lp / mm ... una risoluzione superiore rispetto alla D800. Allo stesso modo, la Nikon D3200 con 4000 righe di pixel in 15,4 mm di altezza del sensore sarà in grado di 129,87 lp / mm. Sia la 7D che la D3200 sono sensori APS-C o frame ritagliati ... di dimensioni fisiche inferiori rispetto al sensore full frame del D800. Se dovessimo continuare ad aumentare il numero di megapixel in un sensore a pieno formato fino a quando non avessero le stesse dimensioni in pixel del D3200 (3,8 micron), potremmo produrre un sensore da 9351x6234 pixel, o 58.3mp. Potremmo portare questo pensiero all'estremo, e supponiamo che sia possibile produrre un sensore DSLR full-frame con le stesse dimensioni dei pixel del sensore nell'iPhone 4 (che è noto per scattare alcune ottime foto con IQ che, sebbene non buono come da una DSLR, è più che accettabile), ovvero 1,75 micron. Ciò si tradurrebbe in un sensore da 20571x13714 pixel, o 282.1mp! Un sensore di questo tipo sarebbe in grado di raggiungere una risoluzione spaziale di 285,7 lp / mm, un numero che, come vedremo tra poco, ha un'applicabilità limitata.

La vera domanda è se tale risoluzione in un fattore di forma DSLR sarebbe utile. La risposta è potenzialmente. La risoluzione spaziale di un sensore rappresenta un limite massimo di ciò che l'intera telecamera potrebbe essere possibile, supponendo che tu avessi un obiettivo corrispondente in grado di produrre una risoluzione sufficiente per massimizzare il potenziale del sensore. Le lenti hanno i loro limiti fisici intrinseci sulla risoluzione spaziale delle immagini che proiettano e quelle limitazioni non sono costanti ... variano a seconda dell'apertura, della qualità del vetro e della correzione dell'aberrazione. La diffrazione è un altro attributo fisico della luce che riduce la massima risoluzione potenziale quando passa attraverso un'apertura sempre più stretta (nel caso di una lente, quell'apertura è l'apertura). Aberrazioni ottiche o imperfezioni nella rifrazione della luce da parte di una lente, sono un altro aspetto fisico che riduce la massima risoluzione potenziale. A differenza della diffrazione, le aberrazioni ottiche aumentano all'aumentare dell'apertura. La maggior parte degli obiettivi ha un "punto debole" a quel punto gli effetti delle aberrazioni ottiche e della diffrazione sono approssimativamente equivalenti e l'obiettivo raggiunge il suo massimo potenziale. Una lente "perfetta" è una lente che non ha aberrazioni ottiche di alcun tipo ed è quindidiffrazione limitata . Le lenti spesso diventano diffrattive limitate all'incirca f / 4.

La risoluzione spaziale di una lente è limitata dalla diffrazione e dalle aberrazioni, e all'aumentare della diffrazione man mano che il diaframma viene interrotto, la risoluzione spaziale si riduce con la dimensione della pupilla d'ingresso. A f / 4, la massima risoluzione spaziale di un obiettivo perfetto è di 173 lp / mm. A f / 8, un obiettivo a diffrazione limitata è in grado di 83 lp / mm, che è circa lo stesso della maggior parte delle reflex digitali full-frame (escluso il D800), che vanno da circa 70-85 lp / mm. A f / 16 un obiettivo a diffrazione limitata è in grado di raggiungere solo 43 lp / mm, metà della risoluzione della maggior parte delle fotocamere full frame e meno della metà della risoluzione della maggior parte delle fotocamere APS-C. Più ampio di f / 4, per un obiettivo che è ancora interessato da aberrazioni ottiche, la risoluzione può scendere rapidamente a 60 lp / mm o meno e fino a 25-30 lp / mm per grandangolo ultraveloce f / 1.8 o numeri primi più veloci . Tornando al nostro teorico 1. Sensore FF da 282mp pixel da 75 micron pixel ... sarebbe capace di una risoluzione spaziale di 285 lp / mm. Avresti bisogno di un obiettivo f / 2.4 perfetto, limitato dalla diffrazione per ottenere una risoluzione spaziale così ampia. Tale obiettivo richiederebbe un'estrema correzione dell'aberrazione, aumentando notevolmente i costi. Esistono alcuni obiettivi che possono raggiungere caratteristiche quasi perfette ad aperture ancora più ampie (mi viene in mente un obiettivo specializzato Zeiss che è presumibilmente capace di circa 400 lp / mm, il che richiederebbe un'apertura di circa f / 1.6-f / 1.5), tuttavia sono rari, altamente specializzati ed estremamente costosi. È molto più facile raggiungere la perfezione intorno a f / 4 (se gli ultimi decenni di produzione dell'obiettivo sono un suggerimento), il che indica che la massima risoluzione praticabile ed economica per un obiettivo è di circa 173 lp / mm o un tocco in meno. sarebbe capace di una risoluzione spaziale di 285 lp / mm. Avresti bisogno di un obiettivo f / 2.4 perfetto, limitato dalla diffrazione per ottenere una risoluzione spaziale così ampia. Tale obiettivo richiederebbe un'estrema correzione dell'aberrazione, aumentando notevolmente i costi. Esistono alcuni obiettivi che possono raggiungere caratteristiche quasi perfette ad aperture ancora più ampie (mi viene in mente un obiettivo specializzato Zeiss che è presumibilmente capace di circa 400 lp / mm, il che richiederebbe un'apertura di circa f / 1.6-f / 1.5), tuttavia sono rari, altamente specializzati ed estremamente costosi. È molto più facile raggiungere la perfezione intorno a f / 4 (se gli ultimi decenni di produzione dell'obiettivo sono un suggerimento), il che indica che la massima risoluzione praticabile ed economica per un obiettivo è di circa 173 lp / mm o un tocco in meno. sarebbe capace di una risoluzione spaziale di 285 lp / mm. Avresti bisogno di un obiettivo f / 2.4 perfetto, limitato dalla diffrazione per ottenere una risoluzione spaziale così ampia. Tale obiettivo richiederebbe un'estrema correzione dell'aberrazione, aumentando notevolmente i costi. Esistono alcuni obiettivi che possono raggiungere caratteristiche quasi perfette ad aperture ancora più ampie (mi viene in mente un obiettivo specializzato Zeiss che è presumibilmente capace di circa 400 lp / mm, il che richiederebbe un'apertura di circa f / 1.6-f / 1.5), tuttavia sono rari, altamente specializzati ed estremamente costosi. È molto più facile raggiungere la perfezione intorno a f / 4 (se gli ultimi decenni di produzione dell'obiettivo sono un suggerimento), il che indica che la massima risoluzione praticabile ed economica per un obiettivo è di circa 173 lp / mm o un tocco in meno. 4 lenti per raggiungere quella risoluzione spaziale. Tale obiettivo richiederebbe un'estrema correzione dell'aberrazione, aumentando notevolmente i costi. Esistono alcuni obiettivi che possono raggiungere caratteristiche quasi perfette ad aperture ancora più ampie (mi viene in mente un obiettivo specializzato Zeiss che è presumibilmente capace di circa 400 lp / mm, il che richiederebbe un'apertura di circa f / 1.6-f / 1.5), tuttavia sono rari, altamente specializzati ed estremamente costosi. È molto più facile raggiungere la perfezione intorno a f / 4 (se gli ultimi decenni di produzione dell'obiettivo sono un suggerimento), il che indica che la massima risoluzione praticabile ed economica per un obiettivo è di circa 173 lp / mm o un tocco in meno. 4 lenti per raggiungere quella risoluzione spaziale. Tale obiettivo richiederebbe un'estrema correzione dell'aberrazione, aumentando notevolmente i costi. Esistono alcuni obiettivi che possono raggiungere caratteristiche quasi perfette ad aperture ancora più ampie (mi viene in mente un obiettivo specializzato Zeiss che è presumibilmente capace di circa 400 lp / mm, il che richiederebbe un'apertura di circa f / 1.6-f / 1.5), tuttavia sono rari, altamente specializzati ed estremamente costosi. È molto più facile raggiungere la perfezione intorno a f / 4 (se gli ultimi decenni di produzione dell'obiettivo sono un suggerimento), il che indica che la massima risoluzione praticabile ed economica per un obiettivo è di circa 173 lp / mm o un tocco in meno. Esistono alcuni obiettivi che possono raggiungere caratteristiche quasi perfette ad aperture ancora più ampie (mi viene in mente un obiettivo specializzato Zeiss che è presumibilmente capace di circa 400 lp / mm, il che richiederebbe un'apertura di circa f / 1.6-f / 1.5), tuttavia sono rari, altamente specializzati ed estremamente costosi. È molto più facile raggiungere la perfezione intorno a f / 4 (se gli ultimi decenni di produzione dell'obiettivo sono un suggerimento), il che indica che la massima risoluzione praticabile ed economica per un obiettivo è di circa 173 lp / mm o un tocco in meno. Esistono alcuni obiettivi che possono raggiungere caratteristiche quasi perfette ad aperture ancora più ampie (mi viene in mente un obiettivo specializzato Zeiss che è presumibilmente capace di circa 400 lp / mm, il che richiederebbe un'apertura di circa f / 1.6-f / 1.5), tuttavia sono rari, altamente specializzati ed estremamente costosi. È molto più facile raggiungere la perfezione intorno a f / 4 (se gli ultimi decenni di produzione dell'obiettivo sono un suggerimento), il che indica che la massima risoluzione praticabile ed economica per un obiettivo è di circa 173 lp / mm o un tocco in meno.

Quando consideriamo le limitazioni fisiche nell'equazione di quando la corsa dei megapixel sarà finita, scopriamo che (ipotizzando quasi la perfezione tecnologica) la massima risoluzione economica è di circa 173 lp / mm. Si tratta di un sensore APS-C full frame da 103mp o 40mp. Va notato che spingendo la risoluzione del sensore così in alto si vedranno solo i vantaggi di una banda di apertura sempre più stretta intorno a circa f / 4, in cui le prestazioni dell'obiettivo sono ottimali. Se la correzione delle aberrazioni ottiche diventa più semplice, potremmo essere in grado di ottenere risoluzioni più elevate, spingendo 200 lp / mm, ma ancora una volta, tali risoluzioni sarebbero possibili solo all'apertura massima o quasi, dove come in tutte le altre aperture la risoluzione complessiva del tuo la fotocamera sarà più bassa, potenzialmente molto più bassa di quella di cui è capace il sensore stesso.


Quindi quando termina la gara megapixel?

Rispondere a questa domanda non è proprio qualcosa a cui credo che qualcuno sia qualificato per rispondere. In definitiva, è una scelta personale e dipenderà da una varietà di fattori. Alcuni fotografi potrebbero sempre desiderare il potenziale che i sensori a risoluzione più elevata possono offrire all'apertura ideale, purché fotografino scene con dettagli sempre più precisi che richiedono tale risoluzione. Altri fotografi potrebbero preferire la migliore percezione della nitidezza che si ottiene migliorando le caratteristiche dei sensori a bassa risoluzione. Per molti fotografi, credo che la corsa dei megapixel sia già terminata, con circa 20mp in un pacchetto DSLR FF è più che sufficiente. Inoltre, molti fotografi vedono la qualità dell'immagine sotto una luce completamente diversa, preferire la frequenza dei fotogrammi e la capacità di catturare continuamente più fotogrammi a una risoluzione inferiore è fondamentale per il loro successo come fotografo. In questi casi, molti fan di Nikon hanno indicato che circa 12mp sono più che sufficienti, purché siano in grado di catturare 10 fotogrammi al secondo in modo nitido.

Tecnologicamente e fisicamente, c'è ancora un'enorme quantità di spazio per crescere e continuare a guadagnare in termini di megapixel e risoluzione. Dove la gara ci finisce. La varietà di opzioni sul tavolo non è mai stata così elevata come oggi e sei libero di scegliere la combinazione di risoluzione, dimensioni del sensore e funzionalità della fotocamera come AF, ISO e DR adatte alle tue esigenze.


Una volta che siamo riusciti a scattare un'immagine per un cartellone da 14x48 piedi a 300 dpi con zoom digitale equivalente a 2400 mm, non riesco a vedere la gara terminare prima di questo, e potrebbe continuare in seguito. Per quanto ne so, ciò equivale a 14 * 12 * 300 * 48 * 12 * 300 * (2400/35) ^ 2 / 1.000.000 = 40.950.638 megapixel. Se si fosse lasciato fuori il requisito di zoom digitale, questo sarebbe comunque 8709 megapixel. A 8709 MP un sensore full frame largo 36 mm avrebbe una larghezza di pixel di circa 208 nm. Le CPU Intel 2012 utilizzano la tecnologia 22nm .
BeowulfNode42

... continua. Mi rendo conto che le onde luminose visibili sono più grandi di questa a circa 390 nm ~ 700 nm. Ma abbiamo ancora una buona strada da percorrere prima che sia criticamente limitante.
BeowulfNode42

Non sono sicuro di cosa intendi per zoom digitale. Questo è fondamentalmente un allargamento in post, e non ti porterebbe da nessuna parte in remoto vicino a 300ppi a 14x48 piedi. Voglio dire, potresti certamente farlo ... ma non ha senso farlo ... avresti solo dettagli di immagine molto sfocati. Potrebbe anche attenersi alla stampa a 15ppi. Per quanto riguarda il pixel pitch, una volta raggiunti i 700 nm, filtrano la luce rossa. A 550 nm stanno filtrando la luce verde e a 460 nm stanno filtrando la luce blu. Non ci saranno mai pixel a 208nm per la luce visibile.
jrista

Per quanto riguarda le dimensioni dei pixel oggi ... la prossima generazione di sensori con fattore di forma ridotto utilizzerà pixel da 0,95 µm ... ovvero 950 nm. La prossima generazione successiva è probabilmente 825nm, dopo di che raggiungiamo quel limite di lunghezza d'onda ... Non credo che vedremo pixel a 700nm in nessun sensore. Certo, questi pixel non verranno utilizzati nei sensori FF o APS-C per molto tempo a venire, ma tecnologicamente parlando, ci stiamo già avvicinando abbastanza al limite dei megapixel (con riferimento al pixel pitch). Infine, non lo è è davvero logico applicare dimensioni di transistor CPU a pixel pitch. Intel utilizza
22nm

... transistori. I pixel sono diversi. L'area dei pixel è fondamentale per la capacità di raccolta della luce, che è direttamente correlata ai livelli di rumore. Un pixel da 22nm è semplicemente illogico. Le dimensioni dei transistor del sensore stanno già diventando piuttosto ridotte. Canon utilizza ancora 500 nm, ma l'ultima generazione ha utilizzato transistor a 180 nm e le nuove generazioni utilizzano 90 nm e alcuni addirittura 65 nm. Le tappe successive per le dimensioni del transistor del sensore sono 45nm e forse 32nm (anche se non mi aspetto davvero di vedere 32nm in uso fino a 825nm pixel pitch, se lo vediamo anche lì, poiché non è necessario con BSI.)
jrista

7

Problemi di archiviazione / velocità a parte, avere più megapixel renderà assolutamente ogni singola foto scattata meglio. Forse solo un po 'meglio in alcuni casi, ma suona come qualcosa che vale la pena avere per me.

Se hai mai avuto un'immagine affetta da Moire (modelli di bande colorate):

Manufatti labirinto:


(fonte: gol.com )

aliasing:

http://cdn.asia.cnet.com/i/r/2005/dc/39095631/4.jpg

Frange di colore, dettagli falsi, mancanza di dettagli di colore o altri artefatti demosaizzanti, i tuoi problemi sarebbero risolti se avessi più megapixel.

Alla fine vedo i sensori DSLR da 80-100 MP, a questo punto non vorrai archiviare ogni pixel ogni volta, ma una modalità RAW sottocampionata a risoluzione ridotta, come il mRAW di Canon ti fornirà un'immagine con dettagli di colore eccezionali simili a ciò che è realizzabile con i sensori Foveon ma con una risoluzione molto più elevata.


1
Una nota su Canon s / mRAW. Ho usato questi formati per un paio di mesi dopo aver acquistato la mia Canon 7D. Mentre sono chiamati RAW, sono molto lontani dall'attuale formato RAW nativo dal punto di vista della post-elaborazione. Durante l'elaborazione di un file mRAW, ho notato notevoli limiti su quanto potevo spingere l'esposizione, la saturazione, la tonalità, ecc. Rispetto al raw nativo. In molti casi, il mRAW ha fallito miseramente nel tentativo di recuperare luci o sollevare ombre. Anche con un sensore da 100mp, preferirei sempre il RAW nativo, poiché la pre-interpolazione dei pixel impone molti limiti.
jrista

"Frange cromatiche, falsi dettagli, mancanza di dettagli cromatici o altri artefatti demosaizzanti, i tuoi problemi sarebbero risolti se avessi più megapixel." Ho sempre pensato che la frangiatura del colore fosse prodotta dall'obiettivo, non dal sensore: come avrebbe potuto risolverlo una risoluzione del sensore più alta? Non lo renderebbe "peggio", ovvero spingendo i limiti delle lenti in modo che gli artefatti e i difetti ottici generali siano più visibili?
MattiaG

@MattiaGobbi: si riferisce a artefatti di demosaicing, che include una forma di frange di colore che deriva da algoritmi di demosaicing di base, non la frange di colore prodotta dalle aberrazioni delle lenti.
jrista

@jrista - Grazie, darò un'occhiata in questo. Non posso non pensare che il demosaicing nella sua forma base dovrebbe rendere l'immagine più morbida, dato che tre pixel su quattro nell'immagine finale hanno, per così dire, un colore che è la media dei colori del pixel circostante. Ciò spiega anche la scarsa precisione del colore sui bordi. Potrebbero essere generati artefatti più complessi da algoritmi intesi a migliorare la nitidezza e il colore all'interno del processo di smistamento?
MattiaG

@MattiaGobbi: lo scopo del demosaicing non è di rendere l'immagine più morbida ... è di interpolare i singoli canali di colore da un sensore bayer in pixel RGB. Esistono alcuni algoritmi di demosaicing. Uno dei più comuni è il demosaicing AHD, che è un algoritmo ponderato che elimina la maggior parte dei colori e produce risultati piuttosto nitidi. Ci sono anche una varietà di altri approcci che vengono utilizzati negli editor RAW open source e negli strumenti di astrofotografia che sono più veloci, più accurati, progettati per estrarre il maggior numero possibile di dettagli, ecc.
jrista

2

Non sono assolutamente in disaccordo con ciò che gli altri hanno detto, ma la risposta dipende in parte da ciò che apprezzi di più. Sono molto interessato alle prestazioni ISO a basso rumore e la risoluzione dei pixel è importante ma secondaria. Altri hanno priorità molto diverse. Ho una fotocamera A77C A77 da 24 MP che è all'incirca all'avanguardia delle prestazioni mp APSC, ma evidentemente dietro alcune fotocamere APSC nelle aree a cui tengo di più.

Dopo aver esaminato i risultati di D700, D3, D3s, D3x, 5DMkII, 5DMkIII, A800 e D4, la mia conclusione è che attualmente la corsa dei megapixel ha superato le elevate prestazioni ISO e che al momento per i miei scopi è la "migliore prestazione" fotocamera è la Nikon D3s rilasciata nell'ottobre 2009. Secondo i numeri, nient'altro corrisponde, e secondo come capisco la performance funziona davvero nel mondo reale, nient'altro si avvicina.


Il seguente tipo di materiale tende a produrre guerre di fiamma. Sto tentando di descrivere semplicemente ciò che vedo. Gli occhi degli altri potrebbero funzionare in modo diverso :-).

Sono personalmente deluso dal D800 e dal suo sensore da 36 mp. Avevo sperato in qualcosa che fosse una chiara testa e spalle sopra la D700 e che potesse delicatamente rovesciare le D3.

Il sensore DXOMark valuta la valutazione ISO in condizioni di scarsa illuminazione

non è in alcun modo la guida definitiva a come una fotocamera si comporta bene in tali situazioni nelle condizioni del mondo reale, ma è una buona guida per ciò che ci si può ragionevolmente aspettare. La valutazione indica un'impostazione ISO in base alla quale la fotocamera soddisfa solo 3 requisiti minimi.

Il D700 di 4 anni ha un sensore DxO a bassa sensibilità ISO di 2303 ISO e il D800 è valutato a 2853 ISO. Il nuovo D4 è valutato a 2965 ISO e il re un tempo e ancora di questa misura è il D3 (che diventa leggendario) a 3253 ISO. MAqueste classificazioni sono regolate su una dimensione standard di 12 mp con la classificazione ISO del test ridimensionata di un fattore di radice quadrata (megapixel / 12 megapixel). Al contrario, per ottenere ciò che hanno visto durante il test, ridimensionate il radown di sqrt (12 / mp). Quindi il D800 con 36 mp è un fattore 0f sqrt (36/12) = sqrt (3) = 1.732 in più sul grafico di reporting di quanto effettivamente misurato. Quindi l'hanno misurato come 2853 / 1.73 = ~ 1650 ISO. La giustificazione fornita per il ridimensionamento è che la "rumorosità" in un'immagine è matematicamente ridotta mediante il downsampling a causa della media delle informazioni nelle celle adiacenti. In teoria il ridimensionamento di un fattore correlato a sqrt (megapixel) ha senso. Ma quando guardo le immagini non ne sono convinto. Stanno dicendo che una fotocamera con un rumore assoluto maggiore per segnalare i rapporti per pixel ma più mp produrrà un risultato migliore quando viene ridotta. La matematica dice di sì. Il sistema del cervello dell'occhio afferma che l'effetto è molto inferiore a quanto suggerisce il ridimensionamento. Potrei probabilmente trovare gli esempi specifici da cui ho tratto queste conclusioni da qualche tempo fa, ma questo è soggettivo e ci sono abbastanza confronti in giro per consentire a ciascuno di trovare la loro versione preferita.

EOS 5D MkII (NON III) ha una classificazione ISO DXO di 1815 rispetto a ISO 2303 per la D700. Ma il confronto tra immagini di scene identiche scattate in condizioni di illuminazione identiche con obiettivi equivalenti con impostazioni ISO elevate e convertite nelle stesse dimensioni dell'immagine mostra una differenza estremamente significativa tra i due. Così bello che non prenderei in considerazione un 5DkII anche solo per questo motivo.

Non ho ancora visto abbastanza dell'output D800 per essere irremovibile delle conclusioni, ma quello che ho visto indica che un D700 di seconda mano potrebbe essere una scelta molto attraente e forse superiore se la scarsa illuminazione e le prestazioni ISO elevate sono la tua priorità . E un D3s è di nuovo testa e spalle meglio.


Un superbo articolo "da leggere" . Completa l'eccellente risposta di JRista.
Rumore, gamma dinamica e profondità di bit nelle reflex digitali

Si riferisce anche a:

IRIS - software di elaborazione delle immagini gratuito con distorsione della fotografia astronomica - ma utile per molto altro.

Software gratuito di elaborazione delle immagini IMAGEJ di US NIH


Potete fornire un collegamento che mostri immagini 5D2 e D700 di scene identiche scattate in condizioni di illuminazione identiche con obiettivi equivalenti con impostazioni ISO elevate e convertite nelle stesse dimensioni dell'immagine? Trovo difficile credere che la differenza sia "estremamente significativa"
Matt Grum

@MattGrum - Proverò a trovare le immagini che mi hanno convinto che il D700 era il mio obiettivo finale (se ignoriamo i D3). Ho aspettato un D700 o qualsiasi altra cosa, quindi il D800 è una grande delusione. Giocattolo meraviglioso ma non il prossimo passo verso "vedere nel buio" che speravo. Sony avrà 2 x FF entro la fine dell'anno e uno dovrebbe usare il sensore D800 più o meno, quindi potrebbe esserci qualche speranza per l'altro. MA Sony ha un record molto scarso con rumore ISO elevato rispetto a Nikon con lo stesso sensore. La mia A700 era <D300 fino al software Rev 4.
Russell McMahon,

3
Inoltre c'è un punto che spesso manca quando si discute di questo problema ed è che è possibile applicare una riduzione del rumore più forte alle immagini ad alto megapixel senza artefatti. Questo perché il rumore è molto più fine e cade tra i dettagli invece di oscurarli. Se la media del downsampling migliora il rumore di un fattore di 1,73, un sofisticato sistema di riduzione del rumore dovrebbe essere in grado di fare molto meglio. Per una quantità fissa di luce in entrata, i megapixel in aumento forniscono maggiori informazioni (su dove cade la luce) anche se il rumore per pixel è maggiore.
Matt Grum,

2

Pensavo che i parlamentari siano sopravvalutati, fino a quando non ho fatto un esperimento con il sovracampionamento. Ispirato dalla regola empirica del campionamento audio per campionare il doppio della frequenza di cui hai bisogno. Le onde 22K sono campionate con 44k, ma se disegni le figure otterrai solo l'onda che è in fase perfetta. Puoi anche rischiare di campionare solo zero. Hai bisogno di almeno 4x oversampling per ottenere l'onda e la sua forma (che sia un dente di sega o un seno, non puoi sapere con il doppio della frequenza di campionamento). Campione di attrezzatura audio professionale internamente a 192 kHz e poi downsample a 48k o 44k.

Ho scoperto che lo stesso vale per le foto: se vuoi finire con un'immagine 1024x768, la frequenza migliore che puoi ottenere è dove ogni secondo pixel è scuro e l'alternativo ogni secondo pixel è luminoso (chiamiamolo trama). Se prendi l'immagine a 1024x768, potresti perdere la fase di quella trama, oppure potrebbe semplicemente essere sfocata a causa della "vera risoluzione del sistema" dovuta a un basso o scarso abbattimento del demonio sicuramente la rovinerà. Quindi è necessario afferrare almeno un'immagine 4096x3072 senza prendere in considerazione la demosiacking di Bayer, quindi farei il doppio per tenere conto del bayer, vale a dire. 8192x6144.

Il downsampling dovrebbe essere migliore di quello bilineare o bicubico per ottenere il beneficio. Un filtro basato su sinc è il migliore, ad esempio lanzcos.

1: 1 vs sovracampionato poi ricampionato con lanczos:

sovracampionamento


Punti buoni. Si noti che poiché un'immagine è un aumento di immagine 2D in MP è il quadrato della frequenza di sovracampionamento. Quindi il sovracampionamento 2X è 4 volte più MP e il sovracampionamento 4X è 16 volte più MP, il sovracampionamento 8X è 64 volte più MP.
BeowulfNode42

Lo so. nota che non (a differenza della maggior parte dei ppl) non conto la risoluzione in MP. Lavoro con fotocamere in diversi formati (ad esempio 1x12000, che è quindi una fotocamera da 0,012 MP, ma con una risoluzione migliore su un asse rispetto a una fotocamera da 36: 4: 3). puoi vedere questo nei miei esempi di risoluzione.
Michael Nielsen,

1

Pensavo che la corsa dei megapixel fosse un po 'sciocca, fino a quando ho capito che le fotocamere da 36 MP di fascia alta rendevano le attrezzature di fascia bassa (ma perfettamente utilizzabili) molto più convenienti. Se qualcuno ha bisogno di acquistare una fotocamera in grado di produrre stampe in formato cartellone, fantastico! Nel frattempo, il resto di noi ottiene molte foto eccezionali (per le nostre modeste esigenze) sui nostri iPhone e prosumer Nikon.


L'iPhone 4 e alcuni dei recenti Androidi scattano foto meravigliose. Mi aspetto che mangeranno completamente il mercato di p + s tra qualche anno. E mi aspetto che mangino nel mercato dei superzoom / dslr di fascia bassa. La buona notizia è che la legge di Moore sostiene che le nostre migliori reflex digitali APS-C continueranno a migliorare.
Pat Farrell,

La legge di Moore conta anche nell'ottica? Voglio dire, la parte "digitale", in cui la legge di Moore potrebbe funzionare, inizia solo all'interno del corpo macchina.
Esa Paulasto,

0

Ti darò una risposta breve e utile (spero)

Molte delle risposte fornite prima di me hanno ottime informazioni, quindi non scartarle

Ma per rispondere alla domanda di: con che frequenza 36MP sarà utile? Dipende dalla tua situazione Amatore, che non stampa mai e visualizza solo in digitale. Mai.

Amatore che stampa a volte. Occasionalmente, se occasionalmente stampa più grande di A4

Pro, per vari resi. Abbastanza spesso

Per le persone che non stampano mai o non superano le dimensioni del poster, non vedrai mai alcuna utilità in qualcosa di più di 10-12 e ha degli aspetti negativi, ad esempio quando scatti RAW (fai tutti RAW, vero ?? ) le dimensioni dell'immagine sulla 5DmkII da 21 MP sono di circa 24 Mb, mi è stato detto che le dimensioni dell'immagine sulla D800 sono di circa 30 Mb Che può riempire le carte molto rapidamente Quindi se ottieni una buona fotocamera da 10-12 MP e non stampi più grande di poster, otterrai il triplo del numero di immagini su una scheda e non sarai in grado di dire la differenza rispetto a se avessi speso molto di più sul D800

spero che questo possa essere d'aiuto


3
Che ne dici di ritagliare? Ad esempio un dilettante senza ultra-teleobiettivo di livello professionale. I megapixel non sarebbero d'aiuto?
Imre,

1
Sono qui con @Imre ... più megapixel sono di fondamentale importanza quando non puoi permetterti gli obiettivi da $ 10.000 + necessari per ottenere il tipo di copertura che ti serve per catturare le fotografie di cui hai bisogno. Il ritaglio è l'unica alternativa e una fotocamera come la D800 offre alcune sorprendenti capacità di ritaglio. Per quanto riguarda lo spazio ... lo spazio è economico. È possibile ottenere 128 GB di spazio CF per un paio di centinaia di dollari, che è inferiore al 10% del costo della D800 stessa. Relativamente parlando, le foto da 30mp sono un piccolo prezzo da pagare per il QI e la capacità di ritaglio che ottieni.
jrista

Robert Capa disse notoriamente "Se i tuoi foto non sono abbastanza buoni, non sei abbastanza vicino" Ritagliare dopo il fatto non è mai un rimpiazzo per imparare a inquadrare correttamente in primo luogo.
Richard,

Il ritaglio dopo il fatto non è mai un sostituto per imparare a inquadrare correttamente in primo luogo. A meno che tu non stia fotografando animali selvatici, non sarà raro che tu abbia bisogno di un obiettivo più lungo di 200 mm e ci siano dozzine di obiettivi là fuori a quella lunghezza focale o meno per un prezzo abbastanza basso. Lavorando in questo settore, ho sempre usato un obiettivo più lungo di 200 mm in due circostanze (per la Formula 1, dove per sicurezza non potevamo avvicinarci e la fauna selvatica) I più comuni sono 50 mm, 85 mm e 100 mm, quindi 24-70 e Il 70-200 coprirà tutto
Richard,

1
Sì, a meno che tu non stia sparando alla fauna selvatica , che è esattamente ciò che piace a molti dilettanti.
Imre,

0

Ho appena ricevuto il mio D800E al quale sono passato da un D200. Ho misurato 100 lppm con questa cosa usando l'autofocus con un sigma 24 1.8 a f4. Non ho ancora stampato nulla perché l'ho avuto solo 2 giorni. Sono stato in grado di eccitare la moiré sparando a un obiettivo di prova, ma era visibile solo sul monitor, CaptureNX2 lo ha eliminato con una bassa impostazione demosiac. Ho un 55 micro nikkor che sembra più nitido, ma in realtà non può essere migliore di 100 a causa del sensore. Il grande vantaggio è ovviamente che 100 lppm sono distribuiti su un sensore FF e questo è un sacco di proprietà immobiliari reali. Finalmente posso scattare senza dover comporre così strettamente l'inquadratura. Posso persino scattare 645 o quadrate: sarà una grande libertà per il mio stile in cui mi piace inquadrare il soggetto. o almeno è quello che spero


-3

Nessuno ha scattato splendide foto digitali per decenni. All'inizio di questo secolo, molte persone pensavano che il film fosse di gran lunga superiore. In questi giorni, tale argomento è stato risolto.

Non è vero che più pixel significano un'immagine più nitida, ci sono limiti dovuti alla diffrazione dell'obiettivo che forniscono un limite. Naturalmente, se si utilizza un sensore più grande, è possibile evitare questo problema per il sensore pratico, motivo per cui molti professionisti ora si spostano oltre 35 mm (Full frame) e su immagini 6x4,5.

Spesso il conteggio dei megapixel è solo marketing fluff, per succhiare persone che non conoscono meglio. Ma a volte di più è meglio.

È un argomento più complesso di quanto suggeriscano i pregiudizi della tua domanda.


Quello che stai dicendo sulla diffrazione è un po 'vero. Roger Cicala su lensrentals.com ha un bel post sul blog con numeri che mostrano l'effetto (piccolo) della diffrazione.
Håkon K. Olafsen,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.