Come può una fotocamera ad alta risoluzione avere importanza quando l'output è a bassa risoluzione?


17

La domanda è ispirata da questa domanda che mostra queste immagini .
La risposta accettata suggerisce che queste foto sono state scattate da una fotocamera con vista 8x10 e l'uso di una fotocamera 8x10 è stato confermato nei commenti.

La mia domanda è: come puoi dirlo?


Se visualizzate sulla pagina Web, queste immagini sono 496x620 = 0,37 megapixel (o 720x900 = 0,65 megapixel se si fa clic per "visualizzazione completa").
Quindi qualsiasi fotocamera con una risoluzione superiore a 0,37 Mpx dovrebbe essere in grado di catturare queste immagini, il che significa praticamente ogni smartphone e webcam sul mercato.

Conosco i sensori Bayer . Ma l'effetto peggiore di un sensore Bayer dovrebbe essere quello di ridurre la risoluzione di un fattore quattro: se si riduce l'immagine di un fattore due in ciascuna direzione, ciascun pixel di output conterrà i dati di almeno un sensore di input per ciascuno di i canali R / G / B.
Il ridimensionamento in base al fattore 4 significa ancora che qualsiasi fotocamera con una risoluzione superiore a 1,5 Mpx (anziché 0,37 Mpx dell'output) dovrebbe essere in grado di catturare queste immagini. Stiamo ancora parlando praticamente di tutti gli smartphone e della maggior parte delle webcam sul mercato.

Conosco la profondità del colore . Ma JPG, il formato che stiamo usando per visualizzare queste immagini, è 8x3 = 24 bit. E secondo i punteggi DxOMark ci sono diverse fotocamere, tra cui la Sony NEX 7 e la Nikon D3200, in grado di catturare 24 bit di colore.
Quindi, anche se una webcam da $ 10 non riesce a catturare del tutto le sfumature di queste immagini, un NEX 7 o D3200 dovrebbe essere in grado di farlo.

So che la maggior parte degli obiettivi ha una risoluzione inferiore rispetto alla maggior parte dei sensori. Ad esempio, il Nikkor 85mm f / 1.4G è l'obiettivo più nitido di Nikon secondo DxOMark e offre un equivalente nel migliore dei casi di risoluzione 19Mpx su una fotocamera da 24Mpx (la Nikon D3X a pieno formato), mentre l'obiettivo meno nitido ha un equivalente nel migliore dei casi di 8Mpx sulla stessa fotocamera.
Ma l'obiettivo peggiore nel loro database fornisce ancora un ordine di grandezza in più di risoluzione rispetto al formato di output di questi esempi.

Conosco la gamma dinamica. Ma queste immagini controllano l'illuminazione in modo da non far saltare le luci né perdere le ombre. Finché sei in grado di farlo, la gamma dinamica non ha importanza; verrà comunque associato all'intervallo di output 0-255 di JPG.
In entrambi i casi, DxOMark afferma che diverse fotocamere con full frame o sensori più piccoli hanno una gamma dinamica migliore rispetto alle migliori fotocamere di medio formato.


Questo è quello che so, e non c'è nulla in questi frammenti di teoria che possa dirmi come è possibile distinguere una fotocamera con vista 8x10 da un Sony NEX 7 quando si vede il risultato come un JPG da 0,37 Mpx.

Fondamentalmente, per quanto ho capito, dovrebbe essere irrilevante il numero di megapixel e la profondità del colore che il sensore può catturare, purché sia ​​almeno quanto il formato di output può rappresentare.

Tuttavia, non dubito del giudizio della risposta di Stan Rogers. E non ho mai visto nulla di simile, in termini di nitidezza percepita, dalle fotocamere a sensore piccolo.

Ho frainteso il significato della risoluzione?

Immagino che sto principalmente chiedendo della teoria: come può una differenza tra due risoluzioni (misurata in pixel, lp / mm, profondità del colore o altro) essere visibile in un formato di visualizzazione che ha una risoluzione inferiore rispetto a uno degli originali?

O per dirla in modo diverso: c'è qualcosa che mi impedisce, in linea di principio, di replicare queste immagini fino al pixel usando un Sony NEX 7 e $ 10.000 di illuminazione?


2
Fintanto che ottieni tutto perfetto nel tuo scatto, non c'è nemmeno molto vantaggio nello scatto RAW su JPEG. Risoluzione, profondità di bit e dati RAW ti consentono di ottenere il massimo dalla tua foto! Piccola foto web oggi, display retina 4x o stampa di alta qualità domani.
Henrik

1
Sfortunatamente posso accettare solo una risposta. Matt Grum sostiene che un piccolo sensore, oltre all'illuminazione e un po 'di post-elaborazione, può replicare forse il 95% di ciò che vediamo nelle immagini di Martin Schoeller a dimensioni Web (esclusi gli effetti DoF). Penso che Michael Nielsen sostenga un'argomentazione credibile secondo cui potresti aver bisogno di una risoluzione del sistema APS-C migliore per arrivare al 100%. E Stan Rogers spiega come possiamo riconoscere una fotocamera di grande formato anche nelle foto di dimensioni web. Ti consiglio di leggerli tutti :)
jg-faustus,

Risposte:


10

Riguarda il micro contrasto. Guarda i post su aps-c rispetto al full frame e quindi estendi tale differenza ai sensori di medio e grande formato.

Quando contano le differenze tra i sensori APS-C e quelli full frame, e perché?

Seguendo le teorie sul sovracampionamento, è meglio campionare ad un ritmo più elevato e poi sottocampionare piuttosto che campionare al limite di nyquist dall'inizio - cioè. se il tuo obiettivo finale è 640x480, è comunque meglio utilizzare un sensore 1280x960 rispetto a un sensore 640x480.

Non importa quanti MPixel hai quando i pixel vicini dipendono l'uno dall'altro, comunque, perché il cerchio di confusione è più grande dei pixel sul piano del sensore. Anche le lenti hanno una capacità limitata di risolversi. Inoltre, devi considerare la "nitidezza" dell'obiettivo rispetto alla sua apertura e un sensore più grande ti consente di avvicinarti e fermare il DOF più stretto, il che significa che puoi catturare ancora più dettagli - Il cerchio di confusione è più grande, l'obiettivo sta funzionando con meno diffusione, ecc.

E poi hai la "compressione di profondità" fatta dalla lunghezza focale dell'obiettivo che è piuttosto aggressiva in quegli scatti, indicando un teleobiettivo. Il FOV su un piccolo sensore richiederebbe di fare un lungo passo indietro e aprire molto l'apertura per ottenere quel DOF stretto. Tuttavia, eseguendo i numeri, con una fotocamera full frame potresti raggiungerlo, 210mm, distanza di 2 metri, F8 darebbe un DOF di 4 cm e un FOV che prende solo il viso come quegli scatti.

In altri termini: più grande è il sensore rispetto al soggetto, meno l'obiettivo deve lavorare sui raggi di luce per comprimerli in un punto stretto. Ciò aumenta la chiarezza dello scatto e mostra indipendentemente dalla distanza di visione (che è ciò che viene simulato ridimensionando l'immagine a una risoluzione più bassa).

Discussioni successive sul miglioramento e la conservazione dei dettagli tramite il ridimensionamento ecco un confronto se argomenti simili di grande formato contro fullframe e grande formato contro apsc:

In alto: volti maschili con tronchi di barba. Nella risoluzione sul sito a cui ti colleghi, la barba è resa con peli di pixel, ma tutto ciò è perso con le stesse dimensioni dell'esempio di Matt. Ora le barbe sono diffuse. Se vediamo l'immagine di Matt nelle stesse dimensioni delle foto 8x10 nel sito, potremmo vedere una grande differenza se la testa non è a fuoco. Anche un sistema aps-c e un sensore più piccolo potrebbero produrre questo risultato (per quanto riguarda i dettagli).

In basso: confrontiamo le ciglia del viso femminile con dimensioni simili a quelle della pagina Web che hai mostrato, con un occhio a fuoco da una fotocamera a-c, e la nitidezza non riporterà i pori nella pelle. Potremmo migliorare la percezione delle ciglia al costo di un alone luminoso attorno ad esso.

Ora vediamo un'enorme differenza di risoluzione del "sistema complessivo" , e la fotocamera apsc + l'obiettivo usato + visto alla risoluzione data bassa non può rendere gli stessi dettagli della fotocamera 8x10 + che obiettivo + la risoluzione vista potrebbe. Spero che il mio punto sia più chiaro ora.

dettagli

Un altro confronto con i mozziconi di barba aps-c, dopo averli affilati. Anche se stackexchange li ridimensiona, possiamo ancora percepire una differenza di chiarezza.

APSC

In conclusione, gli altri fattori di cui ti stai chiedendo oltre alla risoluzione dei pixel sono:

  • Risoluzione totale del sistema lp / mm
  • SNR
  • L'ingrandimento dalla persona al sensore allo schermo su cui lo visualizzi a una determinata distanza da cui lo vedi alla proiezione del tuo occhio sulla risoluzione della retina: più piccolo (sotto 1: 1) ingrandimento qualsiasi parte del sistema, maggiore è il fabbisogno per i due fattori di cui sopra, che a loro volta sono influenzati negativamente dall'area di proiezione più piccola.

Otterrai più dettagli in una macro ridimensionata di quanto non lo faccia senza scattare macro in primo luogo.

Un'ultima prova che la risoluzione prima del ridimensionamento conta. In alto: 21 MP FF In basso: 15 MP Aps-c con la stessa lunghezza focale dell'obiettivo / apertura.

Due sensori di risoluzione / dimensione del differenziale

Ora riscalato alla stessa risoluzione:

Piccolo

Più piccolo

minore

minuscolo

e applicato un po 'di nitidezza per riportare alcuni dettagli. Cosa vedi? un po 'più di dettagli dalla fotocamera FF 21mp vista con la stessa dimensione / risoluzione che sarebbe equivalente fino a una fotocamera da 3Mp. non puoi contare le linee nell'immagine ridimensionata, ma la percezione che siano linee è vera. Che tu lo voglia o no è la tua scelta creativa, ma a partire dalla risoluzione più alta (data dal sistema totale) ottieni la scelta. Se non li desideri, puoi sfocare l'immagine prima di riscalare.

Un esperimento finale per mostrare la differenza tra un sensore di dimensioni ridotte, bassa risoluzione rispetto a un sensore più grande, una risoluzione più elevata, ma ridimensionato e affinato alla stessa risoluzione, mostrato alla stessa MISURA alla fine - con ALL ELSE EQUAL. Bene, eh? Come l'ho fatto? La mia fotocamera APS-C che prendo simula un "sensore di ritaglio" (più piccolo del mio apc-c) ritagliando un'immagine fuori dall'immagine. Quindi mi avvicino al soggetto per riempire un sensore 4x più grande con lo stesso soggetto. - come se i ritratti sul sensore di grande formato siano fondamentalmente uno scatto macro - avvicinandoti molto più di quanto avresti con una macchina fotografica aps-c. Stessa qualità elettronica, stesso obiettivo, stesse impostazioni, stessa luce.

Ecco come appare sul piccolo sensore, chiamiamolo "mini aps-cc":

Piccolo sensore

Qui vediamo il "grande formato" (grande full aps-c):

APS-C

Qui vediamo molti dettagli, giusto? Ma questo non ha importanza dopo che lo abbiamo ridimensionato a un'immagine di 0,016 MP, e lo abbiamo reso nitido per lo stesso contrasto complessivo, vero?

Confronto di dimensioni uguali

Ma davvero lo facciamo! Se ancora non mi credi, mi arrendo :)


Una nota sul modello di labirinto che queste colture mostrano: è l'artefatto di interpolazione bayer comune per il demosaicking di AHD bayer.
Michael Nielsen,

Tuttavia, la percezione che si tratti di una matrice di linee è più fedele all'originale che vedere una casella grigia. Come vedere i pori nella pelle, forse non la quantità esatta della vita reale, ma sarebbero lì.
Michael Nielsen,

Grazie, confronti interessanti. Sembra che la nitidezza / dettaglio (o almeno un'illusione di dettaglio) sopravviva a un ridimensionamento più basso di quanto pensassi. Mi hai dato qualcosa da considerare.
jg-faustus,

tieni presente che le linee convergenti sono un incubo per gli algoritmi di interpolazione e SAPPIAMO che aspetto DOVREBBE, non abbiamo le stesse ipotesi sui dettagli in una bella trama della pelle, quindi anche un punto si sposta di mezzo pixel in faccia e sembra ancora eccezionale. Nell'esempio più piccolo sopra, continuiamo a percepire che ha linee fino alla seconda verticale.
Michael Nielsen,

Michael, una domanda correlata: cosa succede se la dimensione del sensore è la stessa? Otterrò risultati migliori da un sensore APS-C con una risoluzione nativa di 16 MP, ma con un downsampling a 8 MP, ad esempio, invece di acquistare una (ipotetica) fotocamera con un sensore ASP-C da 8 MP?
Vaddadi Kartick,

7

In ogni caso, la cessione della visuale era una profondità di campo estremamente ridotta che non è parallela al piano del film. Mettere a fuoco le labbra e gli occhi in molte delle immagini con la postura del soggetto e il DOF molto superficiale (spesso, la fronte nella mascella immediatamente sotto gli occhi è morbida) è impossibile senza inclinazione.

C'è anche la natura delle gamme fuori fuoco; è più tipico della resa quasi a grandezza naturale rispetto alla messa a fuoco lontana. L'estensione DoF verso la fotocamera è quasi uguale all'estensione verso lo sfondo, che è quello che ti aspetteresti quando ti avvicini alla riproduzione 1: 1. A distanze di lavoro più normali, ci si aspetterebbe circa un terzo / due terzi della distribuzione della nitidezza apparente attorno al piano di messa a fuoco nitida (un terzo del DOF davanti al piano di messa a fuoco; due terzi dietro). Quindi questo indica un "sensore" considerevolmente più grande di APS-C, full frame o anche medio formato. L'esperienza con i formati 4x5 e 8x10 mi ha detto che era più probabile che fosse un 8x10 (anche se neanche una delle rare fotocamere di grande formato non sarebbe stata fuori discussione), e ho pensato che l'obiettivo da 210 mm fosse più probabile di, dire,

Come ha sottolineato Michael Nielsen, nelle immagini appare molto "microcontrasto", ma in una certa misura è possibile simularlo nella post-elaborazione, soprattutto se l'obiettivo è renderizzare a dimensioni webby. E suppongo che potresti persino falsificare il DoF e il piano focale se fossi diligente nel creare una mappa di profondità con un piano focale sfumato applicato contro quello che dovrebbe essere un modello 3D del soggetto e comprendere la dinamica di messa a fuoco di un 8x10 a circa il 50-60% di riproduzione a grandezza naturale, ma sarebbe un gran casino di lavoro. La soluzione economica, sia per il fotografo che per chiunque analizzi l'immagine, sarebbe una vera fotocamera con vista 8x10.


Aumentare il microcontrasto in post introduce artefatti, tuttavia, così come gli algoritmi stanno "indovinando" i dettagli, quindi non sarebbe la stessa immagine.
Michael Nielsen,

@Michael ma in una riproduzione ridimensionata quelli potrebbero essere a tutti gli effetti non evidenti? O no?
Francesco

"In una certa misura" era ambiguo?

Intendi se prima esegui la nitidezza e poi ridimensioni il punto in cui viene cancellato il miglioramento, a meno che la finestra del filtro passa-alto non sia così grande da introdurre la suoneria attraverso il frame? I dettagli in quei ritratti sono così incredibili che, se si esamina un ritaglio di 1x50 pixel della pelle, sembra un'immagine binaria, che può facilmente produrre anelli di alone con filtri di nitidezza.
Michael Nielsen,

3
@MichaelNielsen quando esegui un enorme downsample puoi introdurre l'aliasing in un'immagine totalmente morbida (senza alcun microcontrasto) e ottenere un'immagine dall'aspetto estremamente nitido senza aloni o altri artefatti nitidi. Se non fosse per il piano di messa a fuoco inclinato, non saresti in grado di dire che quelle immagini erano di grande formato guardando gli apparenti "dettagli"
Matt Grum

4

No, una fotocamera ad alta risoluzione non ha davvero importanza quando l'output è a bassa risoluzione, almeno non quando si passa da megapixel a doppia cifra a un quarto di megapixel. Prendi la seguente immagine:

Ridimensionato per il web sembra a posto nonostante il fatto che il volto del soggetto non fosse nemmeno a fuoco! È ovvio se visualizzato al 100% e evidente nella stampa, ma non si può assolutamente dire quando è stato ridimensionato al 2% dei pixel originali e reso più nitido per il web.

Ecco un altro esempio, prendi un'immagine originale incredibilmente morbida, a circa 8 megapixel:

Abbassa fortemente il campione fino a ottenere una risoluzione ottimizzata per il Web, perfeziona e osserva improvvisamente tutto il microcontrasto!

Un sovracampionamento 2x aiuterà sicuramente con la risoluzione e la fedeltà dei colori delle immagini Bayer. Un'immagine dell'originale Canon Digital Rebel (300D) rilasciata nel 2003, ridimensionata a 600x400, è un sovracampionamento 5x, in ciascuna direzione, il che significa che ogni pixel dell'immagine ridimensionata prende il posto di 25 pixel originali. Molto, molto poco della qualità di quei 25 pixel avrà un impatto sull'immagine ridimensionata.

Il microcontrasto aumentato offerto da un sistema di formato più grande semplicemente non sarà visibile, il macrocontrasto che vedi può essere compensato dal postprocessing, quando hai così tanta risoluzione da buttare via gli artefatti di nitidezza non sarà visibile.

Se abbinassi la profondità di campo, sarebbe estremamente difficile distinguere tra una fotocamera da 10x8 e una compatta quando ridimensionata a meno di 1 megapixel.


posso vedere la sua faccia delle stesse dimensioni dei ritratti?
Michael Nielsen,

si quando torno a casa e scavo gli originali!
Matt Grum,

Non sono d'accordo con l'affermazione smussata "una fotocamera ad alta risoluzione non ha importanza quando l'uscita è a bassa risoluzione". I rapporti di sovracampionamento e ingrandimento contano nei risultati finali (fino a un certo limite).
Michael Nielsen,

1
stai ottenendo bei dettagli nella piccola immagine esattamente perché hai fatto un sovracampionamento così tante volte. Se avessi usato solo il 2x sovracampionamento con quella stessa quantità di sfocatura non avresti ottenuto alcun dettaglio della pelle. E lo hai esagerato con l'affilatura, i suoi capelli sembrano strani. Inoltre, questo scatto sembra una tipica immagine di fascia bassa. niente di simile a quelle immagini di cui stiamo parlando, che conserva più dettagli di quanto un sistema APS-C con un obiettivo decente possa produrre.
Michael Nielsen,

Grazie per l'ultimo esempio, sembra credibile che qualcosa come le immagini collegate nella domanda possa essere creato con un sensore APS-C. @MichaelNielsen Ma questo è il tipo di sovracampionamento della domanda, ad esempio il downscaling dice uno scatto APS-C da 16Mpx a dimensioni web <1Mpx. Quindi, in termini di sovracampionamento, ad esempio 7x (49 pixel di input per 1 px di output) può essere visibilmente migliore del 5x oversampling? Mi sto inclinando verso "probabilmente no", nel tuo esempio con le linee che non vedo molta differenza rispetto al 4x oversampling.
jg-faustus,

1

Quando si esegue il rendering di una scena con dettagli precisi in un'immagine a bassa risoluzione, è necessario applicare un filtro spaziale per rimuovere qualsiasi contenuto la cui frequenza sia superiore al limite di Nyquist. Quando si applica il filtro spaziale, ci sono due obiettivi contrastanti:

  1. Il contenuto la cui frequenza spaziale è abbastanza bassa da essere mostrato dovrebbe essere attenuato il meno possibile.

  2. I contenuti le cui frequenze spaziali sono simili dovrebbero essere attenuati di quantità approssimativamente uguali.

Per vedere dove sono in conflitto gli obiettivi, immagina una scena con uno schema di linee convergenti. Se la spaziatura si avvicina in qualche modo al limite di Nyquist per la risoluzione target, ma le linee sono sempre abbastanza separate per essere mostrate chiaramente, sarà spesso meglio mostrarle chiaramente piuttosto che sfocarle. Se, tuttavia, la scena contiene uno schema di linee convergenti che si avvicinano troppo per essere distinguibili, con le linee che diventano gradualmente più sfocate man mano che la loro spaziatura si avvicina, il limite di risoluzione sarebbe meno fastidioso che far apparire le linee chiaramente fino a un punto in cui bruscamente transizione a un grigio solido.

In molti casi, il tipo ottimale di filtro per una scena dipenderà dal suo contenuto e dagli aspetti che la interessano. Catturare una scena con una risoluzione superiore al suo formato di output previsto garantirà che tutte le informazioni che potrebbero essere desiderate nell'immagine finale vengano conservate. Le informazioni dovranno essere filtrate prima che l'immagine possa essere renderizzata con una risoluzione inferiore, ma l'acquisizione ad alta risoluzione consentirà di personalizzare i metodi di filtraggio esatti per adattarsi in modo ottimale alle esigenze della scena (e possibilmente utilizzare metodi diversi per differenti parti di una scena). Se si intende rendere un'immagine finale a 640x480, il vantaggio di catturarla a 6400x4800 probabilmente non sarebbe molto più grande di quello offerto da 1600x1200, ma ci potrebbero essere alcuni vantaggi se si arriva a circa 2,5x.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.