Scattare con una risoluzione RAW inferiore utilizzando la fotocamera con sensore di ritaglio imita le qualità delle fotocamere full frame?


12

Non sto parlando di cambiamenti nella lunghezza focale.

Ho letto molti post che affermano che nella fotocamera full frame la densità dei pixel è inferiore rispetto alla fotocamera con sensore di ritaglio e quindi cattura più luce e ha quindi migliori prestazioni ISO e una maggiore gamma dinamica. Quindi, se cambio dalla fotocamera con sensore di ritaglio per scattare a una risoluzione inferiore, ciò equivarrà a una migliore densità di pixel e imiterà le prestazioni di un fotogramma intero (o medio formato) o scatterà sempre alla massima risoluzione e ridurrà le dimensioni?

--EDIT: 1--
Ho una Canon 60D e ho 3 opzioni per le dimensioni delle immagini RAW (RAW, M-RAW e S-RAW). Se RAW è solo una discarica dai sensori della fotocamera, come possono essere 3 dimensioni diverse? La fotocamera ridimensiona anche le immagini RAW?


2
Vivek: leggi questa domanda: photo.stackexchange.com/q/3419/1024 . Secondo @whuber (e l'articolo a cui si collega) i RAW più piccoli sono effettivamente una sorta di aggregazione dei singoli sensori, come quello che Stan descrive nella sua risposta, solo che è fatto in soft piuttosto che in hardware.

(La pagina ysap si collega a copre la parte mraw / sraw della domanda.)
Leggi il mio profilo

Darò una lettura e un commento al documento di ysap.
Viv,

Risposte:


7

Dato che hai una Canon, le modalità RAW inferiori, mRAW e sRAW, DO INDEED UTILIZZA TUTTI i pixel del sensore disponibili per produrre un risultato più ricco senza la necessità di interpolazione bayer. Il formato di output effettivo, sebbene sia ancora contenuto in un file di immagine RAW .cr2 Canon, è codificato in un formato Y'CbCr, simile a molti formati di pulldown video. Memorizza le informazioni di luminanza per ciascun pixel FULL (2x2 quadruplo di 1 pixel rosso, 1 blu e 2 verde) e ogni canale di crominanza è derivato da dati a mezzo pixel (1 x 2 coppie di 1 rosso + 1 verde o 1 blu + 1 verde) .

Non sono esattamente sicuro di quali siano le differenze specifiche di lettura e codifica dell'hardware di basso livello tra mRAW e sRAW, sebbene generalmente parlando più piccolo è il formato di output, più informazioni sull'input del pixel del sensore è possibile utilizzare per ciascun pixel di output. La piccola quantità di interpolazione presente in m / sRAW è discutibile, poiché entrambi i formati interpolano molto meno rispetto al RAW nativo. Va anche notato che né mRAW né sRAW sono formati "RAW" in senso normale ... i dati del sensore vengono elaborati e convertiti in qualcos'altro prima di essere salvati in un file .cr2.

Per maggiori dettagli sui formati derivati ​​da YUV e Canon sRAW, vedi la mia risposta qui: Perché lo spazio colore xvYCC non vede assorbimento per la fotografia fissa ?

Da "Comprensione di cosa è memorizzato in un file .CR2 RAW Canon":

Il formato sRaw (per "small RAW") è stato introdotto con 1D Mark III nel 2007. È una versione più piccola dell'immagine RAW.

Per 1D Mark III, quindi 1Ds Mark III e 40D (tutti con Digic III), la dimensione sRaw è esattamente 1/4 (un quarto) della dimensione RAW. Possiamo quindi supporre che ogni gruppo di 4 "pixel del sensore" sia riassunto in 1 "pixel" per sRaw.

Con la 50D e la 5D Mark II (con il chip Digic IV), il RAW di 1 / 4a dimensione è ancora lì (sRaw2) e appare anche un RAW di mezza dimensione: sRaw1. Con la 7D, il raw di mezza dimensione è chiamato mraw (stessa codifica di sraw1), 1 / 4th raw è chiamato sraw (come il sraw2).

jpeg lossless sRaw è sempre codificato con componente a 3 colori (nb_comp) e 15 bit.

Il codice jpeg di Dcraw è stato prima modificato (8.79) per gestire sRaw a causa del valore h = 2 del primo componente (sfondo grigio nella tabella). I RAW normali hanno sempre h = 1. A partire da 50D, abbiamo v = 2 invece di v = 1 (arancione nella tabella). Dcraw 8.89 è la prima versione a gestire questo e il sraw1 da 50d e 5D Mark II.

"h" è il fattore di campionamento orizzontale e "v" il fattore di campionamento verticale. Specifica quante unità di dati orizzontali / verticali sono codificate in ciascuna MCU (unità minima codificata). Vedi T-81, pagina 36.

3.2.1 Formato sRaw e sRaw2

h = 2 significa che i dati decompressi conterranno 2 valori per il primo componente, 1 per la colonna n e 1 per la colonna n + 1. Con gli altri 2 componenti, sraw decompresso e sraw2 (che hanno tutti h = 2 & v = 1), hanno sempre 4 valori elementari

[y1 y2 xz] [y1 y2 xz] [y1 y2 xz] ...
(y1 e y2 per il primo componente)

Ogni "pixel" nelle immagini sRAW e mRAW contiene quattro componenti ... un componente Y 'diviso (y1 e y2), nonché un x (Chrominance Blue) e z (Chrominance Red). Tutti e quattro i componenti (da una prospettiva a 1/2 immagine, sRAW1 / mRAW) hanno un'altezza della colonna di 2 (h) e una larghezza di 1 (v). Ciò indica che il valore di Luminanza (Y ') è composto da un quad FULL 2x2 pixel ... o due colonne 2x1 pixel memorizzate in y1 e y2.

I riferimenti che seguono non sembrano specificarlo, quindi sto speculando un po 'qui, tuttavia con sRAW2 (1/4 raw) credo che le informazioni sulla luminanza sarebbero derivate da un blocco di pixel 4x4 dove h = 4 e v = 2. La codifica della crominanza diventerebbe più complessa in un'immagine di dimensioni 1/4, poiché l'array di filtri colore bayer sul sensore non è disposto in colonne rosse e blu ordinate. Non sono sicuro se vengono elaborate colonne con altezza 2x1 alternata per ciascun componente Cr e Cb o se viene eseguita un'altra forma di interpolazione. Una cosa è certa ... l'interpolazione dei dati di origine è sempre maggiore rispetto ai dati di output e per quanto posso dire non si verifica alcuna sovrapposizione (come nella normale interpolazione bayer).

Infine, sRAW1 / mRAW e sRAW / sRAW2 sono compressi utilizzando un algoritmo di compressione senza perdita di dati. Questa è una distinzione fondamentale tra questi formati e JPEG, che utilizza anche una codifica di tipo ycc. JPEG esegue una compressione con perdita, rendendo impossibile ripristinare i pixel alla loro esatta rappresentazione originale. I formati s / mRAW di Canon possono infatti essere ripristinati ai dati di immagine originali a 15 bit con precisione completa.

Riferimenti:


8

In teoria, se la fotocamera avesse usato la giusta strategia per ridurre le dimensioni dell'immagine , avrebbe potuto farlo .

Come hai notato, con le attuali fotocamere con sensore di ritaglio, l'immagine grezza rimane invariata, indipendentemente dalle dimensioni JPEG impostate. L'immagine JPEG è semplicemente ridimensionata. Ciò può in qualche modo ridurre l'aspetto del rumore, ma la riduzione è dovuta all'algoritmo di ridimensionamento dell'immagine (non è possibile adattare quanti più pixel chiari all'immagine più piccola possibile nella versione a dimensione intera). È più probabile, tuttavia, che tu possa fare almeno altrettanto bene, se non meglio, se fai la riduzione del rumore e ridimensionati dopo il fatto.

C'è una strategia che produrrà una vera riduzione del rumore. Alcuni dorsi di medio formato ad alta risoluzione (come la serie Phase One SensorPlus) utilizzano una strategia chiamata pixel binning , in cui gruppi di sensori adiacenti vengono trattati come un sensore molto più grande e la loro carica cumulativa viene letta dal sensore. È diverso dalla lettura dei singoli addebiti e della media (che è ciò a cui sei limitato nell'elaborazione post-lettura) - si verifica a livello hardware e cambia il significato di "raw". Il rumore di lettura ha maggiori possibilità di annullamento e la carica cumulativa rende la conversione da analogico a digitale meno ambigua (la gamma di quanti convertiti è più ampia con meno amplificazione).

In pratica, questo di solito significa tagliare la risoluzione di un fattore quattro (metà larghezza e metà altezza). Con un dorso di medio formato da 60 o 80 MP, che ti lascia comunque con un'immagine di 15 o 20 MP; con una fotocamera con sensore di ritaglio da 16 MP, si otterrebbe un'immagine raw da 4 MP. Ora potresti sapere e potrei sapere che un'immagine da 4 MP pulita è migliore di un'immagine da 16 MP rumorosa, ma non tutti compreranno l'idea che costa di più produrre un'immagine più piccola. Ciò significa che è improbabile che vedrai presto usato il binning dei pixel in qualcosa di meno di una fotocamera di livello professionale. Può apparire nelle fotocamere full frame se la loro risoluzione continua a salire, ma non la cerco in un sensore di ritaglio. (Beh, forse Pentax potrebbe prendere una pugnalata un giorno, dal momento che non fanno full frame.)


Mi dispiace, penso che dovrei chiarire le dimensioni delle immagini RAW. Ho una Canon 60D e ho 3 opzioni per le dimensioni delle immagini RAW (RAW, M-RAW e S-RAW). Se RAW è solo una discarica dai sensori della fotocamera, come possono essere 3 dimensioni diverse? La fotocamera ridimensiona anche le immagini RAW?
Viv,

@Stan: Canon fa già esattamente quello che hai descritto con i suoi formati mRAW e sRAW. Non sono formati RAW letterali, sono derivati ​​YUV (Y'CrCb per l'esattezza) e lo fanno effettivamente per le forme di pixel binning. Vedi la mia risposta per maggiori dettagli.
jrista

Per quanto riguarda il futuro: il vero limite è l'area del sensore. Se le dimensioni del sensore rimangono invariate e la risoluzione aumenta (riducendo i pixel), non vi sarà alcun guadagno netto dal binning dei pixel. Si tratta semplicemente di usare più sensori per leggere la stessa area fisica del sensore. Ciò che possiamo sperare è una migliore sensibilità dei singoli sensori, in modo tale che più luce e meno rumore vengano registrati all'interno di una determinata porzione del sensore.
whuber,

1
@jrista: non è un binning, è una media post-lettura. Il binning deve comportare una riduzione integrale della risoluzione lineare e i singoli dati del photosite non sono disponibili per l'elaborazione poiché letture cumulative (non separate, quindi medie, letture) vengono eseguite su più sensori. (In un sistema Bayer-quad, ciò significa 1/4, 1/16, 1/64, ecc., Della piena risoluzione espressa come area o pixel.) La media post-lettura non è diversa, tecnicamente, dal ridimensionamento; funziona solo in uno spazio dati diverso.

1

Se il problema principale è l'elevato rumore, una soluzione è quella di riprendere più fotogrammi e avere un software con buoni algoritmi che combina un'immagine buona da molti altri peggiori. Ad esempio ALE, Anti-Lamenessing Engine fa questo. Ovviamente per i soggetti in movimento ciò non funziona, ma è possibile scattare con il palmare, ad esempio, a ISO 1600 e quindi combinare gli scatti per raggiungere livelli di rumore vicini a ISO 400 o 800.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.