Perché il sensore principale non viene utilizzato al posto del sensore AF separato per mettere a fuoco una DSLR?


9

Da questa risposta capisco che lo specchio riflesso di una DSLR in realtà non riflette tutta la luce, ma passa una certa quantità sul sensore AF.

Quindi, se lo specchio riflesso può passare la luce, perché non utilizzare il sensore principale (che si trova direttamente dietro lo specchio) per mettere a fuoco?

Nota :
in un commento sotto la risposta collegata si nota che il sensore AF richiede un obiettivo per focalizzare i raggi di luce sulla posizione appropriata del sensore in quanto è più piccolo del sensore principale (il corsivo è il mio presupposto). Se si utilizzasse il sensore principale, questa lente aggiuntiva sarebbe ancora necessaria?


In modalità Live View, le reflex digitali utilizzano il sensore principale per la messa a fuoco. In genere è un processo piuttosto lento.
James Snell,

1
Ne sono consapevole, ma mi riferisco al rilevamento rapido della fase AF, per il quale normalmente viene utilizzato un sensore separato. Forse dovrei renderlo più chiaro nel titolo.
Saaru Lindestøkke,

1
Curiosamente, l'ho appena abbattuto e la Sony A99 ha DUE sensori di rilevamento di fase e uno fa parte dell'array di sensori principale. Non ho visto alcun dettaglio sul perché, ma potrebbe darti un punto di partenza.
James Snell,

A rigor di termini, la Sony A99 manca del "Reflex" che lo renderebbe un DLS R , poiché è un design SLT. La ragione per cui ha due sistemi di rilevamento di fase: 1) Il sensore indipendente è più veloce e può mettere a fuoco continuamente durante la registrazione di video 2) Il sensore AF incorporato nel sensore di imaging fornisce copertura per gli obiettivi in ​​movimento quando si trovano tra i punti di messa a fuoco sulla messa a fuoco indipendente Vettore. Tuttavia, la recensione di DP e la maggior parte degli altri affermano che la Sony non riesce a tenere il passo con la percentuale di custode della 5DIII per le riprese di sport / azione, tanto meno la D4 o la 1D X.
Michael C

Risposte:


16

L'autofocus a rilevamento di fase funziona misurando lo spostamento orizzontale tra i motivi di luminosità proiettati sul sensore AF. Per misurare lo spostamento, vengono utilizzate coppie di matrici monodimensionali di pixel monocromatici. Ecco come appare il sensore AF della Canon 5D mkIII:

Puoi vedere molte diverse linee di pixel utilizzate da diversi punti AF selezionabili dall'utente. In linea di principio, è possibile utilizzare linee di pixel sul sensore di immagine principale per fare esattamente lo stesso lavoro.

Questo approccio presenta alcuni vantaggi:

  • Non si verificano problemi se il sensore di immagine principale e il sensore AF non sono allineati, poiché sono la stessa cosa.

  • Eviti la complessità degli specchi secondari e il costo del chip AF stesso.

Ci sono degli svantaggi nell'uso del sensore principale.

In un commento sotto la risposta collegata si nota che il sensore AF richiede un obiettivo per focalizzare i raggi di luce sulla posizione appropriata del sensore in quanto è più piccolo del sensore principale (il corsivo è il mio presupposto)

Il tuo presupposto non è del tutto corretto. Non ha a che fare con un sensore AF più piccolo, gli "obiettivi" AF sono in realtà un obiettivo con un profilo ondulato a "B". Questo obiettivo focalizza la luce proveniente da entrambi i lati dell'obiettivo su diverse parti del sensore AF.

Avresti ancora bisogno di una sorta di obiettivo per fare questo lavoro quando utilizzi il sensore di immagine principale e dovrebbe oscillare quando scatti una foto insieme allo specchio riflesso, richiedendo una complicata disposizione meccanica all'interno della fotocamera. Questo è il principale svantaggio di questo approccio, sebbene ci siano altri ostacoli:

  • I pixel del sensore di immagine sono dietro gli array di filtri colorati che riducono la quantità di luce che li raggiunge fino a due terzi. Ciò potrebbe potenzialmente ridurre le prestazioni in condizioni di scarsa luminosità, tuttavia ti consentirebbe di eseguire la corrispondenza della misurazione di fase a colori per un numero inferiore di risultati falsi (è meno probabile che tu confonda un dettaglio dal primo piano con un dettaglio dallo sfondo, ad esempio Anche il colore può essere utilizzato per facilitare il tracciamento).

  • Le dimensioni, la spaziatura e la sensibilità dei pixel saranno diverse tra i due sensori, quindi fare entrambe le cose con un sensore significa che bisogna scendere a compromessi.

  • Il sensore principale dovrebbe essere acceso per periodi molto più lunghi, causando un maggiore consumo di energia dalle batterie. Come sottolinea Stan, anche l'otturatore dovrebbe essere aperto durante la messa a fuoco automatica, quindi chiuderlo prima di effettuare l'esposizione comporterebbe un ritardo.

  • Infine, il rilevamento di fase precede i sensori di immagini digitali precedenti, quindi tutta la tecnologia e gli strumenti per eseguire l'AF utilizzando un sensore separato sono già esistenti ed è ben sviluppato.

Tuttavia produttori hanno sviluppato un metodo leggermente diverso per la fase di rilevare AF che fa utilizzare il sensore principale. È stato sviluppato per le fotocamere mirrorless che non hanno l'opzione di un sensore AF dedicato e che si sono tradizionalmente affidate al metodo di rilevamento del contrasto più lento utilizzando il sensore principale.

Invece di una coppia di obiettivi AF nel percorso della luce per dirigere la luce da entrambi i lati dell'obiettivo su diverse parti del sensore AF, è possibile utilizzare coppie di microlenti regolari con metà alternate oscurate per ottenere un effetto simile (pixel con la sinistra mezzo vuoto riceverà principalmente luce dal lato destro dell'obiettivo e viceversa).

Ciò consente un approccio AF ibrido utilizzando una combinazione di fase (per avvicinarsi alla messa a fuoco corretta) e rilevazione del contrasto (per ottimizzare il risultato).


risposta molto bella!
Michael Nielsen,

Non sono del tutto sicuro, ma credo che il mascheramento fatto a livello di pixel sia problematico ed è il motivo per cui vi sono problemi di precisione con tale rilevamento di fase su sensore. Con un sensore di rilevamento di fase standard, è possibile misurare la differenza di fase con un delta maggiore. Questo potrebbe essere il motivo per cui alcuni sensori sono sensibili fino a un diverso valore di apertura massima.
Itai,

Bella risposta. Giusto per essere sicuri, le lenti a forma di B sono lì per "dividere" l'immagine in due in modo tale che le due fasi possano essere analizzate, giusto? (come descritto in questa risposta )
Saaru Lindestøkke

Penso che un altro vantaggio, soprattutto storicamente (con i design moderni che supportano i video HD, questo è meno un fattore), è che le poche dozzine di pixel su un sensore AF possono essere lette molto più velocemente rispetto ai milioni sul sensore primario consentendo un circuito di feedback più veloce .
Dan è Fiddling By Firelight il

1
C'è anche la piccola questione dell'otturatore da affrontare nella meccanica. L'uso del sensore di immagine per la messa a fuoco mentre fa affidamento su un otturatore sul piano focale meccanico per la durata dell'esposizione significa che l'otturatore deve essere chiuso / inclinato tra l'acquisizione della messa a fuoco e l'avvio della registrazione dell'immagine (come la maggior parte delle reflex digitali fanno in live view). Ciò significa un doppio scatto sull'attivazione dell'otturatore anche quando è possibile mascherare il tempo impiegato dietro l'oscillazione dello specchio riflesso, il che significa rallentare l'otturatore o perdere affidabilità.

2

Velocità

La velocità è probabilmente il motivo principale per cui il sensore di imaging non viene utilizzato per la messa a fuoco nella maggior parte delle reflex digitali. La messa a fuoco automatica è stata sviluppata verso la fine dell'era cinematografica, quindi l'uso del "sensore" (il film) per la messa a fuoco non era un'opzione. La maggior parte dei sistemi AF a rilevamento di fase erano "a circuito aperto" costruiti per una velocità superiore alla precisione. Solo di recente i principali produttori di fotocamere hanno iniziato a progettare sistemi di lenti / corpo che utilizzano la comunicazione a "circuito chiuso" tra il corpo e l'obiettivo durante la rilevazione di fase AF. Ciò ha permesso ai sistemi di rilevamento di fase di avvicinarsi, e in alcuni casi uguali, all'accuratezza dell'AF con rilevamento del contrasto. Sebbene l'AF con rilevamento del contrasto che utilizza il sensore principale stia migliorando in velocità, poiché è un processo a più stadi che richiede diversi cicli di "spostamento e misurazione", è ancora più lento, ma in genere è anche più preciso.

Sebbene possano esserci rare eccezioni, tutte le DSLR di cui sono a conoscenza utilizzano ancora persiane meccaniche. Ciò significa che il sensore di immagine principale è coperto durante la messa a fuoco e la misurazione. Ci sono stati alcuni modelli mirrorless che hanno solo un secondo otturatore a tendina, ma tecnicamente parlando non sono DSLR.

Per utilizzare il sensore principale per il rilevamento di fase AF, sarebbe necessario aprire l'otturatore per mettere a fuoco, quindi la prima tendina si chiudeva prima di riaprirsi per esporre l'immagine, dopo di che si chiudeva la seconda tendina. Anche quando si riprendono 8+ fotogrammi al secondo, le DSLR più avanzate si concentrano tra ogni scatto (se richiesto dalle impostazioni selezionate dall'utente). Attualmente le reflex digitali ripristinano entrambe le tende contemporaneamente mentre lo specchio scorre e la messa a fuoco AF viene eseguita. Per utilizzare il sensore di immagine per mettere a fuoco, la prima tendina dovrebbe rimanere aperta fino a quando lo specchio non si è abbassato e la fotocamera ha raggiunto il blocco della messa a fuoco, quindi il resto della fotocamera avrebbe dovuto attendere la chiusura della prima tendina e l'assorbimento di energia dal sensore durante la messa a fuoco cancellata prima che la prima tendina potesse riaprire per iniziare a esporre l'immagine. Ciò rallenterebbe il processo complessivo quando l'intero punto di rilevamento della fase AF è la velocità. L'AF con rilevamento del contrasto utilizzato durante Live View che utilizza il sensore di imaging principale per mettere a fuoco, d'altra parte, è generalmente più preciso ma più lento.


1

Il sensore principale in una DSLR ha una funzione e una sola funzione, ovvero registrare un'immagine e farlo molto bene.
Compromettersi su questo aggiungendo elettronica aggiuntiva degraderebbe la qualità e le prestazioni, quindi perché farlo quando sono disponibili sensori dedicati perfettamente validi?
Inoltre, le reflex digitali si sono evolute dalle reflex cinematografiche in cui, naturalmente, nel film non sono stati incorporati gadget elettronici che potrebbero essere annullati allo scopo.


1

I dispositivi specializzati funzionano meglio e in modo più efficiente in ciò che fanno.

I sensori di messa a fuoco automatica utilizzati nelle reflex digitali sono altamente ottimizzati per eseguire la messa a fuoco automatica rapidamente e fino a livelli di luce molto bassi.

Se hai utilizzato il sensore principale per eseguire la messa a fuoco automatica, avresti due opzioni:

  • Implementa la funzione di messa a fuoco automatica con rilevamento del contrasto, che rappresenta un enorme consumo di energia, ma in realtà più preciso di Phase-Detect. Tuttavia, Contrast-Detect richiede il movimento avanti e indietro degli elementi di messa a fuoco in passi molto fini che non sono ottimali per i moderni obiettivi DSLR.
  • Implementa Phase-Detect sul sensore che è possibile ma molto meno preciso rispetto all'utilizzo di un sensore dedicato poiché la parte di imaging del sensore limita ciò che puoi fare.

La realtà è che lo specchio lascia passare solo la luce in alcune aree e che la maggior parte è completamente riflettente, il che ti dà una visione luminosa.

Sony ha fotocamere SLT che hanno uno specchio veramente semi-riflettente (30% / 70%) che è la loro soluzione per fornire contemporaneamente la messa a fuoco automatica Live-View e Phase-Detect. Ciò consente loro di utilizzare un sensore dedicato Phase-Detect per accelerare la messa a fuoco automatica ed evitare i movimenti dell'obiettivo avanti e indietro, il che è terribile per il video. Il sensore perde un po 'di luce raggiungendolo, quindi deve essere più sensibile per produrre lo stesso ISO efficace, il che è uno svantaggio quando si tratta di qualità dell'immagine. La luce riflessa verso l'alto è troppo debole per creare un bel mirino ottico, quindi dovevano adattarsi a un EVF.


0

In poche parole, lo stesso motivo per cui non guidi un semirimorchio per lavorare al mattino (a meno che tu non sia un camionista). Il sensore AF può fare il suo lavoro meglio quando non deve competere con il sensore di immagine per la superficie. I sensori sono di natura diversa e mentre ci sono alcuni progetti che incorporano sensori AF nel sensore di imaging, significa che le aree del sensore di imaging non catturano la luce visibile colpendo quelle aree nel modo migliore possibile.

Ci sono sensori ibridi che possono fare sia il rilevamento AF che il rilevamento della luce per l'immagine, ma tendono a non fare né un lavoro né un sensore dedicato per entrambi. Potrebbe non essere di molto, ma è sufficiente che se stai cercando di ottenere la migliore AF e le migliori prestazioni dell'immagine possibile, i sensori separati fanno comunque un lavoro migliore.


1
Non vedo perché il sensore AF dovrebbe competere con il sensore di immagine per area quando è possibile utilizzare esattamente gli stessi fotositi per entrambi gli scopi. I pixel AF a rilevamento di fase sul sensore principale (utilizzato da alcune fotocamere mirrorless) catturano la luce visibile quando si scatta una foto e contribuiscono all'immagine. La sensibilità ridotta di questi pixel non è evidente poiché il numero di pixel AF è di alcune migliaia rispetto a decine di milioni di pixel normali.
Matt Grum,

1
@MattGrum - Non ho mai detto che si tratti di un grave deterioramento, solo di un deterioramento. Quando il tuo obiettivo è catturare l'immagine migliore in assoluto possibile, non dover scendere a compromessi offre una qualità leggermente migliore. Da quanto ho capito, anche i pixel ibridi non funzionano così come AF dedicato. Sono tuttofare, ma è un compromesso.
AJ Henderson

Hai detto che "le aree del sensore di imaging non catturano la luce visibile che colpisce quelle aree" che non è vero, quei pixel ricevono luce, la convertono in carica e contribuiscono all'immagine. In ogni caso è solo lo 0,1% dei pixel, quindi sarei stupito se tu potessi vedere la differenza. Sì, non sono buoni per l'AF, ma non hai l'opzione di un sensore AF dedicato in una fotocamera mirrorless, quindi è meglio di niente. Sarei più propenso ad acquistare un mirrorless con PDAF sul sensore di uno che non lo avesse fatto.
Matt Grum

@MattGrum - sì. Ammetto che non sapevo che i pixel ibridi catturassero informazioni utili. Suppongo che la filtrazione del colore sia il motivo per cui si riducono con efficacia ridotta o ci sono altri problemi con esso? La mia comprensione è corretta che un sensore PD dedicato non acquisisce informazioni utili poiché sospetto che manchi il filtro colore necessario per qualcosa di diverso dalla misurazione?
AJ Henderson

0

Una possibile ragione che non ha nulla a che fare con l'autofocus è che il sensore di immagine deve essere scaricato da ogni carica prima di scattare un'immagine. L'uso del sensore di immagine principale per AF / composizione, come avviene con tutte le fotocamere in diretta (la maggior parte dei mirrorless), richiede che il sensore sia spento e azzerato prima di scattare l'immagine, altrimenti avresti un po 'di fantasma Immagine in diretta sull'immagine presa.

Questo è uno dei motivi del ritardo dell'otturatore sulle fotocamere solo liveview. i dSLR non dipendono dal live view.

E no, se si utilizza il sensore principale per AF, non è necessario disporre del percorso ottico / obiettivo separato per l'array AF separato. Le fotocamere mirrorless sono molto più semplici delle reflex digitali perché non esiste un gruppo mirrorbox e non sono necessari array e percorsi di luce separati per sensori di esposizione e AF.

Nel suo post sul blog "Demise of the dSLR" , Ming Thein stima dalla sua esperienza personale di smontaggio che le fotocamere mirrorless hanno il 60-70% in meno di parti rispetto alle dSLR.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.