Cosa limita le dimensioni dei sensori di imaging digitale?


10

Ho letto alcune informazioni sulle dimensioni dei sensori qui

http://en.wikipedia.org/wiki/Image_sensor_format

secondo questo, il 35mm ff-CMOS è il sensore con le dimensioni più grandi utilizzate nelle fotocamere digitali. Ha molti vantaggi per i sensori più piccoli, causati dalle sue dimensioni.

Perché non sono disponibili sensori ancora più grandi per forzare questi vantaggi? 1,5 FF ad es.


4
Quella pagina è obsoleta. Hasselblad ha lanciato un sensore CMOS di medio formato a marzo.
Philip Kendall,

L'articolo menziona specificamente diversi chip di medio formato che sono più grandi del cosiddetto "full frame" (un termine improprio). en.wikipedia.org/wiki/…
suo

@his Quali sensori CMOS sono più grandi del full frame di cui parla?
Philip Kendall,

@fubo Sei particolarmente interessato ai sensori CMOS (al contrario dei sensori CCD) o intendi davvero "ciò che limita le dimensioni dei sensori di imaging digitale?"
Philip Kendall,

@PhilipKendall aggiornato
fubo

Risposte:


29

Puoi creare alcuni CCD molto grandi. Un vecchio comunicato stampa parla di un CCD realizzato per l'Osservatorio navale statunitense di 4 "× 4" e 10.560 pixel × 10.560 pixel. Sono 111 megapixel su un sensore. È un po 'non piccolo.

Un sensore da 111 megapixel

(Da sopra comunicato stampa)

La prima restrizione che il sensore ha è che deve essere un singolo wafer di silicio, e questo è un prezzo fisso. È possibile creare CCD progettati con un CCD a tre fronti (il bordo rimanente è il punto in cui è possibile leggere i dati) come:

mosaico CCD

(Da http://loel.ucolick.org/manual/deimos_ccd/science/overview/EL3160.html )

Questi sono spesso usati nei telescopi per ottenere un'area di imaging più ampia con solo un piccolo aumento del prezzo. Si noti che esiste il problema che ogni CCD deve essere calibrato separatamente dagli altri (non ci sono due sensori di immagine che hanno esattamente la stessa risposta) - questa è una preoccupazione significativa per usi scientifici ( informazioni di calibrazione per uno di questi array CCD ).

Il CCD a mosaico può essere ingrandito in modo abbastanza significativo. PanSTARRS ha un array di sensori da 1,4 gigapixel composto da un enorme array di CCD da 600 × 600 pixel:

Array CCD 8x8 di PanSTARRS

Sopra c'è un array 8 × 8 di CCD - ognuno abbastanza piccolo. Questo fa quindi parte di un array più grande di 8 × 8 di questi segmenti che fornisce un array complessivo di sensori 64 × 64. Ciò è stato fatto grazie al risparmio sui costi, alla velocità (è più veloce leggere simultaneamente quattromila CCD da 600 × 600 pixel rispetto alla lettura di un CCD più grande), all'isolamento dei pixel saturi e alla sostituzione più semplice in caso di difetti.

L' LSST utilizza CCD a tre fronti più convenzionali per raggiungere l'obiettivo di 3,2 gigapixel. Ogni segmento contiene un array 8 × 2 di sensori da 500 × 200 pixel. Tutti gli stessi fattori citati per PanSTARR sono anche presenti qui. Si prevede che occorrano 2 secondi per leggere 3,2 miliardi di pixel (che in realtà è abbastanza veloce). Passare a un numero inferiore di CCD più grandi significherebbe che è più lento, non più veloce.

Sensori LSST

Quindi, sebbene sia possibile utilizzare più sensori in totale, sono comunque composti da singoli sensori piuttosto piccoli piuttosto che da un singolo sensore grande (come è stato fatto con il sensore 4 × 4 "dell'USNO). In alcuni casi, i CCD sono molto più piccoli rispetto a quelli utilizzati nelle fotocamere a punti e riprese.

Guarda indietro a quella prima immagine del sensore 4 × 4 "e poi considera le dimensioni dei normali sensori lì:

sensori su un wafer

Questo ha alcune informazioni aggiuntive da considerare. C'è la massima resa di quanti ne puoi mettere su un wafer (non puoi adattarti di più) e lo spreco. Per realizzare quel sensore 4 "× 4" avevano bisogno di un estremamentewafer di alta qualità in silicone. Su una normale cornice completa, i difetti del cristallo non esistono, indipendentemente dal numero di sensori che hai inserito nel wafer. Con un wafer di silicio da 8 "(delle stesse dimensioni di quello superiore - si noti che metà del diametro è sul" bordo "), ci sono difetti sparsi in tutto il wafer. Meno sensori sul wafer e maggiore è la possibilità che ci sarà un difetto nel sensore rendendolo inutilizzabile (lo scarto del 36% su un wafer di sensore full frame contro il 12,6% di spreco sul sensore 13,2 mm × 8,8 mm). Questo è uno dei motivi per cui spesso ci sono più ricerche fatte per aumentare il densità del chip anziché aumentarlo (e che la ricerca sulla densità ha altre applicazioni come far accelerare le CPU).

Con un sensore destinato a un telaio 60mm × 60mm, è possibile montare solo circa 8 sensori sul wafer e lo spreco sale. Puoi vedere l'economia di scala al lavoro lì.

Considera che i 15 o 16 sensori funzionanti al di fuori del wafer full frame costano lo stesso dei 213 o più piccoli sensori ... e hanno un prezzo di conseguenza. L'immagine seguente mostra il problema con i difetti situati negli stessi punti sul wafer per stampi di varie dimensioni.

Rendimento del sensore

(Da http://commons.wikimedia.org/wiki/File:Wafer_die%27s_yield_model_(10-20-40mm)_-_Version_2_-_EN.png )

Se sei disposto ad allontanarti da "un'immagine in una volta", puoi ottenere un singolo array (bene, tre - uno per ogni colore) di sensori che si muovono attraverso l'immagine. Questi si trovano spesso come back scanner per fotocamere di grande formato. Lì, il problema è la precisione dell'apparecchiatura piuttosto che la dimensione del sensore (memoria, archiviazione dei dati, I / O veloce diventano significativi). Ci sono alcune fotocamere che hanno questo come unità integrata come la Seitz 6x17 digitale .

Ulteriori letture:


111 megapixel è piccolo rispetto al previsto LSST (3,2 gigapixel) . Penso che l'attuale più grande telescopio operativo (in termini di pixel) sia PanSTARRS, a 1,4 gigapixel .
Joe,

@Poi la chiave c'è un sensore che è 4 "x 4". se scorri verso il basso fino alla sezione "Piano focale LSST" nel link fornito vedrai la spiegazione di "189 zattere 3x3" in cui ogni parte di ciò è un CCD a mosaico a 3 bordi. L'approccio del mosaico può essere ridimensionato abbastanza grande come hai collegato ... ma non è un singolo sensore. PanSTARRS utilizza un approccio simile: image-sensors-world.blogspot.com/2007/09/… con una serie di CCD ( pan-starrs.ifa.hawaii.edu/public/design-features/images/… ). Per entrambi, i sensori sono piuttosto piccoli.

12

I più grandi sensori CMOS disponibili in commercio per la fotografia sono di "medio formato" e misurano circa 44 mm x 33 mm. I CCD esistono in dimensioni leggermente più grandi fino a 54 mm x 40 mm. Potrebbero essere stati prodotti sensori più grandi per applicazioni scientifiche.

I sensori vengono prodotti proiettando una maschera su un grande wafer di silicio usando la luce UV. Il wafer viene quindi tagliato in singoli sensori. Il limite di dimensione assoluta di un sensore che potrebbe essere prodotto con questo metodo è determinato dalla dimensione del cerchio dell'immagine prodotto dal proiettore (anche se potrebbero esserci altri problemi con sensori molto grandi, come il consumo di energia e la dissipazione del calore che presentano un limite di dimensioni).

Il limite pratico della dimensione del sensore viene raggiunto molto prima in quanto è determinato dalla resa, ovvero quanti sensori devono essere scartati durante la fabbricazione a causa di difetti. Quando si realizzano molti piccoli sensori su un singolo wafer, un singolo difetto porta allo scartamento di un sensore ma molti altri sono vitali, se un sensore occupa l'intero wafer, un singolo difetto significa che non vengono prodotti sensori. Il rendimento quindi diminuisce con il quadrato della dimensione del sensore, il che rende antieconomici sensori più grandi.

Si applicano anche economie di scala, i sensori "full frame" da 36 mm x 24 mm sarebbero più costosi se prodotti nello stesso volume dei sensori di medio formato.


2
Buona risposta - Apprezzo il fatto di aver portato in realtà sia l'ingegneria che il business
B Shaw,

5

Ci sono sensori ancora più grandi. Se guardi da vicino l'immagine nell'angolo in alto a destra di quella pagina vedrai che il sensore più grande è il sensore "Medium Format Kodak KAF" .

Ok, capisco che non è abbastanza facile capirlo perché si può facilmente capire che lo sfondo di quell'immagine è grigio mentre in realtà l'immagine ha uno sfondo bianco.

Vedi meglio qui .

Oltre a quel sensore ci sono altri sensori più grandi di FF. Nella stessa pagina scorrere fino alla tabella dei formati e delle dimensioni del sensore , fare clic sulla colonna "Fattore di ritaglio" per ordinare la tabella e guardare i formati con un fattore di ritaglio inferiore a 1. Uscire dai formati del film e si finirà con i seguenti sensori in questo ordine:

  • Phase One P 65+, IQ160, IQ180
  • Leaf AFi 10
  • Medio formato (Hasselblad H5D-60)
  • Kodak KAF 39000 CCD
  • Pentax 645D
  • Leica S

Ma attenzione: ci sono anche svantaggi per tali sensori: macchine fotografiche e obiettivi grandi, pesanti. Molto più difficile costruire un obiettivo per un tale sensore (cerchio di immagini più grande) e ... ... ovviamente ... ... prezzo.


Ma il sensore Kodak è CCD, non CMOS.
Philip Kendall,

4

Alcune altre cose che possono limitare ciò che è pratico al di sotto di ciò che può essere prodotto:

  1. peso (del sistema risultante). Un sensore molto grande ha bisogno di un cerchio di immagini molto grande, il che significa obiettivi di grandi dimensioni e una fotocamera di grandi dimensioni.
  2. consumo di energia. Un sensore di grandi dimensioni richiede più potenza di un piccolo, quindi la durata della batteria viene ridotta (a meno che non si aumentino nuovamente le dimensioni e il peso della fotocamera per ospitare una batteria più grande).
  3. velocità. Richiede più tempo per leggere un sensore più grande di quanto non faccia per leggere un sensore più piccolo con la stessa densità dell'elemento sensore. Quindi la tua "velocità dell'otturatore" diminuisce.
  4. costo (accennato, ma entra in gioco a più livelli). Un sensore più grande ovviamente costa più di uno piccolo, non solo perché ha bisogno di più materie prime ma aumenta anche la quantità di prodotti scartati, il cui costo deve essere ricapitolato dal numero più piccolo che viene venduto.

Sono sorpreso che nessun altro abbia menzionato il problema della velocità. Vale anche la pena ricordare che più grande ottieni (in pollici o cm), maggiore è la distorsione che ottieni ai bordi. Ci sono articoli di astronomia che descrivono come descrivere la proiezione dell'immagine in modo che altri possano capire come l'immagine è distorta in modo da poter riproiettarla per allineare più immagini. Anche il ridimensionamento in pixel senza ridimensionamento in dimensioni fisiche è un problema di velocità, poiché richiede esposizioni più lunghe per un segnale sufficiente al rumore.
Joe,

@Joe, questo è un effetto collaterale dell'obiettivo che metti davanti al sensore che non genera raggi perfettamente paralleli su tutta la superficie del sensore, non un problema con il sensore stesso. Potresti aggirare ciò rendendo gli obiettivi (e il cerchio dell'immagine) molto più ampi, aumentando il peso, le dimensioni e quindi il costo del tuo sistema ancora di più.
jwenting,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.