Cosa succederebbe se una fotocamera utilizzasse colori primari completamente diversi?


11

Quindi, come molti sanno, gli umani hanno tre coni cellulari, che ci permettono di vedere tre distinti colori "primari", che possono combinarsi per formare l'intero spettro che siamo in grado di vedere. Nel frattempo, molti altri animali hanno quattro o più cellule coniche, che consentono loro di vedere uno spettro ancora più ampio o più definito.

Ora, le fotocamere digitali registrano in genere la luce utilizzando una serie di "pixel" fotosensibili. I pixel sono generalmente disposti in gruppi di quattro, con due specializzati (utilizzando materiali filtranti) per il verde, uno per il rosso e uno per il blu. Le intensità rilevate da ciascun pixel e poi convertite in un file RGB usando un algoritmo. Le intensità registrate da ciascun pixel specializzato possono essere mappate allo spettro di tonalità di seguito.

inserisci qui la descrizione dell'immagine

Questo è ciò che generalmente desideriamo, poiché l'immagine risultante ha perfettamente senso per i nostri occhi ed è sufficiente per registrare una scena per la maggior parte degli scopi. Ma perché dobbiamo limitare una macchina fotografica a catturare e registrare la luce come la vedono gli umani?

Diciamo che abbiamo cambiato i filtri sui "pixel" fotosensibili per ammettere in modo ottimale lunghezze d'onda diverse, in particolare quelle che normalmente non vediamo, o più ravvicinate in una gamma di colori specializzata che fornirebbe maggiori dettagli. Da lì, potremmo allungare lo spettro della tonalità, con 0/360 come primo colore, 120 come secondo colore e 240 come colore finale.

Sono molto curioso di vedere quale sarebbe il risultato di questo, se per esempio abbiamo scelto le lunghezze d'onda di 800 nm, 400 nm e 200 nm per vedere un po 'di più nell'infrarosso e nell'ultravioletto. Oppure, se avessimo un collage di qualcosa che è apparso blu, potremmo scegliere le lunghezze d'onda di 450 nm, 475 nm e 500 nm per distinguere più facilmente sfumature simili. Un'altra possibilità sarebbe quella di rilevare quattro diverse lunghezze d'onda e mapparle sullo spettro delle tonalità. Ciò consentirebbe qualcosa di simile alla fotografia "tetracromatica".

Ecco un modello di ciò che ci si potrebbe aspettare (modificato per riflettere meglio la domanda):

inserisci qui la descrizione dell'immagine

Ecco alcune cose a cui rispondere:

Lo sta già facendo? In caso contrario, perché no? (Ho già visto la fotografia a raggi ultravioletti e infrarossi, ma di solito è in bianco / nero o nero / magenta. Perché usare una dimensione e perché non allungare lo spettro?)

Cosa esiste in termini di tecnologia di consumo per scattare immagini in questo modo?

Ci sono limiti nella tecnologia a quali lunghezze d'onda possono essere catturate?


5
Le primarie non sono la cosa che pensi che siano. L'occhio umano non ha primarie espresse in "nm". Inoltre, la tua prima illustrazione non è lo spettro della lunghezza d'onda in quanto contiene il rosa che non è nessuno.
Euri Pinhollow,

6
@EuriPinhollow - l'occhio umano ha tre tipi di coni che hanno una risposta di picco in particolare lunghezze d'onda nm. Non sono ancora sicuro che non ci siano altri problemi con la domanda, ma la parte su come l'occhio rileva la luce sembra piuttosto accurata.
AJ Henderson

6
Sembra che tu abbia inventato l' imaging a falsi colori .
Mark

@ aj-Henderson: il posto di picco di risposta non è quello che è primary. Le primarie dell'occhio umano sono inesistenti. La domanda non è corretta ma non riesco a pensare alla modifica che la migliorerebbe.
Euri Pinhollow,

1
@EuriPinhollow Questo sfida tutto ciò che mi è mai stato detto sul perché le primarie additive sono ciò che sono. Hai una fonte?
Kevin Krumwiede,

Risposte:


10

La fotografia a colori si basa infatti sulla teoria dei tre colori. Il mondo vide la prima immagine a colori nel 1861 realizzata con filtri rossi, verdi e blu di James Clark Maxwell. La fotografia a colori di oggi si basa sul suo metodo. Nel 1891, Gabriel Lippmann mostrò immagini a colori usando un singolo foglio di pellicola in bianco e nero, senza filtri, senza coloranti o pigmenti colorati. Questo processo è fallito perché le splendide immagini non potevano essere copiate o duplicate. Negli anni '50 il Dr. Edwin Land della Polaroid Corporation dimostrò che poteva realizzare splendide immagini a colori usando solo due colori (579 e 599 nanometri). Anche questo è caduto a margine.

Gli ingegneri di imaging, molto tempo fa, volevano creare un'immagine usando la porzione non visiva dello spettro. Si scoprì rapidamente che le normali lastre fotografiche e pellicole fotografiche registravano solo la registrazione di luce viola e blu e ultravioletti (da 4 nanometri a 380 nanometri). Hanno scoperto che i film registrano raggi X e infrarossi.

Quali altre parti dello spettro possono essere riprodotte? Immagine degli astronomi tramite frequenze radio I meteorologi e l'industria aeronautica, immagine tramite radar. Il microscopio ottico è limitato a circa 1000X, tuttavia il microscopio elettronico immagini molecole e atomi.

Immaginiamo il corpo umano usando le onde sonore (ultrasuoni). Immaginiamo il corpo umano usando le onde radio (risonanza magnetica, risonanza magnetica).

Ci sono innumerevoli altri modi per immaginare. Inizialmente le immagini realizzate utilizzando la parte non visiva dello spettro venivano presentate solo in bianco e nero. Dopotutto, non possiamo vedere attraverso questa radiazione, quindi qualsiasi immagine grafica che presentiamo sarà una presentazione errata.

Ora i medici che esaminano i raggi X sono alla ricerca di sottili cambiamenti nelle tonalità del grigio. Con la logica del computer possiamo cambiare i toni in bianco e nero in falsi colori per differenziare meglio. Pertanto, i raggi X e il sonogramma moderni vengono visualizzati con falsi colori. Le altre discipline di imaging della scienza seguono l'esempio. Le immagini a falsi colori ottenute dalle porzioni non visive dello spettro sono di routine.


L'imaging a raggi X che proponi è più simile all'osservazione delle ombre sul muro, ma la microscopia elettronica a trasmissione è una "buona macchina fotografica" che focalizza le onde elettroniche invece delle onde fotoniche. Vi sono mancate anche le telecamere a infrarossi, un'altra attrezzatura molto utile.
Crowley,

Ottima risposta, ma inferita dovrebbe essere l'infrarosso, fine del secondo paragrafo.
wedstrom,

7

Lo sta già facendo?

Sicuro. Il telescopio spaziale Hubble rileva lo spettro IR vicino, visibile e UV vicino. Tutte le immagini che vedi da Hubble che contengono informazioni al di fuori dello spettro visibile sono immagini a falsi colori .

Allo stesso modo, le immagini di Chandra, che osserva lo spettro dei raggi X, possono essere visualizzate solo mappando i suoi "toni" allo spettro della luce visibile.

Nel dominio non astronomico, gli scanner a onde millimetriche negli aeroporti mappano i segnali, beh, a portata millimetrica, nel dominio visivo.

Cosa esiste in termini di tecnologia di consumo per scattare immagini in questo modo?

Videocamere FLIR, per uno.

Ci sono limiti nella tecnologia a quali lunghezze d'onda possono essere catturate?

Questa domanda è eccessivamente ampia (ci sono sempre limiti nella tecnologia).


6

Alcune fotocamere di uso generale registrano effettivamente al di fuori dello spettro visibile, quindi c'è una certa esperienza con questo. Leica M8 era notoriamente nota per la registrazione di IR. La gamma estesa ha avuto un impatto negativo sull'accuratezza del colore e Leica ha dovuto fornire ai clienti filtri IR / cut per i loro obiettivi per risolverlo.

L'estensione ai raggi UV è difficile poiché il vetro delle lenti blocca i raggi UV.

L'effetto di catturare uno spettro più ampio contemporaneamente - almeno come visto con la Leica o le fotocamere modificate - non è particolarmente piacevole, interessante o utile. Anche se riesci a elaborare i dati in modo interessante, otterrai un unico trucco.

Ci sono aziende che rimuoveranno i filtri dal sensore, se sei interessato. È possibile utilizzare filtri colorati con spettri diversi sulla parte superiore dell'obiettivo, creare tre esposizioni con filtri diversi e fonderli nel software.


Sony aveva alcune fotocamere che erano così sensibili all'IR che includevano una funzione di visione notturna con illuminazione IR integrata. Sono stati costretti a paralizzarlo a causa di alcuni tessuti quasi trasparenti alla luce IR. Le telecamere venivano usate per vedere attraverso l'abbigliamento femminile.
Mark Ransom,

4

Le intensità registrate da ciascun pixel specializzato possono essere mappate allo spettro di tonalità di seguito.

La matrice Bayer non si associa a nessun colore. L'immagine viene interpolata per produrre un'immagine a colori per pixel, in cui ogni pixel ha un componente R, G e B. Questi componenti RGB possono essere associati a uno spazio colore, come sRGB o adobeRGB, ma la modalità RGB non ha intrinsecamente uno spazio colore.

Diciamo che abbiamo cambiato i filtri sui "pixel" fotosensibili per ammettere in modo ottimale lunghezze d'onda diverse, in particolare quelle che normalmente non vediamo, o più ravvicinate in una gamma di colori specializzata che fornirebbe maggiori dettagli.

La domanda è uno di ciò che costituisce il dettaglio. Se l'obiettivo è eseguire la spettroscopia, non si dovrebbe usare una normale fotocamera ma invece uno spettrometro o uno spettrofotometro.

Ogni filtro aggiunto riduce l'efficienza complessiva del sensore. Una fotocamera RGB ha un'efficienza netta di circa il 20 ~ 25% sulla banda visibile. Una telecamera UV-VIS-IR che utilizza 5 filtri avrà un'efficienza più vicina al 10% rispetto a quella banda, e le bande UV e IR hanno meno luce per cominciare, quindi avranno bisogno di molto più guadagno e saranno più rumorose.

Lo sta già facendo? In caso contrario, perché no?

Sì, si chiamano spettrofotometri. In effetti, viene fatto qualcosa di estremamente simile a quello di cui stai parlando. MastCAM sul rover di curiosità utilizza uno speciale array bayer che emette una significativa luce IR abbinata a una ruota a 8 filtri. La telecamera può quindi eseguire l'imaging a banda stretta a piena risoluzione nell'IR a onde corte a 6 lunghezze d'onda diverse.

È fatto comunemente, no. Al di fuori delle ricerche scientifiche, questo tipo di installazione rende necessaria una fotocamera molto voluminosa con uno schema di metadati più complesso. Queste sono due cose che sono la rovina dei prodotti di consumo.


3

Nota che puoi usare qualsiasi 3 primarie nello spettro visibile e genererai un'immagine accurata (entro i limiti dei tuoi dispositivi di registrazione e visualizzazione) purché il dispositivo di registrazione e il dispositivo di visualizzazione utilizzino le stesse primarie. Ad esempio, la maggior parte delle fotocamere rilasciate negli ultimi 10 anni ha sensori che catturano i colori che si adattano allo spazio dei colori sRGB. E la maggior parte dei monitor viene visualizzata nello spazio colore sRGB (o qualcosa vicino ad esso).

Le fotocamere più recenti (attualmente di fascia alta, ma senza dubbio presto quelle dei consumatori) sono in grado di catturare in uno spazio colore più ampio chiamato DCI-P3. È ancora considerato uno spazio cromatico "RGB" perché le primarie catturate sono ciò che chiameremmo soggettivamente "Rosso", "Verde" e "Blu", sebbene siano diverse dalle primarie sRGB. Diversi display LCD di computer e telefoni cellulari recenti possono ora essere visualizzati anche nello spazio colore DCI-P3. Questi dispositivi acquisiscono e visualizzano una gamma di colori molto più ampia.

Se vuoi vedere come sarebbe catturare con un set di primarie e visualizzarlo in un altro set, puoi utilizzare un filtro di regolazione della tonalità nel tuo editor di immagini preferito. Ruotando la tonalità mostrerai l'equivalente di catturare con un set di primarie e visualizzarlo con un altro.


1

Ci sono limiti nella tecnologia a quali lunghezze d'onda possono essere catturate?

C'è:

Quindi in sostanza tutto lo spettro è stato esplorato.

Ma tutti questi hanno sistemi diversi. Qualcosa da considerare sono la relazione tra lunghezza d'onda e materia, l'atmosfera e più specifico il sensore.

Dai un'occhiata al motivo per cui vediamo "luce visibile" Se la lunghezza d'onda, in particolare, non dovesse superare l'atmosfera superiore, non ci sarebbe alcuna fonte di luce, ovvero luce solare: https://en.wikipedia.org/wiki/File:Atmospher_electromagnetic_opacity.svg l'altra luce che passa è la radio ma è troppo lungo che passa attraverso il nostro corpo.

Le differenze nelle lunghezze d'onda sono esponenziali, quindi sì, ci sono alcuni problemi tecnologici relativi a quali onde elettromagnetiche qualcosa può percepire, con i nostri occhi o strumenti.

Cosa esiste in termini di tecnologia di consumo per scattare immagini in questo modo?

infrarosso

Una semplice domanda è che puoi avere film e filtri vicino all'infrarosso per sperimentare e puoi adattare il tuo dlsr: /photo//search?q=infrared

Ci sono alcune telecamere e obiettivi per la visione notturna.

È possibile acquistare una termocamera ad infrarossi lontani ma non è un prodotto "di consumo" perché costoso.

UV Dubito che sia legale sparare un raggio di luce più enrgetico alle persone. Ricorda che alcune lunghe esposizioni alla luce UV possono bruciare, prima di tutto la tua retina. quindi è necessario un ambiente con scarsa illuminazione per utilizzare un UV a bassa potenza. Le immagini "Blacklight" sono riflessi indotti dai raggi UV, quindi sì, puoi anche farlo. https://en.wikipedia.org/wiki/Ultraviolet_photography

Ho già visto la fotografia a raggi ultravioletti e infrarossi, ma di solito è bianco / nero o nero

Se non riesci a vederlo è un'interpretazione . I googles della visione notturna sono normalmente verdi perché i nostri occhi sono più sensibili al verde e quando un soldato rimuove l'obiettivo i suoi occhi si adattano più facilmente all'oscurità. Se hai una visione in bianco e nero, il tempo per l'occhio di adattarsi all'oscurità sarebbe molto più lungo.

Perché usare una dimensione?

L '"immaginalità 3D" dei colori "primari" è dovuta al modo in cui il nostro cervello percepisce la luce. Il magenta non è nello spettro visibile, non ha lunghezza d'onda associata ad esso. Il nostro cervello lo interpreta come magenta.

In realtà lo spettro di lunghezze d'onda elettromagnetiche è unidimensionale. È bidimensionale se usiamo l'intensità come seconda dimensione per produrre immagini.

Perché non allungare lo spettro?

Noi abbiamo a strech spettro. O lo vediamo o no. Un'immagine in bianco e nero è in realtà una ricompressione di una lunghezza d'onda che non vediamo nello spettro limitato che vediamo.

Di certo potresti creare una macchina digitale Xray per visualizzare i colori magenta, avevo un vecchio monitor CTR che lo faceva da solo. Ma questo è più un aspetto psicologico che tecnico.

Ma in alcuni campi come le immagini termiche lo spettro dei colori viene utilizzato per rilevare le differenze di temperatura, quindi attualmente è fatto.

Per quanto riguarda il perché non modificare o meno lo spettro della luce visibile, penso che sia un'interpretazione totalmente artistica, quindi puoi fare quello che vuoi.

Ma

D'altra parte sarebbe interessante avere un simulatore di tetracromia delle poche persone che ce l'hanno, simile a come abbiamo simulatori di daltonismo come questo: http://www.color-blindness.com/coblis-color-blindness- simulatore/


0

Sto leggendo un libro davvero interessante chiamato "Vision and Art, the Biology of Seeing" di Margaret Livingstone. Non ne ho ancora finito, ma i capitoli che ho letto finora parlano di come l'occhio percepisce il colore, di come i colori si fondono (sia la luce che i pigmenti) e quali sono i limiti e perché. Può aiutare a rispondere ad alcune delle tue domande su come funziona l'occhio e quali sono i limiti delle capacità fotografiche.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.