Come catturare la scena esattamente come i miei occhi possono vedere?


30

Quali impostazioni della mia fotocamera DSLR emuleranno la scena esattamente come posso vedere a occhi nudi?

Penso che non sia possibile ottenere il contrasto e i colori esattamente come i miei occhi possono vedere, e può variare da persona a persona. Quindi, sono più interessato alla lunghezza focale dell'obiettivo. Se qualcuno può fornire ulteriori informazioni oltre la lunghezza focale, sarò felice di saperlo.

Ad esempio, se mi trovo in riva al mare e voglio catturare l'alba, quale dovrebbe essere la lunghezza focale in modo da poter coprire l'angolo di vista che i miei occhi possono vedere, e quindi la dimensione degli oggetti nella foto sarà esattamente come i miei occhi lo percepiscono?

La mia fotocamera è una Canon EOS 1000D APS-C. Ho 50mm 1.8 e 70-300mm Sigma, può essere raggiunto attraverso questo obiettivo dell'attrezzatura? Fino ad ora, non sono stato raggiunto o soddisfatto di ciò che vedo e di ciò che ottengo.


Hai una full frame (FX) di crop (DX, 1.6x) DSLR?
Philippe Lavoie,

sicuramente modificherò la mia domanda, ho dimenticato quel fattore. Ho canon eos 1000D, che non è un full frame. fattore di ritaglio di 1,6 volte
sabato

1
Che dire dei media destinati a fornire l'immagine agli occhi degli altri? Grande o piccolo? Schermo o carta? ...
mouviciel,

Interessante - questo è finito come una forma più generale di photo.stackexchange.com/questions/8043/…, nel senso che il cervello dei nostri spettatori gioca un ruolo enorme nelle loro percezioni delle foto. Grandi risposte qui.
D. Lambert,

1
@mouviviel - I media hanno lo scopo di fornire ai miei occhi dopo aver scattato la foto, Informazioni, Schermo e carta, Se lo schermo è calibrato correttamente Penso che possiamo aspettarci quasi la stessa cosa sullo schermo in Carta, Fondamentalmente Schermo e carta entrambi: D
sabato

Risposte:


38

Beh, odio dirtelo, ma non puoi esattamente emulare i tuoi occhi. Ci sono alcuni motivi, mi spiego.

  1. Gli umani vedono una risoluzione molto più alta nella fovia centrale (parte centrale dei nostri occhi) rispetto ai bordi. Le telecamere hanno una risoluzione uniforme ovunque.
  2. La gamma dinamica è gestita in modo diverso tra telecamere e umani. Non posso spiegarlo, ma una scena sembra avere una gamma più dinamica per un essere umano rispetto a una fotocamera, sebbene tecnicamente una telecamera abbia una gamma più dinamica.
  3. Gli umani vedono in 3 dimensioni.
  4. Gli umani cambiano i loro punti focali molto rapidamente, al punto che in realtà non notiamo le porzioni sfocate della maggior parte delle scene.
  5. La forma della visione umana è molto diversa da una fotografia. Le fotografie risultano tipicamente rettangolari, con una certa dimensione, la visione umana ha una forma più curva, sebbene sia difficile da quantificare dal modo in cui il nostro cervello gestisce i segnali.

Nonostante tutto, lasciatemi dire che dipende se si desidera concentrarsi su un'area specifica o sulla scena più ampia intorno. Se vuoi l'area specifica, probabilmente dovresti andare a circa 150 mm circa. Per quanto riguarda un paesaggio drammatico, qualcosa di più simile a un 24 otterrà il tuo intero campo visivo. Un numero comunemente citato è 50mm, che ti permetterà di vedere la porzione di risoluzione più alta dei tuoi occhi e poi alcuni, ma non l'intero campo, e di solito è un buon compromesso. (Tutti presuppongono che tu abbia una fotocamera full frame, se la tua è un sensore di ritaglio, dividi per il fattore appropriato)


Ok, non ero soddisfatto di questa situazione, in cui ho scattato una foto dell'alba usando 50mm 1.8, la dimensione del sole era molto più piccola nella foto rispetto a quella che ho visto in realtà, quindi penso che dovrò regolare la lunghezza focale intorno 90-100mm per ottenere la dimensione corretta. Grazie.
sabato

1
Come ho detto, l'occhio ha varie regioni di sensibilità. È un peccato che non riesci davvero a ottenere il FOV e la percezione, è davvero incredibile ciò che i nostri occhi e la nostra mente possono fare, quindi ...
PearsonArtPhoto,

1
te ne sei dimenticato uno: l'occhio (i) umano ha un campo visivo diverso dall'immagine generata dalla maggior parte delle telecamere (potrebbero esistere telecamere altamente specializzate). Non vediamo il fattore di forma 4/3 o 2/3.
jwenting

Anche l'immagine che "vedi" nel tuo cervello è sostanzialmente attraversata da una pila di 1000 filtri, post-processori e una sessione decente di Photoshop.
Hobbamok,

36

L'occhio si muove

Vorrei aggiungere alla risposta di @Pearsonartphoto, che gli occhi umani non vedono una scena fissa, ma la scansionano continuamente, regolando la loro "apertura" e riorientando mentre la scansionano. Quindi grazie a questo processo di scansione possiamo percepire :

  • la gamma dinamica più alta,
  • un'infinita profondità di campo,
  • una scena più ampia nel suo insieme,
  • molti più dettagli di quanti ne possano vedere una "risoluzione" dell'occhio fermo.

Quindi ciò che "vediamo" è il risultato della "post-elaborazione" di un flusso di immagini, 30-70 immagini al secondo. Vedi movimento degli occhi .

La fotocamera è ferma

La telecamera non è in grado di simulare ciò che l'occhio vede, perché gran parte di ciò che l'occhio vede è il nostro processo di vedere e pensare alla scena, e molto accade nel cervello, non solo nell'occhio.

Ma puoi scattare foto che producono una certa, desiderata impressione nella persona che le vede. Ed è qui che inizia l'arte , perché devi provocare certi sentimenti in un'altra persona per mezzo di un oggetto colorato piatto.

Più tecniche di immagine

PS Alcune tecniche popolari nella fotografia digitale in realtà cercano di recuperare di più da più immagini sequenziali come fa la visione umana. Queste tecniche includono:

  • cuciture panoramiche (mosaico di più immagini per coprire un angolo di visione più ampio e aumentare la risoluzione),
  • fusione dell'esposizione e tecniche HDR (sovrapposizione di più immagini per aumentare la gamma dinamica),
  • focus stacking (accatastamento di più immagini per aumentare la profondità di campo) (altro) .

Lo hai riassunto bene, la migliore risposta di gran lunga.
Labnut

27

Catturare un'immagine esattamente come i tuoi occhi la vedono? Nessun problema, ma non è tutto nella fotocamera, dovrai fare un po 'di lavoro in post. E quasi certamente non è quello che vuoi davvero.

Innanzitutto, avrai bisogno di un obiettivo fisheye circolare che vignetta male con il quale scattare le foto. (In realtà avrai bisogno di diverse foto e di un sistema di visualizzazione con rilevamento degli occhi integrato che può capovolgere le immagini mentre l'occhio si muove.) Nessuno fa un obiettivo che funziona in modo altrettanto grave dell'occhio umano (almeno, nessuno ne fa uno simile apposta e lo mette in vendita come obiettivo fotografico), quindi il resto dovrà avvenire per posta.

Innanzitutto, dovrai tagliare l'immagine in alto. Esattamente dove varierà, ma è lì che il tuo sopracciglio si frappone. Quindi dovrai eseguire un rilevatore di bordi: in Photoshop, il filtro Schizzo-> Bassorilievo funzionerà bene. Metti il ​​risultato su un livello separato impostato per moltiplicarlo: lo unirai in un secondo momento, ma per ora puoi nascondere il livello.

Quindi, seleziona una sezione al centro dell'immagine, circa l'uno o il due percento dell'intera immagine, sfumando la selezione di venti o trenta pixel, quindi copia quella selezione su un livello separato.

Ora esegui un filtro sfocatura pesante sull'immagine originale. Vuoi essere in grado di vedere i colori, ma nessun dettaglio reale. Unisci il bassorilievo sull'immagine sfocata. Quindi unisci il livello creato dalla selezione. Ora dovresti avere un'immagine circolare con la parte superiore tagliata, i bordi non definiti, nessun dettaglio dell'immagine reale sulla maggior parte dell'immagine, ma con i bordi degli elementi originali che chiedono attenzione e una piccola area nel mezzo (circa dieci percento della larghezza e dell'altezza) con messa a fuoco relativamente nitida.

Non hai ancora finito. È necessario creare una selezione circolare di circa la metà dell'area a fuoco, appena sotto e su un lato, e sovrapponendo leggermente l'area di messa a fuoco. Sfumare bene la selezione, quindi riempirla di nero.

Crea un nuovo livello di sovrapposizione, riempilo con il 50% di grigio e aggiungi circa il dieci percento di rumore gaussiano monocromatico, quindi dagli una buona sfocatura. Unisci quello.

Ora hai un'immagine che si avvicina a ciò che effettivamente vedi con l'occhio fisso. In realtà è molto meno distorto di quello che vede l'occhio, ma aggiungere tutte le piccole convoluzioni che si verificano a causa del diverso spessore dei fluidi sulla superficie dell'occhio in un dato momento è un sacco di problemi da affrontare per questo esercizio .

Qualsiasi altra cosa che pensi di vedere proviene dal tuo cervello, non dai tuoi occhi. Quel punto nero? Ne hai uno per ogni occhio e il tuo cervello riempie i dati mancanti. Il vasto mare di dettagli? Cuciture panoramiche nella corteccia visiva. Nitidezza di qualsiasi tipo? Media di più "esposizioni". Abbiamo anche un sistema di apertura automatico e facciamo "spostamento ISO" al volo a seconda di ciò a cui stiamo prestando attenzione in un dato momento (la nostra gamma dinamica statica non è troppo terribilmente diversa da ciò che la fotocamera cattura - facciamo HDR " in post ").

Quello che vuoi è probabilmente catturare ciò che la tua mente vede, non ciò che i tuoi occhi vedono, e questo è diverso per ogni immagine. Ecco perché producono tutti quei diversi obiettivi. A volte vuoi mostrare un vasto panorama perché è quello che hai visto . Ma anche con un paesaggio enorme, potrebbe essere stato solo un piccolo boschetto di alberi a catturare la tua attenzione. Un ritratto può essere un primo piano ravvicinato o può coinvolgere l'intero ambiente del soggetto - di nuovo, tutto dipende da ciò che hai visto nell'occhio della tua mente, non da ciò che hai visto con l'occhio reale. Lo stesso vale per la profondità di campo: guardavi l'intera scena o prestavi attenzione a un piccolo dettaglio in un contesto più ampio?

In altre parole, questa non è una domanda a cui è possibile rispondere direttamente. La risposta è, e sarà sempre, "dipende". Sperimentare. Pratica. Conosci i tuoi strumenti e quello che fanno, e alla fine saprai esattamente cosa devi fare per catturare non ciò che era effettivamente lì, ma ciò che hai visto. Ansel Adams lo ha definito previsualizzante , e ha trascorso molto tempo a sviluppare un sistema formale che gli avrebbe permesso di catturare sul film ciò che vedeva con la sua mente e il suo cuore, non con i suoi occhi.


4
Mentre questo forse inizia un piccolo capovolgimento, finisce per essere una risposta bella e meravigliosa. Complimenti.
termina il

1
Caspita, mi sono perso leggendo le cose di Photoshop poi alla fine è stato un buon consiglio :) TY.
sabato

2
Cosa, niente galleggianti ?!
Junkyardsparkle,

Il processo di Photoshop è un'eccellente descrizione della scarsa qualità dell'immagine che l'occhio vede effettivamente, fissata sul posto. Ma non è riparato e il cervello ricama tutto insieme.
Doug,

10

Uno dei problemi con il tentativo di emulare la vista umana in una fotografia è il campo visivo .

La prospettiva che vediamo, che è una funzione della lunghezza focale relativa, è per la maggior parte dei conti approssimativamente la prospettiva di un obiettivo da 50 mm su un sensore full frame o 32 mm su un sensore DX, ma il problema non è la prospettiva, è il campo visivo. Pensa all'immagine che vedi a 50 mm e ora estendi il campo visivo come faresti quando scatti un panorama.

Se scattaste una fotografia "umana", vedreste quasi 180 gradi in orizzontale e circa 120 gradi in verticale, mantenendo comunque la prospettiva della lunghezza focale media.

Prendi questo diagramma grezzo dell'occhio (verde) e un sensore reflex digitale (blu). Noterai che la lunghezza focale è esattamente la stessa per entrambi i mezzi, circa 17 mm, ma l'angolo a cui la retina si estende attorno è molto più di quello del sensore.

Campo visivo

Vede un campo visivo più ampio, con la stessa lunghezza focale. Questo è il motivo per cui un sensore DX equivale al campo visivo 1,6 volte più piccolo di quello del sensore 35mm, ma alla stessa lunghezza focale, la prospettiva non cambia. Cattura semplicemente un'area più piccola della scena.

I panorami sono un modo per emulare il campo visivo di qualcosa come l'occhio umano mantenendo la prospettiva più piatta e più realistica.


Il prossimo numero è la gamma dinamica . Una gamma dinamica media di sensori digitali di dimensioni SLR è di circa 11 stop di luce. Ciò significa che può registrare la differenza tra 11 doppi in intensità luminosa. 1, 2, 4, 8, 16, 32, ecc. Quanto è precisa un'altra storia. 14 bit è meglio di 12 e 12 è meglio di 8 bit, ma l'analogico è persino migliore del digitale a 14 bit.

Mentre un corpo professionale full frame in grado di catturare fino e oltre 13 fermate in una buona giornata è considerato impressionante dagli standard moderni, non si avvicina nemmeno all'occhio umano.

L'occhio umano è talvolta in grado di distinguere la differenza tra circa 18-20 stop di intensità, in una misurazione molto grezza. Ciò significa che l'ombra nera che la tua videocamera vede potrebbe essere facilmente osservata nei dettagli dall'occhio umano, allo stesso tempo nel vedere dettagli luminosi nella scena . È qui che la gamma dinamica di un sensore digitale attualmente diminuisce.

Semplicemente non è in grado di distinguere intensità di luce così selvaggiamente diverse allo stesso tempo. A volte è così male che si deve esporre sia per le luci o esporre per le ombre e succhiare in su, anche quando i vostri occhi possono vedere entrambi bene.

L'HDR è un modo per emulare la gamma dinamica dell'occhio umano, ma è ancora limitato dai mezzi su cui viene visualizzato e dal modo in cui viene elaborato.


Un altro problema è che mentre per noi è una passeggiata nel parco poiché i nostri cervelli sono progettati per vedere in questo modo, solo la fovea vede in dettaglio. La visione periferica è piuttosto non dettagliata, ed è principalmente lì per vedere il movimento, che può aiutarci a identificare che le cose stanno accadendo intorno a noi o avvertirci del pericolo e innescare la risposta di lotta o fuga.

Se si simulasse questo in una fotografia, l'immagine avrebbe una piccola area di messa a fuoco al centro e l'immagine si sfocerebbe rapidamente mentre ci si sposta verso i bordi.


Ci sono altri problemi che non ho toccato o che non conosco di me stesso, ma penso che alla fine una fotografia non abbia davvero lo scopo di "emulare" l'esperienza umana, ma di catturare un momento, di creare una risposta o un'emozione, o per catturare ricordi, o per ottenere una grossa paga da un cliente :)


Quindi intendi dire che il bambino dà di meglio o dice un effetto reale a ciò che vediamo? perché si concentrerà su un punto e altre cose sfocate?
sabato

Cosa intendi?
Nick Bedford,

1
Suppongo di sì. Immagino che la vera domanda sia se dovresti o non dovresti farlo. La pura simulazione significherebbe che offusceresti l'area esterna della foto, ma se riuscissi a far esplodere la foto finale per adattarla alla tua visione, allora ... la tua visione prenderebbe la sfocatura, se capisci cosa intendo.
Nick Bedford,

ok. Sperimenteremo un po 'la prossima volta :)
sabato

0

Il tuo cervello può adattarsi ai segnali provenienti dalle cellule sensibili alla luce nell'occhio in modo da poter avere una gamma dinamica più alta dai tuoi occhi di quanto sia possibile dalle tue cellule della fotocamera. Fino a quando non ci sono sensori per fotocamere intelligenti in grado di spegnerne uno che hanno avuto abbastanza luce su di loro, avrai difficoltà a ottenere la portata di cui hai bisogno.

Suggerirei di realizzare un HDR di una scena, ma spingendo leggermente il sotto e il sovraesposizione in modo che appaia ancora naturale.


Bene, c'è la priorità del tono di evidenziazione (come la chiama Canon; probabilmente esiste anche con nomi diversi per marchi diversi), ma non è esattamente ciò di cui stai parlando qui. Mi piacerebbe un sensore che in qualche modo avesse una curva di risposta logaritmica per sito fotografico dopo aver
raggiunto

0

Bene, perché non mettere semplicemente l'obiettivo da 70-200 mm e ingrandire fino a quando l'immagine sul tuo LCD non ha le stesse dimensioni della vista dell'occhio senza la fotocamera. L'obiettivo leggerà quindi a che lunghezza focale sei vicino. O semplicemente usa il mirino. Un attento studio della vista effettiva, della vista LCD e della vista Mirino ti porterà lì, ma avrai bisogno di un treppiede e almeno 10 minuti. Potresti trovare che il tuo set eccelle solo a determinate distanze ... le 3 viste si abbinano in modo soddisfacente. A quel punto puoi prendere in considerazione un acquisto di lenti. Un'altra cosa dopo la corrispondenza della scala sarà la corrispondenza tonale al tuo occhio. Le telecamere fanno schifo nel vedere l'ombra in generale. Sembra una buona idea aggiungere un filtro di oscuramento neutro e aggiungere alcune fermate per compensare l'obiettivo è quello di schiarire le ombre mantenendo addomesticate le luci. Ciò potrebbe comportare che i momenti salienti non siano così "spenti" mentre le ombre sono completamente nere se l'esposizione fosse semplicemente aumentata. Anche un filtro UV sembra importante. Successivamente è possibile regolare le funzioni di elaborazione della fotocamera per modificare e rendere predefinite queste impostazioni. Ho appena menzionato qui cosa avrei provato. Spero che sia di aiuto.


Il problema principale nel fare questo è che l'aspetto di un'immagine è determinato da molto più della lunghezza focale e del colore, inclusi distanza di visione, media e condizioni di visione. Come è stato detto in alcune risposte, una fotocamera non può replicare ciò che viene visto dall'occhio.
Dannate verità
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.