Qual è lo scopo della correzione gamma negli schermi di oggi e come si collega alla grafica e alla fotografia?


15

Mi sto confondendo abbastanza con lo scopo della correzione gamma e la relazione tra immagini con correzione gamma e immagini non corrette in termini di grafica e fotografia, nonché la gestione del colore in generale (conversione da RGB lineari a spazi RGB con correzione gamma e quindi visualizzandola sul schermo).

Da molte fonti, principalmente http://www.guillermoluijk.com/article/gamma/index.htm e domanda n. 23026151 su StackOverflow (Devo correggere la gamma cromatica dell'output a colori finale su un moderno computer / monitor?) , I ' sono giunto alla conclusione che:

La correzione gamma è stata originariamente progettata per compensare la risposta non lineare dei monitor CRT al segnale di ingresso. I CRT non sono stati in grado di amplificare da soli il segnale in ingresso e quindi il segnale in uscita dal PC doveva essere regolato dando origine alla correzione gamma 2.2 standard (e oggi) e allo spazio colore sRGB.

Gli schermi moderni , tuttavia, non soffrono della perdita di segnale come hanno fatto i CRT. Anche loro possono mostrare alcune non linearità, ma dato che il segnale in ingresso è spesso trasportato solo da 8 bit per canale (256 sfumature), dovrebbero essere in grado di compensare alcune non linearità nella loro riproduzione del colore in quanto probabilmente sono capaci di riprodurre più di 256 sfumature in un canale. Ciò significherebbe che la correzione gamma insieme a sRGB e tutti gli spazi colore con correzione gamma sono solo un retaggio dell'era CRT e il suo unico scopo era di visualizzare il segnale di input in modo lineare.

Ci sono anche articoli che affermano che la correzione gamma è qui per compensare la non linearità della visione umana(CambridgeInColour.com - Comprensione della correzione gamma) che dovrebbe corrispondere all'incirca alla curva gamma in quanto siamo in grado di individuare piccole differenze nelle tonalità più scure, ma non fare altrettanto bene con quelle più luminose (la luminosità di un punto deve crescere esponenzialmente per farlo appare più luminoso). Non è così che i sensori della fotocamera registrano la scena. I dati grezzi da un sensore sono ottenuti in RGB lineare e sviluppati in uno spazio cromatico RGB con correzione gamma (ombre sollevate e luci scurite). La correzione gamma era pensata per compensare la perdita del segnale di uscita, quindi ciò che credo facciano gli schermi moderni è semplicemente simulare il comportamento dei CRT per annullare la correzione gamma e visualizzare la scena proprio come è stata catturata dalla telecamera - in termini approssimativi, mappando la telecamera tonalità 1: 1 a quelle dello schermo. Bene,

Significa quindi che ogni sfumatura in qualunque spazio cromatico RGB dovrebbe avere esattamente gli stessi valori RGB in ogni altro spazio RGB incluso RGB lineare (es. # 010A1F in sRGB si traduce esattamente in # 010A1F in RGB lineare in termini di memorizzazione in un file bitmap con 8bpc) e dipende solo dallo schermo e dall'adattatore grafico come organizzare il trasferimento del colore e se entrambi i lati devono eseguire ulteriori calcoli per convertire l'immagine nello spazio colore di destinazione? In altre parole, la modifica dello spazio colore in un editor grafico non ha in realtà nulla a che fare con i valori RGB stessi, prende nota solo del nuovo spazio colore nei metadati dell'immagine? Credo che questo non sia il caso perché la gestione del colore in quanto tale sarebbe resa inutile laddove viene utilizzata la scheda grafica digitale / l'interfaccia dello schermo - la scheda grafica potrebbe semplicemente inviare semplici dati RGB indipendentemente dallo spazio colore utilizzato poiché nessun guadagno analogico (gamma) sarebbe applicato ai valori che vanno su una scala lineare da 0 a 255. Anche la gamma dei diversi profili di colore sarebbe la stessa se non venissero introdotti errori di arrotondamento, o?

La mia ultima confusione deriva forse dall'incomprensione della conversione del profilo colore e dalla tabella dei livelli di esposizione (la prima) nell'articolo http://www.guillermoluijk.com/article/superhdr/index.htm (che può essere tradotto usando Google Traduttore). Capisco correttamente che i valori lineari vengono trasformati usando una funzione esponenziale (o gamma inversa), riducendo la gamma tonale verso le ombre e scurendo così l'immagine? È questo che succede se salviamo RGB lineare e lo presentiamo come immagine con correzione gamma sullo schermo del computer?

Mi scuso per aver posto una domanda così complessa, ma è molto difficile trovare una fonte di informazioni davvero valida che spieghi tutte le incertezze che sorgono. Grazie in anticipo per qualsiasi risposta che possa aiutare a correggere il mio malinteso.


4
Potresti voler provare a condensare questa domanda. Mentre è ancora possibile rispondere dal solo titolo, penso che modificarlo sarebbe un buon modo per aiutarti a capire l'argomento da solo.
JenSCDC,

1
Sto iniziando a lavorare su una risposta, in gran parte perché mi sono reso conto di essermi dimenticato molto, e rispondere alla domanda di qualcuno è un buon modo per riapprenderla.
JenSCDC,

Il motivo principale è semplicemente la retrocompatibilità. Volete essere in grado di utilizzare lo stesso computer e lo stesso software con vecchi monitor CRT e moderni monitor LCD. Il software continua a fare la stessa cosa di una volta: crea immagini nello spazio colore sRGB. Questo, ovviamente, include la solita correzione gamma. Quindi i vecchi monitor CRT useranno le immagini così come sono, mentre i moderni display "annullano" sostanzialmente la conversione da uno spazio colore lineare a uno spazio colore sRGB.
Jukka Suomela,

E come si collega alla fotografia: dati gli strumenti giusti, non lo fa. La correzione gamma (e più in generale le conversioni tra vari spazi colore) avviene automaticamente; gli utenti normali non dovrebbero essere in grado di vederlo affatto. È solo un tecnicismo che i programmatori di computer dovranno conoscere, ma gli utenti finali non devono assolutamente saperlo. (A meno che, naturalmente, non si desideri inserire esplicitamente qualcosa di simile a valori di colore esadecimali nello spazio colore sRGB, nel qual caso molto probabilmente si sa cosa si sta facendo.)
Jukka Suomela

Risposte:


10

da Charles Poynton "La riabilitazione della gamma" :

Idea sbagliata: la non linearità di un monitor CRT è un difetto che deve essere corretto.

Fatto: la non linearità di una CRT è quasi l'inverso della sensibilità alla leggerezza della visione umana. La non linearità fa sì che la risposta di una CRT sia approssimativamente uniformemente percettivamente. Lungi dall'essere un difetto, questa funzione è altamente desiderabile.

Idea sbagliata: lo scopo principale della correzione gamma è compensare la non linearità della CRT.

Fatto: lo scopo principale della correzione gamma in video, grafica desktop, prestampa, JPEG e MPEG è codificare i valori di luminanza o tristimolo (proporzionali all'intensità) in un dominio percettivamente uniforme, in modo da ottimizzare le prestazioni percettive di un numero limitato di bit in ciascun componente RGB (o CMYK).

anche il resto dell'articolo è molto illuminante :)


La scena in Natura è in gamma lineare e dovrebbe essere presentata su uno schermo o su un foglio allo stesso modo, con un piccolo aumento di gamma per compensare il bagliore - di solito gamma 1.1 o 1.2.
Iliah Borg,

1
La tesi di dottorato del Dr. Poynton è ora online: poynton.ca/PDFs/Poynton-2018-PhD.pdf . I capitoli 3 e 4 trattano le curve classiche, il capitolo 8 introduce l'OETF "Barten Lightness" che ha la stessa forma della curva Dolby PQ (SMPTE-2084). All'estremità superiore della scala si trasforma senza soluzione di continuità da una gamma in una curva di registro, che è quello che ci aspettavamo effettivamente. L'intero libro è molto illuminante!
Jeroen van Duyn,

7

Considera questo esempio di Cambridge in Color :

inserisci qui la descrizione dell'immagine

Applicando la codifica gamma, siamo in grado di rappresentare l'immagine originale in modo più accurato, con la stessa profondità di bit (5, in questo esempio).

Ciò si ottiene utilizzando i 32 livelli in un modo che corrisponde più da vicino all'occhio umano. In altre parole, è una forma di compressione. I file JPEG, ad esempio, possono effettivamente memorizzare circa 11 stop della gamma dinamica nonostante utilizzino solo 8 bit per canale.

E come qualsiasi altra forma di compressione, non importa se non ti interessa la dimensione del file (e la velocità inferiore con cui puoi leggere o scrivere file più grandi). In teoria, potresti utilizzare un formato simile a JPEG che utilizzava la gamma lineare, se volessi assegnare 11 bit a ciascun canale anziché 8.

Quindi, per riassumere, la gamma è solo una forma di compressione: riduce le dimensioni del file necessarie per memorizzare una certa quantità di informazioni man mano che l'occhio le percepisce. In alternativa, consente di memorizzare gradazioni più sottili nella stessa profondità di bit.


7

Sono un ex tecnico della radiodiffusione e attualmente lavoro in film e televisione come montatore e supervisore di VFX.

Molte affermazioni qui non sono corrette. La gamma nel percorso del segnale è un vantaggio desiderato e una scelta progettuale da parte dei primi ingegneri video per ridurre il rumore percepito nella trasmissione.

Tutti i tubi a vuoto, inclusi i CRT, presentano varie non linearità (vedi la legge di Langmuir-Child) I CRT possono variare da una "gamma" da 1,5 a oltre 3,5 (se pilotati da un segnale di tensione) a seconda delle diverse differenze di progettazione. Le non linearità erano meno un problema con il monocromio, ma sono diventate più critiche con il colore, quindi l'NTSC ha specificato una gamma del segnale di 1 / 2.2. La progettazione CRT e i circuiti di supporto regolano la gamma effettiva dalla legge di Langmuir-Child (comunemente intesa come 1,5, ma in genere è più alta con le CRT a causa di una serie di fattori) a un livello in linea con una "gamma" di percezione umana di ~ 2,5. Per NTSC, si presumeva che il televisore avesse un obiettivo gamma di ~ 2,4, ** mentre PAL indicava ~ 2,8

La gamma più alta nei vecchi standard del segnale di trasmissione analogica è specificamente per ridurre il rumore percepito, in base alla percezione umana non lineare. In questo caso d'uso, sfruttando le non linearità per nascondere il rumore dall'effetto "companding" della gamma che codifica il segnale. Questo è abbastanza accademico.

Ci sono alcuni modi in cui il design di TV e monitor CRT avrebbe potuto essere modificato per ottenere linearità rispetto a una curva di tipo gamma, ma una curva gamma nella trasmissione analogica ha ridotto il rumore apparente di 30 dB. La gamma era desiderabile allora COME È ORA .

La gamma è necessaria anche se un monitor LCD potrebbe essere utilizzato in modo lineare (gamma 1.0). Le affermazioni qui che la gamma non è più necessaria sono a castello completo e non riescono a comprendere lo scopo attuale di applicare una curva di pre-enfasi.

La gamma è ciò che consente a sRGB (o Rec709) di apparire "buono" anche se la profondità di bit è di soli 8 bit per canale. Ecco un esempio:

Questa è un'immagine in sRGB, 8 bit, con pre-enfasi gamma (cioè normale immagine web). normale

Ecco come apparirebbe quell'immagine senza il beneficio della gamma (cioè se fosse valori lineari e visualizzazione lineare, nessuna pre-enfasi sulla gamma). cattivo

Gamma offre PIÙ BIT nelle aree più scure per gradienti più fluidi e rumore più basso.

Se vuoi essere totalmente lineare, l'intero percorso del segnale dovrebbe richiedere almeno 12 bit per canale. 8 bpc NON È ABBASTANZA. La codifica con una curva e la decodifica sul display consentono l'uso di un blocco di dati più piccolo di un byte per canale di colore.

Nel film, utilizziamo linear come area di lavoro , ma quando lavoriamo con linear ci troviamo in virgola mobile a 32 bit per canale . Quando scambiamo file di immagini lineari usiamo EXR Half, che è a 16 bit per canale float. (E se utilizziamo file DPX a 10 bit, i dati dell'immagine vengono codificati usando una curva LOG).

MA

I monitor dei computer che utilizziamo sono ancora a 8 o 10 bit PER DISPLAY, quindi tutte le immagini lineari devono ancora essere regolate in base alla gamma prima di essere inviate al monitor. Perché?

La maggior parte dei monitor "buoni" sono solo 8 bit per canale, e molti sono solo "6 bit interni", il che significa che prendono un'immagine di 8 bit per canale e visualizzano come 6 bit per canale. Come possono fare un'immagine accettabile?

GAMMA!

I monitor da 10 bit per canale sono rari e costosi (come il mio NEX PA271W). Il mio NEC può ricevere un segnale a 10 bit e utilizza un LUT interno a 14 bit per il profiling. Ma 10 bit non sono ancora sufficienti per linear!

Gamma o qualche forma di curva preemph / deemph è richiesta anche per 10 bit. 12 bit è il minimo indispensabile per una visualizzazione lineare ragionevole, e anche in questo caso è inaccettabile per l'industria cinematografica.

Usiamo proiettori a 12 bit per DCDM (Digital Cinema) e indovinate un po '? Non solo DCDM utilizza CIE X´Y´Z´, ma utilizziamo anche una gamma di proiettori 2.6 !!!

DCI è stato creato per i teatri ed è un proprio ecosistema chiuso, senza fare affidamento su vecchie tecnologie come CRT. Se ci fosse qualche "vantaggio" nell'usare uno spazio lineare (gamma 1.0), sarebbe stato usato, ma non lo è.

Linear NON viene utilizzato nel cinema digitale perché ADVANTAGE utilizza una curva gamma .

Quindi, per favore, smetti di dire che usiamo la gamma solo per motivi legacy, perché è falso.

Si prega di leggere Poynton sull'argomento , mentre chiarisce questi problemi in modo facile da capire.

Grazie per aver letto.

Nota a piè di pagina: ** Mentre l'NTSC ha specificato una gamma del segnale di 1 / 2.2, ci si aspettava che i televisori avessero una gamma di 2,4 per un guadagno della gamma del sistema. È utile sottolineare che Rec709 (HDTV) e sRGB sono identici ad eccezione della curva di trasferimento. È interessante notare che Rec709 (tramite BT1886) specifica una "gamma di visualizzazione fisica" di 2,4 (ovvero la gamma del monitor stesso) e i monitor sRGB sono in genere impostati su 2,4 o superiore (i sondaggi mostrano che la maggior parte degli utenti li imposta da 2.5 in su). Ma la gamma SIGNAL è diversa, ca. 1 / 2.2 per sRGB e circa 1 / 2.0 per Rec709. in entrambi i casi, esiste un guadagno gamma del sistema intenzionale basato sull'ambiente di visualizzazione previsto.


Mi sono sempre chiesto perché l'industria audio non usi lo stesso approccio, ma invece lancia 16+ bit per campione ...
Zeus

Ciao @Zeus, ci sono diversi motivi (se fai questa domanda come domanda posso dare una risposta più approfondita). Fondamentalmente, anche a 16 o 24 bit, i flussi audio hanno una larghezza di banda molto inferiore rispetto al video (in generale) e sono più facili da gestire dal punto di vista computazionale. Tuttavia, l'audio utilizza questi tipi di pre-enfasi e de-enfasi in molti casi (in particolare con un bit rate basso). E infatti anche l'udito non è lineare (come ogni percezione) ma l'audio a 8 bit è "una specie di" come il video a 4 bit per canale. Ricorda che il video a 8 bit per canale utilizza un totale di 24 bit per pixel, quindi il confronto con l'audio a 16 bit è di mele / arance.
Myndex,

Grazie @Myndex, sfortunatamente questo sarebbe fuori tema qui come una domanda. Sono solo curioso di sapere perché tale pre-de-enfasi non sia stata utilizzata per l'audio sin dall'inizio, dato che è altrettanto naturale per l'udito che per la vista. A proposito, intendevo ovviamente 16 bit per canale (come su CD); l'audio lineare a 8 bit (che esiste formalmente) è probabilmente più orribile del video lineare a 8 bit del tuo esempio (che non esiste nemmeno come standard). Capisco che i compromessi sono inferiori, ma i benefici sono alti: perdere metà della risoluzione ogni 3 dB sembra folle ...
Zeus

Penso che ci sia un sito relativo allo scambio di stack che potrebbe accogliere domande audio. Indipendentemente da ciò: ogni bit nell'audio a 16 bit equivale a 6 dB (tensione), quindi esiste una gamma dinamica totale di 96 dB. 6 dB (tensione) è "due volte" (o metà) più forte della tensione, MA gli umani tendono a percepire 10 dB come una quantità letterale "la metà più forte". Pre / De emph è stato utilizzato nell'audio sin dall'inizio. I dischi avevano la curva RIAA, il nastro magnetico utilizzava la curva NAB, ecc. Cosa vuoi dire perdere metà della risoluzione ogni 3 dB ???
Myndex,

Nella codifica digitale lineare, metà della tensione è metà dell'intervallo digitale (per definizione), ovvero perdita di 1 bit di risoluzione. Questo è molto per qualcosa che viene percepito come 'un po' più morbido '(-6dB, questa è la cifra che intendevo dire, non 3). Se vogliamo catturare almeno i ~ 35 dB richiesti (per parlato o orchestra), è già una perdita di 6 bit per i suoni più morbidi (e anche in questo caso, se correttamente normalizzati). Sono consapevole dell'enfasi "analogica" (che era un po 'diversa e dipendente dalla frequenza), ma non ho mai sentito parlare di uno usato per il digitale, quindi le mie domande ...
Zeus

3

Ci sono molti articoli confusi sulla correzione gamma con molti vaghi riferimenti alla gamma e alla visione umana. La ragione della gamma è storica e il risultato della curva di risposta dei vecchi monitor di tipo CRT (nulla a che fare con la visione umana). Con i moderni schermi piatti non esiste alcun motivo logico per la codifica gamma e la successiva correzione, ma è diventato uno standard industriale.

La relazione casualmente simile tra la curva gamma e la curva di risposta della visione umana offre alcuni vantaggi nell'aiutare a ridurre la dimensione del file poiché la profondità di bit dell'immagine può essere ridotta senza influire sulla qualità dell'immagine percepita .


1

L'OP è praticamente tutto corretto, tranne per il fatto che la gamma rende i toni scuri più luminosi, non più deboli. Questo esiste solo nel file, non negli occhi. I dati vengono sempre decodificati in modo originale prima di qualsiasi occhio. Qualsiasi differenza nell'occhio nel vedere la scena originale e nel vedere i dati decodificati riprodotti è semplicemente un errore di riproduzione indesiderato.

La gamma viene eseguita solo per correggere le gravi perdite dei monitor CRT. CRT non è lineare, mostra toni chiari, ma perde i toni più scuri. Quindi la gamma rende i toni scuri eccessivamente luminosi, per poi apparire di nuovo normali (lineari) dopo le perdite di CRT. Tuttavia, i monitor LCD sono lineari e quindi non hanno più bisogno della gamma, ma per preservare la compatibilità con tutte le vecchie immagini RGB del mondo, tutti gli standard includono sempre la stessa gamma. Per i monitor LCD è facile decodificarlo e scartarlo. E i dati funzionano ancora su CRT.

La gamma non è in alcun modo circa l'occhio umano .. diverso da quello che vogliamo vedere i dati originali lineari corretti. L'occhio ha una risposta inversa simile, che è puramente casuale, ma l'occhio umano non vede MAI dati gamma. Viene sempre prima decodificato (tramite perdite CRT o un chip LCD) e l'occhio umano vede di nuovo solo i dati lineari (si spera). Come ha visto la scena originale, neanche la gamma era necessaria nella scena originale. L'occhio non ha bisogno di aiuto. Vai fuori e guarda un albero. Non c'è gamma lì. Immaginiamo davvero che il nostro occhio non riesca a vedere bene l'albero? :) Pensaci un po 'di più. Il cervello decodifica la risposta degli occhi e il CRT o LCD decodifica la codifica dei dati. Coloro che affermano che la gamma riguarda l'occhio semplicemente non lo sanno, stanno solo ripetendo cose sbagliate che hanno sentito. Non è difficile sentirlo, ma è molto sbagliato. Questi ragazzi dovrebbero spiegare quando e come l'occhio umano potrà mai vedere la gamma che immaginano sia necessaria. Non può, non ha possibilità.

La gamma non è di circa 8 bit. I dati vengono codificati, quindi decodificati e, si spera, siano identici, in modo da poter vedere una riproduzione accurata della scena lineare originale. La gamma è stata fatta all'inizio della TV NTSC (1940), prima che ci fossero bit, ma avevamo CRT. :) La gamma riguarda solo le perdite CRT. Puro e semplice. E ai tempi della CRT, la gamma era estremamente necessaria.

I dati RGB vengono normalizzati (con valori percentuali di 0..1) prima di aggiungere gamma, in genere con esponente 1 / 2,2 (radice quadrata approssimativa). Il 18% è (0,18 ^ 1 / 2,2) = 0,46, o 46% sull'istogramma o 117 sulla scala 0..255. (L'immagine della gente del 18% dovrebbe essere anche del 50%. :) Il 18% è del 18%, ma vediamo quasi il 50%, solo perché i dati dell'istogramma sono codificati in gamma.) Ma si noti che 0 per qualsiasi esponente è ancora 0, e 1 per qualsiasi esponente è ancora 1, quindi non vi è alcun aumento della gamma dinamica. E nessun clipping dovuto alla gamma, i punti finali non possono muoversi. E ovviamente, perché i dati vengono decodificati prima che qualcuno li veda. L'intera cosa (codificare, quindi decodificare) è solo una no-op. Nessun cambiamento alla vista, si spera. Ma nei file, i dati normalizzati (che è una FRAZIONE) per un esponente diventano un numero più grande, più luminoso, tranne che nessun occhio può mai vederli lì dentro.

La gamma viene eseguita SOLO per correggere la risposta dei monitor CRT.


1

Credo che i nostri occhi abbiano questa curva di risposta, ma questa risposta a un improvviso cambiamento nella quantità di luce, specialmente se è aumentata ma allo stesso tempo il cervello decodifica quella risposta restringendo l'iride per mantenere la stessa (percezione lineare) che avere in una condizione di visualizzazione stabile fino a quando la transizione alla nuova condizione di visualizzazione avviene senza intoppi.

La correzione gamma proveniva essenzialmente dalla non linearità della pistola elettronica CRT che aveva bisogno di più codifica (cioè applicata una gamma 45.) Per inviare un'uscita uniforme (uscita lineare) perché le caratteristiche della pistola elettronica CRT rendono il segnale come se fosse decodificato (cioè una gamma 2.2 curva applicata). In tempi CRT hanno codificato tutti i dati digitali per mantenere l'uniformità di visualizzazione e scambio di dati su Internet, quindi i formati di file di immagine principalmente codificati con la Gamma Curve di sRGB che è molto simile alla .45455 Gamma Curve) e che ha annullato la pistola CRT .

Ora, dopo che tutti i dati su Internet sono stati codificati e grazie al comportamento lineare della tecnologia LCD (cioè segnale di input = valori di output) hanno scoperto che è troppo tardi per decodificare nuovamente tutti i dati digitali dopo che sono diventati uno standard, quindi sono arrivati ​​con un soluzione logica! ed è per imitare di nuovo il difetto CRT e hanno prodotto LCD con un chip che decodifica il segnale (cioè applica una curva gamma 2.2) proprio come un sistema legacy :) altrimenti avrebbero dovuto decodificare tutti i dati su Internet.

Quindi non rimanere bloccato in questa confusione della non linearità dell'occhio avrai un circolo infinito di pensiero senza speranza.

Ed ecco la relazione con Gamma And Our Eyes

Dati di immagini lineari prodotti dai sensori della fotocamera RAW File che hanno per impostazione predefinita gamma = 1,00 (natura del sensore della fotocamera) cioè (nessuna decodifica o codifica = nessuna correzione) quando i file Raw "visualizzati" sul monitor diventano scuri "solo scuri" e lì 10 E 12 bit per canale sono file di grandi dimensioni, ma purtroppo non abbiamo beneficiato affatto di questa profondità perché i nostri occhi non sono sensibili ai valori di luminosità quanto sono troppo sensibili ai valori di oscurità e possono distinguere qualsiasi sottile cambiamento nell'oscurità (e lo farò spiegando di seguito).

Poiché l'immagine è "vista scura" a causa della natura dei monitor, i livelli di luminosità sono sprecati sui valori di luminosità più che sui medi e sui valori di oscurità (perché la gamma del monitor ha visto i toni medi abbattuti "quindi avremmo molto di più se lo scuro i valori avevano le stesse possibilità.

Quindi hanno scoperto che l'applicazione della correzione gamma (ad es. Codificando i dati grezzi in un formato come JPEG con .45455 gamma di sRGB) per fortuna convertendoli in 8 bit per canale, il che significa dimensioni del file inferiori oltre a una corretta visualizzazione o visualizzazione dei valori di luminosità is (che consiste nel bruciare la gamma .45455 nei pixel) e di riaccendere i toni scuri e medi) è molto coerente con la natura dell'occhio.

La mia spiegazione è che le cellule di Rod negli occhi hanno la capacità di visione notturna e quella natura troppo sensibile di distinguere i valori oscuri >> abbiamo circa 120 milioni di cellule di Rod contro solo 6 o milioni di cellule di coni sensibili ai colori monocromatici e lunghezze d'onda

Penso che non sia la Curva di risposta oculare a essere responsabile di ciò e non provare a collegarmi tra Eye's Gamma e Monitor Gamma in nessun altro modo e per favore correggimi se sbaglio :). Ho lottato per comprendere i problemi di gamma in modo da avere tutto ciò che avevo a riguardo.

Questo è uno dei migliori riferimenti riguardanti ragioni e soluzioni gamma

http://www.w3.org/TR/PNG-GammaAppendix.html


0

Ecco la mia prima bozza di risposta: entrerò più in dettaglio quando il tempo lo consente, ma voglio dare all'OP una sorta di risposta. I commenti sono piu che benvenuti.

Le cose sui CRT non si applicano più. Ma c'è un'ottima ragione pratica per continuare a usare immagini con codifica gamma. L'uso della codifica gamma rende le modifiche come le curve "normali" perché l'occhio non risponde in modo lineare alla luce per cercare di creare lo spazio LAB per ulteriori informazioni al riguardo.

Per un esempio, guarda questo screenshot:inserisci qui la descrizione dell'immagine

L'immagine a sinistra è l'originale, l'immagine al centro una copia in gamma 2.2 e l'immagine a destra una copia in gamma 1.0. È possibile visualizzare la curva applicata a ciascuna delle copie. Data la forma della curva, la versione 2.2 o 1.0 sembra quella che ti aspetteresti?


0

È un dato di fatto che la gamma non è necessaria in questi giorni, specialmente quando si lavora in rappresentazioni di bit alti dell'immagine. Tuttavia, ciò significa una riscrittura completa del software in troppi casi - o la transizione è tutt'altro che perfetta (diciamo, le curve familiari cambiano completamente la forma, come ha appena detto il signor Blankertz).


-1

I monitor LCD sono "lineari" e non necessitano di gamma oggi, ma i monitor CRT non sono lineari e lo sono ancora. E tutti gli archivi mondi di immagini esistenti dispongono di gamma per CRT, quindi è molto più semplice continuare ad aggiungere gamma piuttosto che cambiare tutto il software e obsolete tutte le immagini esistenti.

L'occhio umano non ha assolutamente alcuna utilità per la gamma. L'occhio vede bene la scena originale senza gamma. Gamma serve SOLO a correggere le perdite previste dei monitor CRT (quindi vediamo una riproduzione della scena originale). I monitor a LED sanno solo decodificare la gamma e scartarla, non è un grosso problema (poiché l'occhio umano si aspetta di vedere una riproduzione fedele dei dati della scena originale senza gamma, la riproduzione dovrebbe apparire uguale). Sarebbe una brutta cosa vederlo come dati gamma. Per fortuna, l'occhio umano ha zero opportunità di vedere mai alcun dato gamma. I siti che ci dicono che l'occhio ha bisogno di gamma non sanno proprio nulla di gamma.

I nostri istogrammi sono codificati in gamma, poiché i dati sono codificati (per la ragione sopra), fino a poco prima che vengano mostrati all'occhio umano. Il punto medio dei nostri dati codificati non è il 50%, ma circa il 73% nei dati gamma (regolazioni della fotocamera come il bilanciamento del bianco e il contrasto lo spostano un po 'di più). Se sottoesposi un'immagine esattamente di uno stop, il punto 255 si sposta su una scala di circa 3/4, e NON su una scala del 50%. Una scheda grigia al 18% è il 18% nei dati di linea, ma circa il 46% nei dati gamma. Le persone che presumono erroneamente che devono essere in qualche modo del 50% possono persino pensare di calibrare il loro esposimetro su di esso. :) Ma l'occhio non vede mai i dati gamma, viene sempre decodificato prima, in un modo o nell'altro. Si spera che l'occhio veda sempre una fedele riproduzione della scena originale.

Ma FWIW, anche le stampanti hanno bisogno della maggior parte del cambio gamma. Non valore 2.2, ma non troppo lontano da esso (a causa di dot gain, ecc.). Apple ora osserva gli standard del mondo 2.2, ma sappiamo tutti i primi computer Mac utilizzati per utilizzare la gamma 1.8. Questo NON era per il monitor, usavano gli stessi monitor usati da Windows (i monitor sono intercambiabili). Ma all'epoca Apple vendeva stampanti laser e la gamma 1.8 era per la sua stampante. Quindi l'hardware video Mac ha aggiunto un po 'di più per portarlo al 2.2 di cui il CRT aveva bisogno. Oggi, le stampanti devono attenuarle un po 'dai dati 2.2 che ricevono, ma ne hanno ancora bisogno.

Oggi lo standard è gamma 2.2, in modo che tutti i dati RGB esistenti al mondo siano ancora compatibili.


1
Il LED è di tipo retroilluminazione. Il motivo principale per la correzione gamma NON è l'ottimizzazione per CRT, anche se mai lo fosse.
Euri Pinhollow,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.