Che senso ha la "nitidezza" per essere regolabile su un monitor?


91

I monitor moderni hanno spesso un'impostazione di "nitidezza".

Ma non capisco davvero come abbia senso l'esistenza di un simile ambiente.

Il software chiede al monitor di visualizzare un particolare schema di valori RGB a 32 bit, giusto?
cioè il sistema operativo potrebbe chiedere al monitor di ogni frame di visualizzare una particolare bitmap 1920 × 1080 × 32.

Ma regolare la "nitidezza" significa lasciare che i valori dei pixel vicini si influenzino a vicenda, il che sembrerebbe implicare che l'input non viene più rappresentato fedelmente ... il che significa che non visualizzerà più ciò che viene chiesto di visualizzare, il che non rende senso. Quindi non vedo dove questo lasci spazio logico per la regolazione della nitidezza.

Da dove viene esattamente il grado di libertà per regolare la nitidezza?


30
Divertente, l'ultima volta che ho visto la nitidezza era su un CRT. Allora ti consente di controllare i tempi tra gli impulsi rosso, verde e blu per allinearli in modo appropriato. Se fosse leggermente troppo veloce o troppo lento, i tre fosfori sarebbero un po 'macchiati. Se li hai allineati nel modo giusto, l'immagine era più nitida possibile. Ovviamente ciò non si applica affatto ai display moderni.
Todd Wilcox,

8
Stai fornendo molte risposte che non rispondono alla tua domanda, potrebbe essere utile se tu dicessi perché non rispondono alla domanda. Vale la pena notare che il monitor non è richiesto dalla legge per visualizzare ciò che il software gli chiede. Ad esempio, potrebbe cambiare ogni terzo pixel in verde o invertirli. Quindi il motivo per cui il monitor può "sfocare" le immagini è perché un numero sufficiente di clienti lo desiderava, poteva allungare altrettanto facilmente l'immagine ma nessuno lo voleva, quindi non lo fanno. Quindi ci sono solo 2 tipi di risposta: come si fa tecnicamente o perché la gente lo vuole?
Richard Tingle,

3
@RichardTingle: suppongo che la risposta a "perché la gente lo vuole" potrebbe potenzialmente rispondere alla mia domanda, sì. Anche se sto più cercando di capire che senso ha da un punto di vista tecnico. Per fare un esempio, per me ha senso avere parametri di nitidezza per la visualizzazione di foto RAW, perché la mappatura dai dati del sensore a un pixel è intrinsecamente un problema sotto-determinato (cioè non ha una soluzione unica) con gradi di libertà come nitidezza, livello di rumore, ecc. Ma le bitmap sono pixel, quindi dov'è lo spazio per regolare cose come la "nitidezza"?
Mehrdad,

2
@ToddWilcox: per quel che vale, almeno i monitor HP EliteDisplay (LCD) hanno un'impostazione "Nitidezza" e funzionano anche con un ingresso digitale (cioè non VGA).
sleske,

2
Potrei aggiungere che ho dovuto regolare "Nitidezza" per compensare gli utenti che hanno occhiali o contatti in alcuni casi.
PhasedOut

Risposte:


81

Per https://www.cnet.com/uk/how-to/turn-down-your-tv-sharpness-control/ , la "nitidezza" su un LCD fa parte della post-elaborazione.

Anche tralasciando il ridimensionamento / upsampling (ad es. Se si tenta di visualizzare un segnale SD su un monitor HD) e le complessità della calibrazione del colore, il monitor non visualizza sempre l'immagine come fornita. Questo è uno sfortunato effetto collaterale del marketing.

Monitorare i produttori piace distinguere il loro prodotto da altri prodotti. Dal loro punto di vista, se invii lo stesso segnale al loro monitor e ad un concorrente più economico, e sembra identico, questo è male . Vogliono che tu preferisca il loro monitor. Quindi ci sono un sacco di trucchi; di solito, fuori dalla scatola, la luminosità e il contrasto sono al di là di ciò che è sensato. La "nitidezza" è un altro trucco. Come si fa a rendere la tua immagine più nitida di un concorrente che sta visualizzando l'immagine esattamente come inviata? Truffare.

Il filtro "nitidezza" è effettivamente quello usato in Photoshop e programmi simili. Migliora i bordi in modo che catturino l'attenzione.


7
+1 grazie, penso che ti stai avvicinando abbastanza a rispondere al cuore della mia domanda! Sulla base della tua risposta sembra che la risposta diretta sia "no, non ha alcun senso scientifico, ma a loro non importa e lo fanno comunque perché aiuta con il marketing".
Mehrdad,

8
La maggior parte degli LCD che ho visto permette solo di cambiare la nitidezza dei segnali analogici, il che ha perfettamente senso, ovviamente. Collega il display tramite DVI / HDMI e non otterrai controlli di nitidezza (in effetti, perdi la maggior parte dei controlli di segnale, dal momento che hanno davvero senso solo per segnali non perfetti). È anche comune nei display LCD che sono monitor ibridi / schermi televisivi - poiché i televisori hanno quelle caratteristiche (nel bene o nel male), quindi questi schermi solo per mantenere la parità delle funzionalità. Se pensi che sia solo un marketing inutile, prova a guardare un VHS su un display che assume un segnale pixel perfetto :)
Luaan

3
Non è solo marketing. I "pixel" non sono in linea retta, né sono singole unità come suggerirebbe il nome pixel.
HackSlash

26
Il monitor non può mai visualizzare l'immagine come fornita, e non è a causa della produzione. Colori, luminosità, neri, risoluzioni: tutto varia da monitor a monitor. Un segnale digitale potrebbe dire "pixel di luce x con luminosità del 50%". Cos'è il 50% di luminosità? O che cos'è 100 su 200 di luminosità? Dipende assolutamente dall'hardware e dalla programmazione del monitor. Cosa c'è di blu? o giallo? Ecco perché ci sono aggiustamenti per cominciare. In questo modo un utente può far apparire l'immagine nel modo in cui pensa che debba apparire o divertirsi. L'idea che un segnale sia rappresentato al 100% con precisione su qualsiasi monitor è ridicola.
Appleoddity

4
Alcuni dei commenti sono tecnicamente corretti (come "Il monitor non può mai visualizzare l'immagine come fornita"), ma la risposta è corretta che ciò che sta succedendo sta filtrando (e che è fatto per motivi di inganno). Inoltre, sta filtrando con alcuni coefficienti negativi, che introduce intrinsecamente artefatti orribili; una volta che ti rendi conto di questo non sarai più in grado di guardarlo di nuovo. :-)
R ..

67

Domanda originale: da dove viene esattamente il grado di libertà per regolare la nitidezza?

La nitidezza è direttamente correlata al tipo di segnale e al contenuto che si sta visualizzando. I filmati in genere hanno un aspetto migliore quando la nitidezza è ridotta e i pixel possono sfocarsi un po 'insieme. D'altra parte, uno schermo per computer vorrebbe alta nitidezza per testi chiari e immagini nitide. I videogiochi sono un altro esempio di maggiore nitidezza. I segnali TV di bassa qualità possono anche essere migliorati con i controlli di nitidezza.

Essendo i monitor possono essere utilizzati per visualizzare lo schermo di un computer, un film o praticamente qualsiasi sorgente video, la nitidezza è ancora un'impostazione utile.

https://www.crutchfield.com/S-biPv1sIlyXG/learn/learningcenter/home/tv_signalquality.html

MODIFICA: L'OP ha indicato nei commenti che ciò non risponde alla domanda.

OP: Dove nel problema c'è spazio per eventuali aggiustamenti? Come se ti dicessi x = 1 e y = 2, e poi dì "oh, e voglio x - y = 3". Non ha senso.

Il processo di conversione di un'immagine / video live in segnali elettrici analogici / digitali, trasmissione su un supporto e ricostruzione di quell'immagine su un dispositivo di visualizzazione non è MAI un processo da 1 a 1.

Il rumore del segnale, la perdita di compressione, le variazioni di fabbricazione e delle apparecchiature, il tipo di cablaggio / segnale e altri fattori entrano in gioco. Tutte le regolazioni su un monitor sono progettate per lavorare insieme per offrire all'utente finale la migliore esperienza visiva, secondo l'utente finale. L'interpretazione è del tutto soggettiva.

OP: questa risposta non risponde alla domanda sul perché lo spettatore deve regolare la nitidezza quando questa è già definita dal creatore del contenuto (che si tratti di Spielberg o Excel).

Se dobbiamo seguire questa logica, allora perché i monitor hanno bisogno o hanno QUALSIASI regolazione? La risposta è che ciò che vediamo sullo schermo non è una rappresentazione accurata al 100% dei dati originali.


13
Questo non risponde affatto alla mia domanda ... Non stavo chiedendo cosa sia la nitidezza.
Mehrdad,

5
@Martijn: Non era una mia domanda ...
Mehrdad,

13
@Mehrdad Puoi riformulare la tua domanda, allora? Sembra che i risponditori multipli (e i loro elettori) non capiscano come fai tu. L'ho anche considerato "perché gli LCD supportano la nitidezza?" (a cui risponde questo), o forse "in che modo gli LCD supportano la nitidezza?" (a cui risponde Aganju). Se la tua domanda non è nessuna di queste, dovresti chiarirla.
Ripristina Monica il

3
@Mehrdad In realtà l'ho trovato più vicino a "come gli LCD supportano la nitidezza", che è stato spiegato da Aganju ma ancora respinto da te.
Ripristina Monica il

3
Il cavo e il segnale sui monitor moderni è digitale. Ottiene una trasmissione perfetta o dati errati. Non vi è alcuna possibile perdita o degradazione del segnale come in un segnale analogico. All'interno del monitor il segnale digitale viene convertito in qualcosa che il pannello capisce e che di solito è anche digitale ora. L'unica parte analogica sono i livelli di luminosità di ciascun elemento e quelli sono guidati da un valore digitale.
HackSlash

36

Hai ragione nel dire che per una riproduzione perfetta sull'input, il monitor dovrebbe semplicemente presentare ogni pixel al momento della consegna.

Tuttavia, i tuoi occhi (e il tuo cervello) non vedono i pixel come entità separate, vedono un'immagine formata da pixel. A seconda di ciò che rappresenta, un'immagine appare "migliore" (più attraente) se i parametri vengono "falsificati" intenzionalmente.

La nitidezza in genere aumenta il contrasto ai bordi del cambio colore, ad esempio una lettera in questo testo è rappresentata da righe di pixel, una riga potrebbe apparire (semplificata) 2-2-2-2-7-7-7-2-2- 2-2 dove 2 è grigio chiaro e 7 è grigio scuro. Aumentando la "nitidezza" aumenta la riduzione della luminosità sul bordo, quindi gli ultimi 2 prima dei primi 7 diventano ancora più chiari (= 1) e i primi 7 dopo gli ultimi 2 diventano ancora più scuri (= 8). ripeti per l'altro bordo e otterrai 2-2-2-1-8-7-8-1-2-2-2. Questo apparirà molto più nitido ai tuoi occhi.
Questo viene fatto in entrambe le dimensioni e un po 'più sofisticato, ma ciò dovrebbe spiegarti l'idea di base.

Modifica: ho pensato di averlo chiarito nella mia risposta, ma l'OP afferma di non averlo capito:
OP Domanda: 'che senso ha' -> Risposta: sembra più nitida al tuo cervello.
Molte persone lo vogliono; se non ti interessa, non usarlo.


18
@Mehrdad Allora qual è la tua domanda? Hai ottenuto una risposta per "che senso [usabilità saggia] rende la nitidezza regolabile su un monitor" da Appleoddity. Hai ottenuto una risposta a "che senso [la tecnologia è saggia] rende la nitidezza regolabile su un monitor" di Aganju. Se nessuna di queste è la domanda desiderata, è necessario riscriverla in modo che la domanda posta corrisponda alla domanda prevista.
Birjolaxew,

6
@Mehrdad Dai tuoi commenti la tua domanda sembra essere "perché i monitor possono cambiare la nitidezza quando il computer dice già esattamente cosa visualizzare" - a cui Appleoddity risponde.
Birjolaxew,

Questa risposta è funzionalmente uguale alla risposta data da pjc50. Entrambi hanno torto.
HackSlash,

33

La risposta è che un pixel non è quello che pensi che sia. Non esiste una correlazione da 1 a 1 tra pixel digitali e pixel fisici dovuta al "Rendering subpixel". La modalità di visualizzazione dei colori è diversa in ciascun monitor, ma la maggior parte dei monitor LCD ha elementi ROSSI, VERDI e BLU distinti disposti in un triangolo. Alcuni hanno inoltre un pixel bianco che crea un quadrato di elementi per "pixel".

inserisci qui la descrizione dell'immagine

Pertanto, non tutti i layout sono uguali. Ogni layout particolare può avere una "risoluzione visiva" diversa, limite di funzione di trasferimento di modulazione (MTFL), definito come il numero più alto di linee in bianco e nero che possono essere rese simultaneamente senza alias cromatico visibile.

I driver di monitoraggio consentono ai renderer di regolare correttamente le loro matrici di trasformazione geometrica al fine di calcolare correttamente i valori di ciascun piano di colore e trarre il massimo profitto dal rendering subpixel con il minimo aliasing cromatico.

La "nitidezza" sul monitor riduce l'algoritmo di fusione naturale usato per far apparire le linee contigue quando non lo sono. Aumentando la nitidezza si aumenta l'alias cromatico producendo linee più pulite. Riducendo la nitidezza si otterrà una migliore miscelazione dei colori e uniformi le linee che cadono tra il punto dot subpixel.

Per informazioni più dettagliate, consulta questo articolo: https://en.wikipedia.org/wiki/Subpixel_rendering


17

Hai perfettamente ragione sul fatto che l'impostazione della nitidezza sul tuo monitor "distorce" in qualche modo l'immagine dai dati con precisione dei pixel inviati dal computer (o qualsiasi cosa sia collegata all'altra estremità del cavo video). Tuttavia, consente all'utente di migliorare la propria esperienza visiva se la nitidezza dei dati accurati in pixel inviati non corrisponde alla nitidezza desiderata nell'immagine che stanno visualizzando.

Quindi il monitor non sta effettivamente facendo questo:

  1. Ricevi bitmap dal cavo
  2. Rendering bitmap
  3. Vai a 1.

ma questo:

  1. Ricevi bitmap dal cavo
  2. Modifica bitmap in base alle preferenze dell'utente
  3. Rendering bitmap
  4. Vai a 1.

Quindi il grado di libertà per la regolazione della nitidezza viene esplicitamente aggiunto dal produttore del monitor, allo scopo di migliorare l'esperienza dell'utente.


1
Il commento di slebetman sulla sua stessa risposta sembra confermare ciò come una richiesta dell'utente: "Ho appena cercato su Google la regolazione della nitidezza dell'LCD nel caso in cui fossero presenti schermi LCD. Ciò che ho trovato erano domande esilaranti da parte di persone che volevano regolare la nitidezza sugli schermi LCD quando furono introdotti per la prima volta "
LVDV il

13

Il software chiede al monitor di visualizzare un particolare schema di valori RGB a 32 bit, giusto? cioè il sistema operativo potrebbe chiedere al monitor di ogni frame di visualizzare una particolare bitmap 1920 × 1080 × 32.

Non è così che funziona VGA. A livello di monitor non ci sono pixel.

In che modo i display funzionavano tradizionalmente prima dell'età del display LCD:

  1. Il software chiede al driver del dispositivo di visualizzare un'immagine bitmap

  2. Il driver del dispositivo divide l'immagine in tre forme d'onda per R, G e B. Esatto, forme d'onda! Esattamente come le forme d'onda audio. Ora, queste forme d'onda hanno un formato specifico perché mentre l'audio è 1d le immagini sono 2d.

  3. Il segnale analogico per le linee sullo schermo viene inviato al monitor.

Il monitor non vede mai un pixel, vede solo linee.

  1. Il monitor emette elettroni che si muovono a una velocità quasi della luce da tre cannoni elettronici e il raggio viene deviato controllando un gruppo di elettromagneti facendoli dipingere l'intero schermo.

Qui è dove entra in gioco il controllo della nitidezza.

A causa delle tolleranze di fabbricazione, i fasci di elettroni non convergono quasi mai correttamente e producono immagini sfocate direttamente dalla catena di montaggio. Ai vecchi tempi spetta a te, la persona che ha acquistato il monitor, regolare la nitidezza a casa. Successivamente, i più moderni di questi antichi display hanno il processo di regolazione automatica in fabbrica, ma la regolazione della nitidezza deve ancora essere integrata affinché il processo funzioni.

Quindi la risposta è davvero semplice. La regolazione della nitidezza è lì per garantire che l'immagine sui display sia nitida.


4
Ho appena cercato su Google la regolazione della nitidezza dell'LCD nel caso in cui fossero presenti schermi LCD. Quello che ho trovato sono state domande esilaranti da parte di persone che volevano regolare la nitidezza sugli schermi LCD quando sono state introdotte per la prima volta
slebetman,

Lo schermo LCD che uso ha un parametro di nitidezza, che è ciò che mi ha fatto porre questa domanda. La parte relativa ai display CRT è buona, ma sfortunatamente non sembra rilevante.
Mehrdad,

@Mehrdad È uno schermo LCD VGA o DVI / HDMI puro?
Slebetman,

Uso VGA, ma credo che supporti anche DVI. Non mi è chiaro che cosa abbia a che fare l'uso delle forme d'onda piuttosto che dei segnali digitali nel permettere all'usre di regolare la nitidezza. (?)
Mehrdad,

3
Non ci sono pixel nelle forme d'onda, solo linee; una certa quantità di sfocatura è inevitabile quando il segnale viene trasmesso. Di solito non è visibile, ma su HD di solito posso dire la differenza tra un segnale VGA e un segnale HDMI / DVI / DP.
pjc50,

6

Su una TV (digitale), la nitidezza controlla un filtro di picco che migliora i bordi. Questo non è così utile su un display se usato come monitor di un computer.

Nel secolo precedente, su un monitor CRT analogico di fascia alta, la nitidezza potrebbe aver controllato la tensione di messa a fuoco della pistola elettronica. Ciò influisce sulla dimensione del punto con cui viene disegnata l'immagine. Impostare la dimensione del punto troppo piccola (troppo nitida) e la struttura della linea diventa troppo visibile. Inoltre potrebbe esserci una fastidiosa interferenza "Moiré" con la struttura della maschera d'ombra. L'impostazione ottimale dipende dalla risoluzione (frequenza di campionamento) dell'immagine, poiché molti monitor CRT erano in grado di risoluzioni multiple senza ridimensionamento (multi-sincronizzazione). Impostalo abbastanza nitido.

I televisori CRT di fascia alta avevano la modulazione della velocità di scansione, in cui il raggio di scansione è rallentato attorno a un bordo verticale, e anche un filtro di picco orizzontale e verticale e forse un circuito di miglioramento transitorio orizzontale. La nitidezza potrebbe aver controllato tutto o tutti.

L'affilatura in generale migliora i bordi rendendo più scuro il lato oscuro del bordo, più luminoso il lato luminoso e il centro del bordo più ripido. Un tipico filtro di picco calcola un differenziale del 2 ° ordine, ad esempio nell'elaborazione digitale (-1,2, -1). Aggiungi una piccola quantità di questo picco al segnale di ingresso. Se si eliminano i superamenti, si riduce al "miglioramento temporaneo".

Su alcuni dispositivi digitali, la nitidezza di uno scaler può essere controllata, ad esempio nei miei ricevitori TV satellitari digitali. Questo imposta la larghezza di banda dei filtri polifase di uno scaler, che converte da una risoluzione sorgente a una risoluzione dello schermo. Il ridimensionamento non può essere perfetto, è sempre un compromesso tra artefatti e nitidezza. Impostalo troppo nitido e sono visibili contorni e aliasing fastidiosi.

Questa potrebbe essere la risposta più plausibile alla tua domanda, ma solo se il monitor è in scala. Non farebbe nulla per una modalità 1: 1 non scalata.

Fonte: 31 anni di esperienza nell'elaborazione del segnale per la TV.


Questo post è corretto al 100% per la tecnologia analogica come i CRT. L'OP chiede nitidezza su un display LCD tutto digitale. Pensa, come te, che "non farebbe nulla in una modalità 1: 1 non scalata", ma in realtà lo fa. Vedi la mia risposta sul rendering subpixel nei display LCD.
HackSlash

Non sono a conoscenza di alcun monitor che applichi il rendering subpixel, tranne forse un display portatile Pentile. Di solito viene eseguito dal software di rendering dei caratteri ClearView sul PC.
StessenJ

1
Questa tesi di dottorato tratta molto bene il rendering subpixel, in Ch.3: pure.tue.nl/ws/files/1861238/200612229.pdf . Il rendering essenzialmente subpixel gestisce un errore di convergenza del colore di +/- 1/3 pixel. I CRT non ne hanno bisogno, è implicitamente fatto dalla maschera ombra (campionamento).
StessenJ

In quel documento il processo di assemblaggio dei subpixel in un "pixel" coerente è chiamato "ricostruzione spaziale". Chiamano il "pixel" una "apertura" quando si parla dei subpixel che lavorano insieme. I subpixel sono fosfori di colore e sono chiaramente mostrati a pagina 28. Questi fosfori non sono sempre usati come set chiari. È possibile utilizzare il fosforo rosso di un set o di qualsiasi set adiacente a seconda della "nitidezza" delle linee.
HackSlash,

5

Non ha senso. O almeno non sulla maggior parte dei monitor LCD. Quasi sempre vorrai che la tua "nitidezza" sia impostata su 0, a seconda del monitor o della TV (alcuni sfuoceranno il segnale a 0, quindi l'impostazione reale non filtrata potrebbe essere da qualche parte nel mezzo), altrimenti, applicherà un filtro di miglioramento del bordo , che rende il lato più scuro di un bordo più scuro e il lato più chiaro più chiaro. Ciò è particolarmente evidente su cartoni animati e testo. Il tuo chilometraggio può variare, ma penso che sembri male in quasi tutti i casi.

Questo è un filtro con perdita, irreversibile, che probabilmente non vorrai essere attivato. Il tuo computer sta inviando dati perfetti per i pixel, quindi i filtri "nitidezza" e sfocatura sono generalmente indesiderabili.

Si noti inoltre che il filtro / impostazione "nitidezza" è un termine improprio. È impossibile rendere un'immagine più nitida (ovvero avere più dettagli), solo meno dettagliata. L'unico modo per ottenere un'immagine più nitida è utilizzare un'immagine di origine ad alta definizione.


5

Le impostazioni di nitidezza esistono sui pannelli LCD perché i produttori pensano che gli effetti digitali venderanno più monitor e TV. Anziché rappresentare fedelmente l'input dal computer, il produttore offre all'utente le opzioni per modificare l'immagine in base ai gusti personali, per quanto poveri possano essere.

"Nitidezza" è rilevante per i segnali analogici (come VGA) e per i display CRT, in cui il segnale è rappresentato da forme d'onda a un certo punto. Poiché l'analogo tende ad essere impreciso, le impostazioni di nitidezza consentono la calibrazione delle tolleranze e la compensazione delle imperfezioni nell'uscita del display analogico e nella trasmissione del segnale.

La nitidezza dovrebbe essere irrilevante sui pannelli LCD che utilizzano DVI, HDMI e altre fonti di dati "pixel-perfect" con una mappatura di risoluzione 1: 1. Sì, la nitidezza distorce l'immagine in questo scenario. I display nei negozi di scatole hanno spesso nitidezza e altri filtri digitali fatti girare a fondo per apparire più drammatici dei display circostanti. Alcuni consumatori potrebbero effettivamente desiderare questi effetti perché si sono abituati agli effetti dei filtri o perché stanno cercando di compensare un pannello LCD di cattiva qualità che sembra male agli occhi per l'output nativo. La nitidezza potrebbe anche essere rilevante quando si utilizza un segnale digitale che deve essere ridimensionato perché la sorgente e il display hanno risoluzioni diverse.

Nel complesso, probabilmente si desidera impostare la nitidezza su Off o 0 su un moderno display LCD con un segnale digitale 1: 1.

http://hifi-writer.com/wpblog/?page_id=3517 e https://forums.anandtech.com/threads/why-does-an-lcd-tv-with-hdmi-input-need-a-sharpness -control.2080809 /


4

Molti monitor possono accettare un segnale video che non ha la stessa risoluzione del pannello e tentare di ridimensionarlo nel modo appropriato. Se viene richiesto un monitor largo 1280 pixel per visualizzare un'immagine larga 1024 pixel e il materiale sorgente è costituito da strisce bianche e nere larghe un pixel, il display mostrerebbe probabilmente un motivo ripetuto da 5 pixel. Su una scala da 0 a 4, il motivo sarebbe probabilmente 03214. Se le strisce bianche e nere nell'originale sono "significative", mostrarle come sopra può essere utile. D'altra parte, il motivo ripetuto a 5 pixel sarebbe una distrazione che non è presente nell'originale. L'aggiunta di un po 'di sfocatura all'immagine ridurrebbe gli effetti di aliasing del ridimensionamento.


-1

Impostazioni diverse sono utili per contenuti diversi. Queste impostazioni potrebbero anche essere modificate sulla sorgente, ma io e probabilmente molti altri non sappiamo dove è possibile modificare l'impostazione della nitidezza su un PC.

Quindi c'è un menu di facile accesso sul monitor, in cui è possibile modificare la nitidezza.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.