Perché l'immagine HDMI-> DVI è più nitida del VGA?


20

Ho un monitor Dell U2312HM collegato a un laptop Dell Latitude E7440. Quando li collego tramite laptop -> HDMI cable -> HDMI-DVI adaptor -> monitor(il monitor non ha una presa HDMI), l'immagine è molto più nitida rispetto a laptop -> miniDisplayPort-VGA adaptor -> VGA cable -> monitor. La differenza è difficile da catturare con una fotocamera, ma vedi il mio tentativo di seguito. Ho provato a giocare con le impostazioni di luminosità, contrasto e nitidezza, ma non riesco a ottenere la stessa qualità dell'immagine. La risoluzione è 1920x1080, sto usando Ubuntu 14.04.

VGA:

VGA

HDMI:

HDMI

Perché la qualità è diversa? È intrinseco a questi standard o dovrei sospettare un cavo VGA difettoso o un adattatore mDP-VGA?


6
Probabilmente stai giocando con le impostazioni sbagliate. Utilizzare un programma (o sito Web ) in grado di generare un modello di prova e regolare le impostazioni dell'orologio e della fase .
David Schwartz,

11
Tieni presente che sia HDMI che DVI utilizzano lo stesso segnale / protocollo - TMDS , quindi la prima opzione è bit-perfect (lossless).

Soluzione ovvia: procurati un monitor HDMI
Steven Penny,

La maggior parte delle uscite VGA moderne sono di qualità scadente. Questo perché a nessuno importa più. Oh, e hai provato il pulsante Auto quando hai usato VGA, giusto?
Daniel B,

1
@StevenPenny - Come sarebbe d'aiuto? Ha già un'immagine più nitida utilizzando un adattatore HDMI-DVI. Poiché il monitor ha già un ingresso DVI, perché sarebbe necessario un ingresso HDMI? Espandi il ragionamento alla base del tuo commento.
Greenonline,

Risposte:


44

VGA è l'unico segnale analogico tra quelli sopra menzionati, quindi è già una spiegazione della differenza. L'uso dell'adattatore può peggiorare ulteriormente la situazione.

qualche ulteriore lettura: http://www.digitaltrends.com/computing/hdmi-vs-dvi-vs-displayport-vs-vga/


2
Un punto importante da sottolineare qui è che quasi i cavi VGA sono spazzatura. È possibile ottenere una qualità dell'immagine relativamente decente con VGA, ma il cavo dovrebbe essere circa 3 volte più spesso di quello che solitamente raggruppano con display / TV.
analytik,

@analytik Andrò avanti e dirò che ti sbagli quasi. Perché il cavo sia più spesso, ci deve essere prima un cavo ... Spediscono solo la TV e (a volte) gli schermi con solo il cavo di alimentazione e sei già una persona fortunata. Se potessero, che avrebbero venduto senza alcun cavo!
Ismael Miguel,

@IsmaelMiguel bene, immagino che dipenda da dove vivi, quindi entrambi abbiamo torto in un certo senso. Per tutti gli schermi CRT e LCD che ho acquistato e venduto in 3 diversi paesi europei, l'abitudine è quella di confezionare un cavo D-SUB, anche quando lo schermo supporta DVI / HDMI / DisplayPort. Anche se lo ammetto non ho venduto molti televisori LCD, quindi l'abitudine potrebbe essere diversa.
analytik,

@analytik Vivo in Portogallo e di solito gli schermi CRT avevano il cavo collegato ad essi ed era raro vedere uno schermo con un cavo staccabile. A volte, gli schermi LCD sono dotati di un cavo VGA di qualità molto bassa. Ma TV LCD e TV al plasma e altri vengono solo con il cavo di alimentazione / adattatore. A volte, il cavo di alimentazione viene collegato e non può essere rimosso. Ma è raro.
Ismael Miguel,

@IsmaelMiguel, hai ragione - il mio amico che ha lavorato nella vendita al dettaglio IT ha detto che gli schermi LCD di solito sono dotati di 1 o 2 cavi (D-Sub / DVI), ma i televisori non lo fanno quasi mai.
analytik,

12

Supponendo che la luminosità, il contratto e la nitidezza siano gli stessi in entrambi i casi, potrebbero esserci altri 2 motivi per cui il testo è più nitido con DVI / HDMI:

Il primo è già stato dichiarato, il VGA è analogico, quindi dovrà passare attraverso una conversione da analogico a digitale all'interno del monitor, ciò degraderà teoricamente la qualità dell'immagine.

In secondo luogo, supponendo che tu stia utilizzando Windows, esiste una tecnica chiamata ClearType (sviluppata da Microsoft) che migliora l'aspetto del testo manipolando i pixel secondari di un monitor LCD. VGA è stato sviluppato pensando ai monitor CRT e la nozione di sub pixel non è la stessa. A causa del requisito per ClearType di utilizzare uno schermo LCD e del fatto che lo standard VGA non indica all'host le specifiche del display ClearType sarebbe disabilitato con una connessione VGA.

Fonte: ricordo di aver sentito parlare di ClearType da uno dei suoi creatori su un podcast per This (). Developers (). Life () IIRC, ma http://en.wikipedia.org/wiki/ClearType supporta anche la mia teoria. Inoltre HDMI è retrocompatibile con DVI e DVI supporta Electronic Display Identification (EDID)


4
"... e DVI supporta Electronic Display Identification (EDID)", così come VGA. Non sono riuscito a scoprire se in EDID esiste un campo che identifica effettivamente il tipo di visualizzazione; hai queste informazioni?
Casuale 832

7

Gli altri danno alcuni punti positivi, ma il motivo principale è un evidente disallineamento di clock e fase. Il VGA è analogico ed è soggetto a interferenze e disallineamenti dei lati di invio e ricezione analogici. Normalmente si userebbe un modello come questo:

http://www.lagom.nl/lcd-test/clock_phase.php

E regola l'orologio e la fase del monitor per ottenere la migliore corrispondenza e l'immagine più nitida. Tuttavia, poiché è analogico, queste regolazioni possono cambiare nel tempo e quindi idealmente dovresti semplicemente usare un segnale digitale.


Bel link !! :-)
Peque

5

Ci sono alcune risposte che indicano un segnale digitale vs. analogico che è corretto. Ma questo non risponde al perché? Alcuni livelli di traduzione citati, anche questo è vero, una conversione A / D tradizionale può causare una perdita di fedeltà, ma dovresti misurarlo poiché è difficile vedere le differenze ad occhio nudo. Una conversione economica e tutte le scommesse sono disattivate.

Allora perché il digitale è meglio dell'analogico?

Un segnale RGB analogico (come VGA) utilizza l'ampiezza del segnale (.7 Volt da picco a picco nel caso di VGA). Questo come tutti i segnali ha un rumore che, se abbastanza grande, causerà una traduzione errata dei livelli.

I riflessi nel cavo (discrepanze di impedenza) sono in realtà la più grande caduta di un segnale video analogico. Ciò introduce ulteriore rumore e peggiora con cavi più lunghi (o più economici), maggiore è la risoluzione del video e aumenta anche il rapporto segnale-rumore. È interessante notare che non dovresti essere in grado di vedere alcuna differenza in un segnale 800x600 a meno che il cavo VGA non sia troppo lungo.

In che modo un segnale digitale evita queste insidie? Bene per uno il livello non è più rilevante. Inoltre DVI-D / HDMI utilizza un segnale differenziale e una correzione degli errori per assicurare che quelli e gli zeri siano trasmessi fedelmente correttamente. C'è anche un ulteriore condizionamento aggiunto a un segnale digitale che non è pratico aggiungere a un segnale video analogico.

Ci scusiamo per i ragazzi della scatola di sapone, ma loro stessi i fatti.


3

Un altro problema è che molti cavi VGA sono spazzatura. Se il cavo VGA è inferiore a 1/4" di spessore, si avrà probabilmente notato ghosting su monitor più grandi (superiore al rez, più probabile ghosting). Ho anche notato ghosting sul cavo VGA allegato su alcuni 19" montitors CRT. I miei cavi VGA hanno uno spessore di circa 1/3 "e aiutano molto con la nitidezza (fili più spessi, più schermatura)


1
Non puoi davvero dire nulla dal diametro del cavo. I fili più pesanti e una maggiore schermatura potrebbero essere più grandi o più grandi potrebbero significare solo un isolamento più spesso, o più piccoli potrebbero essere migliori utilizzando una schermatura più sottile ma efficace e un isolamento più sottile.
fixer1234,

2

HDMI e DVI sono molto simili. Entrambi sono digitali; le differenze principali sono che HDMI supporta audio e HDCP. Quando si passa da HDMI a DVI, la conversione effettiva è scarsa, ma si collegano piuttosto i pin corrispondenti sui connettori. Display Port è un protocollo digitale, ma VGA è analogico e il convertitore probabilmente introduce piccoli difetti e la riduzione della nitidezza nel segnale. Il monitor probabilmente converte il segnale in digitale, incorrendo in un'altra conversione che influisce negativamente sulla qualità.

Soprattutto, il computer-> HDMI-> DVI-> monitor ha meno conversioni effettive rispetto al computer-> DisplayPort-> VGA-> monitor e non converte mai il segnale in analogico, dando un'immagine più nitida.


Puoi avere anche HDCP con DVI.
Carsten S

1

HDMI e DVI sono effettivamente la stessa cosa (almeno nel tuo contesto). I connettori DVI sono in realtà solo connettori HDMI con una diversa piedinatura (le file di pin), oltre a connettori VGA con una diversa piedinatura (i pin disposti attorno a una forma a croce). Se guardi il tuo convertitore da HDMI a DVI, probabilmente noterai che manca la parte a forma di croce.

Quindi stai confrontando un'immagine HDMI con un'immagine VGA e, come ha sottolineato @Josh, uno che comporta una conversione effettiva.

In realtà c'è una differenza tra HDMI e DVI, ma non è rilevante per te. L'HDMI può trasportare segnali aggiuntivi, incluso il segnale di crittografia per protezione del contenuto, audio, Ethernet, ecc.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.