Qual è la qualità video persa rispetto a VGA vs DVI?


6

Ho un netbook a cui voglio connettere un monitor esterno. Il netbook ha solo un output VGA. Quanta qualità si perde a causa dell'utilizzo di un'interfaccia VGA, al contrario di quella DVI? Il display sarà notevolmente più "sfocato"?

Se è così, qualcuno può spiegare perché è così? Un pixel è ancora un pixel, quindi le informazioni sul colore vengono perse nella conversione D- & gt; A quindi A- & gt; D?

dvi  vga 


Perché questo è stato ripetutamente votato?
Dan Neely

Risposte:


2

La qualità dell'immagine risultante dipende molto dalla qualità della conversione D2A (tipicamente chiamata RAMDAC) nella scheda video. Ovviamente puoi perdere un po 'in A2D se stai collegando un pannello piatto, ma probabilmente sarà solo una leggera riduzione della chiarezza

Non ho visto alcuna uscita VGA veramente brutta in un certo numero di anni, tuttavia 10 anni fa i risultati erano spesso terribili. Le aziende si concentrerebbero su di essere la carta 'più veloce' e la qualità dell'immagine risultante sarebbe terribile - come impostare un buon monitor e mirare alla massima risoluzione e frequenza di aggiornamento e non si poteva leggere il testo sullo schermo. Installa una scheda Matrox e l'immagine sarebbe assolutamente nitida.

Sul lato D2A, la tua immagine è un mucchio di numeri - le linee marcate sono indicative di numeri che differiscono di un bel po '. Quindi il testo nero su una pagina bianca sarà una transizione molto repentina tra 0,0,0 e 255,255,255 (valori RGB) e viceversa. Ora prova a convertire questo in analogico - se il DAC e il circuito associato non sono ben progettati, finirai per non arrivare a 255, 255, 255 sul pixel in cui lo vuoi, e poi non tornerai abbastanza indietro a 0 , 0,0 per pochi altri. Il risultato è un po 'più sfumature di grigio piuttosto che il bianco e nero nitido che stavi cercando.


1
Il degrado dipende anche dalla risoluzione. Il colpo di qualità dell'analogico a 1600x1200 sul mio NEC 2090 è minimo. Quando ho collegato per la prima volta il mio 3090 a 2560x1600, per default usavo i cavi analogici sul cavo DVI e sembrava così male, giganti macchie di colore incasinato (simile a un CRT che aveva un magnete sventolato sullo schermo), la mia reazione iniziale fu che il monitor era difettoso, passando a digitale fisso tutto. Stavo usando una GTX260 quindi la scheda stessa non avrebbe dovuto essere un problema.
Dan Neely

1

Non sono tanto le due conversioni (suppongo che il monitor di destinazione non sia un CRT) quanto i fili. I segnali analogici sono soggetti a interferenze: i fili possono captare segnali l'uno dall'altro, passando telefoni cellulari, segnali radio, elettricità domestica a 50Hz, fulmini lontani, ecc. C'è anche una certa quantità di distorsione naturale che non può mai essere completamente eliminata.

Quindi un segnale che entra come "0,375 V verde" potrebbe apparire come "0,419 verde". Lo stesso vale per i segnali digitali, ma "0.123" viene arrotondato a 0 e "0.859" viene arrotondato a 1. Un segnale digitale può essere ripristinato interamente da piccole quantità di rumore.

È anche il caso che, man mano che l'immagine aumenta, la frequenza dei segnali analogici aumenta. A questo punto sei ancora più dipendente dalle proprietà elettriche del cavo e dei connettori per non perdere o distorcere il tuo segnale.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.