Med all den gode maskinvaren vi har tilgjengelig i disse dager, ser det ut til at vi bør nyte god kvalitet på å se på uansett hva, men hva om det ikke er tilfelle? Dagens SuperUser Q&A innlegg søker å rydde opp ting for en forvirret leser.
Dagens spørsmål og svar-økt kommer til oss med tillatelse fra SuperUser - en underavdeling av Stack Exchange, en samfunnsdrevet gruppe av spørsmål og svar-nettsteder.
Foto med tillatelse fra lge (Flickr) .
Spørsmålet
SuperUser-leseralkamid vil vite hvorfor det er en merkbar forskjell i kvalitet mellom HDMI-DVI og VGA:
Jeg har en Dell U2312HM-skjerm koblet til en Dell Latitude E7440 bærbar PC. Når jeg kobler dem til via laptop -> HDMI-kabel -> HDMI-DVI-adapter -> skjerm (skjermen har ikke HDMI-kontakt), er bildet mye skarpere enn om jeg kobler til via bærbar PC -> miniDisplayPort-VGA-adapter -> VGA kabel -> skjerm.
Forskjellen er vanskelig å fange med kamera, men se mitt forsøk på det nedenfor. Jeg prøvde å leke med innstillingene for lysstyrke, kontrast og skarphet, men jeg kan ikke få samme bildekvalitet. Oppløsningen er 1920 * 1080 med Ubuntu 14.04 som operativsystem.
VGA:
![]()
HDMI:
![]()
Hvorfor er kvaliteten annerledes? Er det iboende for disse standardene? Kan jeg ha en defekt VGA-kabel eller mDP-VGA-adapter?
Hvorfor er det en forskjell i kvalitet mellom de to?
Svaret
SuperUser-bidragsytere Mate Juhasz, youngwt og Jarrod Christman har svaret for oss. Først opp, Mate Juhasz:
VGA er det eneste analoge signalet blant de som er nevnt ovenfor, så det er allerede en forklaring på forskjellen. Bruk av adapteren kan forverre kvaliteten ytterligere.
Noe videre lesing: HDMI vs. DisplayPort vs. DVI vs. VGA
Etterfulgt av svaret fra youngwt:
Forutsatt at lysstyrke, kontrast og skarphet er den samme i begge tilfeller, kan det være to andre grunner til at teksten er skarpere med HDMI-DVI.
Den første har allerede blitt uttalt, VGA er analog, så den må gjennom en analog til digital konvertering inne i skjermen. Dette vil teoretisk forringe bildekvaliteten.
For det andre, forutsatt at du bruker Windows, er det en teknikk som heter ClearType (utviklet av Microsoft) som forbedrer utseendet på tekst ved å manipulere delpikslene til en LCD-skjerm. VGA ble utviklet med tanke på CRT-skjermer, og forestillingen om en subpiksel er ikke den samme. På grunn av kravet om at ClearType skal bruke en LCD-skjerm og det faktum at VGA-standarden ikke forteller verten spesifikasjonene til skjermen, vil ClearType bli deaktivert med en VGA-tilkobling.
Jeg husker jeg hørte om ClearType fra en av skaperne på en podcast for This (). Developers (). Life () IIRC, men dette Wikipedia article støtter også teorien min. Også HDMI er bakoverkompatibel med DVI, og DVI støtter Electronic Display Identification (EDID).
Med vårt endelige svar fra Jarrod Christman:
De andre gir noen gode poeng, men hovedårsaken er en åpenbar klokke- og fasefeil. VGA er analog og utsatt for forstyrrelser og misforhold mellom de analoge sendings- og mottakssidene. Normalt vil man bruke et mønster som dette:
Juster deretter klokken og fasen på skjermen for å få den beste matchen og det skarpeste bildet. Imidlertid, siden det er analogt, kan disse justeringene skifte over tid, og derfor bør du ideelt sett bare bruke et digitalt signal.
Har du noe å legge til forklaringen? Lyd av i kommentarene. Vil du lese flere svar fra andre teknologikyndige Stack Exchange-brukere? Sjekk ut hele diskusjonstråden her .