Med al den fantastiske hardware, vi har til rådighed i disse dage, ser det ud til, at vi burde nyde godt af kvalitetsvisning uanset hvad, men hvad hvis det ikke er tilfældet? Dagens SuperUser Q & A-indlæg søger at rydde tingene op for en forvirret læser.
Dagens spørgsmål og svar-session kommer til os med tilladelse fra SuperUser - en underinddeling af Stack Exchange, en community-driven gruppe af Q&A websteder.
Foto med tilladelse til lge (Flickr) .
Spørgsmålet
SuperUser-læser alkamid vil vide, hvorfor der er en mærkbar forskel i kvalitet mellem HDMI-DVI og VGA:
Jeg har en Dell U2312HM-skærm tilsluttet en Dell Latitude E7440-bærbar computer. Når jeg tilslutter dem via en bærbar computer -> HDMI-kabel -> HDMI-DVI-adapter -> skærm (skærmen har ikke et HDMI-stik), er billedet meget skarpere, end hvis jeg tilslutter via en bærbar computer -> miniDisplayPort-VGA-adapter -> VGA kabel -> skærm.
Forskellen er vanskelig at fange med et kamera, men se mit forsøg på det nedenfor. Jeg prøvede at lege med indstillingerne for lysstyrke, kontrast og skarphed, men jeg kan ikke få den samme billedkvalitet. Opløsningen er 1920 * 1080 med Ubuntu 14.04 som mit operativsystem.
VGA:
![]()
HDMI:
![]()
Hvorfor er kvaliteten anderledes? Er det iboende med disse standarder? Kan jeg have et defekt VGA-kabel eller mDP-VGA-adapter?
Hvorfor er der en forskel i kvalitet mellem de to?
Svaret
SuperUser-bidragydere Mate Juhasz, youngwt og Jarrod Christman har svaret for os. Først op, Mate Juhasz:
VGA er det eneste analoge signal blandt de ovennævnte, så det er allerede en forklaring på forskellen. Brug af adapteren kan forværre kvaliteten yderligere.
Noget yderligere læsning: HDMI vs. DisplayPort vs. DVI vs. VGA
Efterfulgt af svaret fra youngwt:
Hvis vi antager, at lysstyrke, kontrast og skarphed er den samme i begge tilfælde, kan der være to andre grunde til, at teksten er skarpere med HDMI-DVI.
Den første er allerede nævnt, VGA er analog, så det bliver nødvendigt at gennemgå en analog til digital konvertering inde i skærmen. Dette vil teoretisk forringe billedkvaliteten.
For det andet, forudsat at du bruger Windows, er der en teknik kaldet ClearType (udviklet af Microsoft), som forbedrer udseendet af tekst ved at manipulere underpixlerne på en LCD-skærm. VGA blev udviklet med CRT-skærme i tankerne, og forestillingen om en subpixel er ikke den samme. På grund af kravet om, at ClearType bruger en LCD-skærm, og det faktum, at VGA-standarden ikke fortæller værten specifikationerne for skærmen, ville ClearType være deaktiveret med en VGA-forbindelse.
Jeg husker, at jeg hørte om ClearType fra en af dens skabere på en podcast til This (). Udviklere (). Life () IIRC, men dette Wikipedia-artikel understøtter også min teori. HDMI er også bagudkompatibel med DVI, og DVI understøtter Electronic Display Identification (EDID).
Med vores endelige svar fra Jarrod Christman:
De andre har nogle gode punkter, men hovedårsagen er et tydeligt ur og fasefejl. VGA er analog og udsat for interferens og misforhold mellem de analoge sendende og modtagende sider. Normalt bruger man et mønster som dette:
Juster derefter uret og fasen på skærmen for at få det bedste match og det skarpeste billede. Da det er analogt, kan disse justeringer dog skifte over tid, og derfor skal du ideelt set bare bruge et digitalt signal.
Har du noget at tilføje til forklaringen? Lyd fra i kommentarerne. Vil du læse flere svar fra andre teknisk kyndige Stack Exchange-brugere? Tjek den fulde diskussionstråd her .