Med all den fantastiska hårdvaran vi har tillgängligt dessa dagar verkar det som om vi borde njuta av högkvalitativ visning oavsett vad, men vad händer om så inte är fallet? Dagens SuperUser Q & A-inlägg försöker rensa upp saker för en förvirrad läsare.
Dagens Fråga & Svar-session kommer till oss med tillstånd av SuperUser - en underavdelning av Stack Exchange, en community-driven gruppering av Q & A-webbplatser.
Foto med tillstånd av lge (Flickr) .
Frågan
SuperUser läsare alkamid vill veta varför det finns en märkbar skillnad i kvalitet mellan HDMI-DVI och VGA:
Jag har en Dell U2312HM-skärm ansluten till en Dell Latitude E7440-bärbar dator. När jag ansluter dem via en bärbar dator -> HDMI-kabel -> HDMI-DVI-adapter -> bildskärm (monitorn har inget HDMI-uttag), är bilden mycket skarpare än om jag ansluter via en bärbar dator -> miniDisplayPort-VGA-adapter -> VGA kabel -> bildskärm.
Skillnaden är svår att fånga med en kamera, men se mitt försök på det nedan. Jag försökte spela med inställningarna för ljusstyrka, kontrast och skärpa, men jag kan inte få samma bildkvalitet. Upplösningen är 1920 * 1080 med Ubuntu 14.04 som mitt operativsystem.
VGA:
![]()
HDMI:
![]()
Varför är kvaliteten annorlunda? Är det inneboende i dessa standarder? Kan jag ha en defekt VGA-kabel eller mDP-VGA-adapter?
Varför är det skillnad i kvalitet mellan de två?
Svaret
SuperUser-bidragsgivare Mate Juhasz, youngwt och Jarrod Christman har svaret för oss. Först upp, Mate Juhasz:
VGA är den enda analoga signalen bland de som nämns ovan, så det är redan en förklaring till skillnaden. Att använda adaptern kan försämra kvaliteten ytterligare.
Några ytterligare läsning: HDMI vs. DisplayPort vs DVI vs. VGA
Följt av svaret från youngwt:
Om vi antar att ljusstyrka, kontrast och skärpa är desamma i båda fallen kan det finnas två andra orsaker till att texten är skarpare med HDMI-DVI.
Den första har redan nämnts, VGA är analog, så det måste gå igenom en analog till digital konvertering inuti monitorn. Detta försämrar teoretiskt bildkvaliteten.
För det andra, förutsatt att du använder Windows, finns det en teknik som kallas ClearType (utvecklad av Microsoft) som förbättrar utseendet på text genom att manipulera delpixlarna på en LCD-skärm. VGA utvecklades med CRT-skärmar i åtanke och uppfattningen om en subpixel är inte densamma. På grund av kravet på ClearType att använda en LCD-skärm och det faktum att VGA-standarden inte berättar för värden specifikationerna för skärmen, skulle ClearType inaktiveras med en VGA-anslutning.
Jag minns att jag hörde om ClearType från en av dess skapare på en podcast för This (). Developers (). Life () IIRC, men det här Wikipedia-artikel stöder också min teori. HDMI är också bakåtkompatibel med DVI och DVI stöder Electronic Display Identification (EDID).
Med vårt slutliga svar från Jarrod Christman:
De andra gör några bra poäng, men den främsta anledningen är en uppenbar klock- och fasmatchning. VGA är analog och utsatt för störningar och oöverensstämmelse mellan de analoga sändande och mottagande sidorna. Normalt skulle man använda ett mönster så här:
Justera sedan klockan och fasen på monitorn för att få bästa matchning och skarpaste bild. Eftersom den är analog kan dessa justeringar ändras över tiden, och därför bör du helst bara använda en digital signal.
Har du något att lägga till förklaringen? Ljud av i kommentarerna. Vill du läsa fler svar från andra tekniskt kunniga Stack Exchange-användare? Kolla in hela diskussionstråden här .