Stirra på en lista över bildskärmsupplösningar tillräckligt länge och du kanske märker ett mönster: många av de vertikala upplösningarna, särskilt de för spel- eller multimedia-skärmar, är multiplar av 360 (720, 1080, 1440, etc.) Men varför är detta fall? Är det godtyckligt eller finns det något mer på jobbet?
Dagens Fråga & Svar-session kommer till oss med tillstånd av SuperUser - en underavdelning av Stack Exchange, en community-driven gruppering av Q & A-webbplatser.
Frågan
SuperUser-läsaren Trojandestroy märkte nyligen något om hans skärmgränssnitt och behöver svar:
YouTube lade nyligen till 1440p-funktionalitet, och för första gången insåg jag att alla (mest?) Vertikala upplösningar är multiplar av 360.
Är det bara för att den minsta vanliga upplösningen är 480 × 360, och att det är bekvämt att använda multiplar? (Tvivlar inte på att multiplar är praktiska.) Och / eller var det den första synliga / bekvämt upplösningen, så hårdvara (TV, bildskärmar, etc) växte med 360 i åtanke?
Om du tar det längre, varför inte ha en fyrkantig upplösning? Eller något annat ovanligt? (Förutsatt att det är vanligt att det är synligt). Är det bara en tilltalande situation?
Så varför har skärmen vara en multipel av 360?
Svaret
SuperUser-bidragsgivare User26129 erbjuder oss inte bara ett svar på varför det numeriska mönstret existerar utan en historia av skärmdesign i processen:
Okej, det finns ett par frågor och många faktorer här. Resolutioner är ett riktigt intressant område för marknadsföring av psykooptiska möten.
Först och främst, varför är de vertikala upplösningarna på youtube multiplar av 360. Detta är naturligtvis bara godtyckligt, det finns ingen verklig anledning till att detta är fallet. Anledningen är att upplösning här inte är den begränsande faktorn för Youtube-videor - bandbredd är. Youtube måste koda om varje video som laddas upp ett par gånger, och försöker använda så lite omkodningsformat / bithastigheter / upplösningar som möjligt för att täcka alla olika användningsfall. För mobila enheter med låg upplösning har de 360 × 240, för högre upplösningar finns 480p, och för datormängden finns 360p för 2xISDN / multianvändare, 720p för DSL och 1080p för höghastighetsinternet. Under ett tag fanns det några andra codecs än h.264, men dessa fasas långsamt ut med h.264 som i huvudsak har "vunnit" formatkriget och alla datorer utrustade med hårdvarukodec för detta.
Nu pågår det också några intressanta psykooptiker. Som jag sa: upplösning är inte allt. 720p med riktigt stark kompression kan och kommer att se sämre ut än 240p vid en mycket hög bithastighet. Men på andra sidan av spektrumet: att kasta fler bitar med en viss upplösning gör det inte magiskt bättre än någon punkt. Det finns ett optimalt här, vilket naturligtvis beror på både upplösning och codec. I allmänhet: den optimala bithastigheten är faktiskt proportionell mot upplösningen.
Så nästa fråga är: vilken typ av upplösningssteg är vettiga? Tydligen behöver människor ungefär en 2x ökning av upplösningen för att verkligen se (och föredra) en markant skillnad. Något mindre än det och många människor kommer helt enkelt inte att bry sig om de högre bithastigheterna, de skulle hellre använda sin bandbredd för andra saker. Detta har undersökts ganska länge sedan och är den stora anledningen till att vi gick från 720 × 576 (415kpix) till 1280 × 720 (922kpix), och sedan igen från 1280 × 720 till 1920 × 1080 (2MP). Saker däremellan är inte ett genomförbart optimeringsmål. Och igen, 1440P är cirka 3,7 MP, ytterligare ~ 2x ökning över HD. Du kommer att se en skillnad där. 4K är nästa steg efter det.
Nästa är det magiska antalet 360 vertikala pixlar. Egentligen är det magiska numret 120 eller 128. Alla upplösningar är någon form av multipel av 120 pixlar nuförtiden, tillbaka den dagen de brukade vara multiplar av 128. Detta är något som bara växte fram ur LCD-panelindustrin. LCD-paneler använder så kallade linjedrivrutiner, små chips som sitter på sidorna av din LCD-skärm som styr hur ljus varje subpixel är. Eftersom historiskt sett, av anledningar som jag inte riktigt vet säkert, förmodligen minnesbegränsningar, dessa multipel-av-128 eller multipel-av-120-upplösningar redan fanns, blev branschstandardlinjedrivrutiner drivrutiner med 360-linjens utgångar (1 per subpixel) . Om du skulle riva ner din 1920 × 1080-skärm skulle jag lägga pengar på att det finns 16 linjedrivrutiner på toppen / botten och 9 på en av sidorna. Åh hej, det är 16: 9. Gissa hur uppenbart det valet av upplösning var tillbaka när 16: 9 ”uppfanns”.
Sedan är det frågan om bildförhållande. Detta är verkligen ett helt annat psykologifält, men det kokar ner till: historiskt sett har människor trott och mätt att vi har en slags bredbildsvy av världen. Naturligtvis trodde folk att den mest naturliga representationen av data på en skärm skulle vara i en bredbildsvy, och det var här den stora anamorfiska revolutionen på 60-talet kom från när filmer spelades in i allt bredare bildförhållanden.
Sedan dess har denna typ av kunskap förfinats och mestadels avskräckt. Ja, vi har en vidvinkelvy, men området där vi faktiskt kan se skarpt - mitt i vår vision - är ganska runt. Något elliptiskt och squashed, men egentligen inte mer än cirka 4: 3 eller 3: 2. Så för detaljerad visning, till exempel för att läsa text på en skärm, kan du använda det mesta av din detaljvision genom att använda en nästan kvadratisk skärm, ungefär som skärmarna fram till mitten av 2000-talet.
Men återigen är det inte så som marknadsföring tog det. Datorer i gamla tider användes mestadels för produktivitet och detaljerat arbete, men när de kommodiserades och när datorn som mediaförbrukningsenhet utvecklades använde människor inte nödvändigtvis sin dator för arbete för det mesta. De använde den för att titta på medieinnehåll: filmer, tv-serier och foton. Och för den typen av visning får du den mest "nedsänkningsfaktorn" om skärmen fyller så mycket av din syn (inklusive din perifera syn) som möjligt. Vilket betyder widescreen.
Men det finns fortfarande mer marknadsföring. När detaljarbetet fortfarande var en viktig faktor brydde sig folk om upplösningen. Så många pixlar som möjligt på skärmen. SGI sålde nästan 4K CRT! Det mest optimala sättet att få ut maximalt antal pixlar från ett glassubstrat är att klippa den så kvadrat som möjligt. 1: 1 eller 4: 3 skärmar har flest pixlar per diagonal tum. Men med skärmar som blir mer konsumtion blev tumstorleken viktigare, inte antalet pixlar. Och detta är ett helt annat optimeringsmål. För att få ut de mest diagonala tummen från ett substrat vill du göra skärmen så bred som möjligt. Först fick vi 16:10, sedan 16: 9 och det har varit måttligt framgångsrika paneltillverkare som tillverkar 22: 9 och 2: 1-skärmar (som Philips). Trots att pixeltätheten och den absoluta upplösningen gick ner i ett par år så gick tumstorlekarna upp och det var det som såldes. Varför köpa en 19 ″ 1280 × 1024 när du kan köpa en 21 ″ 1366 × 768? Va…
Jag tror att det täcker alla viktiga aspekter här. Det finns naturligtvis mer; bandbreddsgränserna för HDMI, DVI, DP och naturligtvis VGA spelade en roll, och om du går tillbaka till 2000-talet spelade grafikminne, bandbredd i datorn och helt enkelt gränserna för kommersiellt tillgängliga RAMDAC: er en viktig roll. Men av dagens överväganden handlar det här om allt du behöver veta.
Har du något att lägga till förklaringen? Ljud av i kommentarerna. Vill du läsa fler svar från andra tekniskt kunniga Stack Exchange-användare? Kolla in hela diskussionstråden här .