Stirre på en liste over skærmopløsninger længe nok, og du bemærker muligvis et mønster: mange af de lodrette opløsninger, især de af spil- eller multimedieskærme, er multipla af 360 (720, 1080, 1440 osv.) Men hvorfor er dette netop det sag? Er det vilkårlig, eller er der noget mere på arbejde?
Dagens spørgsmål og svar-session kommer til os med tilladelse fra SuperUser - en underinddeling af Stack Exchange, en community-driven gruppe af Q&A websteder.
Spørgsmålet
SuperUser-læser Trojandestroy bemærkede for nylig noget om hans skærmgrænseflade og har brug for svar:
YouTube tilføjede for nylig 1440p-funktionalitet, og for første gang indså jeg, at alle (mest?) Lodrette opløsninger er multipla af 360.
Er dette bare fordi den mindste almindelige opløsning er 480 × 360, og det er praktisk at bruge multipler? (Uden tvivl om, at multipler er praktiske.) Og / eller var den første opløsning, der kunne ses / har en passende størrelse, så hardware (tv, skærme osv.) Voksede med 360 i tankerne?
Hvis du tager det videre, hvorfor ikke have en firkantet opløsning? Eller noget andet usædvanligt? (Forudsat at det er normalt nok, at det kan ses). Er det blot en behagelig situation?
Så hvorfor har skærmen et multiplum af 360?
Svaret
SuperUser-bidragyder User26129 giver os ikke kun et svar på, hvorfor det numeriske mønster eksisterer, men en historie med skærmdesign i processen:
Okay, der er et par spørgsmål og mange faktorer her. Opløsninger er et virkelig interessant felt inden for markedsføring af psykooptikmøder.
Først og fremmest, hvorfor er de lodrette opløsninger på youtube multipla af 360. Dette er selvfølgelig bare vilkårligt, der er ingen reel grund til, at dette er tilfældet. Årsagen er, at opløsning her ikke er den begrænsende faktor for Youtube-videoer - båndbredde er. Youtube skal genkode hver video, der uploades et par gange, og forsøger at bruge så få genkodningsformater / bitrate / opløsninger som muligt for at dække alle de forskellige brugssager. For mobile enheder med lav opløsning har de 360 × 240, for højere opløsningsmobiler er der 480p, og for computermængden er der 360p for 2xISDN / multifunktions fastnet, 720p for DSL og 1080p for internet med højere hastighed. I et stykke tid var der nogle andre codecs end h.264, men disse udfases langsomt med h.264, der i det væsentlige har 'vundet' formatkrigen, og alle computere er udstyret med hardwarecodecs til dette.
Nu foregår der også nogle interessante psykooptika. Som jeg sagde: opløsning er ikke alt. 720p med virkelig stærk kompression kan og vil se dårligere ud end 240p ved en meget høj bithastighed. Men på den anden side af spektret: at smide flere bits i en bestemt opløsning gør det ikke magisk bedre ud over et eller andet tidspunkt. Der er et optimalt her, hvilket naturligvis afhænger af både opløsning og codec. Generelt: Den optimale bithastighed er faktisk proportional med opløsningen.
Så det næste spørgsmål er: hvilken slags opløsningstrin giver mening? Tilsyneladende har folk brug for en 2x stigning i opløsning for virkelig at se (og foretrække) en markant forskel. Alt mindre end det, og mange mennesker vil simpelthen ikke gider med de højere bitrater, de vil hellere bruge deres båndbredde til andre ting. Dette er blevet undersøgt for ganske lang tid siden og er den store grund til, at vi gik fra 720 × 576 (415kpix) til 1280 × 720 (922kpix), og derefter igen fra 1280 × 720 til 1920 × 1080 (2MP). Ting imellem er ikke et levedygtigt optimeringsmål. Og igen, 1440P er omkring 3,7 MP, en anden ~ 2x stigning i forhold til HD. Du vil se en forskel der. 4K er det næste trin efter det.
Dernæst er det magiske antal på 360 lodrette pixels. Faktisk er det magiske tal 120 eller 128. Alle opløsninger er en slags multiplum af 120 pixels i dag, tilbage på den dag, de plejede at være multipler af 128. Dette er noget, der bare voksede ud af LCD-panelindustrien. LCD-paneler bruger såkaldte linjedrivere, små chips, der sidder på siderne af din LCD-skærm, der styrer, hvor lyse hver subpixel er. Fordi historisk set, af grunde jeg ikke rigtig ved med sikkerhed, sandsynligvis hukommelsesbegrænsninger, eksisterede disse multiple-of-128 eller multiple-of-120-opløsninger allerede, blev industristandardlinjedrivere drivere med 360 line-output (1 pr. Subpixel) . Hvis du ville rive din 1920 × 1080-skærm ned, ville jeg lægge penge på, at der var 16 linjedrivere øverst / nederst og 9 på en af siderne. Åh hej, det er 16: 9. Gæt hvor indlysende dette beslutningsvalg var tilbage, da 16: 9 blev 'opfundet'.
Så er der spørgsmålet om billedformat. Dette er virkelig et helt andet felt inden for psykologi, men det koger ned til: historisk har folk troet og målt, at vi har en slags bredskærmsbillede af verden. Naturligvis troede folk, at den mest naturlige gengivelse af data på en skærm ville være i bredformat, og det var her, den store anamorfe revolution i 60'erne kom fra, da film blev optaget i stadig bredere billedformater.
Siden da er denne form for viden blevet raffineret og for det meste afskåret. Ja, vi har vidvinkel, men det område, hvor vi rent faktisk kan se skarpt - midt i vores vision - er ret rundt. Lidt elliptisk og klemt, men ikke mere end ca. 4: 3 eller 3: 2. Så for detaljeret visning, for eksempel til læsning af tekst på en skærm, kan du bruge det meste af din detaljsyn ved at anvende en næsten kvadratisk skærm, ligesom skærmene op til midten af 2000'erne.
Dette er dog igen ikke, hvordan marketing tog det. Computere i gamle dage blev for det meste brugt til produktivitet og detaljeret arbejde, men da de commoditiseredes, og efterhånden som computeren udviklede sig som medieforbrugsenhed, brugte folk ikke nødvendigvis deres computer til arbejde det meste af tiden. De brugte det til at se medieindhold: film, tv-serier og fotos. Og for den slags visning får du den mest 'nedsænkningsfaktor', hvis skærmen fylder så meget af din vision (inklusive din perifere vision) som muligt. Hvilket betyder widescreen.
Men der er stadig mere markedsføring. Når detaljarbejde stadig var en vigtig faktor, var folk interesserede i opløsning. Så mange pixels som muligt på skærmen. SGI solgte næsten 4K CRT'er! Den mest optimale måde at få det maksimale antal pixels ud af et glassubstrat er at skære det så firkantet som muligt. 1: 1 eller 4: 3 skærme har flest pixels pr. Diagonal tomme. Men med skærme, der blev mere forbrug, blev tommestørrelse vigtigere, ikke antallet af pixels. Og dette er et helt andet optimeringsmål. For at få de mest diagonale inches ud af et substrat, vil du gøre skærmen så bred som muligt. Først fik vi 16:10, derefter 16: 9, og der har været moderat succesrige panelproducenter, der fremstiller 22: 9 og 2: 1-skærme (som Philips). Selvom pixeltæthed og absolut opløsning gik ned i et par år, steg tommer-størrelser op, og det er det, der sælges. Hvorfor købe en 19 ″ 1280 × 1024, når du kan købe en 21 ″ 1366 × 768? Øh ...
Jeg tror, at det dækker alle de store aspekter her. Der er selvfølgelig mere; båndbreddegrænser på HDMI, DVI, DP og selvfølgelig VGA spillede en rolle, og hvis du går tilbage til pre-2000'erne, spillede grafikhukommelse, computerbåndbredde og simpelthen grænserne for kommercielt tilgængelige RAMDAC'er en vigtig rolle. Men af dagens overvejelser handler det om alt hvad du behøver at vide.
Har du noget at tilføje til forklaringen? Lyder i kommentarerne. Vil du læse flere svar fra andre teknisk kyndige Stack Exchange-brugere? Tjek den fulde diskussionstråd her .