Olhe para uma lista de resoluções de monitor por tempo suficiente e você poderá notar um padrão: muitas das resoluções verticais, especialmente aquelas de monitores de jogos ou multimídia, são múltiplos de 360 (720, 1080, 1440, etc.) Mas por que exatamente este é o caso? É arbitrário ou há algo mais em ação?
A sessão de perguntas e respostas de hoje chega até nós como cortesia do SuperUser - uma subdivisão do Stack Exchange, um grupo de sites de perguntas e respostas voltado para a comunidade
A questão
O leitor de superusuário Trojandestroy percebeu recentemente algo sobre sua interface de exibição e precisa de respostas:
O YouTube adicionou recentemente a funcionalidade de 1440p e, pela primeira vez, percebi que todas as (a maioria?) Resoluções verticais são múltiplos de 360.
É apenas porque a menor resolução comum é 480 × 360 e é conveniente usar múltiplas? (Não tenho dúvidas de que múltiplos são convenientes.) E / ou essa foi a primeira resolução visível / de tamanho conveniente, então o hardware (TVs, monitores, etc.) cresceu pensando em 360?
Indo mais longe, por que não ter uma resolução quadrada? Ou outra coisa incomum? (Supondo que seja normal o suficiente para que seja visível). É apenas uma situação agradável aos olhos?
Então, por que a tela é um múltiplo de 360?
A resposta
O contribuidor do SuperUser User26129 nos oferece não apenas uma resposta sobre por que o padrão numérico existe, mas um histórico do design da tela no processo:
Tudo bem, há algumas perguntas e vários fatores aqui. Resoluções são um campo realmente interessante do marketing de reuniões de psicóticos.
Em primeiro lugar, por que as resoluções verticais no youtube são múltiplas de 360. Isso é obviamente arbitrário, não há nenhuma razão real para ser assim. A razão é que a resolução aqui não é o fator limitante para vídeos do Youtube - a largura de banda é. O Youtube tem que recodificar cada vídeo carregado algumas vezes e tenta usar o mínimo possível de formatos / taxas de bits / resoluções de recodificação para cobrir todos os diferentes casos de uso. Para dispositivos móveis de baixa resolução, eles têm 360 × 240, para dispositivos móveis de alta resolução há 480p e para a multidão de computadores há 360p para linhas fixas 2xISDN / multiusuário, 720p para DSL e 1080p para internet de alta velocidade. Por um tempo, houve alguns outros codecs além do h.264, mas eles estão sendo gradualmente eliminados com o h.264 tendo essencialmente 'vencido' a guerra de formatos e todos os computadores sendo equipados com codecs de hardware para isso.
Agora, há alguns psicóticos interessantes acontecendo também. Como eu disse: resolução não é tudo. 720p com compressão realmente forte pode parecer pior do que 240p com uma taxa de bits muito alta. Mas, do outro lado do espectro: jogar mais bits em uma determinada resolução não o torna melhor, magicamente, além de algum ponto. Há um ótimo aqui, que obviamente depende da resolução e do codec. Em geral: a taxa de bits ideal é, na verdade, proporcional à resolução.
Portanto, a próxima pergunta é: que tipo de etapas de resolução fazem sentido? Aparentemente, as pessoas precisam de um aumento de cerca de 2x na resolução para realmente ver (e preferir) uma diferença marcante. Qualquer coisa menos do que isso e muitas pessoas simplesmente não vão se incomodar com as taxas de bits mais altas, elas preferem usar sua largura de banda para outras coisas. Isso foi pesquisado há muito tempo e é a grande razão pela qual passamos de 720 × 576 (415kpix) para 1280 × 720 (922kpix), e novamente de 1280 × 720 para 1920 × 1080 (2MP). Coisas intermediárias não são um alvo de otimização viável. E, novamente, 1440P tem cerca de 3,7 MP, outro aumento de ~ 2x em relação ao HD. Você verá uma diferença aí. 4K é a próxima etapa depois disso.
O próximo é aquele número mágico de 360 pixels verticais. Na verdade, o número mágico é 120 ou 128. Todas as resoluções são algum tipo de múltiplo de 120 pixels hoje em dia, antigamente eram múltiplos de 128. Isso é algo que acabou de crescer a partir da indústria de painéis LCD. Os painéis LCD usam os chamados drivers de linha, pequenos chips localizados nas laterais da tela LCD que controlam o brilho de cada subpixel. Porque historicamente, por razões que eu realmente não sei com certeza, provavelmente restrições de memória, essas resoluções múltiplas de 128 ou múltiplas de 120 já existiam, os drivers de linha padrão da indústria tornaram-se drivers com saídas de 360 linhas (1 por subpixel) . Se você derrubasse sua tela de 1920 × 1080, eu estaria apostando na existência de 16 drivers de linha na parte superior / inferior e 9 em uma das laterais. Oh, ei, isso é 16: 9. Adivinhe o quão óbvia essa escolha de resolução era quando o 16: 9 foi "inventado".
Depois, há a questão da proporção. Este é realmente um campo completamente diferente da psicologia, mas se resume a: historicamente, as pessoas acreditaram e mediram que temos uma espécie de visão de mundo em tela ampla. Naturalmente, as pessoas acreditavam que a representação mais natural dos dados em uma tela seria em uma exibição de tela ampla, e é daí que a grande revolução anamórfica dos anos 60 veio quando os filmes foram filmados em proporções cada vez maiores.
Desde então, esse tipo de conhecimento foi refinado e principalmente desmascarado. Sim, temos uma visão de ângulo amplo, mas a área onde podemos ver nitidamente - o centro de nossa visão - é bastante redonda. Ligeiramente elíptico e achatado, mas não mais do que cerca de 4: 3 ou 3: 2. Portanto, para uma visualização detalhada, por exemplo para ler texto em uma tela, você pode utilizar a maior parte de sua visão detalhada empregando uma tela quase quadrada, um pouco como as telas de meados dos anos 2000.
No entanto, mais uma vez, não foi assim que o marketing assumiu. Antigamente, os computadores eram usados principalmente para produtividade e trabalho detalhado, mas à medida que se transformavam em commodities e o computador como dispositivo de consumo de mídia evoluía, as pessoas não necessariamente usavam o computador para trabalhar na maior parte do tempo. Eles o usaram para assistir a conteúdo de mídia: filmes, séries de televisão e fotos. E para esse tipo de visualização, você obtém o maior "fator de imersão" se a tela preencher o máximo possível de sua visão (incluindo sua visão periférica). O que significa widescreen.
Mas ainda há mais marketing. Quando o trabalho detalhado ainda era um fator importante, as pessoas se preocupavam com a resolução. O máximo de pixels possível na tela. A SGI estava vendendo quase 4K CRTs! A maneira mais ideal de obter o máximo de pixels de um substrato de vidro é cortá-lo o mais quadrado possível. Telas 1: 1 ou 4: 3 têm mais pixels por polegada diagonal. Mas com os monitores se tornando mais consumíveis, o tamanho em polegadas se tornou mais importante, não a quantidade de pixels. E este é um alvo de otimização completamente diferente. Para obter o máximo de polegadas diagonais de um substrato, você deseja deixar a tela o mais larga possível. Primeiro, obtivemos 16:10, depois 16: 9 e houve fabricantes de painéis moderadamente bem-sucedidos criando telas 22: 9 e 2: 1 (como Philips). Mesmo que a densidade de pixels e a resolução absoluta tenham caído por alguns anos, o tamanho em polegadas aumentou e foi isso que vendeu. Por que comprar um 19 ″ 1280 × 1024 quando você pode comprar um 21 ″ 1366 × 768? Eh…
Acho que cobre todos os aspectos principais aqui. É claro que há mais; Os limites de largura de banda de HDMI, DVI, DP e, claro, VGA tiveram um papel importante, e se você voltar aos anos 2000, a memória gráfica, a largura de banda do computador e simplesmente os limites dos RAMDACs disponíveis comercialmente desempenharam um papel importante. Mas para as considerações de hoje, isso é tudo que você precisa saber.
Tem algo a acrescentar à explicação? Soe fora nos comentários. Quer ler mais respostas de outros usuários do Stack Exchange com experiência em tecnologia? Confira o tópico de discussão completo aqui .