Hoje em dia há tantos novos termos, como HDR, que ficamos até sem saber o que cada um deles significa. Mas você lembra da época em que a qualidade de uma TV era avaliada pela sua resolução? Pois é, talvez você não saiba, mas isso deixou de ser o mais importante.

Hoje, o que define as melhores televisões é a oferta de cores de seu display. Nos aparelhos, isso é identificado através dos padrões HDR. Por isso, hoje vamos explicar para você o que é HDR e quais são os seus diferentes tipos.

Aliás, vale destacar que esses padrões não se restringem apenas às telas de TV. Diferentes produtos, como celulares, consoles de videogame, tablets, câmeras de vídeo e até mesmo salas de cinema mundo afora hoje investem em soluções HDR para melhorar a oferta de cores das imagens que transmitem.

Como mostraremos a seguir, existem diferentes padrões HDR. Alguns são mais facilmente encontrados, mas nenhum alcançou até hoje a qualidade oferecido pelo Dolby Vision, aquele que certamente você já viu em algum lugar por aí.

Neste artigo, vamos explicar o que é o famoso High Dynamic Range, que origina a sigla, e ajudar você a identificar as diferentes tecnologias disponíveis atualmente, incluindo uma em fase final de testes.

Isso certamente ajudará você a escolher a ideal.

Pois então, vamos lá!

Afinal, o que é HDR?

O que é HDR?

O High Dynamic Range, conhecido simplesmente pela sigla HDR, é um recurso que se refere à quantidade de cores que cada pixel consegue assumir.

O sistema de ‘grande alcance dinâmico’ (a tradução livre de HDR) permite que as imagens tenham cores mais vivas. De forma resumida, podemos dizer que um aparelho que faça uso dessa tecnologia em geral consegue que os tons mais claros ganhem mais brilho, e os tons mais escuros adquiram mais contraste.

Isso é possível porque o HDR explora uma faixa maior de iluminação. Afinal, nem tudo tem o mesmo brilho ou a mesma sombra; imagens em primeiro plano, por exemplo, não têm os mesmos tons que os objetos ou pessoas que aparecem ao fundo.

Vale ressaltar que, apesar de ter se popularizado há poucos anos, não se trata de uma tecnologia tão recente assim. A busca pelo alcance dinâmico do HDR já era comum em câmeras fotográficas, filmadoras e celulares.

Ocorre que pouco adiantava as câmeras captarem imagens explorando ao máximo a escala de cores dos pixels, se as telas das TVs ou monitores não fossem capazes de exibi-las com a mesma qualidade.

Em outras palavras, o HDR é uma tecnologia que exige integração de duas vias:

  1. primeiro, é preciso captar a imagem com essa tecnologia;
  2. Depois, de uma tela de TV capaz de fazer a leitura correta das cores captadas.

Diferença entre HDR e SDR

As TVs com alcance dinâmico padrão, ou SDR, foram por muito tempo as mais comuns do mercado. A tecnologia SDR era empregada desde o tempo da TV de tubo, e ainda hoje é encontrada em muitas TVs de tela plana. Aquelas com formato e resolução full hd, por exemplo, são SDR.

No sistema SDR, a imagem conta com uma proporção mais curta entre os pontos mais escuros e claros, a luz de fundo é pouco explorada. O resultado disso é que a reprodução da imagem possui cores em tons mais uniformes, com menos nuances. Assim, nesse padrão, a fidelidade das cores exibidas em relação às reais é menor.

No High Dynamic Range, por sua vez, essa proporção de destaque das cores é maior.

Em um filme de terror, por exemplo, o conteúdo visual é mais bem explorado porque cenas de penumbra ou escuridão são mais vívidas. Ao se assistir a uma partida de futebol, o gramado parece mais real graças às suas tonalidades. O torcedor na arquibancada, idem.

Para tudo isso se transformar em experiência para quem assiste, no entanto, é preciso que o brilho da tela suporte. A ‘luminância’, como é conhecida, se mede em nits: quanto maior, melhor. Assim, displays com tecnologia HDR conseguem atingir um padrão melhor.

Televisores full HD oferecem imagem de boa qualidade? Sim. Mas o ponto é: a experiência de quem assiste é muito melhor em telas que oferecem alto alcance dinâmico. E esse recurso está disponível em TVs e monitores mais modernos. Uma TV 4K, por exemplo, costuma oferecer a tecnologia HDR, ainda que associada a outra.

Quais os tipos de HDR?

Tecnologia HDR

Existem diferentes padrões de HDR no mercado. Alguns são de código aberto, e como tal acabam sendo utilizados por diversos fabricantes e produtores de conteúdo. Outros, por sua vez, são tecnologias desenvolvidas por determinadas empresas, e seu uso depende de acordos de licenciamento.

A seguir, apresentamos os diferentes padrões HDR.

HDR10

O HDR10 é um modelo de código aberto e, além das TVs, é utilizado em discos e aparelhos de blu-ray 4k, PlayStation a partir da quarta geração Pro, Xbox One S e Xbox One X.

Esse padrão foi desenvolvido em conjunto por algumas das gigantes dos eletrônicos, como Sony e Samsung.

Ele oferece brilho de mil nits. Sua profundidade de cores é 10 bits.

Apesar de melhorar (muito!) a qualidade da imagem, ele ainda está distante da tecnologia Dolby Vision, que você verá mais adiante. Isso acontece porque o HDR10 se utiliza de metadados fixos, o que ainda deixa o resultado aquém do possível.

HDR10+

O padrão HDR10+ é um modelo desenvolvido para ser a nova geração do HDR10. Ele foi desenvolvido a partir de um trabalho conjunto da Samsung e Amazon. A ideia era tentar se aproximar da tecnologia Dolby Vision.

Uma das principais desvantagens do sistema HDR10 é que ele não possui mapeamento dinâmico de tons. Em outras palavras, ele é estático. Ainda que haja aumento da qualidade de imagem, a transição de cenas é impactada.

Esse problema foi corrigido no HDR10+, mas ainda assim o modelo não foi capaz de alcançar o da Dolby.

O motivo é que o formato permanece com os mesmos valores de luminância: 1.000 nits e 10 bits.

HLG

Este é um modelo híbrido e pouco usado por aqui. Surgiu de um acordo de produção das emissoras BBC e NHK. Seu foco são as transmissões ao vivo.

O modelo não considera os metadados para cálculo de brilho. Para se ter uma ideia, funciona até mesmo em televisores tubo, cuja tecnologia não tem mais suporte no Brasil.

Aparelhos de TV mais modernos, por outro lado, conseguirão ter a qualidade do HDR nas transmissões ao vivo. Ainda assim, com resolução inferior ao HDR10.

Advanced HDR

Este é o padrão mais conhecido de HDR.

Desenvolvido pela Technicolor, empresa que atua com cores desde a época da fotografia e filmes em rolo, o sistema contempla três modelos de tecnologia HDR.

SL-HDR1 é o modelo mais básico, e assim como o HGL ele é compatível com o display mais antigo, o SDR.

O SL-HDR2, por sua vez, é um padrão muito próximo àquele visto no HDR10+ e no Dolby Vision. Isso porque, assim como os concorrentes, também conta com metadados dinâmicos.

A Technicolor também está em fase de testes de um terceiro padrão HDR. A ideia é se tornar híbrido, oferecendo pela primeira vez entre os fabricantes um tipo como metadados dinâmicos, ao mesmo tempo que for retrocompatível para modelos SDR. Note que, diferentemente do HGL, neste padrão a qualidade se assemelha.

Dolby Vision

O Dolby Vision é o padrão HDR da Dolby Laboratories. É o mais avançado à disposição no mercado.

Ele foi lançado praticamente ao mesmo tempo que HDR10, mas com qualidade muito superior.

A tecnologia Dolby Vision usa profundidade de cores de 12 bits RGB. Isso significa que ela é capaz de processar 4.096 tons por cor, chegando a um total de 68 bilhões de cores!

Além disso, enquanto a HDR10 oferece luminância de até mil nits, o Dolby Vision chega a 10 vezes mais do que isso.

Por ser um sistema que não possui código aberto, empresas que querem fazer uso da tecnologia precisam conseguir licenciamento junto a Dolby Laboratories.

Para consegui-lo, a empresa precisa assegurar que o display, vídeo e aparelho como um todo, estejam de acordo com pré-requisitos e padrões exigidos pela Dolby.

A vantagem disso é que todos os aparelhos que utilizam o padrão HDR Dolby Vision têm qualidade idêntica. Os aparelhos que usam HDR de código aberto, por sua vez, podem variar nesse aspecto.

Além do próprio aparelho de TV, como dissemos, o padrão HDR também precisa ser utilizado na própria produção e difusão das imagens. No Brasil, os canais abertos e de TV a cabo ainda não garantem isso. Mas, se você assina algum streaming de filmes, como a Netflix, certamente já fez uso da tecnologia.

O Dolby Vision também está presente em centenas de salas de cinema mundo afora.

Dolby Vision IQ

Recentemente, a Dolby Laboratories apresentou um avanço do Dolby Vision tradicional, o IQ.

A nova tecnologia aproveita o sistema HDR da empresa, mas soma à qualidade da imagem a iluminação do próprio ambiente onde as televisões estiverem instaladas. Para isso, utiliza os sensores do próprio aparelho.

Não é demais?

E como saber qual o padrão HDR da minha TV?

Tecnologia HDR

Bom, uma maneira simples é verificar a escala de nits do seu televisor!

Enquanto TVs antigas ofereciam entre 100 e 200 nits de recurso, uma televisão à venda atualmente pode ultrapassar os 2 mil nits. Lembrando que, nesse caso, quanto maior, melhor.

Essa informação consta nas especificações técnicas do aparelho. Algumas trazem esse dado no próprio nome. Se você já pesquisou em algum grande site de comércio eletrônico por uma TV Samsung, por exemplo, deve ter visto que televisores aparentemente iguais têm preços diferentes.

A explicação pode estar no próprio nome da TV. Uma Samsung HDR1000, por exemplo, chega a mil nits. Já a HDR1500, a 1,5 mil.