Hardware

A Nvidia piora a qualidade de um monitor sdr quando comparado a um hdr

Índice:

Anonim

Em uma tentativa de demonstrar a importância do suporte ao HDR (High Dynamic Range) para a qualidade da imagem de futuros monitores e televisores, a NVIDIA decidiu montar seu próprio estande na Computex 2017 para apresentar a diferença entre as imagens SDR (Range). Padrão Dinâmico) e HDR.

Computex 2017: NVIDIA modifica as configurações de fábrica de um monitor SDR para destacar a qualidade da imagem dos monitores HDR

No entanto, parece que a empresa foi mais longe na tentativa de destacar a incrível qualidade da imagem HDR e, para esse fim, decidiu modificar as configurações da imagem do monitor SDR para torná-la ainda pior.

Essa descoberta foi feita pelo canal do YouTube Hardware Canucks, onde eles alegam ter acesso às configurações de monitor que a NVIDIA usou para executar a demonstração. A empresa alterou as configurações padrão de fábrica do monitor padrão para reduzir os valores de brilho, contraste e até gama, o que afetou consideravelmente a qualidade da imagem.

Redefinir as configurações do monitor SDR para as configurações de fábrica resultou em imagens menos nítidas e mais nítidas em comparação com o monitor HDR; portanto, a NVIDIA tentou deliberadamente reduzir a qualidade da imagem do efeito SDR em sua apresentação.

Por outro lado, é preciso reconhecer que a percepção das diferenças entre os efeitos SDR e HDR depende mais de cada um, pois nem todos observam o mesmo aumento na qualidade da imagem. No entanto, ao modificar e piorar as configurações padrão de brilho, contraste e gama, é um sinal claro de que a NVIDIA tem se esforçado demais para destacar o poder do HDR.

Fonte: Techpowerup

Hardware

Escolha dos editores

Back to top button