Le HDR est de loin la nouvelle technologie reine de ces dernières années pour améliorer la qualité de l’affichage de nos écrans. On se noie cependant entre les étiquettes : HDR10, HDR10+, HLG, Dolby Vision… Les sigles se multiplient. Il est temps d’expliquer leurs différences.
Le HDR est sans nul doute la technologie la plus importante sortie sur ces dernières années pour nos écrans. Couvrant une plus large gamme de luminosité, elle permet de retrouver des noirs plus noirs, des blancs plus blancs, des couleurs toujours plus nuancées et des variations d’intensité et de luminosité au sein d’une même image.
De quoi rendre une expérience télévisuelle toujours plus impressionnante. Pour autant, s’y retrouver en tant que consommateur est compliqué, puisque les normes se sont multipliées au fil des mois. Notre dossier vous expliquera les tenants et aboutissants des principaux labels HDR.
Qu’est-ce que le HDR10 ?
Le HDR10 est un standard basé sur une plateforme ouverte. Il se nomme ainsi car il est basé sur une échelle de couleurs en 10 bits (contre 8 pour une image non HDR habituelle). L’avantage de ce standard est que si les constructeurs suivent bien ses recommandations, ils peuvent l’implémenter librement sur leurs produits.
Il suit la norme Ultra HD Premium, la certification officielle la plus élevée pour un appareil Ultra HD. Les constructeurs se doivent de suivre les configurations minimales suivantes :
- Définition : 3840 x 2160 pixels
- Profondeur de couleurs : 10 bits
- Espace colorimétrique : 90 % ou plus de l’espace DCI-P3 + entrée HDMI compatible Rec.2020
- HDR : [LED] luminosité maximale d’au moins 1000 cd/m², niveaux de noir inférieurs ou égaux à 0,05 cd/m². [OLED] luminosité maximale d’au moins 540 cd/m, niveaux de noir inférieurs ou égaux à 0,0005 cd/m².
Qu’est-ce que le HDR10+ ?
Le HDR10+ est une évolution naturelle du HDR10. À ses réclamations matérielles s’ajoute une nouvelle donnée : le flux vidéo lui-même.
La vidéo va en effet envoyer directement des informations de réglages en temps réel afin d’optimiser l’image finale, plan après plan. Ici donc, le matériel est tout aussi important que le logiciel pour faire en sorte d’afficher la meilleure image possible.
Qu’est-ce que le Dolby Vision ?
Le Dolby Vision est une norme propriétaire développée directement par Dolby, et n’est donc pas libre. S’il est souvent mis en duel avec le HDR10, il va techniquement plus loin puisqu’il propose une quantification sur 12 bits.
Surtout, la certification est délivrée par Dolby qui va optimiser le contenu de sa création à sa diffusion. L’étalonnage du master en post-production est par exemple lui aussi contrôlé par l’entreprise pour garantir la meilleure qualité finale.
Son concurrent direct est donc le HDR10+, qui lui laisse les vidéastes créer les métadonnées nécessaires sans supervision.
Qu’est-ce que le HLG ?
Le HLG, ou Hybrid Log Gamma, est un standard libre de droit. Il a été développé par la BBC et la NHK et se focalise majoritairement sur les diffusions de programmes TV en HDR.
Il est aujourd’hui adopté par le consortium DVB, l’ITU et aussi le HDMI Forum. Cependant, on le retrouve rarement en dehors des diffusions TV.
Qu’est-ce que le HDR Pro, HDR Plus et consorts ?
Sortis de ces standards, on peut aussi lire certaines mentions comme HDR Pro ou encore HDR Plus sur certains téléviseurs. Il ne s’agit ici pas de certifications officiels ou de standards.
Il s’agit surtout pour les constructeurs d’un moyen de signifier que leur téléviseur dépasse les spécifications techniques attendues pour les appareils SDR. Ainsi, on retrouve derrière ces noms des téléviseurs dépassant les 100 nits sans pour autant offrir une expérience HDR complète, notamment avec des dalles 8 bits plutôt que 10 bits.
Ces différentes normes cohabitent actuellement sur différents appareils et différents services. Il est donc important de vérifier que votre smartphone ou téléviseur est compatible avec le ou les formats utilisé(s) par vos services préférés. À titre d’exemple, Netflix est compatible Dolby Vision et HDR10.