Découvrez dans cet article les principales différences entre HDR vs SDR et les avantages et inconvénients de ces deux formats.
La technologie HDR est aujourd’hui si répandue que des services de streaming populaires tels qu’Amazon Prime, Disney+ et Netflix ont commencé à prendre en charge le contenu HDR afin d’offrir de meilleurs produits. Mais qu’est-ce que la HDR exactement ? Comment fonctionne la HDR et comment se compare-t-elle à la SDR classique ?
Qu’est-ce que la SDR ?
Le Standard Dynamic Range (SDR) est une norme vidéo utilisée par les moniteurs à tube cathodique. Malgré le succès commercial de la technologie HDR, le SDR reste le format par défaut utilisé dans les téléviseurs, les moniteurs et les projecteurs. Bien qu’il ait été utilisé dans les anciens moniteurs à tube cathodique (et qu’il soit effectivement entravé par les limites de la technologie à tube cathodique), le SDR est encore un format acceptable aujourd’hui. En fait, la grande majorité des contenus vidéo, qu’il s’agisse de jeux, de films ou de vidéos YouTube, utilisent toujours le SDR. En fait, si votre appareil ou votre contenu n’est pas classé HDR, vous utilisez probablement le SDR.
Qu’est-ce que le HDR ?
High Dynamic Range (HDR) est la norme la plus récente en matière d’images et de vidéos. Le HDR a d’abord été popularisé par les photographes qui voulaient exposer correctement une composition avec deux sujets ayant une différence de 13 diaphragmes dans la valeur d’exposition. Une plage dynamique aussi large permet d’exposer correctement des scènes de la vie réelle, ce qui n’était pas possible auparavant avec le SDR.
Plus récemment, le HDR a été introduit dans les films, les vidéos et même les jeux. Alors que le contenu SDR offrait des ciels exagérés, des noirs indiscernables et des problèmes d’étalement lors des scènes à fort contraste, le HDR représente ces scènes de manière réaliste avec un espace colorimétrique, une profondeur de couleur et une luminance plus étendus.
Un espace colorimétrique plus large, une plus grande profondeur des couleurs et une luminance plus élevée font que le HDR est meilleur que le SDR, mais dans quelle mesure ?
Comparaison entre la HDR et la SDR
Si vous avez déjà acheté un moniteur, vous avez probablement remarqué certaines spécifications telles que sRGB, nit et cd/m2 et couleurs 10 bits. Ces spécifications concernent l’espace colorimétrique, la luminance et la profondeur des couleurs. Ce sont toutes ces spécifications qui rendent les sujets vibrants, bien mélangés et correctement exposés dans une image.
Pour mieux comprendre la différence entre HDR et SDR, comparons les deux par le biais de la gamme de couleurs, de la luminance et de la profondeur des couleurs. Commençons par la gamme de couleurs.
Gamme de couleurs
Une gamme de couleurs est un spectre théorique de couleurs qui peut être représenté numériquement. Pour représenter toutes les couleurs possibles que les yeux peuvent voir, l’industrie utilise le diagramme de chromaticité CIE 1931. Ce diagramme est la norme qui permet de comparer les différents espaces colorimétriques. La SDR utilise un espace colorimétrique appelé Rec 709 et la HDR Rec 2100.
Le triangle représente l’espace qu’ils utilisent dans l’illustration ci-dessous :
Comme vous pouvez le constater, l’espace colorimétrique utilisé par la Rec 2100 du HDR est nettement plus grand que celui de la Rec 709 du SDR.
Grâce à l’espace colorimétrique étendu du HDR, les réalisateurs de films et les créateurs de contenus divers disposeront d’un spectre beaucoup plus large de verts, de rouges et de jaunes pour représenter leur travail de manière précise et artistique. Cela signifie que les spectateurs qui regardent le HDR verront des couleurs plus vives, en particulier dans les verts, les jaunes, les rouges et tout ce qui se trouve entre les deux.
En ce qui concerne le SDR, étant donné que l’espace colorimétrique comporte des quantités proportionnelles de couleurs primaires, les coloristes peuvent toujours représenter leur travail de manière magnifique, bien qu’avec des limitations significatives.
Luminosité
Vous avez déjà vu la gamme de couleurs représentée en 2D telle qu’elle est utilisée. Cependant, l’ensemble de l’espace colorimétrique CIE 1931 est en fait un diagramme en 3D. La troisième dimension du diagramme représente la luminosité perçue de la couleur. La luminosité, associée à la saturation, est ce qui modifie la qualité de la couleur que l’homme est capable de voir.
Un écran capable d’émettre des quantités plus importantes de luminance est plus à même de modifier toutes les teintes représentées par le scénario des couleurs en 2D et peut donc afficher plus de couleurs visibles par l’œil humain.
La technologie SDR est capable d’émettre 100 nits ou 100 cd/m2. En revanche, le HDR10 (la norme HDR la plus courante) peut produire jusqu’à 1 000 nits. Cela signifie que regarder en HDR10 peut permettre aux spectateurs de voir plus de variétés de couleurs primaires et secondaires.
Profondeur des couleurs
Bien que les yeux humains voient tout en analogique, les écrans numériques doivent reproduire ces ondes lumineuses analogiques en bits numériques afin que les processeurs puissent les recréer. Ces bits d’information numériques sont appelés profondeur de couleur ou bits de couleur.
L’œil humain utilise la perception pour voir les différentes couleurs. Les écrans numériques utilisent la profondeur des couleurs ou la profondeur des bits pour indiquer à un pixel quelle couleur afficher. Plus un pixel peut afficher de bits, plus il peut afficher de couleurs.
La SDR peut afficher 8 bits de couleur, ce qui signifie qu’un pixel peut afficher une couleur primaire en 256 variétés. Comme il existe trois couleurs primaires, un panneau de 8 bits peut afficher un maximum de 16 777 216 nuances de couleurs.
Pour donner un ordre d’idée, l’œil humain ne peut distinguer qu’environ 10 millions de couleurs. Cela signifie que la technologie SDR est tout à fait capable d’afficher les couleurs que nos yeux humains peuvent voir, ce qui explique pourquoi la couleur 8 bits est toujours la norme pour les médias visuels aujourd’hui.
En revanche, le HDR10 peut atteindre une profondeur de couleur de 10 bits, soit un maximum de 1,07 milliard de nuances de couleurs !
Impressionnant, mais comme l’œil humain ne peut distinguer qu’environ 10 millions de couleurs, une profondeur de couleur de 10 bits n’est-elle pas excessive ? Pouvez-vous voir la différence ?
Oui, tout à fait ! Mais comment ?
Les gens peuvent percevoir plus de couleurs avec une profondeur de 10 bits, car l’œil humain ne perçoit pas les nuances de couleurs de la même manière.
L’échelle de chromaticité CIE 1931 (illustration ci-dessus) montre que l’œil humain perçoit beaucoup plus de verts et de rouges que de bleus. Bien qu’une profondeur de couleur de 8 bits puisse maximiser tous les bleus que vos yeux peuvent percevoir, elle ne peut pas faire de même avec les rouges, et encore moins avec les verts. Ainsi, même si vous verrez à peu près la même gamme de bleus à 8 et 10 bits, d’autres couleurs primaires telles que les rouges et les verts apparaîtront davantage sur un système utilisant une profondeur de couleur de 10 bits.
Avantages et inconvénients du HDR et du SDR
En termes de couleurs et d’affichage, le HDR est meilleur que le SDR à tous égards. Il apporte des améliorations significatives en termes d’espace colorimétrique, de luminance et de profondeur de couleur. Par conséquent, si vous avez la possibilité de regarder des films, des images ou de jouer à des jeux en HDR, vous devriez toujours le faire, mais le pouvez-vous ?
Le problème avec le HDR est que la plupart des médias consommables ne sont pas compatibles avec cette technologie. Souvent, le visionnage d’un contenu multimédia HDR sur un écran SDR détériore l’expérience visuelle par rapport au visionnage sur un écran SDR normal.
Un autre problème est que la plupart des appareils HDR utilisent le HDR10, qui n’est pas très normalisé. Par exemple, vous trouverez le logo HDR10 apposé sur une mauvaise dalle qui ne sera pas aussi performante que la dalle de 1 000 lumens montrée dans les publicités HDR10.
Bien que la technologie SDR fournisse les normes d’affichage habituelles et ne puisse pas rivaliser avec la technologie HDR lorsqu’elle fonctionne, sa facilité d’utilisation, sa compatibilité et son coût inférieur expliquent pourquoi de nombreuses personnes préfèrent encore l’utiliser.
Autres articles :