Si vous suivez un peu les nouvelles technologies, vous avez probablement déjà entendu parler du HDR, surtout dans le contexte de la vidéo et peut-être de la photo. Mais comme beaucoup de personnes, vous n'avez peut-être pas compris l'intérêt de cette technologie, assez rare dans les appareils de bureau et devenue par contre très courante dans les périphériques mobiles.
Le principal problème vient du vocabulaire. Vous pourriez nous dire « le HDR, je connais, j'avais ça sur l'appareil photo de mon iPhone 4 ». Ou « le HDR, je me souviens, j'avais ça dans Half-Life2 : Lost Coast en 2005 ». Et vous auriez raison : le sigle, qui signifie High Dynamic Range, soit « plage dynamique étendue », a été employé à toutes les sauces pour simplement mettre en avant une plage dynamique plus grande. Mais ici, nous allons parler de la technologie intégrée dans les moniteurs, qui permet justement d'améliorer la qualité de ce que nous regardons.
Les écrans de nos appareils ont une plage dynamique faible
Pour cette première partie, intéressons-nous au point le plus mis en avant en HDR : la plage dynamique, liée directement à la luminosité. Et pour bien comprendre les avantages, il faut partir d'un constat : les écrans de nos appareils ont une plage dynamique très faible.
Une mise en garde pour la suite : les illustrations ne mettent pas en avant les avantages du HDR pour diverses raisons. La principale vient du fait que la majorité d'entre vous n'a probablement pas un écran HDR. La seconde est que la plupart des formats d'image employés sur le web ne prennent pas en charge le HDR.
Dans le monde réel, le soleil au zénith peut atteindre une luminosité de 1 600 000 000 cd/m² (candela par mètre carré1, l'unité la plus courante) et la valeur minimale est aux alentours de 0,000400 cd/m², une nuit très noire. Si nous prenons ces deux valeurs extrêmes, nous obtenons la plage dynamique, soit la différence entre la valeur la plus basse et la plus haute.
Ensuite, il y a notre œil, qui n'a pas une plage dynamique aussi élevée. Vous le savez, il ne faut pas regarder le soleil directement pour une bonne raison : votre rétine risque d'être endommagée. Dans la pratique, la limite réelle est aux alentours de 100 000 000 cd/m² (au-delà, les dégâts surviennent) et une valeur maximale de 100 000 cd/m² est la plus généralement acceptée. La minimale, elle, dépend en réalité de la luminosité. Notre iris fonctionne comme les objectifs d'appareils photo et s'adapte donc à la visibilité ambiante. Avec une luminosité élevée (100 000 cd/m²), la valeur minimale perçue est de l'ordre de 1 cd/m². Dans un endroit plus sombre (1 000 cd/m²), elle descend à 0,01 cd/m². En simplifiant, la dynamique est d'environ 100 000 entre la luminosité la plus élevée et la plus faible que nous pouvons distinguer. Le point le plus brillant perceptible est donc 100 000 fois plus éclatant que le moins brillant encore discernable.
Après le monde réel et nos yeux, il y a les écrans. Un moniteur d'ordinateur standard a une luminosité de l'ordre de 400 cd/m², et avec une dalle IPS une luminosité minimale assez élevée, 0,4 cd/m² (soit un taux de contraste de 1000:1). Un écran de cinéma, lui, est plutôt aux alentours de 50 cd/m² et un bon téléviseur HDR moderne (nous allons arriver au sujet, ne vous inquiétez pas) est entre 1 000 et 1 500 cd/m²2. Nos appareils mobiles ont des possibilités du même acabit, avec par exemple 1 600 cd/m² sur un iPhone 16 Pro.
Vous l'avez compris, nos écrans ne nous montrent qu'une version extrêmement étriquée de la réalité, limitée par la technologie et par nos yeux, et le but du HDR est de nous proposer une mouture plus étendue et donc plus réaliste.