25.08.2016

Exposer à droite, bonne ou mauvaise idée

Rédigé par:
Franky Giannilivigni

25.08.2016

Exposer à droite, bonne ou mauvaise idée

photo-01

Si vous vous intéressez à la photo, soit vous avez déjà entendu parler de l’exposition à droite, soit vous n’allez pas tarder à en entendre parler.

Cette technique est très souvent conseillée par certains experts en photo comme une sorte de garantie de tirer les pleines possibilités d’un fichier photo.

Aujourd’hui, nous allons voir ensemble si c’est vraiment une bonne idée et si oui, comment et quand l’appliquer.

Qu’est-ce que l’exposition à droite :

Pour ceux qui le savent déjà, vous pouvez sauter ce chapitre ou le lire pour une petite piqûre de rappel, pour ceux qui ne le savent pas, je vais vous en expliquer les bases.

Pour bien comprendre l’idée, il faut tout d’abord savoir comment se forme une image sur un capteur numérique, pour ce faire, et si vous ne le savez pas, je vous invite à lire cet article, qui explique très bien les choses : Le format RAW. Je vous recommande vraiment de lire l’article pour comprendre la suite des explications.

Si on a bien compris comment se construit une image, on sait que la lumière vient remplir des photosites. La logique nous indique donc que plus le photosite reçoit de lumière, plus le fichier aura d’information en son cœur. Dans l’autre sens, moins il y a de lumière, moins le photosite pourra transmettre d’infos.

De fait, sur le 100% d’infos de lumière que contient un fichier RAW, la plus grande partie (environ 50%) se trouve dans les hautes lumières, les 50% restant se répartissant dans les tons moyens et les basses lumières.

Partant de ce constat, certains photographes se sont dit que la meilleure solution était « d’exposer à droite ». Cette expression vient de l’histogramme d’exposition, ce graphique détermine la répartition des pixels, à gauche les tons foncés, au milieu les tons moyens et à droite les tons clairs et la hauteur indique la densité de pixels :

photo-02

L’idée va donc être de « surexposer légèrement » pour que les ombres soient débouchées et ainsi pousser l’histogramme sur la droite, sans pour autant toucher le bord du graphique, car dans ce cas l’image serait trop claire (donc irrécupérable comme on le verra plus loin).

En faisant ainsi, on a des ombres débouchées et on peut ramener les hautes lumières dans des valeurs justes en post-traitement en profitant du surplus d’informations qui se trouve justement dans les tons clairs.

Est-ce une bonne idée ?

Comme on a pu le voir, sur le papier cela semble être une très bonne idée, d’autant plus quand on sait qu’il y a moins d’information dans les basses lumières, ce qui sous-entend que récupérer des basses lumières en post-traitement est plus difficile que pour les hautes lumières au vu du manque d’information.

Pour être sûrs que la théorie rejoint la pratique, nous allons donc tester toutes les situations et comparer les résultats.

Protocole du test :

Je n’aurais ni la prétention, ni les capacités techniques et le matériel de faire un test avec une rigueur 100% parfaite scientifiquement. Pour autant, ce test est assez précis et rigoureux pour se faire une bonne idée des résultats.

Pour ce faire, j’ai mis en place une « scène Lego », composé d’un sol en gris anthracite, d’un fond gris clair, de différents personnages Star Wars, noir, blanc, gris, rouge, bleu, vert, ceci afin d’avoir une large palette de tons et de couleur (avec les 3 couleurs RVB), mais également avec de quoi mettre en difficulté la dynamique de l’image, vu qu’on a du blanc et du noir et toutes les gammes de tons entre-deux.

Pour réaliser la photo, j’ai utilisé un Canon EOS 1Dx + 24-70mm f/2,8 à 70mm f/5,6 pour 100iso en lumière naturelle. L’appareil a été posé sur un bon gros trépied du type Manfrotto SERIE 057 fibre de carbone, miroir relevé pour éviter toute vibration malgré la pose longue, qui n’est pas pour aider au bruit numérique.

Le but est de faire une première photo avec l’expo la plus parfaite possible, donc, un histogramme, qui ressemble à celui-ci présenté un peu plus haut.

Comme on peut le voir, les pixels sont répandus sur toute la surface, on voit une pointe vers les blancs, à cause du personnage blanc justement, qui fait monter la quantité de pixels clairs, mais rien n’est cramé, rien n’est bouché, on a une exposition parfaite.

De là, on peut faire une sous et une surexposition, pour avoir une expo à droite, mais également à gauche avec une photo sous-exposée, ainsi, nous pourrons voir ce qui se passe.

L’expérience :

Nous allons commencer par la photo exposée de façon juste, qui sera notre photo « témoin », notre base de travail.photo-3

On constate que tout est plutôt parfait, à première vue, les rouges sont rouges, les bleus sont bleus, les verts sont verts, les ombres sont lisibles, les hautes lumières pas cramées et les couleurs noires ont du détail.

Ce fichier de base peut donc être poussé dans un sens ou dans un autre avec beaucoup de latitude !

Passons à une expo à gauche :photo-4

Comme on peut le voir sur les infos de prise de vues, on a bel et bien une sous-ex de 1IL, et là, les noirs semblent bouchés, les blancs trop foncés en bref, une jolie sous ex comme on les aime !

Passons à une expo à droite :photo-5

Encore une fois, on a une belle sur-ex, on voit que c’est avec 1IL de plus qu’a été prise cette photo, si on regarde l’histogramme, il est bel et bien collé à droite … toujours à cause de notre cher bonhomme blanc.

Maintenant, la question à se poser, que se passe-t-il réellement, si on ramène les photos sur-ex et sous-ex à des valeurs idéales pour avoir l’expo la plus juste possible … on va percer le mystère !

L’idée ici est simple, c’est d’améliorer les fichiers pour obtenir un rendu au plus proche de ce qu’on peut attendre d’une photo, avec la dynamique la plus large possible, du blanc au noir, et sans dénaturer le fichier.

Je vous laisse essayer de trouver lequel est lequel :photo-6

Vous allez me dire : « oui … bon, ce n’est pas tout à fait juste, on est trop loin, il nous faudrait un crop 100% ».

Je vous dirais alors … vous avez RAISON !

Surtout que sur le crop on peut voir quelques différences :photo-7

Comme on peut le constater il n’y a pas une dégradation notable et préjudiciable des fichiers, que ce soit le fichier sous-ex ou le fichier sur-ex. Il semble qu’ils ont tout à fait réussi à encaisser leurs stops d’écart et être ramenés aux bonnes valeurs sans que cela n’ait posé le moindre problème.

Mais comme il ne faut jamais s’arrêter en si bon chemin, la deuxième étape va être de surexposer et de sous-exposer de façon extrême et de voir ce qui va se passer et pour réaliser cela, j’ai fait varier l’exposition de 3IL dans un sens et dans l’autre.photo-8

Vous allez me dire : « mais quel est le but de faire une telle chose ? »

C’est simple, quand on prend le risque « ne pas exposer correctement », mais d’exposer à droite, il est très difficile de gérer à quel point on est à la limite de la surexposition irréversible, celle, qui va cramer l’image et qui fera qu’on ne peut plus la rattraper.

Dans le cadre de cette expérience, nous avons tous contrôlé de façon précise, chaque valeur, chaque détail pour que l’expérience soit reproductible. Sur le terrain, il est moins simple d’être aussi précis tout en étant rapide et efficace.

Personne n’est donc à l’abri d’une erreur !

Si on fait une faute en exposant à droite, soit on s’est trompé et on a exposé « normalement », soit on s’est trompé et on a surexposé.

De la même façon, si on fait une erreur en exposant juste, soit on se trompe et on sous-expose, soit on va dans l’autre sens et notre erreur est de surexposer … mais l’erreur de surexposer en partant d’une valeur juste sera toujours moindre que celle liée à une tentative d’exposition à droite !

Du coup, la grande question est de savoir, en cas d’erreur, il vaut mieux cramer son image ou boucher ses ombres ?

Voici la réponse :photo-9

Le crop 100% :photo-10

Ici, je pense que l’évidence saute aux yeux !

Remonter 3 stops de sous-ex à quelques conséquences, mais ça passe comme une lettre à la poste !

Une légère montée du bruit dans les ombres les plus extrêmes, mais rien qu’on ne pourrait arranger en post-prod, on arrive à obtenir un fichier tout à fait exploitable. Il n’y a presque pas de perte de détails, reconnaissons-le, c’est impressionnant !

À contrario, la trop grande surexposition, ne permet pas un réel rattrapage, même en poussant les manettes à fond, les parties cramées deviennent grises, mais on perd réellement tous les détails, plus aucun moyen de les retrouver, plus de nuances dans les ombres, qui ressemble à des coupes franches.

Un tel fichier est juste inexploitable !

Mais pourquoi ?

Il est évident que les résultats de cette démonstration sont contre-intuitifs.

On voit que lors de surexposition ou sous-exposition modeste on peut facilement rattraper les fichiers, alors qu’en cas de décalage plus violent, c’est bel et bien la sous-exposition qui offre une meilleure latitude de rattrapage, bien qu’en théorie cela devrait être le contraire.

L’explication du pourquoi est plus subtile qu’il n’y paraît, je vais donc essayer de vous faire une explication simple, vous me pardonnerez donc quelques « raccourcis » et impression pour vulgariser ce point un peu technique.

Il faut comprendre que la plupart des informations dans les hautes lumières sont simplement, inexploitées, et de fait quand on est en surexposition, on peut ramener des informations dans le visible grâce aux données non exploitée.

De l’autre côté, quand on est sous-exposé, ce n’est plus les informations directes des données de lumière « non exploitées », qui sont utilisées, mais bel et bien les capacités d’analyse et de conversion – en bref les algorithmes très poussés -, des logiciels de dématrissage.

Ce qu’il faut garder à l’esprit c’est qu’il y a une certaine limite qu’on ne peut pas dépasser dans les hautes lumières sans dégrader de façon irréversible, limite « apparente » qui semble plus large avec les basses lumières

En effet, un photosite a une certaine capacité à emmagasiner des photons, tous comme un seau à une certaine capacité à contenir du liquide avant de déborder.

Un photosite « trop plein » est un pixel cramé, irrécupérable, finit, on perd définitivement tous les détails, car, trop d’infos tuent l’info. Bien sûr il est plus que très rare, pour ne pas dire presque impossible que ce ne soit qu’un seul photosite qui soit touché par ces phénomènes, c’est évidement des groupes de photosites.

Et ce trop-plein peut se faire dans chaque couleur de base, le bleu, le vert et le rouge. On peut donc avoir des pixels d’une couleur surexposée, ils seront par exemple rouges, mais n’auront plus de détails, ce sera juste un rouge pur.

Cette capacité du photosite à emmagasiner des photons est propre à chaque capteur, la taille du photosite intervient, mais n’est pas l’élément le plus déterminant, bien qu’un très gros photosite aura toujours plus de possibilités qu’un tout petit. Il y a bien d’autre chose qui entre en ligne de compte pour cette capacité à recevoir plus ou moins de photons, mais nous n’allons pas entrer ici dans les détails.
Ce que je voulais souligner, c’est que les informations pures des hautes lumières ne sont pas rattrapables si on va trop loin, tout comme celle des basses lumières, mais, car il y a un mais…
Les algorithmes des dématriceurs liés à la puissance des ordinateurs modernes opèrent en quelque sorte des « miracles » et c’est ce qui fait toute la différence, comme je vais l’expliquer un peu plus loin.

Pour autant, tout ne s’arrête pas là, car, l’électronique internet et les logiciels qui « créent » le RAW ont une certaine part de responsabilité dans le processus.

Il peut donc y avoir une influence réelle sur les capacités du fichier à rendre plus ou moins d’informations en basse et haute lumière, c’est ainsi qu’on peut noter des différences tangibles entre les marques, qui pourtant partagent un même capteur.

Quand on a bien compris tout ça, il est facile de déduire que sous ou sur exposé d’un IL sera très facilement rattrapable.

En effet, quand on surexpose d’un IL, le programme de dématricage pourra alors aller chercher les informations supplémentaires dans les hautes lumières, elles ne sont pas parfaites, mais d’assez bonne qualité pour obtenir un très bon fichier avec des ombres préservées.

Quand on sous-expose d’un IL, on aura préservé les hautes lumières, les ombres sont détériorées de façon plus significative qu’en surexposant. Pour autant, la qualité et la force des programmes de dématricage actuelle, comme Lightroom, Capture One, DxO …etc fait qu’ils arrivent à « réparer » l’info de telle sorte que ce soit transparent et que les fichiers obtenus soient parfaits.

Attention, je parle bien d’un fichier « juste », donc, simplement sous-exposé ou surexposé d’un IL, mais sans qu’il y ait des ombres vraiment bouchées ou de hautes lumières vraiment brulées.

En résumé, pour un décalage de 1IL à droite ou à gauche, c’est soit l’information non exploitée du fichier qui permet le rattrapage, soit les capacités des dématriceurs modernes, le tout, saupoudré de la qualité même du fichier RAW de base, qui permet le rattrapage.

Quand on va plus loin, genre 2 ou 3 IL, c’est là que les problèmes arrivent.

Car, au moment où une haute lumière est brulée, on ne peut plus rien faire, trop d’informations étant plus destructif que pas assez, dans le sens ou le programme va se retrouver à chercher de l’information de récupération, mais ne pourra pas en trouver de façon satisfaisante, il va alors utiliser la même technique que pour la sous-exposition, à savoir il va aller chercher les informations encore exploitables et extrapoler ce qui pourrait se trouver là où il n’y plus d’info du tout, ou dans le cas d’une surexposition trop d’info pour en retirer quelque chose.

Le problème, c’est que pour obtenir une certaine cohérence il ne peut pas de façon unilatérale décider que ce blanc est blanc, car surexposé, ou blanc, car c’est la couleur originale se trouvant sur l’image, et comme la surexposition a tendance à « déborder » sur les pixels adjacents, il y a un manque cruel de dégradé de luminescence, qui permettrait un travail efficace des algorithmes pour « recréer » l’information manquante.

A l’opposé le problème est le même, et pourtant, c’est le fait d’avoir moins d’informations qui aide le programme, car il a plus de possibilités de calculer un point juste en s’appuyant sur le dégradé (la baisse) d’infos dû au manque de lumière, c’est ainsi qu’il arrive à « deviner » de façon très/plus juste ce qu’il doit rattraper de ce qu’il ne doit pas toucher, car le dégradé « d’information lumineuse » est plus subtile avant de toucher la sous-exposition total et les ombres bouchées réellement noires.

Et c’est pour ça que j’ai réussi à rattraper un fichier de -3IL sans trop de dégât et pas celui de +3IL. On voit d’ailleurs dans mon exemple qu’il n’y a plus de dégradé dans les ombres, justement, à cause de cet effet de « surinformation ».

Qu’en conclure ?

Quelle est la morale de cette histoire?

Le mieux reste de faire attention en visant l’exposition la plus juste possible.

Un expert en photo, qui connait son matériel et sait exactement comment travailler avec, va surexposer, il pourra se servir de cette astuce pour avoir une vraie plus-value sur ces fichiers en gagnant de l’information « réelle », car il va rester dans la vraie dynamique du capteur en respectant les limites physiques de celui-ci.

Dans ce cas précis, exposé à droite est une bonne chose, mais elle est à définir au cas par cas. C’est une pratique que l’on utilise plus facilement en studio.

Celui qui a des doutes et/ou qui n’est pas dans une lumière constante qu’il peut contrôler (par exemple le photographe animalier qui suit un oiseau en vol) ou qui a une scène avec une dynamique peut étendu (avec beaucoup de tons moyens), aura tout intérêt à essayer d’exposer le plus juste possible.

L’idée est que si on sait ce que l’on fait, on peut exposer à droite, pour « augmenter » la dynamique « affichable » de son image, en préservant une certaine qualité.
Si on est grand reporter, photographe animalier, passionné qui ne maîtrise pas encore bien l’exposition, que la dynamique de la scène ne demande pas d’effort particulier …etc, il faut préférer une exposition juste, c’est ainsi qu’on aura le plus de chance d’avoir un fichier « rattrapable » en cas de problèmes ou d’erreurs.

Je pourrais conclure ce billet en disant que si l’exposition à droite n’est pas une mauvaise idée en soi, elle n’est pas non plus une très bonne idée et que dans la plupart des situations c’est une complication supplémentaire inutile.

La prochaine fois qu’on vous parlera d’exposition à droite, rappelez-vous de cet article.

Franky Giannilivigni

Suisse

Photographe professionnel Suisse et formateur photo reconnu par les plus grandes marques, tel que Canon, Nikon, PhaseOne, il lui arrive d’écrire des livres sur la photo et il anime également l’un des plus grands blogs photo francophones d’Europe, le Darth’s Blog, sur lequel on trouve bons nombres de conseils, tests, concours et autres passionnants billets sur photo. En un mot, c’est un passionné et amoureux de la photo.

Top
Our Brands