- Comment représenter une couleur : les formats trichromiques, RGB et CMY ;
- Comment représenter une couleur : les formats cylindriques, HSV et HSL ;
- Comment représenter une couleur : les formats employant la luma, Y’UV et dérivés (le présent article) ;
- Comment représenter une couleur : les formats standards de la CIE, XYZ, Lab, Lch.
Précédemment, on a vu les espaces de couleur cartésiennes (RGB, CMY…) et cylindriques (HSV, HSL…). Ces deux systèmes tirent leur origine d’une logique physionomique et psychologique, respectivement, de la perception des couleurs. Le RGB et le CMY utilisent un système à base de trichromie qui reflète la trichromie de l’œil, et les espaces cylindriques utilisent la façon que l’on a de définir une couleur de façon intuitive (teinte, puis éclat ou luminosité).
Dans certains cas, cela ne suffit pas. Parfois, ce sont les contraintes techniques qui nous obligent à inventer des systèmes de couleur un peu moins direct ou intuitifs.
Espaces de couleurs utilisant la luma
Dans le cas qui va suivre, il a été utilisé à nouveau un système qui distingue d’un côté la luminosité d’une couleur (son intensité), et de l’autre sa chromaticité, c’est à dire sa teinte. Cette dernière est désormais codée sur deux axes, en coordonnées cartésiennes.
La particularité est que le choix des couleurs semble ici totalement arbitraire, a priori pas du tout logique : les axes du YUV par exemple vont du rose au turquoise et l’autre du violet au vert-orange. La position sur ce diagramme permet de reconstituer n’importe quelle couleur quand-même, mais cela semble peu naturel. La raison est mathématique, et l’on va détailler tout ça maintenant.
Représentation YUV
Parlons par exemple de la représentation YUV (ou Y’UV, plus précisément).
Ce format est né avec la télévision couleur. Avant cela, quand il n’y avait que de la télévision en niveaux de gris, les pixels n’avaient pas de sous-pixels. Chaque pixel était simplement plus ou moins éclairé et cela donnait une nuance de gris.
Le signal télévisuel était transmis sur des ondes, et ces ondes n’encodaient donc que la valeur de l’éclairement pour chaque pixel :
- pixel #1 : 10 %,
- pixel #2 : 55 %,
- …
Ces valeur — 10 % et 55 % ici dans l’exemple — sont appelées la luminance relative. Il reflète la quantité de lumière que doit émettre ce pixel.
Sauf que les dispositifs de rendu d’image de l’époque étaient des tubes cathodiques qui envoyaient un faisceaux d’électrons sur les luminophores pour les exciter et les rendre lumineux. Or, ni les canons à électrons, ni les luminophores sur les pixels ne répondaient linéairement à leur excitation : ce n’est parce qu’on mettait 50 % de tension sur le canon que le pixel visé renvoyait 50 % de sa luminosité maximale.
Il fallait apporter un correctif, appelé correction de gamma. Ce correctif dépend du support utilisé : un canon à électron avec des pixels ici, mais le même problème est rencontré en photographie, où les films argentiques et les filtres colorés n’avaient pas tous le même rendement. Ce correctif permet de redonner le bon contraste à une image en reliant la luminosité du photophore de l’écran à la valeur réelle du signal à transmettre dans l’onde.
Les grandeurs auxquels on applique une correction gamma sont annotés d’une apostrophe, ou d’un prime « ’ ». C’est pour ça que le « YUV » devient « Y’UV ». Cela ne change rien pour le principe du Y’UV, mais explique cette notation, très largement répandue.
Pour en revenir à notre écran en niveaux de gris, le signal transmis était le Y’ : c’est le signal de luminance corrigé de gamma, que l’on appelle « luma ». Juste lui, car c’est tout ce que le poste de télévision avait besoin en information pour les pixels pour restituer une image en niveau de gris.
Quand maintenant la télévision couleur est apparue, avec des sous-pixels rouges, verts, bleus (pris par mimétisme de l’œil), on aurait pu utiliser trois signaux : R’, G’ et B’. Mais que faisait-on des vieilles télés noir-et-blanc ? Avec un signal R’G’B’, ils ne pourraient rien faire. Et il n’était ni envisageable d’exiger de tout le monde de changer de télé, ni d’envoyer les signaux deux fois.
La solution était donc de continuer à émettre le signal de luma, pour tout le monde, et de trouver une astuce pour les couleurs. Cette astuce est de mettre l’information de la couleur, indépendante de la luma, sur deux axes que l’on a appelé U et V. Ces signaux U et V était ignorés par les télés en niveaux de gris.
Ce moyen, utiliser la luma et deux autres coordonnées pour retrouver trois couleurs primaires, est une astuce remarquable donné par un calcul mathématique. Ce calcul est le suivant :
$$\begin{aligned}R’ &= Y’ + V \\ G’ &= (-Y’ - U - V) \\ B’ &= Y’ + U\end{aligned}$$
Comme on voit, une petite jonglerie mathématique qui n’est autre qu’un système d’équations, qui permet d’utiliser un signal déjà existant — le Y’ — pour adapter les nouveaux signaux afin de s’économiser de nouvelles télé pour tout le monde, ou de nouvelles antennes. Brillant.
Notre orange vif, représenté en Y’UV devient :
-
yuv(0,514, -0,203, 0,247)
.
Les valeurs sont pondérées avec des coefficients dont l’origine est technique (rendements différents selon les luminophores dans les écrans, par exemple), d’où ces valeurs numériques un peu arbitraires.
Que représentent U et V ? Ce sont les signaux de chrominance. Ils transportent donc les informations de la couleur, là où Y’ ne transporte que la luma. Au lieu d’utiliser des pourcentages de rouge, vert, ou bleu comme dans RGB, les U et V correspondent à des coordonnées sur un diagramme de couleur spécifique. En l’occurrence, l’axe U va du vert au violet, et l’axe V du turquoise au rose :

Cet espace de couleur n’est ni moins légitime ni moins fonctionnel que le RGB ou le CMY, mais il n’est pas aussi naturel. Il est purement un résultat mathématique issu de la contrainte de devoir réemployer le signal de luma produite pour les premières télés.
Le Y’UV est utilisé tel quel pour le standard télévisuel PAL, utilisé notamment partout en Europe (hors France), en Chine, en Inde. Le principe du Y’UV a de nombreux dérivés développés pour des standards différents à travers le monde (voir là) :
- Y’IQ, pour le standard américain NTSC (USA, Amérique du Nord, Chili, Japon…) ;
- Y'DbDr pour le standard français SÉCAM (France, Russie, pays issues d’anciennes colonies françaises) ;
- Y’PbPr, pour la HD analogique apparue par la suite ;
- Y’CbCr, pour du signal numérique, y compris au sein du format JPEG ou MPEG (mp4) ;
- …
Le principe reste le même pour tous : la luma Y’ subsiste comme un héritage du passé et est d’ailleurs commune à tous ces standards. Ce qui change ce sont seulement les cartes de couleurs utilisées pour retrouver les signaux RGB. Effectivement : le choix des axes du turquoise au rose ou du vert au violet peut changer. La seule contrainte est de pouvoir obtenir toutes les couleurs avec deux axes, peu importe les couleurs des axes eux-mêmes.
Si l’on continu de l’utiliser aujourd’hui, c’est aussi parce que l’œil humain est plus sensible aux variations de luminosité (grâce aux bâtonnets) que de couleurs (grâce aux cônes, pourtant plus nombreux). On encode donc en général plus d’information dans la luma que dans la chrominance (c’est ce que fait très largement JPEG, par exemple, pour compresser les images et gagner de la place).
Voici ce que cela donne pour une même image, décomposée des différentes façons :

Amélioration supplémentaire : Y’IQ
Avec le Y’UV, on s’économise des installations de nouvelles antennes pour la télé couleur en plus d’antennes pour les télés « noir-et-blanc ». Il s’agit d’une astuce technique qui a permis le passage à la télé couleur sans arrêter de transmettre pour les anciennes télé.
D’autres astuces peuvent être utilisées, et le Y’IQ emploie l’une d’elle. Le Y’IQ utilise le même luma Y’, et même le même diagramme de chrominance. Seulement, il fait faire une rotation de 33° au diagramme (et une inversion en miroir) :

L’intérêt de ceci est que l’œil est plus sensible aux variations entre l’orange et le bleu qu’aux variations entre le violet et le vert. En utilisant un diagramme de chrominance dont les axes suivent les domaines orange-bleu (I) et violet-vert (Q), on peut choisir de réduire la quantité de données à transmettre sur l’axe Q. Pour résumer, on dégrade le signal sur un des canaux où l’œil est moins sensible. L’œil ne verra pas de différence, mais le signal sera transmis en consommant moins de données, et on peut donc utiliser une onde porteuse de fréquence plus faible (synonyme d’onde de plus faible puissance également).
L’inconvénient, c’est que si le signal télé est encodé sur des ondes de différentes fréquences, le poste de télévision doit intégrer la capacité à filtrer différentes fréquences. Cela réduit donc le coût de l’émission des ondes télévisuelles, mais augmente le coût de réception, donc du poste de télévision.
Il s’agit d’une forme de compression (avec perte). Ajoutons qu’on parle ici d’une innovation datant des années 1950 et implémentée dans les télés au standards NTSC. Aujourd’hui, avec le numérique et la télévision numérique (DAB, TNT…), le standard NTSC américain n’est plus utilisé, et le YIQ non plus. En Europe et en France, la télé numérique (TNT) a également totalement remplacé la télé analogique, qui n’est plus émise.
Conclusion
Les formats basés sur la luma utilisent une coordonné pour la luminosité relative (ajustée de gamma), et deux coordonnées pour la couleur. Ensemble, les trois permettent au système analogique de déterminer les trois composantes R, G, B. On en revient toujours au RGB car l’écran des postes de télévision fonctionnent avec des sous-pixels rouges, verts et bleus. Eux-mêmes choisis pour reproduire les cônes des yeux, et aussi parce que produire des luminophores rouges, verts, et bleus est quelque chose que l’on sait faire.
Si les télés avaient été capables de couleur dès le départ, sans jamais avoir été en niveaux de gris, l’on n’aurait probablement jamais utilisé tout ce système, mais directement du RGB.
Toujours est-il que les formats basés sur la luma persistent aujourd’hui, bien après les télés noir et blanc, et même les télés à écran cathodiques en général, au sein des formats d’encodage d’images (JPEG) ou de vidéos (MPEG). Outre leur existence historique, ils permettent des astuces de compression intéressantes, comme réduire le débit de données sur la chrominance sans toucher au débit de données de la luminance, le tout sans recourir à des besoins importants pour le décodage et la restitution de l’image finale.
Aujourd’hui, d’autres systèmes naissent et sont utilisés pour les formats d’encodage et d’affichage de dernière génération : plus compactes, plus intuitifs, et plus étendus, au prix toutefois de la nécessité d’une puissance de calcul parfois plus important (bien que ça ne soit plus tellement une priorité aujourd’hui). Ces formats là font l’objet du quatrième et dernier article de cette série.