L'oeil est une système complexe (cf. figure 2.5). La lumière incidente est réfractée par la cornée et dirigée vers la pupille; la pupille est l'ouverture de l'iris par laquelle la lumière pénètre dans l'oeil. La lumière est ensuite réfractée une seconde fois en direction du fond du globe oculaire où elle illumine la rétine. Cette dernière est composée d'une série de récepteurs, appelés photorécepteurs, reliés à des cellules qui transmettent des signaux au nerf optique.
La perception du signal visuel présente des similitudes avec celle
du signal audio. De fait, le fond de l'oeil est tapissé de récepteurs
qui envoient des influx électriques au cerveau via le nerf optique.
De plus, certaines couleurs ne sont pas perceptibles à cause d'un
effet de limitation de la ``bande passante'' de l'
il.
La lumière couvre une partie du spectre d'énergie électromagnétique. Un rayonnement électromagnétique est en général constitué d'un certain nombre de longueurs d'onde (ou fréquences) que les dispositifs dispersifs de séparer en un spectre. Le spectre est soit discret, soit continu.
Il est d'usage de définir les couleurs par leur longueur d'onde; on passe aisément de la longueur d'onde à la fréquence par le biais de l'expression
f = ![]() |
(2.3) |
Pour caractériser une couleur monochromatique,
il suffit de connaître sa longueur d'onde et la luminance
L, expression qualitative de la brillance énergétique. Dans ces
conditions, l'oeil se comporte donc comme un récepteur bivariant,
la connaissance de
et de celle de L étant nécessaires
et suffisantes pour caractériser l'impression visuelle créée.
Supposons maintenant une source constituée d'un certain nombre de radiations simples formant un spectre de raies ou un spectre continu avec une répartition énergétique donnée. La question qui se pose est le problème de la résultante, pour le récepteur visuel, de l'addition de l'ensemble de ces radiations.
Une possibilité de représentation des couleurs consiste à utiliser un espace de couleurs à k dimensions. Des expériences psychovisuelles d'égalisation (voir KUNT et al. [13]) ont montré qu'en combinant trois stimuli de longueur d'ondes particulières, il est possible de synthétiser presque toutes les couleurs existantes. Cette expérience peut s'effectuer à l'aide d'un système de reproduction de couleurs de type additif ou de type soustractif.
Choisissons trois radiations monochromatiques que nous qualifierons de primaires. Le problème sera de déterminer dans quelle mesure il est possible, à partir de ces trois couleurs, de reproduire une radiation colorée quelconque et selon quelles règles quantitatives. Dans le cas d'un mélange additif, l'expérience d'égalisation des couleurs se déroule par exemple de la manière suivante: trois couleurs primaires A, B et C sont, après pondération de de leur intensité respectivement par a, b et c, projetées sur écran noir avec un certain recouvrement comme l'illustre la figure 2.6.
![]() |
Pour des raisons de standardisation, la commission internationale de l'éclairage (CIE) a réalisé en 1931 l'expérience d'égalisation de couleur par mélange additif. Un système qui s'imposa presque naturellement était fondé sur les trois couleurs monochromatiques, rouge R (700 [nm]), vert V ( 546, 1 [nm]) et bleu B ( 435, 8 [nm]), ces deux dernières étant émises par l'arc au mercure (d'où leur choix). Ce fut le système RGB. On a ainsi déterminé pour ce système:
![]() |
La figure 2.8 représente le diagramme chromatique-type dans le système RGB: chaque couleur primaire est placée au sommet d'un triangle isocèle rectangle; l'ensemble des couleurs monochromatiques s'aligne sur le contour du diagramme, dit lieu spectral, tandis qu'une radiation complexe se situe à l'intérieur du contour.
À l'usage, il s'est avéré que ce système RGB présentait un certain nombre d'inconvénients (cf. [5]) du fait, en particulier que: (i) en raison du choix des primaires, l'une des coordonnées trichromatiques était toujours négative pour les radiations monochromatiques, (ii) on risquait d'attribuer aux couleurs primaires une signification physiologique qu'elles n'ont pas (puisque leur choix est arbitraire).
Afin de parer à ces inconvénients, la CIE a introduit, également en 1931, un autre espace de couleurs appelé XYZ. Les composantes X, Y et Z qui décrivent un stimulus sont liées aux composantes RGB par la relation matricielle suivante [13]
![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() |
(2.4) |
En normalisant le tri-stimulus XYZ par rapport à X + Y + Z, on obtient
le système xyz. Une particularité intéressante de ce nouveau référentiel
est que seules deux variables, par exemple x et y, sont indépendantes.
Ces deux composantes sont appelées les composantes chromatiques
du stimulus. On a donc les relations
x | = | ![]() |
(2.5) |
y | = | ![]() |
(2.6) |
z | = | ![]() |
(2.7) |
x + y + z | = | 1 | (2.8) |
Les couleurs monochromatiques sont représentées sur la partie non rectiligne du contour (comme un U retourné). Les couleurs qui résultent d'un mélange d'un mélange additif de certaines couleurs de base sont représentées à l'intérieur de la forme en U. Il existe aussi certains point particuliers, comme le point d'égale énergie qui correspond à une contribution égale des trois composantes de base X, Y et Z, ce qui correspond à x = y = 1/3. L'expérience d'égalisation des couleurs a montré qu'il suffisait de trois couleurs de base pour synthétiser la quasi-totalité des stimuli colorés. Comme le diagramme chromatique xy ne reprend que deux variables indépendantes, ce diagramme est une version réduite de l'espace à trois dimensions tel défini par le cube de la figure 2.10.
C'est dans ce genre d'espace que nous avons représenté les couleurs du diagramme chromatique approché à la figure 2.9; le diagramme tridimensionnel correspondant est illustré à la figure 2.11.
La dimension non représentée sur ce diagramme est celle de la luminance qui permet d'éclaircir ou d'assombrir une couleur en modulant son degré de noir. Par exemple, en modulant du minimum au maximum la luminance du point d'égale énergie, on passe du noir au blanc en passant par toutes les teintes de gris. Chaque couleur possède une luminance maximale dont la représentation graphique est fournie à la figure 2.12.
Le diagramme chromatique xy est donc le lieu des couleurs de chrominance (x, y) de luminosité maximale. En effet, un changement des proportions entre x et y conduirait automatiquement à la perception d'une autre couleur. Les deux variables de chrominance x et y peuvent se transformer en variables possédant une interprétation physique plus intuitive à savoir la teinte et la saturation. La notion de teinte (hue en anglais) est associée à la longueur d'onde, c'est-à-dire à la position le long du U retourné. La saturation exprime quant à elle le degré de blanc; elle est définie comme la distance entre le point d'égale énergie et la couleur à définir.
La figure 2.13 illustre la décomposition d'une image dans les trois canaux RGB et HSI.
La détermination des composantes RGB d'une onde s'opère par addition sur fond noir. L'arrière-plan est donc supposé absorbant pour toutes les couleurs. Un tel système n'est pas adéquat pour traiter l'impression sur feuille blanche car cette dernière réfléchit l'ensemble des couleurs. Pour l'impression, on a donc défini d'autres systèmes de couleurs, complémentaires au système RGB. Il s'agit par exemple du système Cyan, Magenta et Yellow (CMY), complémentaire du système RGB et dont la somme produit le noir2.2. La figure 2.14 montre une image trouvée dans un catalogue et présentant un défaut d'alignement des couleurs.
![]() |
À côté du système RGB, couramment utilisé en infographie, il existe d'autres systèmes de couleurs tels les systèmes YIQ, YUV ou YCbCr. Ces systèmes de couleurs peuvent être calculés par transformation matricielle des composantes RGB auxquelles on a préalablement appliqué une correction gamma2.3.
Les standards de télévision analogiques (PAL, NTSC) définissent
chacun les positions de couleurs RGB dans le diagramme chromatique.
À cet égard, il est intéressant de remarquer que, contrairement
aux apparences, ces positions ne se situent pas sur le pourtour. Autrement
dit, les couleurs de base ne sont pas monochromatiques! Comme les
positions de ces systèmes ne coïncident pas, la totalité des couleurs
d'un système n'est pas représentable dans un autre système. D'autre
part, un téléviseur n'est pas réellement calibré à la fabrication
et son usage produit une usure. Cela nous amène à considérer avec
beaucoup de prudence la signification physique réelle d'une couleur
affichée par un téléviseur. On peut exprimer des réserves similaires
pour le cas des moniteurs utilisés dans le monde informatique. Pour
désigner une couleur en infographie, on utilise généralement une quantification
sur 8 bits par composante de couleurs. Les couleurs sont alors
représentées par un triplet de valeurs exprimées en hexadécimal, en
décimal (cf. table 2.1) ou en binaire.
|
La représentation des valeurs d'une image nécessite 8 bits dans le cas d'une image monochrome et 3×8 = 24 dans le cas d'une image RGB. Pour réduire le nombre de bits dans le cas d'une image en couleurs, on réduit la taille de l'espace des couleurs en sous-échantillonnant l'espace RGB. Il est également possible de considérer les 256 valeurs d'une image comme les 256 indices d'un vecteur tridimensionnel reprenant les composantes RGB de couleurs. On parle alors de palette de couleurs ou de Color Look Up Table (CLUT). La figure 2.15 montre la palette de couleurs utilisées par le logiciel de navigation Netscape Navigator ainsi que la décomposition des couleurs dans les composantes RGB.
|
La couleur d'un objet est significative de la réflectance de l'objet ainsi que de l'éclairage. Dès lors, à supposer qu'un onde lumineuse isochromatique (c'à-d. blanche) soit envoyée en direction de l'objet, sa surface absorbera certaines longueurs d'onde et en réfléchira d'autres. On ne pourra donc jamais définir la couleur que comme la couleur liée à la longueur d'onde dominante.
De plus, la réflexion peut être spéculaire (effet de miroir) ou être diffuse. L'infographie utilise abondamment ces techniques pour créer des effets d'ambiance. Un exemple, produit avec le logiciel BLENDER, est fourni à la figure 2.16.
Si les espaces de couleur suffisent à définir une image, il faut plus pour reproduire une image sur un écran. Un premier facteur important est le rapport d'aspect; il s'agit du rapport entre la taille horizontale et verticale. Ce rapport vaut 4/3 pour des téléviseurs classiques mais il est de 16/9 pour le format de télévision à haute définition (HDTV).
Jusqu'à présent, nous avons supposé que l'image ne changeait pas dans le temps. Or les signaux de télévision changent en fonction du temps, d'où le besoin d'une composante temporelle dans la description d'une image. Il convient donc d'ajouter une autre définition: le temps. On parle alors de signal vidéo plutôt que de signal image.
Le procédé mis en oeuvre pour reproduire un signal vidéo sur un écran de télévision consiste à afficher une nouvelle image à une fréquence élevée, à la manière d'un film. Cette fréquence est supérieure à 25 [Hz], fréquence en dessous de laquelle on percevrait une discontinuité. Aujourd'hui, la technologie permet d'atteindre une telle vitesse de rafraîchissement d'écran. On parle de format de télévision progressif. Il n'en était pas ainsi au début de la télévision analogique. Pour parvenir à éviter un effet de scintillement alors qu'on ne parvenait pas à atteindre des vitesses de rafraîchissement, on a inventé l'entrelacement et le format entrelacé. Dans sa version européenne, le format consiste à constituer deux demi-images en prenant soit toutes les lignes paires, soit toutes les lignes impaires d'une image, comme indiqué à la figure 2.17.
Au lieu de 25 images par secondes, on obtient ainsi 50 demi-images, soit une vitesse supérieure au seuil de sensibilité.
Trois standards de vidéo pour télévision analogique sont utilisés à travers le monde:
Format | Description | Pays |
NTSC | National Television Systems Committee | États-Unis. |
PAL | Phase Alternation Line | Europe sauf France. |
SECAM | Système Électronique Couleur Avec Mémoire | France et Russie. |
L'univers de l'image fait intervenir plusieurs facteurs: la mémoire,
les exigences de vitesse, la dépendance par rapport au matériel, l'organisation
des données, la compression et la représentation des données. Il suffit
de consulter la figure 2.18 qui énumère
des applications typiques pour s'en convaincre.
Le signal vidéo est nettement plus complexe qu'un son. Il comporte des informations visuelles, exprimées pour une image généralement sous la forme de trois couleurs fondamentales pour tout point de l'espace, et une information temporelle née du mouvement des objets. De plus, le signal de télévision est un mélange du signal vidéo et de la partie audio; il s'agit d'un signal composite. Le signal composite occupe une bande de fréquences d'approximativement 5 [MHz]. En pratique, on considère une bande de 8 [MHz] par signal vidéo en Europe. La figure 2.19 donne l'occupation fréquentielle d'un signal vidéo PAL.