1.1 Généralités

De tout temps, l'être humain a éprouvé le besoin d'échanger de l'information, c'est-à-dire de communiquer. Mais c'est véritablement lors de l'industrialisation de nos sociétés que la multiplication du nombre de moyens de communications a pris une ampleur tout à fait impressionnante. On doit ce développement à l'approfondissement

  1. des lois physiques qui régissent le fonctionnement des canaux de communication, mais également
  2. de la notion d'information. De fait, la difficulté à transmettre un message est proportionnelle au contenu d'information qu'il renferme.

Lois physiques

Les principales lois physiques sont relatives à l'électricité, jusqu'au développement de l'informatique dont l'apparition a permis d'accroître le nombre de canaux de communication. Aujourd'hui, même des machines s'échangent de l'information sans intervention humaine.

Dans ce document, nous envisageons les télécommunications sous la forme restrictive d'échanges d'information entre des systèmes, à l'initiative de l'être humain. L'analyse des signaux et des systèmes de télécommunications est complexe car, pour que deux systèmes communiquent, il faut combiner toute une série d'éléments que l'on retrouve, entre autres, dans le modèle de référence OSI (Open Systems Interconnection): adaptation du signal au support de transmission, détection d'erreurs, synchronisation, etc. Parmi tous ces éléments, l'accent sera mis sur le fonctionnement des couches basses, autrement dit sur l'aspect physique des communications.

Information

L'approche moderne des télécommunications se fonde sur les particularités des signaux à transmettre. Il est dès lors utile de préciser la notion d'information. Un texte, un graphique, un son ou une image traduisent des facettes différentes d'information. Quant il s'agit de quantifier leur ``richesse'', autrement dit leur contenu en information, il est commode de représenter ces signaux en une série de symboles équivalents. Ainsi, on peut remplacer chaque caractère d'un texte par une suite de huit ou seize symboles 0 ou 1, la correspondance entre le caractère et l'octet (ou le double octet) ainsi constitué étant prédéfinie. On voit ainsi apparaître la notion de code.

Définition 1   Un code est une règle de représentation de caractères pris dans un ensemble par des caractères pris dans un autre ensemble.

Par exemple, les mots sont des suites de sons choisis dans un ensemble d'environ 40 caractères appelés phonèmes.

Il faut bien voir qu'un code établit une règle de correspondance entre deux ensembles de symboles, règle appelée codage; la forme matérielle de ces symboles n'est pas nécessairement unique. Illustrons cela par un exemple; soit à transmettre une information codée sous forme binaire en utilisant une ligne de transmission et en consacrant une durée fixée pour la transmission de chaque 0 ou 1 du message. La forme physique que pourraient prendre les signaux représentant ces deux symboles peut être

Pour la transmission, l'information se trouve donc représentée par une ou plusieurs grandeurs physiques fonction du temps, et parfois aussi des coordonnées de l'espace, comme en télévision.

L'étude des formes que peut prendre l'information est l'objet de la théorie de l'information. Cette théorie part du postulat que l'information est imprévisible, et considère qu'un message est la réalisation d'une expérience au sens de la théorie des probabilités. Plus la probabilité d'arrivée d'un message déterminé est grande, moins ce message n'apporte d'information. À la limite, le message n'apporte plus aucune information; il est alors déterministe.



Sous-sections
Marc Van Droogenbroeck. Tous droits réservés.
2004-06-11