9.6.3 Information mutuelle

Pour un canal bruité, la question posée est de savoir quelle incertitude subsiste sur l'entrée X après avoir observé la sortie Y = yk . Pour répondre à cette question, définissons l'entropie de X conditionnellement à Y , sachant que Y = yk de la manière suivante

H(X| Y = yk) = $\displaystyle \sum_{{j=0}}^{{J-1}}$p(xj| yk) log2$\displaystyle \left(\vphantom{\frac{1}{p({x_{j}\vert y_{k}})}}\right.$$\displaystyle {\frac{{1}}{{p({x_{j}\vert y_{k}})}}}$$\displaystyle \left.\vphantom{\frac{1}{p({x_{j}\vert y_{k}})}}\right)$ (9.94)

Cette formule nous donne dès lors l'incertitude subsistant sur la valeur de l'entrée connaissant la valeur yk de la sortie. Il serait intéressant d'avoir une moyenne de cette information pour toutes les valeurs de Y et donc pour toutes les sorties possibles, c'est l'entropie conditionnelle H(X| Y) , donnée par


H(X| Y) = $\displaystyle \sum_{{k=0}}^{{K-1}}$H(X| Y = yk)p(yk) (9.95)
  = $\displaystyle \sum_{{k=0}}^{{K-1}}$$\displaystyle \sum_{{j=0}}^{{J-1}}$p(xj| yk)p(yk) log2$\displaystyle \left(\vphantom{\frac{1}{p({x_{j}\vert y_{k}})}}\right.$$\displaystyle {\frac{{1}}{{p({x_{j}\vert y_{k}})}}}$$\displaystyle \left.\vphantom{\frac{1}{p({x_{j}\vert y_{k}})}}\right)$ (9.96)
  = $\displaystyle \sum_{{k=0}}^{{K-1}}$$\displaystyle \sum_{{j=0}}^{{J-1}}$p(xj, yk) log2$\displaystyle \left(\vphantom{\frac{1}{p({x_{j}\vert y_{k}})}}\right.$$\displaystyle {\frac{{1}}{{p({x_{j}\vert y_{k}})}}}$$\displaystyle \left.\vphantom{\frac{1}{p({x_{j}\vert y_{k}})}}\right)$ (9.97)

On définit alors l'information mutuelle moyenne I(X;Y) comme la quantité d'information, et donc d'entropie, que l'on retrouve en sortie du canal (et donc qui n'a pas été affecté par le bruit). Dès lors,

I(X;Y) = H(X) - H(X| Y) (9.98)

On peut illustrer cette définition dans deux cas particuliers:

  1. le cas d'un canal sans bruit. Alors, H(X| Y) = 0 car connaissant le symbole de sortie, il est possible de déterminer avec certitude le symbole d'entrée. Aussi I(X;Y) = H(X) : le canal arrive donc bien à véhiculer l'information jusqu'au récepteur.
  2. le cas d'un canal fortement bruité au point que tous les symboles soient équiprobables. Alors H(X| Y) = H(X) , car l'analyse de la sortie ne permet pas d'obtenir la moindre information sur l'entrée. Ainsi donc, I(X;Y) est nulle; le canal ne transmet aucune information.
On peut montrer que l'information mutuelle moyenne possède notamment la propriété d'être symétrique, dès lors I(X;Y) = I(Y;X) , on en déduit que
I(X;Y) = H(X) - H(X| Y) (9.99)
I(Y;X) = H(Y) - H(Y| X) (9.100)


Marc Van Droogenbroeck. Tous droits réservés.
2007-10-27