Sous-sections

9.6.4 Capacité de canal

La notion d'information mutuelle nous permet d'introduire la notion de capacité de canal.

Définition 41   On définit la capacité (maximale) d'un canal comme le maximum de l'information mutuelle moyenne où la maximisation se fait sur la distribution de probabilité des symboles d'entrée

Cs = max{p(xj)}I(X;Y) (9.101)

Cette définition représente donc la meilleure utilisation que l'on peut faire du canal et elle est indépendante de la distribution de probabilités des symboles de l'alphabet d'entrée. Il s'agit évidemment d'une capacité théorique que l'on pourra utiliser comme référence pour la mise au point de technique de transmission.

Remarquons enfin que la relation 9.101 définit une capacité de canal par symbole. Si le canal est capable de traiter s symboles par seconde, la capacité par seconde est donnée par

C = s Cs (9.102)

9.6.4.1 Estimation de la capacité d'un canal binaire symétrique

Considérons le schéma de la figure 9.23.

Figure 9.23: Calcul de la capacité de canal d'un canal binaire symétrique.
8862  

La capacité du canal s'exprime par

Cs = max{p(xj)}I(X;Y) (9.103)
  = max{p(xj)}$\displaystyle \left[\vphantom{H(X)-H(X\vert Y)}\right.$H(X) - H(X| Y)$\displaystyle \left.\vphantom{H(X)-H(X\vert Y)}\right]$ (9.104)
  = max{p(xj)}$\displaystyle \left[\vphantom{H(Y)-H(Y\vert X)}\right.$H(Y) - H(Y| X)$\displaystyle \left.\vphantom{H(Y)-H(Y\vert X)}\right]$ (9.105)

Calculons l'entropie conditionnelle H(Y| X) . Pour ce faire, appliquons la formule 9.96 adaptée. Pour la paire entrée-sortie (x0, y0) , on obtient

H(Y| X)(x0, y0) = - p(x)0p(y0| x0) log2$\displaystyle \left(\vphantom{p({y_{0}\vert x_{0}})}\right.$p(y0| x0)$\displaystyle \left.\vphantom{p({y_{0}\vert x_{0}})}\right)$ (9.106)

Sachant que la probabilité d'émission du symbole x0 vaut $ \alpha$ et que la probabilité conditionnelle p(y0| x0) vaut p (cf. figure 9.23), on obtient

H(Y| X)(x0, y0) = - $\displaystyle \alpha$p log2p (9.107)

En effectuant de même pour toutes les combinaisons entrée-sortie ( (x1, y0),(x0, y1) et (x1, y1) ) et en sommant les différentes contributions, on trouve

H(Y| X) = $\displaystyle \sum_{{i=0}}^{{1}}$$\displaystyle \sum_{{j=0}}^{{1}}$H(Y| X)(xi, yj) (9.108)
  = - p log2p - q log2q (9.109)

On constate donc que H(Y| X) ne dépend que des caractéristiques du canal, on parle d'entropie de canal. Dès lors,

I(X;Y) = H(Y) + p log2p + q log2q (9.110)

Pour maximiser cette quantité, on ne peut plus jouer que sur H(Y) . Le maximum que l'on peut obtenir avec un canal binaire est une valeur unitaire pour H(Y) . La capacité maximale de canal est alors

Cs = 1 + p log2p + q log2q (9.111)

Sur le schéma de la figure 9.23, q représente la probabilité de prendre une décision erronée; c'est la probabilité d'erreur. Dans le cas d'une modulation à deux états, la probabilité d'erreur est liée au rapport signal à bruit par la relation

q = pe = $\displaystyle {\frac{{1}}{{2}}}$ erfc$\displaystyle \left(\vphantom{\sqrt{\frac{E_{b}}{N_{0}}}}\right.$$\displaystyle \sqrt{{\frac{E_{b}}{N_{0}}}}$$\displaystyle \left.\vphantom{\sqrt{\frac{E_{b}}{N_{0}}}}\right)$ (9.112)

L'évolution de la capacité de canal en fonction du rapport signal sur bruit est représentée à la figure 9.24. On constate que, lorsque le rapport signal sur bruit tend vers l'infini (c'est-à-dire que la probabilité d'erreur tend vers 0), la capacité maximale du canal tend vers 1 bit.

9.6.4.2 Influence du type de modulation

Prenons le cas d'une modulation à quatre états (4-AM par exemple). La matrice de canal se complique car il faut calculer plusieurs probabilités d'erreur pour un symbole d'entrée donné.

Cependant, l'expression de la capacité de canal reste de la forme

Cs = H(Y) + Hc (9.113)

où la valeur maximale de H(Y) est de deux, la conséquence d'une modulation à quatre états étant que l'on a deux bits par symbole et où Hc est un terme associé aux transitions de canal. Il est alors intuitivement acceptable que la capacité de canal tende vers deux quand le rapport signal à bruit tend vers l'infini. Le raisonnement peut être répété pour des modulations à 16 voire 64 états. Les résultats sont résumés à la figure 9.24.

Figure 9.24: Capacité de canal pour différents types de modulation.
8941  

9.6.4.3 Généralisation au cas continu et second théorème de SHANNON

Dans le cas où l'on considère des alphabets d'entrée et de sortie continus, le calcul de la capacité de canal s'en trouve très fortement compliqué. Pour un canal blanc additif gaussien de moyenne nulle et de variance $ \sigma_{{N}}^{{2}}$ , la sortie vaut

Y = X + N(0,$\displaystyle \sigma_{{N}}^{{2}}$) (9.114)

Pour le calcul de la capacité de canal, on impose en outre une limitation de la puissance d'entrée à $ \sigma_{{X}}^{{2}}$ .

Théorème 42   [SHANNON] Des calculs montrent que la capacité d'un canal blanc additif gaussien de moyenne nulle et de variance $ \sigma_{{N}}^{{2}}$ s'exprime par

Cs = $\displaystyle {\frac{{1}}{{2}}}$ log2$\displaystyle \left(\vphantom{1+\frac{\sigma_{X}^{2}}{\sigma_{N}^{2}}}\right.$1 + $\displaystyle {\frac{{\sigma_{X}^{2}}}{{\sigma_{N}^{2}}}}$$\displaystyle \left.\vphantom{1+\frac{\sigma_{X}^{2}}{\sigma_{N}^{2}}}\right)$ (9.115)

$ {\frac{{\sigma_{X}^{2}}}{{\sigma_{N}^{2}}}}$ représente le rapport signal sur bruit.

Cette formule porte le nom de second théorème de SHANNON. On constate que, dans le cas d'un bruit important ( $ \sigma_{{N}}^{{2}}$ $ \gg$ $ \sigma_{{X}}^{{2}}$ ), le canal ne parvient pas à transmettre de l'information. La figure 9.25 compare la limite théorique de SHANNON avec les capacités maximales atteintes par les différentes techniques de modulation. Il est intéressant de noter que la limite théorique de SHANNON correspond au cas d'une modulation comportant un nombre infini d'états.

Figure 9.25: Second théorème de SHANNON.
8993  


Marc Van Droogenbroeck. Tous droits réservés.
2007-10-27