4.4.6 Densité spectrale de puissance

Définition 60   La densité spectrale de puissance $ \gamma_{{X}}^{}$(f ) d'un processus aléatoire stationnaire X(t) est la transformée de FOURIER de sa fonction d'autocorrélation $ \Gamma_{{XX}}^{}$$ \left(\vphantom{\tau}\right.$$ \tau$$ \left.\vphantom{\tau}\right)$:

$\displaystyle \gamma_{{X}}^{}$(f )= $\displaystyle \int_{{-\infty}}^{{+\infty}}$$\displaystyle \Gamma_{{XX}}^{}$$\displaystyle \left(\vphantom{\tau}\right.$$\displaystyle \tau$$\displaystyle \left.\vphantom{\tau}\right)$e-2$\scriptstyle \pi$jf$\scriptstyle \tau$d$\displaystyle \tau$ (4.113)

$\displaystyle \Gamma_{{XX}}^{}$$\displaystyle \left(\vphantom{\tau}\right.$$\displaystyle \tau$$\displaystyle \left.\vphantom{\tau}\right)$ = $\displaystyle \int_{{-\infty}}^{{+\infty}}$$\displaystyle \gamma_{{X}}^{}$(f )e2$\scriptstyle \pi$jf$\scriptstyle \tau$df (4.114)

Ces relations sont appelées relations d'EINSTEIN-WIENER-KINTCHINE. Voici quelques propriétés importantes de la densité spectrale de puissance:

Remarquons que la transformée de FOURIER d'un signal aléatoire est elle-même aléatoire, et de ce fait, on ne peut pas la calculer. On peut par contre déterminer sa densité spectrale de puissance car cette fonction est déterministe -on suppose bien sûr la stationnarité au sens large ainsi que l'ergodicité de X(t).


Exemple: onde sinusoïdale avec phase aléatoire.

Considérons un signal sinusoïdal avec phase aléatoire, défini par

X(t) = Accos% latex2html id marker 36737
$\displaystyle \left(\vphantom{2\pi f_{c}t+\Theta}\right.$2$\displaystyle \pi$fct + % latex2html id marker 36739
$\displaystyle \Theta$% latex2html id marker 36740
$\displaystyle \left.\vphantom{2\pi f_{c}t+\Theta}\right)$ (4.118)

Ac et fc sont constants et % latex2html id marker 36744
$ \Theta$ est une variable aléatoire uniformément distribuée sur l'intervalle $ \left[\vphantom{-\pi,+\pi}\right.$ - $ \pi$, + $ \pi$$ \left.\vphantom{-\pi,+\pi}\right]$, c'est-à-dire

f% latex2html id marker 36751
$\scriptstyle \Theta$($\displaystyle \theta$) = $\displaystyle \left\{\vphantom{ \begin{array}{ccc} \frac{1}{2\pi} & & -\pi\leq\theta\leq+\pi\\  0 & & sinon\end{array}}\right.$$\displaystyle \begin{array}{ccc} \frac{1}{2\pi} & & -\pi\leq\theta\leq+\pi\\  0 & & sinon\end{array}$ (4.119)

Calculons tout d'abord la moyenne statistique du processus aléatoire X(t):

$\displaystyle \mu_{{X}}^{}$(t) = E$\displaystyle \left\{\vphantom{ X(t)}\right.$X(t)$\displaystyle \left.\vphantom{ X(t)}\right\}$ (4.120)
  = $\displaystyle \int_{{-\pi}}^{{+\pi}}$Accos$\displaystyle \left(\vphantom{2\pi f_{c}t+\theta}\right.$2$\displaystyle \pi$fct + $\displaystyle \theta$$\displaystyle \left.\vphantom{2\pi f_{c}t+\theta}\right)$$\displaystyle {\frac{{1}}{{2\pi}}}$d$\displaystyle \theta$ (4.121)
  = 0 (4.122)

La moyenne statistique du processus aléatoire X(t) est donc indépendante du temps. Évaluons maintenant sa fonction d'autocorrélation:

$\displaystyle \Gamma_{{XX}}^{}$$\displaystyle \left(\vphantom{t_{1},t_{2}}\right.$t1, t2$\displaystyle \left.\vphantom{t_{1},t_{2}}\right)$ = E$\displaystyle \left\{\vphantom{ X(t_{1})X(t_{2})}\right.$X(t1)X(t2)$\displaystyle \left.\vphantom{ X(t_{1})X(t_{2})}\right\}$ (4.123)
  = E% latex2html id marker 36786
$\displaystyle \left\{\vphantom{ A_{c}^{2}\cos\left(2\pi f_{c}t_{1}+\Theta\right)\cos\left(2\pi f_{c}t_{2}+\Theta\right)}\right.$Ac2cos% latex2html id marker 36787
$\displaystyle \left(\vphantom{2\pi f_{c}t_{1}+\Theta}\right.$2$\displaystyle \pi$fct1 + % latex2html id marker 36789
$\displaystyle \Theta$% latex2html id marker 36790
$\displaystyle \left.\vphantom{2\pi f_{c}t_{1}+\Theta}\right)$cos% latex2html id marker 36791
$\displaystyle \left(\vphantom{2\pi f_{c}t_{2}+\Theta}\right.$2$\displaystyle \pi$fct2 + % latex2html id marker 36793
$\displaystyle \Theta$% latex2html id marker 36794
$\displaystyle \left.\vphantom{2\pi f_{c}t_{2}+\Theta}\right)$% latex2html id marker 36795
$\displaystyle \left.\vphantom{ A_{c}^{2}\cos\left(2\pi f_{c}t_{1}+\Theta\right)\cos\left(2\pi f_{c}t_{2}+\Theta\right)}\right\}$ (4.124)
  = $\displaystyle {\frac{{A_{c}^{2}}}{{2}}}$E$\displaystyle \left\{\vphantom{ \cos\left(2\pi f_{c}(t_{2}-t_{1})\right)}\right.$cos$\displaystyle \left(\vphantom{2\pi f_{c}(t_{2}-t_{1})}\right.$2$\displaystyle \pi$fc(t2 - t1)$\displaystyle \left.\vphantom{2\pi f_{c}(t_{2}-t_{1})}\right)$$\displaystyle \left.\vphantom{ \cos\left(2\pi f_{c}(t_{2}-t_{1})\right)}\right\}$ + $\displaystyle {\frac{{A_{c}^{2}}}{{2}}}$E% latex2html id marker 36805
$\displaystyle \left\{\vphantom{ \cos\left(2\pi f_{c}(t_{2}+t_{1})+2\Theta\right)}\right.$cos% latex2html id marker 36806
$\displaystyle \left(\vphantom{2\pi f_{c}(t_{2}+t_{1})+2\Theta}\right.$2$\displaystyle \pi$fc(t2 + t1) + 2% latex2html id marker 36808
$\displaystyle \Theta$% latex2html id marker 36809
$\displaystyle \left.\vphantom{2\pi f_{c}(t_{2}+t_{1})+2\Theta}\right)$% latex2html id marker 36810
$\displaystyle \left.\vphantom{ \cos\left(2\pi f_{c}(t_{2}+t_{1})+2\Theta\right)}\right\}$  
  = $\displaystyle {\frac{{A_{c}^{2}}}{{2}}}$cos$\displaystyle \left[\vphantom{2\pi f_{c}(t_{2}-t_{1})}\right.$2$\displaystyle \pi$fc(t2 - t1)$\displaystyle \left.\vphantom{2\pi f_{c}(t_{2}-t_{1})}\right]$ (4.125)

Il apparaît que la fonction d'autocorrélation du processus aléatoire X(t) dépend exclusivement de la différence entre les temps d'observation $ \tau$ = t2 - t1. Nous pouvons donc écrire

$\displaystyle \Gamma_{{XX}}^{}$$\displaystyle \left(\vphantom{\tau}\right.$$\displaystyle \tau$$\displaystyle \left.\vphantom{\tau}\right)$ = $\displaystyle {\frac{{A_{c}^{2}}}{{2}}}$cos$\displaystyle \left(\vphantom{2\pi f_{c}\tau}\right.$2$\displaystyle \pi$fc$\displaystyle \tau$$\displaystyle \left.\vphantom{2\pi f_{c}\tau}\right)$ (4.126)

Étant donné que la moyenne statistique de X(t) ne dépend pas du temps et que sa fonction d'autocorrélation ne dépend que de la différence entre les temps d'observation, nous pouvons conclure que le processus aléatoire X(t) est stationnaire au sens large. Évaluons à présent la densité spectrale de puissance de X(t):

$\displaystyle \gamma_{{X}}^{}$(f )= $\displaystyle {\frac{{A_{c}^{2}}}{{4}}}$$\displaystyle \left[\vphantom{\delta(f-f_{c})+\delta(f+f_{c})}\right.$$\displaystyle \delta$(f - fc) + $\displaystyle \delta$(f + fc)$\displaystyle \left.\vphantom{\delta(f-f_{c})+\delta(f+f_{c})}\right]$ (4.127)

qui est constituées de deux raies situées en f = ±fc et pondérées par le facteur Ac2/4. Notons que l'aire totale sous le graphe de $ \gamma_{{X}}^{}$(f ) est égale à Ac2/2, ce qui correspond bien à E$ \left\{\vphantom{ X^{2}(t)}\right.$X2(t)$ \left.\vphantom{ X^{2}(t)}\right\}$ = $ \Gamma_{{XX}}^{}$$ \left(\vphantom{0}\right.$ 0$ \left.\vphantom{0}\right)$.


Marc Van Droogenbroeck. Tous droits réservés.
2005-03-11