4.3.2 Moments d'une variable aléatoire

Le résultat d'une expérience aléatoire n'étant pas déterministe, il convient de caractériser le comportement moyen des résultats d'une expérience aléatoire par des outils appropriés. Pour ce faire, nous introduisons quelques définitions.

Définition 28   Le n-ième moment de la variable aléatoire X est défini par

$\displaystyle \mu_{{X^{n}}}^{}$ = E$\displaystyle \left\{\vphantom{ X^{n}}\right.$Xn$\displaystyle \left.\vphantom{ X^{n}}\right\}$ = $\displaystyle \int_{{-\infty}}^{{+\infty}}$xnfX(x)dx (4.23)

E$ \left\{\vphantom{ }\right.$$ \left.\vphantom{ }\right\}$ désigne l'opérateur d'espérance statistique.

Les deux premiers moments de la variable aléatoire X sont les plus importants. Considérons tout d'abord l'équation 4.23 pour n = 1.

Définition 29   [Moyenne]

$\displaystyle \mu_{{X}}^{}$ = E$\displaystyle \left\{\vphantom{ X}\right.$X$\displaystyle \left.\vphantom{ X}\right\}$ = $\displaystyle \int_{{-\infty}}^{{+\infty}}$xfX(x)dx (4.24)

$ \mu_{{X}}^{}$ est appelée espérance ou moyenne de la variable aléatoire X.

La moyenne $ \mu_{{X}}^{}$ est située au centre de gravité de l'aire située sous la courbe de la fonction de densité de probabilité de X. Considérons maintenant l'équation 4.23 pour n = 2.

E$\displaystyle \left\{\vphantom{ X^{2}}\right.$X2$\displaystyle \left.\vphantom{ X^{2}}\right\}$ = $\displaystyle \int_{{-\infty}}^{{+\infty}}$x2fX(x)dx (4.25)

E$ \left\{\vphantom{ X^{2}}\right.$X2$ \left.\vphantom{ X^{2}}\right\}$ représente la moyenne du carré de la variable X, à ne pas confondre avec le carré de la moyenne $ \left(\vphantom{E\left\{ X\right\} }\right.$E$ \left\{\vphantom{ X}\right.$X$ \left.\vphantom{ X}\right\}$$ \left.\vphantom{E\left\{ X\right\} }\right)^{{2}}_{}$ = $ \mu_{{X}}^{{2}}$.

Définition 30   Le n-ième moment centré de la variable aléatoire X est défini par

E$\displaystyle \left\{\vphantom{ \left(X-\mu_{X}\right)^{n}}\right.$$\displaystyle \left(\vphantom{X-\mu_{X}}\right.$X - $\displaystyle \mu_{{X}}^{}$$\displaystyle \left.\vphantom{X-\mu_{X}}\right)^{{n}}_{}$$\displaystyle \left.\vphantom{ \left(X-\mu_{X}\right)^{n}}\right\}$ = $\displaystyle \int_{{-\infty}}^{{+\infty}}$$\displaystyle \left(\vphantom{x-\mu_{X}}\right.$x - $\displaystyle \mu_{{X}}^{}$$\displaystyle \left.\vphantom{x-\mu_{X}}\right)^{{n}}_{}$fX(x)dx (4.26)

Pour n = 1, le moment centré est évidemment égal à zéro, tandis que pour n = 2, nous obtenons le moment centré d'ordre 2 aussi appelé variance de la variable aléatoire X.

Définition 31   [Variance]

$\displaystyle \sigma_{{X}}^{{2}}$ = var$\displaystyle \left\{\vphantom{ X}\right.$X$\displaystyle \left.\vphantom{ X}\right\}$ = E$\displaystyle \left\{\vphantom{ \left(X-\mu_{X}\right)^{2}}\right.$$\displaystyle \left(\vphantom{X-\mu_{X}}\right.$X - $\displaystyle \mu_{{X}}^{}$$\displaystyle \left.\vphantom{X-\mu_{X}}\right)^{{2}}_{}$$\displaystyle \left.\vphantom{ \left(X-\mu_{X}\right)^{2}}\right\}$ = $\displaystyle \int_{{-\infty}}^{{+\infty}}$$\displaystyle \left(\vphantom{x-\mu_{X}}\right.$x - $\displaystyle \mu_{{X}}^{}$$\displaystyle \left.\vphantom{x-\mu_{X}}\right)^{{2}}_{}$fX(x)dx (4.27)

$ \sigma_{{X}}^{}$, la racine carrée de la variance est appelée écart-type de la variable aléatoire X. La variance $ \sigma_{{X}}^{{2}}$ de la variable aléatoire X est en quelque sorte une mesure de l'aspect aléatoire de la variable. En spécifiant la variance $ \sigma_{{X}}^{{2}}$, nous limitons la largeur effective de la fonction de densité de probabilité fX(x) autour de la moyenne $ \mu_{{X}}^{}$.

Une description précise de cette limite a été donnée par CHEBYSHEV.

Théorème 32   [CHEBYSHEV [3, page 177]] Si Y est une variable aléatoire positive, alors pour tout $ \epsilon$ > 0 et 0 < p < + $ \infty$,

P(Y $\displaystyle \geq$ $\displaystyle \epsilon$) $\displaystyle \leq$ $\displaystyle {\frac{{E(Y^{p})}}{{\epsilon^{p}}}}$ (4.28)

Sous une forme particulière, on a

$\displaystyle \forall$$\displaystyle \varepsilon$ > 0        p$\displaystyle \left(\vphantom{\left\vert X-\mu_{X}\right\vert\geq\varepsilon}\right.$$\displaystyle \left\vert\vphantom{X-\mu_{X}}\right.$X - $\displaystyle \mu_{{X}}^{}$$\displaystyle \left.\vphantom{X-\mu_{X}}\right\vert$ $\displaystyle \geq$ $\displaystyle \varepsilon$$\displaystyle \left.\vphantom{\left\vert X-\mu_{X}\right\vert\geq\varepsilon}\right)$ $\displaystyle \leq$ $\displaystyle {\frac{{\sigma_{X}^{2}}}{{\varepsilon^{2}}}}$ (4.29)

Nous voyons donc que la moyenne et la variance d'une variable aléatoire donnent une description partielle de sa distribution de probabilité.

Finalement, nous tirons de 4.27 que la variance et la moyenne du carré de la variable sont liées par la relation


$\displaystyle \sigma_{{X}}^{{2}}$ = E$\displaystyle \left\{\vphantom{ X^{2}-2\mu_{X}X+\mu_{X}^{2}}\right.$X2 -2$\displaystyle \mu_{{X}}^{}$X + $\displaystyle \mu_{{X}}^{{2}}$$\displaystyle \left.\vphantom{ X^{2}-2\mu_{X}X+\mu_{X}^{2}}\right\}$  
  = E$\displaystyle \left\{\vphantom{ X^{2}}\right.$X2$\displaystyle \left.\vphantom{ X^{2}}\right\}$ -2$\displaystyle \mu_{{X}}^{}$E$\displaystyle \left\{\vphantom{ X}\right.$X$\displaystyle \left.\vphantom{ X}\right\}$ + $\displaystyle \mu_{{X}}^{{2}}$  
  = E$\displaystyle \left\{\vphantom{ X^{2}}\right.$X2$\displaystyle \left.\vphantom{ X^{2}}\right\}$ - $\displaystyle \mu_{{X}}^{{2}}$  

dans laquelle nous avons utilisé le fait que l'opérateur d'espérance statistique E est linéaire.


Marc Van Droogenbroeck. Tous droits réservés.
2005-03-11