Sous-sections

8.3.1 Filtrage de WIENER

Le filtre de WIENER est un filtre linéaire souvent utilisé pour la réduction de bruit. Dès lors, dans cette section, nous considérons que l'image originale n'a subi comme dégradation que l'ajout d'un bruit aléatoire. Afin de simplifier les développements mathématiques, nous nous limiterons au cas d'une fonction à une dimension. Ce résultat sera alors aisément généralisé à deux dimensions.

La figure 8.10 illustre le modèle que nous allons utiliser. w(t) représente la fonction dégradée par l'ajout du bruit n(t) tandis que $ \widehat{{f}}$(t) représente la fonction restaurée au départ de w(t) par une convolution avec le filtre de réponse impulsionnelle h(t). Idéalement, nous aimerions obtenir $ \widehat{{f}}$(t) = f (t) mais en général, un filtre linéaire n'est pas assez puissant pour retrouver le signal de départ f (t) de manière exacte. Le but est alors de déterminer la fonction h(t) qui rende $ \widehat{{f}}$(t) le plus proche de f (t). $ \widehat{{f}}$(t) est appelée estimation de f (t).

Figure 8.10: Modèle utilisé pour le filtre de WIENER.
7582  

Dans cette étude, nous ferons l'hypothèse que les signaux f (t) et n(t) sont des processus aléatoires ergodiques et de densité spectrale de puissance $ \gamma_{{f}}^{}$(f ) et $ \gamma_{{n}}^{}$(f ) connues.

8.3.1.1 Définition d'un critère

Avant de déterminer le filtre optimal, que l'on notera ho(t), il est nécessaire de définir un critère d'optimalité. Vu que $ \widehat{{f}}$(t) = f (t) n'est pas réalisable, nous allons utiliser comme critère l'erreur quadratique moyenne.

Quelque soit l'expression de h(t), nous obtiendrons en sortie un signal $ \widehat{{f}}$(t) en réponse à f (t). Le signal d'erreur à la sortie du filtre est défini par

e(t) = f (t) - $\displaystyle \widehat{{f}}$(t) (8.33)

qui mesure l'écart instantané entre la fonction restaurée et la fonction idéale. Comme mesure de l'erreur moyenne, nous utiliserons l'erreur quadratique moyenne définie par

E$\displaystyle \left\{\vphantom{ e^{2}(t)}\right.$e2(t)$\displaystyle \left.\vphantom{ e^{2}(t)}\right\}$ = $\displaystyle \int_{{-\infty}}^{{+\infty}}$e2(t)dt (8.34)

Ici, l'espérance mathématique peut se calculer comme une intégrale sur le temps vu que les processus sont supposés ergodiques. On remarquera que l'erreur quadratique moyenne pénalise plus les grands écarts entre f (t) et $ \widehat{{f}}$(t) comparés aux faibles écarts, ce qui constitue un critère tout à fait satisfaisant.

8.3.1.2 Erreur quadratique moyenne

Le problème se ramène à présent à déterminer une fonction h(t) qui minimise l'erreur quadratique moyenne E$ \left\{\vphantom{ e^{2}(t)}\right.$e2(t)$ \left.\vphantom{ e^{2}(t)}\right\}$, qui est un nombre. Il s'agit en fait de la minimisation d'une fonctionnelle qui relève du calcul des variations. Nous allons suivre la démarche suivante:

  1. exprimer l'erreur quadratique moyenne en terme de la fonction h(t),
  2. déterminer l'expression optimale ho(t) en terme des densités spectrales de puissance connues, et finalement
  3. calculer la valeur de l'erreur quadratique moyenne lorsque le filtre optimal ho(t) est utilisé.
Nous commençons par développer l'erreur quadratique moyenne de la manière suivante


E$\displaystyle \left\{\vphantom{ e^{2}(t)}\right.$e2(t)$\displaystyle \left.\vphantom{ e^{2}(t)}\right\}$ = E$\displaystyle \left\{\vphantom{ f^{2}(t)-2f(t)\widehat{f}(t)+\widehat{f}^{2}(t)}\right.$f2(t) - 2f (t)$\displaystyle \widehat{{f}}$(t) + $\displaystyle \widehat{{f}}^{{2}}_{}$(t)$\displaystyle \left.\vphantom{ f^{2}(t)-2f(t)\widehat{f}(t)+\widehat{f}^{2}(t)}\right\}$ (8.35)
  = E$\displaystyle \left\{\vphantom{ f^{2}(t)}\right.$f2(t)$\displaystyle \left.\vphantom{ f^{2}(t)}\right\}$ -2E$\displaystyle \left\{\vphantom{ f(t)\widehat{f}(t)}\right.$f (t)$\displaystyle \widehat{{f}}$(t)$\displaystyle \left.\vphantom{ f(t)\widehat{f}(t)}\right\}$ + E$\displaystyle \left\{\vphantom{ \widehat{f}^{2}(t)}\right.$$\displaystyle \widehat{{f}}^{{2}}_{}$(t)$\displaystyle \left.\vphantom{ \widehat{f}^{2}(t)}\right\}$ (8.36)
  = T1 + T2 + T3 (8.37)

T1T2 et T3 sont trois termes que l'on va traiter séparément. T1 se ramène à

T1 = E$\displaystyle \left\{\vphantom{ f^{2}(t)}\right.$f2(t)$\displaystyle \left.\vphantom{ f^{2}(t)}\right\}$ = $\displaystyle \int_{{-\infty}}^{{+\infty}}$f2(t)dt = $\displaystyle \Gamma_{{ff}}^{}$$\displaystyle \left(\vphantom{0}\right.$ 0$\displaystyle \left.\vphantom{0}\right)$ (8.38)

$ \Gamma_{{ff}}^{}$$ \left(\vphantom{0}\right.$ 0$ \left.\vphantom{0}\right)$ est la fonction d'autocorrélation de f (t) évalué en 0. T1 correspond donc à la puissance du signal f (t). Le second membre T2 peut s'écrire

T2 = - 2E$\displaystyle \left\{\vphantom{ f(t)\int_{-\infty}^{+\infty}h(\tau)w(t-\tau)d\tau}\right.$f (t)$\displaystyle \int_{{-\infty}}^{{+\infty}}$h($\displaystyle \tau$)w(t - $\displaystyle \tau$)d$\displaystyle \tau$$\displaystyle \left.\vphantom{ f(t)\int_{-\infty}^{+\infty}h(\tau)w(t-\tau)d\tau}\right\}$ (8.39)

où nous avons remplacé $ \widehat{{f}}$(t) par le produit de convolution entre w(t) et h(t). Vu que l'espérance mathématique est une intégrale sur le temps, il est possible d'inverser l'ordre d'intégration:
T2 = -2$\displaystyle \int_{{-\infty}}^{{+\infty}}$h($\displaystyle \tau$)E$\displaystyle \left\{\vphantom{ f(t)w(t-\tau)}\right.$f (t)w(t - $\displaystyle \tau$)$\displaystyle \left.\vphantom{ f(t)w(t-\tau)}\right\}$d$\displaystyle \tau$ (8.40)
  = -2$\displaystyle \int_{{-\infty}}^{{+\infty}}$h($\displaystyle \tau$)$\displaystyle \Gamma_{{fw}}^{}$($\displaystyle \tau$)d$\displaystyle \tau$ (8.41)

$ \Gamma_{{fw}}^{}$($ \tau$) est la fonction d'intercorrélation de f (t) et w(t). Le troisième terme T3 peut être traité d'une manière similaire
T3 = E$\displaystyle \left\{\vphantom{ \int_{-\infty}^{+\infty}h(\tau)w(t-\tau)d\tau\int_{-\infty}^{+\infty}h(u)w(t-u)du}\right.$$\displaystyle \int_{{-\infty}}^{{+\infty}}$h($\displaystyle \tau$)w(t - $\displaystyle \tau$)d$\displaystyle \tau$$\displaystyle \int_{{-\infty}}^{{+\infty}}$h(u)w(t - u)du$\displaystyle \left.\vphantom{ \int_{-\infty}^{+\infty}h(\tau)w(t-\tau)d\tau\int_{-\infty}^{+\infty}h(u)w(t-u)du}\right\}$ (8.42)
  = $\displaystyle \int_{{-\infty}}^{{+\infty}}$$\displaystyle \int_{{-\infty}}^{{+\infty}}$h($\displaystyle \tau$)h(u)E$\displaystyle \left\{\vphantom{ w(t-\tau)w(t-u)}\right.$w(t - $\displaystyle \tau$)w(t - u)$\displaystyle \left.\vphantom{ w(t-\tau)w(t-u)}\right\}$d$\displaystyle \tau$du (8.43)

Si l'on écrit le changement de variables v = t - u dans l'espérance, nous obtenons

E$\displaystyle \left\{\vphantom{ w(t-\tau)w(t-u)}\right.$w(t - $\displaystyle \tau$)w(t - u)$\displaystyle \left.\vphantom{ w(t-\tau)w(t-u)}\right\}$ = E$\displaystyle \left\{\vphantom{ w(v+u-\tau)w(v)}\right.$w(v + u - $\displaystyle \tau$)w(v)$\displaystyle \left.\vphantom{ w(v+u-\tau)w(v)}\right\}$ = $\displaystyle \Gamma_{{ww}}^{}$$\displaystyle \left(\vphantom{u-\tau}\right.$u - $\displaystyle \tau$$\displaystyle \left.\vphantom{u-\tau}\right)$ (8.44)

et donc

T3 = $\displaystyle \int_{{-\infty}}^{{+\infty}}$$\displaystyle \int_{{-\infty}}^{{+\infty}}$h($\displaystyle \tau$)h(u)$\displaystyle \Gamma_{{ww}}^{}$$\displaystyle \left(\vphantom{u-\tau}\right.$u - $\displaystyle \tau$$\displaystyle \left.\vphantom{u-\tau}\right)$d$\displaystyle \tau$du (8.45)

Dès lors, l'erreur quadratique moyenne peut maintenant s'écrire

E$\displaystyle \left\{\vphantom{ e^{2}(t)}\right.$e2(t)$\displaystyle \left.\vphantom{ e^{2}(t)}\right\}$ = $\displaystyle \Gamma_{{ff}}^{}$$\displaystyle \left(\vphantom{0}\right.$ 0$\displaystyle \left.\vphantom{0}\right)$ -2$\displaystyle \int_{{-\infty}}^{{+\infty}}$h($\displaystyle \tau$)$\displaystyle \Gamma_{{fw}}^{}$($\displaystyle \tau$)d$\displaystyle \tau$ + $\displaystyle \int_{{-\infty}}^{{+\infty}}$$\displaystyle \int_{{-\infty}}^{{+\infty}}$h($\displaystyle \tau$)h(u)$\displaystyle \Gamma_{{ww}}^{}$$\displaystyle \left(\vphantom{u-\tau}\right.$u - $\displaystyle \tau$$\displaystyle \left.\vphantom{u-\tau}\right)$d$\displaystyle \tau$du (8.46)

Étant donné que les fonctions d'autocorrélation et d'intercorrélation sont connues, on remarque que l'erreur quadratique moyenne est bien une fonction de h(t).

8.3.1.3 Minimisation de l'erreur quadratique moyenne

Considérons le filtre optimal ho(t). Tout autre filtre peut s'écrire comme

h(t) = ho(t) + g(t) (8.47)

h(t) est une réponse impulsionnelle arbitraire sous-optimale et g(t) est définie comme l'écart instantané entre le filtre optimal ho(t) et le filtre sous-optimal h(t). Si nous introduisons cette dernière expression dans l'expression de l'erreur quadratique moyenne, nous obtenons
E$\displaystyle \left\{\vphantom{ e^{2}(t)}\right.$e2(t)$\displaystyle \left.\vphantom{ e^{2}(t)}\right\}$ = $\displaystyle \Gamma_{{ff}}^{}$$\displaystyle \left(\vphantom{0}\right.$ 0$\displaystyle \left.\vphantom{0}\right)$ -2$\displaystyle \int_{{-\infty}}^{{+\infty}}$(ho($\displaystyle \tau$) + g($\displaystyle \tau$))$\displaystyle \Gamma_{{fw}}^{}$($\displaystyle \tau$)d$\displaystyle \tau$ (8.48)
    + $\displaystyle \int_{{-\infty}}^{{+\infty}}$$\displaystyle \int_{{-\infty}}^{{+\infty}}$(ho($\displaystyle \tau$) + g($\displaystyle \tau$))(ho(u) + g(u))$\displaystyle \Gamma_{{ww}}^{}$$\displaystyle \left(\vphantom{u-\tau}\right.$u - $\displaystyle \tau$$\displaystyle \left.\vphantom{u-\tau}\right)$d$\displaystyle \tau$du (8.49)

ce qui peut s'écrire sous la forme de sept termes:
E$\displaystyle \left\{\vphantom{ e^{2}(t)}\right.$e2(t)$\displaystyle \left.\vphantom{ e^{2}(t)}\right\}$ = $\displaystyle \Gamma_{{ff}}^{}$$\displaystyle \left(\vphantom{0}\right.$ 0$\displaystyle \left.\vphantom{0}\right)$ -2$\displaystyle \int_{{-\infty}}^{{+\infty}}$ho($\displaystyle \tau$)$\displaystyle \Gamma_{{fw}}^{}$($\displaystyle \tau$)d$\displaystyle \tau$ (8.50)
    + $\displaystyle \int_{{-\infty}}^{{+\infty}}$$\displaystyle \int_{{-\infty}}^{{+\infty}}$ho($\displaystyle \tau$)ho(u)$\displaystyle \Gamma_{{ww}}^{}$$\displaystyle \left(\vphantom{u-\tau}\right.$u - $\displaystyle \tau$$\displaystyle \left.\vphantom{u-\tau}\right)$d$\displaystyle \tau$du (8.51)
    + $\displaystyle \int_{{-\infty}}^{{+\infty}}$$\displaystyle \int_{{-\infty}}^{{+\infty}}$ho($\displaystyle \tau$)g(u)$\displaystyle \Gamma_{{ww}}^{}$$\displaystyle \left(\vphantom{u-\tau}\right.$u - $\displaystyle \tau$$\displaystyle \left.\vphantom{u-\tau}\right)$d$\displaystyle \tau$du (8.52)
    + $\displaystyle \int_{{-\infty}}^{{+\infty}}$$\displaystyle \int_{{-\infty}}^{{+\infty}}$ho(u)g($\displaystyle \tau$)$\displaystyle \Gamma_{{ww}}^{}$$\displaystyle \left(\vphantom{u-\tau}\right.$u - $\displaystyle \tau$$\displaystyle \left.\vphantom{u-\tau}\right)$d$\displaystyle \tau$du (8.53)
    -2$\displaystyle \int_{{-\infty}}^{{+\infty}}$g($\displaystyle \tau$)$\displaystyle \Gamma_{{fw}}^{}$($\displaystyle \tau$)d$\displaystyle \tau$ + $\displaystyle \int_{{-\infty}}^{{+\infty}}$$\displaystyle \int_{{-\infty}}^{{+\infty}}$g($\displaystyle \tau$)g(u)$\displaystyle \Gamma_{{ww}}^{}$$\displaystyle \left(\vphantom{u-\tau}\right.$u - $\displaystyle \tau$$\displaystyle \left.\vphantom{u-\tau}\right)$d$\displaystyle \tau$du (8.54)

Les trois premiers termes correspondent à l'erreur quadratique moyenne dans le cas du filtre optimal ho(t). On notera cette valeur Eo. Vu que la fonction d'autocorrélation $ \Gamma_{{ww}}^{}$$ \left(\vphantom{\tau}\right.$$ \tau$$ \left.\vphantom{\tau}\right)$ est paire, les troisième et quatrième termes sont égaux. Nous pouvons alors les combiner avec le sixième terme pour obtenir
E$\displaystyle \left\{\vphantom{ e^{2}(t)}\right.$e2(t)$\displaystyle \left.\vphantom{ e^{2}(t)}\right\}$ = Eo +2$\displaystyle \int_{{-\infty}}^{{+\infty}}$g(u)$\displaystyle \left[\vphantom{\int_{-\infty}^{+\infty}h_{o}(\tau)\Gamma _{ww}\left(u-\tau\right)d\tau-\Gamma _{fw}(u)}\right.$$\displaystyle \int_{{-\infty}}^{{+\infty}}$ho($\displaystyle \tau$)$\displaystyle \Gamma_{{ww}}^{}$$\displaystyle \left(\vphantom{u-\tau}\right.$u - $\displaystyle \tau$$\displaystyle \left.\vphantom{u-\tau}\right)$d$\displaystyle \tau$ - $\displaystyle \Gamma_{{fw}}^{}$(u)$\displaystyle \left.\vphantom{\int_{-\infty}^{+\infty}h_{o}(\tau)\Gamma _{ww}\left(u-\tau\right)d\tau-\Gamma _{fw}(u)}\right]$du (8.55)
    + $\displaystyle \int_{{-\infty}}^{{+\infty}}$$\displaystyle \int_{{-\infty}}^{{+\infty}}$g($\displaystyle \tau$)g(u)$\displaystyle \Gamma_{{ww}}^{}$$\displaystyle \left(\vphantom{u-\tau}\right.$u - $\displaystyle \tau$$\displaystyle \left.\vphantom{u-\tau}\right)$d$\displaystyle \tau$du (8.56)
  = Eo + T4 + T5 (8.57)

T4 et T5 sont à nouveau deux termes que nous allons traiter séparément. Montrons tout d'abord que le terme T5 est toujours positif. En exprimant la fonction d'autocorrélation par une intégrale, nous obtenons
T5 = $\displaystyle \int_{{-\infty}}^{{+\infty}}$$\displaystyle \int_{{-\infty}}^{{+\infty}}$g($\displaystyle \tau$)g(u)$\displaystyle \int_{{-\infty}}^{{+\infty}}$w(t - $\displaystyle \tau$)w(t - u)dtd$\displaystyle \tau$du (8.58)
  = $\displaystyle \int_{{-\infty}}^{{+\infty}}$$\displaystyle \int_{{-\infty}}^{{+\infty}}$w(t - u)g(u)du$\displaystyle \int_{{-\infty}}^{{+\infty}}$g($\displaystyle \tau$)w(t - $\displaystyle \tau$)d$\displaystyle \tau$dt (8.59)

Si l'on définit z(t) = g(t) $ \otimes$ w(t), ce terme vaut

T5 = $\displaystyle \int_{{-\infty}}^{{+\infty}}$z2(t)dt $\displaystyle \geq$ 0 (8.60)

qui ne peut jamais être négatif. Remarquons que cette valeur est indépendante de l'expression du filtre idéal ho(t).

Retournons à présent à l'expression de l'erreur quadratique moyenne:

E$\displaystyle \left\{\vphantom{ e^{2}(t)}\right.$e2(t)$\displaystyle \left.\vphantom{ e^{2}(t)}\right\}$ = Eo +2$\displaystyle \int_{{-\infty}}^{{+\infty}}$g(u)$\displaystyle \left[\vphantom{\int_{-\infty}^{+\infty}h_{o}(\tau)\Gamma _{ww}\left(u-\tau\right)d\tau-\Gamma _{fw}(\tau)}\right.$$\displaystyle \int_{{-\infty}}^{{+\infty}}$ho($\displaystyle \tau$)$\displaystyle \Gamma_{{ww}}^{}$$\displaystyle \left(\vphantom{u-\tau}\right.$u - $\displaystyle \tau$$\displaystyle \left.\vphantom{u-\tau}\right)$d$\displaystyle \tau$ - $\displaystyle \Gamma_{{fw}}^{}$($\displaystyle \tau$)$\displaystyle \left.\vphantom{\int_{-\infty}^{+\infty}h_{o}(\tau)\Gamma _{ww}\left(u-\tau\right)d\tau-\Gamma _{fw}(\tau)}\right]$du + T5 (8.61)

Nous allons à présent établir la condition qui assure que Eo soit la plus petite erreur quadratique moyenne que l'on puisse obtenir. Un moyen est de faire en sorte que le terme entre crochets soit nul pour toute valeur de u. Il faut alors assurer qu'il s'agit d'une condition nécessaire et suffisante pour optimiser le filtre. La condition est tout d'abord nécessaire. En effet, si le terme entre crochets était non nul pour certaines valeurs de u, le terme T4 pourrait prendre des valeurs fortement négatives vu que g(u) est une fonction totalement arbitraire. Il en découlerait que E$ \left\{\vphantom{ e^{2}(t)}\right.$e2(t)$ \left.\vphantom{ e^{2}(t)}\right\}$ pourrait être inférieure à E0, ce qui violerait notre définition. Nous obtenons donc une condition nécessaire pour que le filtre ho(t) soit optimal:

$\displaystyle \Gamma_{{fw}}^{}$($\displaystyle \tau$) = $\displaystyle \int_{{-\infty}}^{{+\infty}}$ho($\displaystyle \tau$)$\displaystyle \Gamma_{{ww}}^{}$$\displaystyle \left(\vphantom{u-\tau}\right.$u - $\displaystyle \tau$$\displaystyle \left.\vphantom{u-\tau}\right)$d$\displaystyle \tau$ (8.62)

Cette condition est de plus suffisante. En effet, il suffit qu'elle soit vérifiée pour que le terme T4 disparaisse et dès lors E$ \left\{\vphantom{ e^{2}(t)}\right.$e2(t)$ \left.\vphantom{ e^{2}(t)}\right\}$ sera toujours supérieure ou égale à Eo, vu que T5 $ \geq$ 0.

Pour les systèmes linéaires, il est aisé de montrer que

$\displaystyle \Gamma_{{\widehat{f}w}}^{}$($\displaystyle \tau$) = h($\displaystyle \tau$) $\displaystyle \otimes$ $\displaystyle \Gamma_{{ww}}^{}$$\displaystyle \left(\vphantom{\tau}\right.$$\displaystyle \tau$$\displaystyle \left.\vphantom{\tau}\right)$ (8.63)

$ \widehat{{f}}$(t) et w(t) sont respectivement la sortie et l'entrée du système caractérisé par h(t). Étant donnée la condition d'optimalité sur ho(t), nous pouvons écrire

$\displaystyle \Gamma_{{fw}}^{}$($\displaystyle \tau$) = ho($\displaystyle \tau$) $\displaystyle \otimes$ $\displaystyle \Gamma_{{ww}}^{}$$\displaystyle \left(\vphantom{\tau}\right.$$\displaystyle \tau$$\displaystyle \left.\vphantom{\tau}\right)$ = $\displaystyle \Gamma_{{\widehat{f}w}}^{}$($\displaystyle \tau$)

Cette seconde égalité montre que le filtre de WIENER rend l'intercorrélation entre le signal idéal et le signal dégradé égal à l'intercorrélation entre le signal dégradé et le signal restauré. En prenant la transformée de FOURIER de chacun des membres de l'égalité, nous obtenons

$\displaystyle \gamma_{{fw}}^{}$(f )= $\displaystyle \mathcal {H}$o(f )$\displaystyle \gamma_{{ww}}^{}$(f ) (8.64)

et dès lors,

$\displaystyle \mathcal {H}$o(f )= $\displaystyle {\frac{{\gamma _{fw}(f)}}{{\gamma _{ww}(f)}}}$ (8.65)

qui correspond donc à l'expression fréquentielle du filtre optimal en fonction des données du problème.

8.3.1.4 Cas particulier : signal idéal et bruit indépendants

Tel quel, on éprouve du mal à interpréter l'expression fréquentielle du filtre optimal. Ce n'est plus le cas lorsque l'on fait l'hypothèse supplémentaire que les signaux f (t) et n(t) sont indépendants. Dans ce cas, nous pouvons écrire

E$\displaystyle \left\{\vphantom{ f(t)\, n(t)}\right.$f (tn(t)$\displaystyle \left.\vphantom{ f(t)\, n(t)}\right\}$ = E$\displaystyle \left\{\vphantom{ f(t)}\right.$f (t)$\displaystyle \left.\vphantom{ f(t)}\right\}$ E$\displaystyle \left\{\vphantom{ n(t)}\right.$n(t)$\displaystyle \left.\vphantom{ n(t)}\right\}$ (8.66)

Nous pouvons alors transformer le numérateur de $ \mathcal {H}$o(f ) de la manière suivante

$\displaystyle \Gamma_{{fw}}^{}$($\displaystyle \tau$) = E$\displaystyle \left\{\vphantom{ w(t)\, f(t+\tau)}\right.$w(tf (t + $\displaystyle \tau$)$\displaystyle \left.\vphantom{ w(t)\, f(t+\tau)}\right\}$ = E$\displaystyle \left\{\vphantom{ \left[f(t)+n(t)\right]\, f(t+\tau)}\right.$$\displaystyle \left[\vphantom{f(t)+n(t)}\right.$f (t) + n(t)$\displaystyle \left.\vphantom{f(t)+n(t)}\right]$ f (t + $\displaystyle \tau$)$\displaystyle \left.\vphantom{ \left[f(t)+n(t)\right]\, f(t+\tau)}\right\}$ (8.67)

ou encore

$\displaystyle \Gamma_{{fw}}^{}$($\displaystyle \tau$) = $\displaystyle \Gamma_{{ff}}^{}$$\displaystyle \left(\vphantom{\tau}\right.$$\displaystyle \tau$$\displaystyle \left.\vphantom{\tau}\right)$ + E$\displaystyle \left\{\vphantom{ n(t)}\right.$n(t)$\displaystyle \left.\vphantom{ n(t)}\right\}$ E$\displaystyle \left\{\vphantom{ f(t+z)}\right.$f (t + z)$\displaystyle \left.\vphantom{ f(t+z)}\right\}$ = $\displaystyle \Gamma_{{ff}}^{}$$\displaystyle \left(\vphantom{\tau}\right.$$\displaystyle \tau$$\displaystyle \left.\vphantom{\tau}\right)$ + $\displaystyle \int_{{-\infty}}^{{+\infty}}$n(t) dt $\displaystyle \int_{{-\infty}}^{{+\infty}}$f (t + $\displaystyle \tau$) dt (8.68)

et finalement

$\displaystyle \Gamma_{{fw}}^{}$($\displaystyle \tau$) = $\displaystyle \Gamma_{{ff}}^{}$$\displaystyle \left(\vphantom{\tau}\right.$$\displaystyle \tau$$\displaystyle \left.\vphantom{\tau}\right)$ + $\displaystyle \mathcal {N}$(0) $\displaystyle \mathcal {F}$(0) (8.69)

$ \mathcal {N}$(0) et $ \mathcal {F}$(0) sont respectivement les transformées de FOURIER de n(t) et f (t) évaluée en 0. Un raisonnement similaire peut être appliqué au dénominateur de $ \mathcal {H}$o(f ):

$\displaystyle \Gamma_{{ww}}^{}$$\displaystyle \left(\vphantom{\tau}\right.$$\displaystyle \tau$$\displaystyle \left.\vphantom{\tau}\right)$ = $\displaystyle \Gamma_{{ff}}^{}$$\displaystyle \left(\vphantom{\tau}\right.$$\displaystyle \tau$$\displaystyle \left.\vphantom{\tau}\right)$ + $\displaystyle \Gamma_{{nn}}^{}$$\displaystyle \left(\vphantom{\tau}\right.$$\displaystyle \tau$$\displaystyle \left.\vphantom{\tau}\right)$ +2$\displaystyle \mathcal {F}$(0) $\displaystyle \mathcal {N}$(0) (8.70)

On peut à présent réécrire l'expression fréquentielle du filtre optimal:

$\displaystyle \mathcal {H}$o(f )= $\displaystyle {\frac{{\gamma _{f}(f)}}{{\gamma _{f}(f)+\gamma _{n}(f)}}}$          f $\displaystyle \neq$ 0 (8.71)

où nous n'avons pas considéré la composante continue. Remarquons qu'en l'absence de bruit, la fonction de transfert du filtre optimal est égale à 1. Cette dernière expression donne le filtre optimal en termes des différentes densités spectrales de puissance connues. La figure 8.11 montre des exemples de filtres de WIENER dans des cas typiques.

Figure 8.11: Illustration du filtre de WIENER. (a) et (c): signal utile passe-bas et bruit s'étalant sur toute la gamme de fréquences. (b) et (d): signal utile et bruit du type passe-bande.
7865  


Marc Van Droogenbroeck. Tous droits réservés.
2003-09-30