![]() ![]() » Transformée de Fourier (cas continu) , Transformée de Fourier rapide (FFT) |
Science contemporaine, la théorie de l'information est à distinguer de la théorie du signal plus récente (années 1960) qui lui est rattachée et trouve ses origines dans l'invention du téléphone. La première, dont Simpson peut être considéré comme l'un des pionniers au 18è siècle, est de nature statistique et a pour objet de mettre en œuvre les outils mathématiques du calcul des probabilités à la recherche d'une utilisation optimale des moyens de transmission de l'information (pouvant être de toute nature).
Le signal est le vecteur de la communication de l'information : il s'identifie à une fonction du temps dans un espace vectoriel normé et sa théorie use de nombreux outils mathématiques comme la théorie de la mesure et l'analyse harmonique.
» Tukey , Von Neumann , Shannon , Schützenberger
Le signal, en tant que moyen technique établissant le transport de l'information, est une grandeur physique temporel (fonction du temps) pouvant être très diverse : électrique, électromagnétique, acoustique (vibration de l'atmosphère), sismique (vibrations du sol), optique,...
Le signal peut être certain (obéissant à une loi mathématique connue) ou aléatoire (relevant du calcul des probabilités). Généralement, un signal certain contient du bruit, c'est à dire que sous l'effet d'effets parasites, il est affecté d'erreurs aléatoires.
Un signal s(t), fonction du temps t sur un laps de temps [t,t'] est de nature analogique si sa représentation graphique en fonction du temps est une courbe mathématique continue. Il est dit numérique si sa représentation est en bâtons : sur l'intervalle [t,t'], on ne reçoit ou considère qu'une quantité discrète (finie ou infinité dénombrable) d'images s(t) : on parle d'échantillonnage.
Représentation de t →s(t)
= 1 + sin x + cos x +sin(3x) + cos(3x)
On conçoit qu'un signal analogique est, a priori, plus précis que le signal numérique qui lui correspond par échantillonnage : choix pertinent de couples (t,s(t)), mais ce dernier sera moins sensible au bruit que le signal analogique (distorsions de la courbe entre émission et réception).
Si cela est possible, on fait en sorte que la durée entre deux échantillons soit constante : ce sera la période T de l'échantillonnage et la cadence ou fréquence de l'échantillonnage sera 1/T. Connaissant un échantillonnage significatif (sk)k = 0, ... , N-1 de N valeurs d'un signal périodique, on pose to = 0, ..., tk = k/N, ..., tN-1 = (N-1)/N avec s(tk) = sk et on décide que N sera la période du signal, ce qui permet de le prolonger à toute la droite temporelle. Généralement, on choisit pour N une puissance de 2.
➔ Claude Elwood Shannon montra que la numérisation d'un signal analogique périodique exigeait, pour qu'il soit pertinent (susceptible de restituer le signal analogique correspondant), que sa fréquence soit au moins doublée (» réf.6).
Espace de Hilbert sur C des échantillonnages : |
Posons :
f = (fk)k = 0, ... , N-1 = (f1, ..., fN-1), g = (gk)k = 0, ... , N-1 = (g1, ..., gN-1)
On peut définir (f) + (g) = (f1 + g1, ..., fN-1 + gN-1) et λf = (λf1, ..., λfN-1), λ∈C. Définissons maintenant le produit scalaire pour les échantillons de cardinal N par :
➔ Travailler dans C permet une étude plus aisée (» Espace L2 et série de Fourier). Les fonctions gn = (e2iπntj)j = 0, ... , N-1 = (1 , e2iπnt1 , e2iπnt2, ... , e2iπntN-1 ) pour n = 0, ..., N-1 constituent une base orthonormée de l'espace vectoriel sur C des échantillons de cardinal N.
∗∗∗
Pour n ≠ m,
on se ramènera à la somme d'une progression géométrique en posant u = exp(2iπ(n
- m)/N)
Au moyen de cette base, le signal s échantillonné s'écrit :
(1)
Afin de calculer les Sk, multiplions scalairement par gk (k = 0, ..., N-1) :
D'où les Sk :
∗∗∗
Montrer que l'on peut définir S-k en
vérifiant que Sk = Sn-k pour tout k.
L'échantillon (Sk)k = 0, ... , N-1 est la transformée de Fourier discrète de l'échantillon (sk). La formule (1) ci-dessus permet de reconstituer le signal échantillonné (sk) :
Dans les années 1980, une nouvelle façon d'analyser un signal a vu le jour avec la transformée par ondelettes, dont un avantage fondamental est l'économie en termes de quantité d'informations retenue pour sa représentation et sa restitution sans pertes notables. Elle voit en particulier son application dans la compression des images numériques (format JPEG 2000).
Alfred Haar et la notion d'ondelettes : »
➔ Pour en savoir plus :
Méthodes numériques, ch. 3 (TFD) et 4 (FFT), Nicolas Bakhvalov, Éd. Mir -Moscou, 1976
La cybernétique, théorie du signal et de
l'information, par une équipe de physiciens et mathématiciens
sous la
direction de Louis de Broglie
Éd. de la Revue d'Optique théorique et instrumentale, Paris - 1951
Introduction à la théorie de l'information : Mathématiques, Encyclopedia Universalis, Tome II, fondements, probabilités, application
Traitement du signal (université Paul Sabatier, Toulouse III) :
http://www.irit.fr/ACTIVITES/EQ_TCI/EQUIPE/durou/ENSEIGNEMENT/TS/
Traitement numérique du signal (École polytechnique de l'université
de Nice), pages de Joêl Le Roux :
http://users.polytech.unice.fr/~leroux/courssignal/courssignal.html
Transformée de Fourier discrète :
http://www.polytech.unice.fr/~leroux/courssignal/node65.html
Transformée de Fourier rapide :
http://www.polytech.unice.fr/~leroux/courssignal/node70.html