Archive for the ‘application’ Category

Fourier et Lena

vendredi, août 8th, 2014

Fourier et Lena

Histoire d’une Transformation

Longtemps, très longtemps, j’ai été perplexe devant ces images que l’on annonce comme équivalentes :

Léna_01

Je ne comprenais pas le mode de passage d’une image à l’autre. Il est vrai que je suis très ignorant des mathématiques supérieures, que la théorie des dérivées partielles m’est étrangère, néanmoins mes souvenirs de bachelier auraient dû me permettre de comprendre au moins le principe de la transformation.

Au départ, il y a l’image de Lena [1], initialement publiée dans Playboy avant d’être accaparée par les chercheurs. A l’époque, c’était une image argentique ; aujourd’hui, ce serait une image numérique obtenue avec un appareil photo ou par passage au scanner d’une reproduction de l’image originale. Cette image est donc transformable en un fichier numérique : une fois numérisée l’image se traduit par une fonction qu’on peut schématiser de la façon suivante : au pixel de coordonnées (x ;y) on fait correspondre un niveau de gris, g(x ;y) traduit par un entier entre 0 (blanc) et 255 (noir). On est donc en présence d’une fonction à 2 variables (x ;y) prenant ses valeurs entières entre 0 et 255 et qui peut se représenter par un fichier numérique.

La démonstration de Fourier : 

Après avoir établit qu’une fonction périodique peut s’écrire de façon équivalente en une somme infinie de sinus et cosinus (une série de Fourier), Fourier généralise cette approche à toute fonction, périodique ou non (c’est la Transformée de Fourier). Ainsi, « Toute fonction est peut s’écrire comme une somme infinie de sinus et cosinus, affectés de coefficients »

Série de Fourier

toute : Fourier énonce un résultat de portée universelle. Les analystes de la fin du XIXème siècle (Dirichlet, Jordan, Riemann,…) apporteront plus de rigueur à la démonstration de Fourier et introduiront quelques contraintes sur les fonctions. Elle reste vraie pour des fonctions que Fourier ne connaissait pas en 1822 lorsqu’il a publié sa démonstration.

peut s’écrire comme :  la transformation fonctionne dans les deux sens ; en partant de la somme infinie des sinus et cosinus il est possible de revenir à la fonction initiale.

somme infinie de sinus et cosinus : L’intérêt est ici que l’on peut facilement intégrer ou dériver cette série. Ce qui fait le succès de la Transformée de Fourier : une fois les coefficients déterminés, elle utilise des notions élémentaires.

 Un point d’achoppement entre Fourier et les mathématiciens et les physiciens de son temps était de savoir si ces séries convergeaient bien vers la fonction initiale, y compris aux points de discontinuité. Au cours du XIXe siècle, les mathématiciens ont tranché le débat en précisant la notion d’intégrale.

Sinus et cosinus : On s’y initie bien avant le baccalauréat ; ils ne posent pas de problèmes tant qu’ils ondulent mollement de 0 à 2?, ils deviennent un peu urticants, mais les candidats bacheliers s’y font, lorsqu’il faut trouver une équivalence à sinus (2x) ou à cosinus (a + b).

Coefficients : leur calcul n’est pas évident. De nos jours des calculateurs dédiés fournissent des valeurs aussi précises que nécessaires en quelques secondes.

Cela dit, il n’est pas si simple sans bases mathématiques solides d’aborder la transformation de Fourier. On pourra le voir dans ce dialogue entre un lycéen et des étudiants-enseignants ; dialogue extrait d’un forum actif en 2011.

Spectre d’une fonction sinus :

Il n’est pas nécessaire de représenter complètement la courbe des fonctions sinus et cosinus, que l’amplitude et la fréquence suffisent à définir entièrement :

spectre_01

Le spectre (ici au bas de l’image) permet de retrouver le graphe.

L’université de Lyon a créé une animation qui permet de visualiser la représentation d’une fonction par son spectre :

http://spiral.univ-lyon1.fr/files_m/M5423/WEB/acoustique/anim/fourier/fourier.swf

 

Sans perte d’information, on peut simplifier encore davantage la représentation en n’indiquant que l’extrémité du segment (III) et aux conventions de représentation près, ces trois graphiques sont équivalents :

spectre_02

                                                          I                                                         II                                                       III

Image et transformée :

Revenons à Lena maintenant :

  1. a)      Le fichier de l’image de Léna (qui est représentée, avec les technologies courantes, par 4 Mo des données) est transformé en une somme de fonctions sinus et cosinus (à ce stade, il n’y a pas d’allégement du fichier, la quantité de données est équivalente ; les données sont fonction de la précision des calculs).
  2. b)      La transformation de Fourier du fichier est représentée sur la seconde image. Chaque pixel est l’image du spectre d’une des fonctions de la Transformée de Fourier de l’image initiale. On l’a compris, il n’y a pas correspondance entre un point de l’image initiale et un point de la Transformée. Chaque point de la Transformée rend compte d’une composante en sinus ou cosinus de l’image initiale et influe sur l’ensemble de la fonction (image initiale).

Si les deux représentations sont aussi encombrantes l’une que l’autre (4 Mo pour fixer les idées), on peut s’interroger sur l’avantage qu’il y a transformer l’image qui n’est même plus directement lisible.

Il est possible (et relativement facile) d’expérimenter sur chacune des représentations et de recueillir des informations précieuses de la comparaison des résultats. Ces expérimentations s’effectuent par le moyen de programmes informatiques assez courts, voir par exemple le site de Dimitri Bonnet :

http://kmdb.pagesperso-orange.fr/_src/_python/_formation_2010/python_formation_images.html

Le site de Caroline Petitjean donne aussi, sans entrer dans le détails de la programmation, quelques exemples d’expérimentation :

http://carolinepetitjean.free.fr/enseignements/ti/part4_M1M2_TI.pdf

On peut ainsi intervenir sur des images pour les modifier, voici un exemple trouvé sur le site de Guillaume Cheron [2] :

http://guilhem-cheron.voila.net/filtrage_echantillonnage_tf.html

On bruite Lena afin de dégrader l’image. La voici, elle, et son spectre.

bruit_01

Pour « débruiter » on applique un masque sur le spectre aux endroits qui semblent être dégradés. On obtient le résultat suivant (avec son spectre couvert par le masque)

bruit_02

 

Les illustrations ci-dessus permettent de comprendre l’intérêt de la transformation de Fourier dans le traitement des fichiers numériques (image, son ou autres).

 

Des applications multiples

Outre la retouche d’image, il est simple de supprimer certaines fréquences qui alourdissent le fichier sans apporter d’information pertinente : pour un fichier audio, par exemple, la suppression des fréquences qui ne sont pas perçues par l’oreille n’altère pas la perception. Avec cette suppression, le gain en terme de volume du fichier devient intéressant. Le codage MP3 des fichiers audio exploite cette propriété.

 

Les applications sont multiples : compression de fichiers numériques (image : suppression du bruit, des fréquences inutiles ; musique : suppression des fréquences inaudibles), mais aussi maintenance des systèmes rotatifs, imagerie scientifique ou médicale, en spectroscopie

 

Faute de connaître les technologies développées après sa mort, Fourier n’a pas pu imaginer qu’on leur applique cette Transformation dont il était l’inventeur et qui cependant leur apporte beaucoup. Un article consacré aux grandes équations de la science a ainsi pu titrer : la Transformation de Fourier est le couteau suisse de la physique mathématique. La Transformation de Fourier est ainsi utile en cristallographie, domaine dans lequel la découverte des quasi-cristaux valut à Dan Shechtman son prix Nobel.


[1] Le nom « Lenna » est le nom donné dans l’article original de Playboy, le prénom de Lena Sjööblom ayant été changé par le magazine pour que le nom soit correctement prononcé par des anglo-saxons.

Lena Söderberg (née Sjööblom, le 31 mars 1951 en Suède) est apparue comme modèle Playmate dans l’édition du magazine de Playboy en novembre 1972. Elle fut photographiée par Dwight Hooker. L’utilisation de cette image a connu quelques controverses en raison de la nudité de l’image d’origine, et surtout Playboy tenta une fois de poursuivre les utilisations non autorisées de l’image. Le magazine a depuis abandonné les poursuites et accepté l’utilisation de « Lenna » pour des raisons publicitaires.

David C. Munson, éditeur en chef lors des discussions de l’IEEE sur le traitement d’image de janvier 1996, cite deux raisons pour expliquer la popularité de cette image dans le monde de la recherche :

« Tout d’abord, cette image contient un mélange intéressant de détails, de régions uniformes, et de textures, ce qui permet de bien tester les différents algorithmes de traitement d’image. C’est une bonne image de test ! Ensuite, « Lenna » est l’image d’une femme attirante. Ce n’est pas une surprise que la communauté de la recherche dans le traitement d’image (principalement masculine) gravite autour d’une image qu’elle trouve attirante. » La coïncidence fait que Playboy a déclaré que ce numéro était sa meilleure vente : 7 161 561 exemplaires.

[2] Sur ce site, en plus de l’exemple extrait, reproduit sur cette page, l’on pourra trouver plusieurs exemples d’application de masques au traitement d’une image

 

 

 

 

 

 

 

 

 

 

 

 

Fourier et la fertilisation

dimanche, novembre 10th, 2013

Fourier, équation de la chaleur et fertilisation

La propagation de la chaleur dans un corps conducteur, décrite par l’équation de la chaleur, établie par Joseph Fourier en 1812, peut, sans modification, s’appliquer à d’autres domaines dans lesquels un phénomène diffuse sur le même mode (percolation, épidémie, colonisation d’un continent par une espèce végétale ou animale…). Les modèles informatiques basés sur l’équation de la chaleur permettent d’expérimenter et valider des hypothèses.

 Chaleur

C’est ainsi qu’on peut lire dans la revue Sciences et Avenir, n° 800, octobre 2013, p. 18 le compte-rendu des travaux de Christopher Doughty, de l’université d’Oxford (Grande-Bretagne), et Adam Wolf :

 Les grands herbivores ont fertilisé les sols d’Amérique du Sud

 

Stégomastodon

 

 

Les déplacements des tatous géants et autres mammifères de gros gabarit ont agi comme une « pompe à nutriments », il y a 30 000 ans.

Si aujourd’hui le continent sud-américain a un sol fertile, propice à l’agriculture, c’est grâce aux très gros mammifères herbivores qui vivaient dans ces contrées il y a environ 30 000 ans. Glyptodontes, sorte de tatous géants d’au moins une tonne, stégomastodontes, cousins des mammouths, et autres mammifères de gros gabarit ont piétiné cette terre, et enrichi les sols en nutriments – comme le phosphore et l’azote – simplement en se déplaçant pour se nourrir et pour déféquer.

Christopher Doughty, de l’université d’Oxford (Grande-Bretagne), et Adam Wolf de l’université de Princeton (États-Unis), affirment qu’une telle mégafaune fonctionne comme une « pompe à nutriments », fertilisant naturellement les sols en quelques dizaines de milliers d’années. Grâce à une modélisation mathématique inspirée de l’équation de la propagation de la chaleur, ils ont en effet estimé l’efficacité de cette fertilisation. Pour conclure qu’elle est proportionnelle à la masse de l’animal. Et si aujourd’hui le sol s’appauvrit, c’est qu’il y a 12 000 ans, à la fin de la dernière période glaciaire, la mégafaune a commencé à disparaître. [A. Kh.]

Fourier et la maintenance industrielle

lundi, novembre 4th, 2013

Fourier et la maintenance industrielle

 Proximètre

Les méthodes de calcul introduites par Joseph Fourier sont remarquablement fécondes, nous avons déjà évoqué les applications à la compression d’image et de sons, à l’analyse spectrale… Ce billet se propose de présenter l’apport des méthodes de Fourier à l’industrie dans ce qu’elle a de plus traditionnel.

De nombreuses machines mettent en jeu des systèmes qui tournent (axes, roues, engrenages….). Dans les cas les plus simples, la détection des défauts de roulement est évidente et leur correction est une affaire de dextérité et d’un peu de savoir faire ; aucun de ceux qui se sont essayé à régler la tension des rayons d’une roue de bicyclette ne me démentira. Quand le système est plus complexe, la localisation des défauts est plus délicate et de le rendement de la machine dépend pour beaucoup de leur bonne correction.

Proximètre_02L’exemple ci-dessous est développé sur la page qui traite de la maintenance des systèmes mécaniques d’un site pédagogique tunisien. Nous renvoyons à ce site pour un exposé complet et détaillé des méthodes utilisées ; notre propos n’est ici que de montrer la fécondité des méthodes de calcul développées par Joseph Fourier dans un domaine fréquent en milieu industriel.

 

Voici, brièvement résumé la démarche exposée dans un document .pdf du site cité précédemment.

 

 

a) Un balourd génère un signal périodique qui peut être enregistré par un capteur :

001_balourd

 

 

 

 

 

 

 

 

 

 

b) Plusieurs balourds génèrent un signal périodique complexe. La décomposition de en série de Fourier permet de mettre en évidence chacun des balourds.

003_signal type004_analyse

 

 

 

 

 

 

 

c) En pratique, on se trouve devant un signal vibratoire complexe. Cas d’un moto-compresseur.

002_signal complexe

01_motocompresseur

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Les vibrations réelles sont infiniment complexes, constituées d’un grand nombre de composantes d’origines multiples et modulées par un grand nombre de paramètres. Néanmoins, ces vibrations complexes peuvent se ramener a la superposition de composantes élémentaires purement sinusoïdales représentées chacune par leur amplitude Ai et leur fréquence Fi. La transformée de Fourier est un des outils utilisés a cet effet. Cette fonction mathématique réalise une transposition du signal de l’espace temporel vers l’espace fréquentiel. La représentation du signal obtenue est appelée un spectre en fréquences. La Transformée de Fourier est implémentée dans les analyseurs de spectres sous une forme appelée FFT (Fast Fourier Transform). Le spectre final contient l’ensemble des fréquences sinusoïdales (raies discrètes) constituant le signal vibratoire d’origine.

3. Définition d’un spectre

Un spectre est un graphe dans lequel sont représentées les amplitudes et les fréquences de toutes les composantes vibratoires élémentaires induites par le fonctionnement d’une machine. Chaque composante est représentée par un segment vertical appelé raie dont l’abscisse représente la fréquence et l’ordonnée, l’amplitude.

Notons que dans certains cas (raies confondues et dépassant largement du signal, …) nous ne parlons plus de raie, mais de pic.

4. Représentation graphique d’un spectre

Les spectres issus de signaux vibratoires réels sont très riches en raison du grand nombre de sources vibratoires présentes dans une machine. Par suite, les informations intéressantes dans le spectre ne correspondent pas forcement aux fréquences présentant des maxima d’amplitude. Des raies spectrales d’amplitude faibles au regard des autres peuvent être d’un intérêt de premier plan pour le diagnostic. Afin de pouvoir les visualiser, on utilise pour la représentation des spectres en fréquences une échelle logarithmique des amplitudes du signal. Ce type de représentation présente l’avantage de favoriser l’affichage des petites amplitudes et est donc recommande.  /…/

Le Cepstre est un outil mathématique qui permet la mise en évidence des périodicités dans un spectre en fréquence. Il résulte de la transformée de Fourier inverse d’un spectre de puissance. Le cepstre associe a une famille de raies harmoniques ou un ensemble de bandes latérales une raie unique dans sa représentation graphique. Il est utilise pour le diagnostic des phénomènes de chocs périodiques (desserrages, défauts de dentures, écaillage de roulements) et des phénomènes de modulation en fréquence ou en amplitude. La figure 4.11 montre le spectre d’un choc dû a une usure d’accouplement et le cepstre correspondant.

05_cepstre

 

 

 

 

 

 

Le calculateur Fourier 300

vendredi, août 30th, 2013

Le calculateur « Fourier 300 »

et la spectroscopie infrarouge à transformée de Fourier

 

Sans vouloir faire de publicité pour une firme (d’autant qu’elle n’a pas encore –septembre 2013- manifesté le désir de soutenir le projet d’érection à Auxerre d’un monument à la gloire de Fourier), nous ne résistons pas au plaisir de publier ici deux images dont le lecteur verra au premier coup d’œil le rapport avec ce blog.

 La spectroscopie infrarouge à transformée de Fourier (IRTF, en anglais Fourier transform infrared spectroscopy – FTIR) est une technique de mesure pour l’acquisition de spectres infrarouges. Au lieu d’enregistrer la quantité d’énergie absorbée lorsque la fréquence de lumière infrarouge varie (monochromateur), la lumière infrarouge passe au travers d’un interféromètre. Après avoir traversé l’échantillon, le signal mesuré est un interférogramme. Après que le signal a subi une transformée de Fourier, on obtient un spectre identique à celui obtenu par une spectroscopie infrarouge conventionnelle (dispersive).

Les spectromètres IRTF sont moins chers que les spectromètres conventionnels, la construction d’interféromètres étant plus facile que celle de monochromateurs. De plus, la mesure d’un spectre est plus rapide en IRTF car l’information à toutes les fréquences est collectée simultanément (une mesure au moyen d’un appareil dispersif dure par exemple une demi-heure ; elle dure deux minutes avec un appareil IRTF). Cela permet à de nombreux échantillons d’être analysés et moyennés ensemble, ce qui améliore la sensibilité. En raison de ces nombreux avantages, la très grande majorité des spectromètres infrarouges modernes sont des instruments IRTF.

Un exemple d’application hors laboratoire de ces appareils est l’analyse des gaz de combustion des moteurs thermiques des véhicules. La sonde est introduite dans le pot d’échappement et seules deux fréquences sont exploitées : 2 350 cm-1 pour le dioxyde de carbone et 2 170 cm-1 pour le monoxyde de carbone. Dans cet exemple, le spectromètre à transformée de Fourier a remplacé le spectromètre dispersif qui nécessitait des ampoules contenant des concentrations bien définies des deux gaz analysés.

Source : wikipedia

 Pour ceux qui souhaitent un peu plus de théorie, nous renvoyons au cours publié dans « Fenêtre sur l’Univers » de l’observatoire de Paris.

 Un dialogue entre « T » et « LPFR » publié sur un des forums de « futura-sciences »sur un forum du Net à propos de Spectromètre IR par transformée de Fourier vient à point nommé illustrer ces propos bien austères :

 « T : J’aurais une question à propos du principe d’un spectromètre à infrarouge par transformée de Fourier. Je comprends qu’il est constitué d’un Michelson qui permet d’obtenir à partir d’une source IR (admettant une certaine largeur spectrale) des interférences constructives ou non, traversant ensuite une cuve d’échantillon pour, par exemple, mesurer l’absorption d’un élément chimique. On obtient un interférogramme et par TF on a finalement le spectre et les possibles raies d’absorption. On peut choisir la différence de marche selon le parcours du bras, et ainsi régler la résolution spectrale. C’est ici que je ne comprends pas très bien.

En quoi le fait d’augmenter la différence de marche permet une meilleure résolution ?

En fait je pense que je ne comprends pas ce qu’il se passe lors du scan, lorsque le bras mobile se déplace de la longueur demandée pour la résolution souhaitée durant la mesure.. Le détecteur doit alors enregistrer plusieurs points, le fait que le bras se déplace permet de balayer en fréquence ? Car je ne vois pas vraiment l’avantage de passer par des interférences, pourquoi ne pas tout simplement mesurer le rayon à la sortie de la cuve sans créer d’interférences ? Bref pourquoi utiliser un Michelson ? Désolé je ne suis pas très clair.

_ LPFR : Oui, je vois que vous n’avez vraiment pas compris ce qu’est la spectrométrie par transformée de Fourier. On va aller pas à pas.

Prenez un interféromètre de Michelson, et utilisez une source monochromatique. Placez un détecteur d’intensité à la sortie et tracez l’amplitude mesurée en fonction de la position du bras mobile. Quelle courbe obtenez-vous ? (Description précise). On n’ira pas au delà si vous n’êtes pas capable de répondre à ça.

_ T : Pour moi si la source est monochromatique, on obtient une amplitude en cosinus non ?

_ LPFR : ¨Presque. Mais ça ne peut pas être ni un sinus ni un cosinus car l’intensité ne peut pas être négative. Et quelle est la période ?

_ T : C’est une dépendance en 1+cosinus donc pour d’intensité négative, donc en fait un cosinus carré de période la longueur d’onde.

_ LPFR :Non. La période est une demi-longueur d’onde car dans chaque bras il faut un aller et un retour. Mais on progresse. Maintenant, vous avez mesuré cette intensité en fonction de la position en déplaçant le bras de 35 cm (un chiffre quelconque). Quelle est la transformée de Fourier de ce signal ? Attention: il n’est pas infini, donc, ce n’est pas une « raie ».

_ T : J’aurais dit un sinus cardinal centré sur la fréquence propre de la source monochromatique ?

_ LPFR : Très bien. Sauf que la transformée d’une distance n’est pas une fréquence. Cette fois on donne des valeurs « numériques »: la longueur d’onde est ?l et la distance parcourue par le bras est L. Quelle est la largeur de ce sinus cardinal ? (La distance entre le centre et le premier zéro). Et quelle est la position du centre du sinus cardinal ?

(Trois ou quatre questions de plus et vous aurez parfaitement compris la spectroscopie par transformée de Fourier).

_ T : Ah oui pardon je confonds. On parle de nombre d’onde dans ce cas là non ? Par analogie avec les temps et fréquences, je dirais que la largeur du sinus cardinal est 1/L, centré en 1/?(1) ?

_ LPFR : C’est presque ça. C’est centré sur 2/?(1). Voyez-vous pour quoi ? Maintenant qu’est ce l’on obtient si on fait la même manip :

1 – avec une autre longueur d’onde ?2 et la même longueur de déplacement du bras L ?

2 – Et si l’intensité du faisceau est différente que pour ?l ?

3 – Avec, en même temps, les deux longueurs d’onde avec leurs amplitudes différentes ?

Quelle est la forme du signal mesuré ?

Quelle est sa transformée de Fourier ?

_ T : Si on a la même intensité, on obtient des oscillations rapides modulées par une enveloppe sinusoïdale, une sorte de battement, car produit de deux cosinus.

Sa TF donnerait la convolution des deux fonctions non ?

– Si l’intensité est différente, on a une somme de cosinus. Donc sa TF donnerait une somme de deux sinus cardinaux

_ LPFR : Non. Que l’intensité soit égale ou différente ça ne change rien. Et si vous prenez deux longueurs d’onde, même très proches, la fréquence des « battements » est tellement gigantesque que le terme « battement » ne s’applique pas. C’est votre seconde réponse qui est la bonne, dans tous les cas.

_ T : Et l’amplitude des sinus cardinaux ?

_ LPFR : Maintenant, au lieu de deux longueurs d’onde mettez en trois, quatre, … un nombre infini. Que donne la TF dans chaque cas ?

Ce qu’il faut voir maintenant est la résolution obtenue. Grosso modo, elle est celle que l’on obtiendrait avec un réseau de diffraction de largeur égale au déplacement du bras du Michelson. La fabrication de réseaux larges et très compliqué et coûteuse. Alors que celle d’un Michelson ne change pas beaucoup avec la longueur du bras. On peut donc avoir des résolutions très bonnes, impossibles à obtenir avec des réseaux. Calculez, par exemple quelle est la résolution d’un Michelson avec un déplacement de bras de 10 m (j’en ai vu).

_ T : Plus on augmente le nombre de longueur d’onde, plus on augmente le nombre de sinus cardinaux. Mais il va y avoir du recouvrement non ? Avec un bras de 10m on a une résolution de 0.001 cm(-1).

_ LPFR : Oui. Ce « recouvrement » est la résolution du spectromètre. Et vous trouvez aussi les sinus cardinaux pour des spectromètres à réseau ou à prisme. Sauf que les réseaux ne font que quelques cm. Comparez la résolution avec un réseau de 10 cm.

Mais il y a d’autres avantages avec la spectrométrie à transformée de Fourier. Et c’est le bruit. Chaque mesure d’intensité individuelle concerne toutes les longueurs d’onde et il en a des millions pour un seul spectre. Le bruit des mesures se trouve étalé (ou moyenné) dans ces millions de mesures. La précision des résultants est supérieure non seulement en résolution des longueurs d’onde, mais dans les erreurs des amplitudes d’émission ou absorption.

Pour l’anecdote, les chimistes « découvrirent » la spectroscopie par transformée de Fourier en constatant qu’un astronome (l’inventeur de la méthode) faisait des spectres des étoiles avec plus de précision que celle de leurs mesures dans leurs laboratoires (1).

———-

(1)  Ce point d’histoire est évoqué dans une plaquette du CNAM communiquée à l’occasion d’une question  évoquée ailleurs :

 On trouve dans cet ouvrage les informations suivantes : « Au début des années 50, des astronomes ont mis au point la spectroscopie par transformée de Fourier afin d’étudier le spectre infrarouge des étoiles lointaines. C’est uniquement l’utilisation de la transformation de Fourier qui a permis d’extraire les signaux extrêmement faibles du bruit de l’environnement. La première application chimique de la spectroscopie par transformée de Fourier date du début des années 60 et était consacrée à l’étude de l’infrarouge lointain, domaine caractérisé par une énergie extrêmement faible. »

Pour connaître le nom de l’inventeur du FTIR et la date de l’invention, nous avons contacté la Société française de Physique. Voici la réponse que nous avons reçue de Jean-Pierre Maillard, spécialiste de ce type d’instrument pour le domaine astronomique :

« Comme très souvent en sciences, plusieurs noms sont associés au développement de ce que l’on appelle de manière plus générale, si l’on conserve le sigle anglais FTS (Fourier transform spectrometer), qui se traduit en français par Spectromètre par transformation de Fourier. FTIR spectrometer que l’on trouve dans certains articles représente déjà un développement particulier, celui du FTS adapté pour le domaine infrarouge. À une époque où l’on avait aucun moyen de détecter le rayonnement infrarouge, celui que l’on peut considérer comme l’inventeur du concept de ce type de spectromètre est le physicien Albert Michelson, qui reçu le Nobel en 1907, célèbre pour l’expérience dite de Michelson-Morley qu’il fit avec un interféromètre (1891-1892) montage optique qui porte son nom et qui est la base du FTS. Michelson fut conscient des propriétés de son interféromètre pour la spectroscopie. Il fit quelques applications simples. Mais il n’avait pas fait le lien conceptuel avec la transformation de Fourier, opération mathématique due au français Joseph Fourier (nom de l’Université de Grenoble puisqu’il fut aussi préfet de l’Isère). Par certain côté on pourrait dire que les vrais inventeurs du FTIR spectrometer sont les deux physiciens allemands H. Rubens et W. Wood qui les premiers ont publié vingt ans plus tard un interférogramme d’une source infrarouge, mais sans être capables d’en reconstituer le spectre, ce qui demande de réaliser une transformation de Fourier. Par ailleurs leur interféromètre n’était pas celui de Michelson (Phil. Mag. 21, 249-261, 1911). Mais l’article fut aussi publié en français Isolement de rayons calorifiques de grande longueur d’onde à l’aide de lentilles de quartz, dans le journal Le radium, de 1911. Il faudra attendre les années 60 avec en même temps les développements des ordinateurs dont l’association est indispensable pour que naisse véritablement le FTS, basé sur l’interféromètre de Michelson et la transformation de Fourier, et donc le FTIR spectrometer.

En espérant que ces explications pourront satisfaire ceux qui ont posé cette question dont la réponse n’est pas si simple.»

Fourier et les cristallographes

samedi, janvier 19th, 2013

Fourier et les cristallographes

(2014, année internationale de la cristallographie)

 « L’ère de la complexité débute en 1811 avec les travaux de Fourier ». C’est Ilya Prigogine (1917-2003) prix Nobel en 1977 pour ses contributions à la thermo-dynamique hors équilibre, particulièrement la théorie des structures dissipatives, qui l’affirme comme le rappelle Eric Sartori dans « L’empire des Sciences – Napoléon et ses savants ».

La cristallographie moderne a été fondée par Max von Laue (1879-1960) qui reçu le prix Nobel en 1914 pour ses travaux sur la diffraction des rayons X par des cristaux et les Bragg (prix Nobel 1915). En 2011, Dan Shechtman (né en 1941) reçu le prix Nobel pour la découverte des quasi-cristaux.

             Le développement de la cristallographie doit beaucoup à Fourier et la technologie moderne doit beaucoup à la cristallographie. Pour l’illustrer, évoquons la découverte des quasi-cristaux cela nous permettra d’évoquer comment les cristallographes utilisent les travaux de Fourier. Les quasi-cristaux sont un des aspects de la cristallographie, ce n’est pas le seul qui soit intéressant .

         Le 8 avril 1982, Dan Shechtman, alors chercheur invité pour deux ans au National Bureau of Standards (NBS actuellement National Institute of Standards and Technology, NIST qui est présenté en français ici), découvre un alliage métallique dans lequel les atomes étaient assemblés dans un modèle qui ne pouvait pas être répété par translation, contrairement aux lois jusqu’alors admises de la nature (on connaissait cependant de nombreux objets à motifs icosaédriques dans la nature). Cette découverte appelée quasi-cristaux correspond « aux fascinantes mosaïques du monde arabe reproduites au niveau des atomes : une forme régulière qui ne se répète jamais ».

 Jusqu’à cette découverte, les scientifiques considéraient que dans un solide cristallin, les atomes devaient s’assembler avec un motif symétrique pouvant se répéter périodiquement afin de former un cristal. L’image apparue dans le microscope électronique du professeur Shechtman était si incroyable qu’elle a été longtemps combattue par l’establishment scientifique, souligne le comité Nobel. Cette découverte « très controversée » était considérée aussi « impossible que de fabriquer un ballon à l’aide uniquement de morceaux de forme hexagonale alors qu’il faut également des pentagones », explique le comité.

Le directeur de son laboratoire ira même jusqu’à lui tendre un manuel de cristallographie en lui suggérant de s’y plonger, se souvenait-il dans une interview avec son université de Haïfa. « J’ai répondu : ‘je n’ai pas besoin de le lire, je sais que c’est impossible, mais c’est bien là, devant moi’ », expliquait le chercheur, « ridiculisé et traité plus bas que terre » par ses collègues.

La découverte de Dan Shechtman se fonde sur l’observation de la diffraction par le cristal d’un faisceau de diffraction électronique. L’étude repose essentiellement sur des calculs faisant appel à la transformée de Fourier (TF).

 Les cours de cristallographie donnent quelques illustrations intéressantes de l’utilisation de ces techniques : en voici un de quelques pages (en pdf) proposé par l’université de Montréal au Québec qui est assez illustré pour éclairer le profane.

 La découverte de Dan Shechtman n’est pas tout de suite admise par ses collègues. De retour à Haifa, il élabore un premier modèle de verre icosahédrique avec son collègue Ilan Blech mais n’arrive pas à le faire publier. En 1984 de retour au NBS, son travail attire l’attention de John Cahn. En compagnie de Denis Gratias (chercheur au LEM/ONERA), ils s’assurent de la possibilité de l’existence d’une structure non-périodique mais présentant un ordre à longue distance. Avec Ilan Blech, ils rédigent l’article fondateur de la découverte des quasi-cristaux en se concentrant sur les faits expérimentaux. Outre ces quatre auteurs, l’article cite la contribution de Frank Biancaniello (pour la préparation de l’alliage) et Camden R. Hubbard (pour les expériences de diffraction X).

Depuis cette date, de très nombreuses études s’engagent pour mieux comprendre la structure des quasi-cristaux ainsi que leurs propriétés. En 1987, des chercheurs français et japonais confirment cette découverte et, en 2009, des quasi-cristaux sont même découverts dans la nature.

 2014 est déclarée l’année internationale de la cristallographie : une occasion de découvrir cette science dynamique sous tous ses aspects, ce que nous n’avons fait qu’effleurer ici.

Les cristallographes utilisent abondamment les méthodes de calcul introduites par Joseph Fourier. Pour approfondir le rapport entre Fourier et la cristallographie, le curieux pourra aussi, par exemple, prendre connaissance du cours de Sylvain Lafontaine.

 

Fourier et l’effet de serre

vendredi, octobre 12th, 2012

Fourier et l’effet de serre

          La question de l’âge de la Terre s’est imposée au milieu scientifique à la fin du XVIIIe siècle. Buffon lança le débat en développant ses vues sur les fossiles, l’érosion… l’église est restée ferme sur le décompte des années : de l’ordre de quelques milliers, mais sans tiquer quant à une évolution de la Terre en forme de refroidissement depuis le chaos originel jusqu’à nos jours.

1812

         Joseph Fourier aborde la question du refroidissement d’un point de vue mathématique en développant des méthodes de calcul toutes personnelles. Dès 1807 il est en mesure de rédiger un mémoire imposant : Théorie de la propagation de la chaleur dans les solides, dont il envoie copie à Biot et à Poisson, avant de le soumettre à l’Académie des Sciences. L’Académie refuse de porter un jugement sur la valeur de ce travail, mais fait du titre du mémoire l’intitulé du sujet pour le prix de l’année 1812.


En janvier 1812 après qu’il en a affiné la rédaction, le travail de Fourier est couronné. Dans son mémoire, Fourier établit la formule qui donne le temps pour passer d’une température initiale donnée à une température donnée :

Ici ? désigne le gradient de température en surface  et k  une constante physique (disons la conductivité du fer).

Il est probable que Fourier a pu vérifier la validité de sa théorie à l’aide du résultat des expériences menées par Buffon dans ses forges près de Montbard. Un point lui pose certainement question : sa théorie établit une formule qui permet de calculer l’âge de la Terre, mais même en adoptant les paramètres les plus extrêmes, il est impossible d’obtenir un résultat proche des moins de six mille ans acceptés par l’église et généralement admis, à l’époque, sans discussion par l’opinion. Nous ne savons rien de ses calculs, mais, même sans adopter des coefficients qui conduisent aux 4,5 milliards d’années actuellement retenus (avec l’apparition de la vie vers un milliard d’années), il dut aboutir à des résultats impossibles à faire admettre et qu’il préféra taire.

Fourier a cependant vraisemblablement partagé ses réflexions avec Arago ; en effet, dans l’éloge funèbre qu’il prononça après le décès de Fourier, Arago confessera : « …parmi les formules de Fourier, il en est une, destinée à donner la valeur du refroidissement séculaire du globe, et dans laquelle figure le nombre de siècles écoulés depuis l’origine de ce refroidissement. La question, si vivement controversée, de l’ancienneté de notre terre, même en y comprenant sa période d’incandescence, se trouve ainsi ramenée à une détermination thermométriques. Malheureusement ce point de théorie est sujet à des difficultés sérieuses. D’ailleurs la détermination thermométrique, à cause de son excessive petitesse serait réservée aux siècles à venir. »

Fourier a donc certainement ardemment cherché des biais qui lui auraient permis de raccourcir la durée théorique qu’il avait obtenue avec cette formule dont il ne mit pas en doute la validité.

(Pour découvrir les conditions de l’application numérique de la formule de Fourier, on pourra se  référer au compte-rendu de la conférence de Cédric Villani par France Caron.)

1824

      Ses réflexions conduisent Joseph Fourier à publier en 1824 un « Mémoire sur les températures du globe terrestre et des espaces planétaires ». Sans utiliser l’expression, Fourier y jette les bases de l’effet de serre, effet dont il est tant question de nos jours.

Pour une analyse scientifique plus complète et fine de ce mémoire, nous renvoyons à l’article que lui consacre Jean-Louis Dufresne dans le numéro 53, mai 2006, de la Météorologie. Pour nous ici, nous nous contenterons de mettre des éléments biographiques en regard les uns des autres pour souligner la cohérence des recherches de Joseph Fourier.

En effet, Joseph Fourier répugnait à polémiquer (c’est Arago qui nous le rapporte : « …autant il éprouvait de répugnance pour les discussions verbales. Fourier coupait court à tout débat, aussitôt qu’il pressentait une divergence d’avis un peu tranchée, sauf à reprendre plus tard le même sujet, avec la prétention modeste de faire un très petit pas chaque fois. »). Il ne s’aventura donc pas à dévoiler son sentiment profond quant à l’âge de la Terre à une opinion publique qui n’était pas prête à modifier sa façon de penser, cela le guida néanmoins ses réflexions, l’amenant à formuler une théorie qui est toujours, aujourd’hui, en 2012, l’objet d’études actives.

Fourier : l’Age de la Terre

vendredi, mai 4th, 2012

Pour un développement complet des éléments scientifiques de ce billet, le lecteur pourra consulter avec bonheur les cours en ligne de l’université de Lyon.

 

Fourier : l’Age de la Terre

Fourier mis au point dès 1807 les méthodes qui permettent d’étudier l’évolution de la chaleur dans les corps conducteurs, via certaines équations aux dérivées partielles. Il obtient la formule :

 où ? désigne le gradient de température en surface au temps t, t est le temps écoulé depuis les conditions initiales. Cette formule permet aussi à partir des températures initiale et finale de déterminer le temps qui s’est écoulé entre les deux :

L’élégance de cette formule, qui intègre harmonieusement tous les paramètres du problème, explique qu’on lui accorda un grand crédit.

Si cette formule est bonne pour un boulet de canon, elle doit aussi s’appliquer à la Terre que l’on peut supposer au départ en fusion à la température de fusion du fer, qui constitue une bonne part de son noyau. Fourier a envisagé cette application de l’équation qu’il avait établie.

Fourier n’est pas le premier à étudier l’âge de la Terre. Dans les années 1650, Ussher, avait fixé à 4004 avant Jésus-Christ la date de la Création. Ensuite, à la fin du dix-huitième siècle, Buffon (1707-1788) suivant l’idée que la Terre avait été jadis une boule de feu qui, peu à peu, s’était refroidie pour donner le globe tiède sur lequel nous vivons  fait des expériences dans les forges de Montbard sur le temps de refroidissement de globes de fer portés à température de fusion. Comme la Terre n’est pas du fer, il fit façonner d’autres boules de métaux divers, de marbre et d’argile. Il pratiqua ainsi une multitude d’expériences de physique. Tout cela pour aboutir au résultat suivant : la Terre aurait 75 000 ans. Pour courte que cette durée nous paraisse, elle était très choquante pour l’époque, Buffon jugeait lui-même la durée qu’il avait calculée trop courte au regard de ce qu’il estimait nécessaire au dépôt des couches de sédiments et au temps qu’il avait fallu pour les changer en roche. On sait sa pensée parce que l’on a gardé ses manuscrits sur ce point, documents rescapés, car habituellement il les brûlait. Ces manuscrits comportent des évaluations beaucoup plus longues, qui vont jusqu’à presque 3 millions d’années. Redoutant sans doute le scandale, car il avait déjà eu affaire à la Sorbonne qui, jugeant son « Histoire naturelle » peu catholique, l’avait contraint à de pénibles protestations d’orthodoxie, il les garda pour lui, pensant, comme il l’avait écrit à un intime, qu’il « valait mieux être plat que pendu ».

Il est probable que Fourier connaissait cela et soupçonnait les réticences qui accueilleraient le résultat de ses calculs. Fourier n’effectue donc pas l’application numérique, de sorte qu’Arago en 1833 dans l’éloge de Fourier conclura prudemment : « Je commettrais, cependant, un oubli sans excuse, si je ne disais que parmi les formules de Fourier, il en est une, destinée à donner la valeur du refroidissement séculaire du globe, et dans laquelle figure le nombre de siècles écoulés depuis l’origine de ce refroidissement. La question, si vivement controversée, de l’ancienneté de notre terre, même en y comprenant sa période d’incandescence, se trouve ainsi ramenée à une détermination thermométrique. Malheureusement ce point de théorie est sujet à des difficultés sérieuses. D’ailleurs la détermination thermométrique, à cause de son excessive petitesse serait réservée aux siècles à venir.»

Il est impensable qu’Arago (tout comme Fourier) n’ait pas effectué les calculs liés à l’application numérique de la formule (à une époque où la discussion portait sur les temps qui restaient à la Terre pour devenir un astre glacé inhabitable la réponse à cette question hantait les esprits).

 Quarante ans après Fourier, Lord Kelvin (1824-1907), reprend les calculs de Fourier, améliore l’argumentation et réalise l’application numérique. Le problème de l’âge de la Terre allait obséder Kelvin pendant plusieurs décennies, et le mettre au centre d’une controverse au point de faire oublier la contribution de Fourier, tout le monde ou presque étant maintenant persuadé que la formule est due à Kelvin.

Utilisant les meilleurs valeurs connues à son époque, Kelvin obtient pour la Terre un âge de l’ordre de 100 millions d’années. Même en tenant compte des marges d’incertitude, il estime très improbable que la Terre soit âgée de plus de 400 millions d’années ; et il complète son calcul par d’autres arguments indépendants, qu’il développe sur un le ton polémique.

En effet, dans les années 1860, ces valeurs sont incompatibles avec les théories géologiques dites gradualistes ; et bien sûr avec la théorie de la sélection naturelle de Darwin. Darwin (1809-1882) estime que sa théorie ne peut tenir debout dans une échelle de temps aussi réduite ; entre la première édition de son Origine des espèces (1859) et la dernière édition (1872), il insèrera des modifications prudentes, demandant une suspension de jugement jusqu’à ce que les connaissances en la matière soient plus sûres. Kelvin quant à lui semble avoir pensé être en possession d’une preuve de l’existence de Dieu, ou peu s’en faut (si les échelles de temps sont trop courtes, c’est que la sélection naturelle ne peut pas être la seule responsable de l’évolution).

Les géologues essayèrent de revoir leurs chronologies pour les adapter au nouveau cadre que leur proposait Kelvin ; mais les choses empirèrent au cours des années, quand ce dernier révisa ses estimations à la baisse, jusqu’au chiffre de 24 millions d’année ! En 1893, l’ensemble du monde physicien accepte ces estimations, mais les géologues et évolutionnistes ne peuvent s’y résoudre, provoquant une crise interscienti?que majeure.

 Connaissant la suite de l’histoire et le caractère de Fourier, citons à nouveau Arago : « Autant votre secrétaire [Fourier] avait besoin de causer, autant il éprouvait de répugnance pour les discussions verbales. Fourier coupait court à tout débat, aussitôt qu’il pressentait une divergence d’avis un peu tranchée, sauf à reprendre plus tard le même sujet, avec la prétention modeste de faire un très petit pas chaque fois. Quelqu’un demandait à Fontaine, géomètre célèbre de cette Académie, ce qu’il faisait dans le monde où il gardait un silence presque absolu. « J’observe, répondit-il, la vanité des hommes pour la blesser dans l’occasion. » Si, comme son prédécesseur, Fourier étudiait aussi les passions honteuses qui se disputent les honneurs, la richesse, le pouvoir, ce n’était point pour les combattre : résolu à ne jamais transiger avec elles, il calculait cependant ses démarches de manière à ne pas se trouver sur leur chemin. Nous voilà bien loin, du caractère ardent, impétueux, du jeune orateur de la société populaire d’Auxerre ; mais à quoi servirait la philosophie, si elle ne nous apprenait à vaincre nos passions ! ».

Il n’est donc pas étonnant que Fourier n’ait pas, sur ce point de l’âge de la Terre, livré au public le résultat de ses calculs, laissant à ceux qui étaient capables de les mener, le soin de conclure pour eux-même, en toute logique.