Joseph Fourier et la quête de l’unité

 Fourier et la Quête de l’unité

      unitéNous proposons un court extrait de l’ouvrage d’Etienne Klein et Marc Lachière-Rey, la Quête de l’unité, publié en 1996, 208 pages, chez Albin Michel dans la collection Sciences d’aujourd’hui. Cette citation a un double intérêt. D’une part, elle souligne la modernité de la pensée de Joseph Fourier ; d’autre part, elle étaye les hypothèses que l’on peut avancer quant à l’état d’esprit de Joseph Fourier. En effet, Joseph Fourier a eu de la peine à imposer son traité de la chaleur. Lagrange dès 1807, puis Poisson et Cauchy seront réticents à valider ses calculs et critiqueront un certain manque de rigueur (1). Fourier ne pourra publier le Traité de la chaleur, sans modifier la rédaction de 1812, qu’en 1822 en usant de son statut de Secrétaire de l’Académie (2).

la Quête de l’unité, par Etienne Klein, Marc Lachièze-Rey, pp 49-52 :

[…]  Par la suite, cette mécanique newtonienne connut des succès fulgurants. Bien qu’elle se présente comme un atomisme mécanisé, d’où l’idée d’harmonie semble totalement extirpée, ce sera pourtant de l’analyse, et en particulier de l’analyse dite « harmonique » précisément, que viendront une partie de ses triomphes. La mécanique analytique représentera, dans la tradition newtonienne la plus pure, un retour partiel à la vision cartésienne. Descartes fut en effet l’un des premiers à introduire l’analyse en géométrie. Ce mélange, récusé par Newton, montra par la suite une fécondité remarquable.

Depuis, la vision harmonique n’a cessé de revenir en force au sein de conceptions pourtant dominées par l’atomisme mécanique de Newton. « Quand, à une certaine occasion, j’ai demandé au professeur Einstein comment il avait trouvé la théorie de la relativité, il me répondit qu’il l’avait trouvée parce qu il était tout à fait convaincu de l’harmonie de l’univers », rapporte Hans Reichenbach. On peut également citer le physicien Ernest Rurhertord qui proposa en 1911 un modèle planétaire de l’atome reproduisant, dans sa structure même, le schéma astronomique de l’aménagement harmonique des planètes du système solaire. Et nous ayons déjà cité l’exemple plus contemporain de la physique des particules actuelle.

La vision harmonique du monde sous-tend donc toujours la physique, sans concurrencer explicitement le modèle mécaniste, elle l’a discrètement, mais constamment fécondé. Cette opposition construit une dialectique qui alimente le cheminement de cette discipline. Thèse et antithèse se doivent de déboucher, c’est connu, sur une synthèse. Cette dernière devient la nouvelle thèse, qui développe sa propre antithèse, dans un processus jamais achevé. Tel pourrait être un de moteurs des révolutions scientifiques qui, selon l’épistémologue Thomas Kuhn, caractérisent le caractère discontinu des progrès qui ont marqué l’histoire de la physique.

Aujourd’hui, bien que le modèle mécaniste soit valide pour la part de notre physique qui ne relève pas du schéma quantique, l’analyse harmonique s’y réintroduit cependant à tout moment. Presque aucun secteur de la physique n’échappe aujourd’hui, par exemple, à l’analyse harmonique de Fourier. En apprenant cette branche des mathématiques, un étudiant n’y verra pas forcément la manifestation d’une exigence métaphysique. Mais, la démarche correspond bien à une recherche systématique d’une harmonie mathématisée : la quête keplérienne revue sous un angle plus conforme au pensées de Galilée et Descartes : une union de contraires ! Prenons l’exemple de la turbulence. Elle relève au départ d une approche hydrodynamique conforme au schéma particulaire. Or rien ne semble capable de faire plier la complexité du problème, sinon des approches harmoniques : analyse de Fourier, ou ses avatars plus modernes, telle l’analyse en ondelettes [NDLR : nous en avons rendu compte plusieurs fois, voir aussi ici ou encore ici]. Ces analyses permettent de dégager dans les phénomènes de turbulence des discontinuités, des singularités, qui correspondent plus où moins à la notion intuitive de tourbillons (qui ne sont plus ceux de Descartes). Il est alors possible, et même pertinent, de définir, puis d’utiliser des nouveaux concepts – invariances d’échelle, catastrophes, structures fractales… – issus du rapprochement entre les deux visions antagonistes, particulaire et harmonique. Bien que relevant encore une fois de mathématiques très sophistiquées (ou peut-être pour cette raison), ils peuvent être candidats au titre de concepts unificateurs, dans le sens que nous introduisons plus bas.

Il est tentant de se représenter la physique quantique comme l’aboutissement le plus accompli de ce processus dialectique. Le concept de fonction d’onde, apparemment mi-ondulatoire et mi-particulaire, représenterait le meilleur compromis imaginable, incarnant une synthèse des visions harmonique et mécaniste. Mais la physique quantique, dont la description est essentiellement mathématique, n’a pas encore été interprétée d’une façon consensuelle. Les tentatives oscillent, au moins au niveau de l’intuition, entre vision particulaire et vision ondulatoire. La véritable nature de la réalité semble rester hors de portée. Peut-être notre esprit est-il condamné à balancer entre deux modèles du monde, impossibles à fusionner. Sans doute ce balancement est-il une condition nécessaire du progrès de la physique. Que dire, dans ce cas, de la physique quantique, qui d’une certaine manière stoppe cette oscillation en synthétisant les deux tendances ? Marque-t-elle l’étape ultime des progrès possibles en physique ?  […]

 

   Que conclure ? Joseph Fourier n’a pas pu ignorer ni sous-estimer les critiques de ses pairs. Il n’a pas pu non plus anticiper les travaux des mathématiciens qui tout au long du 19e et d’une partie du 20e siècle vont affiner la théorie des intégrales (3), de la convergence des séries, des équations aux dérivées partielles pour donner le cadre théorique solide qui manquait, en 1812, au traité de la chaleur.

Dans l’esprit de Joseph Fourier, les séries qu’il utilise représentent « la réalité » de la dispersion de la chaleur. Sa conviction est arrêtée : la chaleur qui se propage dans un matériau conducteur ne saurait prendre des valeurs impossibles où aberrantes. Ses équations « doivent » donc converger vers une limite.

—————-

(1) Les mathématiciens qui, dès cette époque, à la suite de Laplace, étudient les systèmes chaotiques – par le biais de l’astronomie, le problème des trois corps est déjà posé – savent que d’infimes variations peuvent perturber la convergence d’une série et détruire la stabilité d’un système. Fourier saura convaincre Laplace qui dirige le mouvement des jeunes chercheurs, mais rencontrera plus de résistance chez ses disciples Lagrange, Biot ou Poisson.

 Voir Jean Dhombres, Pierre-Simon de Laplace, éd Hermann, pp. 210-211 : « Les relations [de Laplace] avec Fourier sont typiques d’une façon de faire : devenu préfet, et d’une vingtaine d’années plus jeune que Laplace, Fourier réussit à expérimenter à Grenoble et obtient, en 1807, non seulement l’équation de la propagation de la chaleur, mais la façon de trouver les solutions compte tenu des conditions aux limites. Fourier découvre les séries qui portent son nom : elles établissent que, pour un même intervalle de fonction, et selon les différentes périodicités que l’on pose, on obtient des représentations différentes, qui n’en donnent pas moins des résultats numériques très satisfaisants. L’idée horrifiait Lagrange, qui ne rapporta pas sur Fourier ; Laplace fit certainement tester les choses par de plus jeunes chercheurs comme Biot et Poisson , et il arriva alors que ces jeunes s’attribuent le fait d’avoir redressé les ‘intuitions’ de Fourier combattues par le Nestor de la science française qu’était Lagrange, Fourier monte à Paris, et dans une discussion face à face, convainc Laplace. En dépit du fait que l’invention de Fourier est celle du ‘flux’, justement une méthode liée à l’idée de fluide, et non une méthode newtonienne. Fourier obtiendra le grand prix de l’Académie des sciences en 1812, et sera soutenu fortement par Laplace, même pour le poste de secrétaire perpétuel de l’académie, en dépit du fait qu’Arago, un élève de Laplace, se présentait au même poste. »

(2) Pour approfondir ses connaissances de la personnalité de Joseph Fourier, le lecteur peut se référer au texte que Jean-Pierre Kahane a présenté en août 2005. on peut aussi trouver sur le web, parmi d’autres, des ressources audiovisuelles de Jean-Pierre Kahane, ainsi que de Jean-Pierre Demailly, qui a aussi été interrogé sur France-Culture, à propos de Fourier.

Pour l’apport de Fourier à l’effet de serre, on peut consulter, sur le site de l’École normale supérieure de Paris, une conférence ici ou encore ici.

(3) Voir Jean-Pierre Kahane :  » Fourier, selon Riemann, est le premier à avoir compris complètement la nature des séries trigonométriques, en associant ce que j’appellerai l’analyse, les formules intégrales donnant les coefficients, et la synthèse, la représentation d’une fonction par une série trigonométrique. C’est à cause de Riemann que nous parlons aujourd’hui de séries de Fourier. En France, Fourier a été longtemps méconnu. Arago, dans son éloge de Fourier, vante grandement le savant et le politique, explique l’importance de sa théorie analytique de la chaleur, mais ne dit pas un mot des séries trigonométriques, c’est-à-dire de l’outil que Fourier a forgé pour calculer des solutions des équations intégrales de la chaleur. Fourier y accordait une grande importance et, contrairement à une idée reçue, il a développé cet outil en véritable théorie, exemples, applications et démonstrations, avec une grande rigueur. Mais il s’est heurté à l’incompréhension persistante de Lagrange, et deux pages dans les manuscrits de Lagrange, que j’ai consultées et commentées, confirment que Fourier avait raison contre Lagrange. Mais Lagrange était à l’époque de Fourier le plus respecté des mathématiciens français, et son jugement négatif sur Fourier a traversé les siècles. Dans l’édition que je possède d’Encyclopedia universalis il n’y a pas d’article sur Fourier.

Fourier attachait une portée universelle à ses formules. Il précisait bien, et le premier, que la donnée d’une fonction était celle de son domaine de définition en même temps que d’une loi ou une figure ; et, sans utiliser ces termes, il distinguait soigneusement les intervalles ouverts et les intervalles fermés. Mais, après avoir multiplié les exemples et donné quelques preuves, il s’était aventuré à dire que toute fonction était sujette à cette analyse et représentable par une série trigonométrique qui converge vers la fonction. Littéralement c’est faux. Pour appliquer les formules intégrales, il faut que la fonction soit intégrable ; et la convergence des séries est un sujet difficile. Les premiers pas pour éclaircir la question sont dus à Dirichlet, avec le premier théorème général de convergence et le premier exemple de fonction non intégrable dans la conception de l’époque. Tous les concepts d’intégration, à commencer par l’intégrale de Riemann, sont liés aux formules de Fourier et à leurs conditions de validité. Au delà de Riemann, on pense à Lebesgue, Denjoy, Laurent Schwartz. Quant à la convergence, elle est mise en question par les contre-exemples : une fonction continue dont la série de Fourier diverge en un point (du Bois-Reymond) ou même sur un ensemble donné de mesure nulle (Kahane-Katznelson), et une fonction intégrable au sens de Lebesgue dont les série de Fourier diverge partout (Kolmogorov). Le théorème de convergence de Carleson, inattendu à son époque (1966), dit que la convergence a lieu presque partout quand la fonction est de carré intégrable ; on peut améliorer cette condition, sans parvenir bien sûr aux fonctions intégrables.

De même que le concept d’intégrale, c’est le concept de série qui est en cause. Pourquoi s’attacher à la convergence, qui a d’ailleurs plusieurs significations dès qu’on passe à plusieurs variables et à des séries multiples, alors qu’il y a des procédés de sommation utilisables ? Le tournant est pris avec le théorème de Féjer de 1900 : pour les fonctions continues, les moyennes arithmétiques des sommes partielles convergent. Elles convergent même uniformément. La convergence dans les espaces fonctionnels apparaît peu après ; les fonctions sont des points, les sommes partielles d’autres points, et l’espace des fonctions de carré intégrable s’impose à l’attention avec la formule de Parseval, établie dans ce cadre par Fatou, et surtout le théorème de Riesz-Fischer, qui établit l’isomorphisme isométrique de L2 et de l2 par transformation de Fourier.

Fischer et Frédéric Riesz, indépendamment, ont pensé à une géométrisation des espaces de fonctions, et le lemme fondamental pour la preuve de leur théorème est le même ; nous l’exprimons aujourd’hui en disant que L2 est complet. Mais cette formulation ne date que de Banach dans sa théorie des opérations linéaires de 1930. Il fallait jusque là une longue phrase pour le dire. C’est un exemple où les définitions, tardives, viennent exprimer le suc d’une méthode, avant de servir de base à de nouveaux développements.

Autre exemple, toujours tiré de l’analyse de Fourier. Au lieu de L2 et de l2, Norbert Wiener s’est attaché à L1 et l1. Leurs transformées de Fourier sont un champ d’étude toujours ouvert, avec des applications surprenantes en théorie du signal (Donoho, Candès etc). Les problèmes d’analyse et de synthèse y prennent un aspect différent, plus algébrique : dans l’algèbre des fonctions sommes de séries trigonométriques absolument convergentes, les fonctions nulles sur un ensemble donné forment un idéal fermé ; y en a t-il d’autres ? C’est bien la cas, comme Malliavin l’a montré en 1959. Le point de départ est l’algèbre de Wiener, qui se voit soit comme l’algèbre multiplicative des fonctions sommes de séries trigonométriques absolument convergentes, soit comme algèbre de convolution l1. La dernière expression est plus rapide, et la notion de convolution, si fondamentale en analyse, la rend très parlante. Mais en 1930, et même quand Laurent Schwartz a élaboré sa théorie des distributions, on ne parlait pas encore de convolution ; c’était Faltung en allemand, produit de composition en français. Dans le traité de Widder « Laplace transforms », qui date de 1941 , c’est comme « Stieltjes transforms » que sont introduites les convolutions de mesures, avec une note en bas de page qui indique le terme de convolution comme une timide nouveauté parallèlement au terme de Faltung, aussi utilisé en anglais. La convolution apparaît partout, mais c’est Wiener qui a dégagé son caractère fondamental , et c’est pourquoi Faltung est devenu pour un temps l’expression de la notion. Aujourd’hui il est raisonnable de placer la convolution au départ d’un cours d’analyse de Fourier.

S’agissant du vocabulaire, comment situer l’analyse harmonique ? C’est un champ largement ouvert sur l’ensemble des mathématiques. Historiquement, on vient de voir ses relations avec les équations différentielles de la mécanique céleste, avec les équations aux dérivées partielles des cordes vibrantes et de la chaleur, avec la théorie des fonctions d’une variable réelle, et on a évoqué ses relations actuelles avec la statistique et le traitement des données. Le lien aux probabilités est ancien et profond. Le cadre de l’analyse harmonique commutative est celui des groupes abéliens localement compacts, et la dualité entre ces groupes est exprimée par la transformation de Fourier. La thèse de Tate a montré l’importance de cette approche en théorie des nombres. L’analyse harmonique non commutative est liée aux groupes non commutatifs et à leurs représentations. L’analyse harmonique abstraite part de la théorie de Gelfand des anneaux normés, autrement dits algèbres de Banach. L’analyse de Fourier classique traite de transformations intégrales, transformation de Fourier d’abord, et aussi intégrales singulières. Ses usages dans toutes les sciences ont été multipliés par la transformation de Fourier rapide puis par les ondelettes et leurs variantes. Il est clair que toute définition de l’analyse harmonique en serait une limitation injustifiée. Mais outre son étendue, on peut repérer des questions, des méthodes, des théories qui, elles, peuvent être identifiées et formalisées.

Les formules de Fourier sont l’exemple de base. Leur énoncé par Fourier exprime leur généralité, de façon formellement incorrecte. Elles ne constituent pas un théorème, mais elles ont engendré des théorèmes et permis de définir d’importantes notions. Mieux qu’un théorème, elles ont constitué un programme, à savoir, donner des conditions de leur validité. Elles ont ensuite constitué un paradigme pour tous les développements orthogonaux. Une raison de leur succès est sans doute qu’elles établissent un pont entre deux classes d’objets, en l’occurrence des fonctions et des suites. La dualité de Fourier est un modèle de traduction d’un langage dans un autre, un trait commun à d’autres grands programmes. »

About cm1

R. Timon, né en 1944 a été instituteur, maître formateur, auteur de manuels pédagogiques avant d’écrire pour le Webpédagogique des articles traitant de mathématiques et destinés aux élèves de CM1, CM2 et sixième.

Category(s): actualité, hommages

One Response in another blog/article

  1. […] le pragmatisme efficace « Joseph Fourier et la quête de l’unité […]

Laisser un commentaire