Wolfram alpha : un moteur de connaissance

On avait déjà google qui sait interpréter les requêtes et faire des calculs.

Quelques exemples :

  • à « c/450e-9 », google répond « 6,66205462 × 1014« 
  • avec « 350 miles » on obtient « 350 miles = 563.2704 kilometers »
  • Mais google n’est pas seulement fort en math, il est bon aussi en finance : à « 350 USD », il répond « 350 dollars américains = 252,561697 euros »

Mais il y a encore mieux que google : wolfram alpha

En math, il est capable de faire des calculs mais aussi de représenter des fonctions.  Tapons « plot x^3 – 6x^2 + 4x + 12 » et l’on obtient les réponses suivantes :

Il est aussi capable de résoudre des équations : la requête « x^3 – 4x^2 + 6x – 24 = 0 » nous apprend que l’on peut factoriser x^3 – 4x^2 + 6x – 24 sous la forme :et qu’il y a une racine réelle (x=4) et deux racines complexes (x=i sqrt(6) et x=-i squrt(6)).

Mais on n’est pas là pour parler de math, puisqu’on est sur un blog de physique…

En physique, wolfram alpha n’est pas en reste :

  • Vous voulez savoir combien de temps dure la chute d’un objet lâché à 1000 mètres de hauteur ? « time to fall 1000m » vous apprendra qu’il faut 14 secondes soit 0,24 minutes pour que l’objet atteigne le sol avec une vitesse de 140 m/s à l’arrivée.
  • « Ah ben oui, mais 140 m/s ça ne me dit rien, comment on fait pour l’avoir en km/h ? » Pas de problème, tapez « 140 m/s to km/h » et vous obtiendrez 504 km/h. Comme Wolfram alpha n’est pas avare d’informations, il vous dira aussi que cela correspond à 313,2 mph soit 272,1 noeuds (knots) c’est à dire 0,41 mach. Que c’est à peu près la vitesse d’une impulsion nerveuse, que lorsque le vent a cette vitesse, on obtient une tornade F5 sur l’échelle de Fujita, qu’à cette vitesse, il faut 7,143 seconde pour parcourir 1 km.

C’est déjà pas mal, mais pour l’instant c’est à peine mieux que google, on pourrait en voir un peu plus ?

En astronomie, en tapant « vénus« , on obtient des données orbitales (distance au soleil de 0,7 u.a. ce qui correspond à 6 minute-lumière – période orbitale de 225 jours), physiques (6052 km de rayon, soit 0,99 le rayon de la terre pour une masse 4,9.1024 kg soit 0,815 la masse de la terre avec une rotation propre de 243 jours), atmosphériques (pression de 89 atm, atmosphère constituée à 96,5 % de CO2). En prime, on obtient sa position actuelle dans le système solaire :

une petite photo :

et sa position actuelle dans la ciel :

C’est le petit point violet, à côté du soleil

En chimie, en tapant « Carbon« , on obtient la place du carbone dans la classification périodique :

Son Symbole (C), son numéro atomique (Z=6), sa phase dans les conditions normales de température (solide), sa température de fusion (3550 °C sous forme de charbon), d’ébullition (4027 °C), sa masse volumique (3,5 g/cm² pour la forme diamant), son abondance dans l’univers (0,5 %), dans la croûte (0,18 %), dans l’humain (23 %); sas isotopes stables (C12 & C13) et instables (C14).

Pour les problèmes d’optique de 1ère S et Spé physique, en tapant « lens, f=5cm, o=7cm« , ce qui revient à poser la question « pour une lentille de distance focale 5cm, quelle est l’image d’un objet situé à 7 cm devant la lentille ? » on obtient :

Pas mal, non ?

La liste d’application est énorme et dépasse largement le cadre de la physique-chimie et des sciences en général. La page d’exemple balaie les sciences dures (math, physique-chimie, SVT), les sciences de l’ingénieur, les sciences économiques et sociales mais aussi l’histoire, la géographie, la diététique, le sport, les finances, etc.

Et puis comme les physiciens ont quand même une relative ouverture d’esprit, voyons un exemples en géographie. En tapant « France » on apprend que sa superficie 550 000 km² avec 63,9 millions de personnes (soit 117 personnes par km²) qui ont une espérance de vie de 81 ans, qui parlent français (99 %) mais aussi alsacien (2,4 %), auvergnat (2,1 %), italien (1,6 %), portugais (1,2 %), breton (0,79 %) qui pratiquent le christianisme (69 %), l’islam (8,2 %), le judaïsme (1 %) et le bouddhisme (0,8 %). Économiquement, avec 2 700 milliards de dollars c’est le cinquième PIB du monde, celui-ci est de 41 200 dollars par personne ce qui met la france au 28ème rang mondial. En tapant « french« , on apprend que notre langue est parlé par 128 millions de personnes :

Je pourrait continuer cet article des heures durant tant ce moteur de recherche est inépuisable. Pour s’amuser, essayez votre prénom, vous y apprendrez combien d’américain le porte, votre date de naissance, vous saurez enfin quelle était la phase de la lune ce jour-là !

Qu’est-ce que la brisure de symétrie ?

Yoichiro Nambu qui se voit attribué la moitié du prix (1 million d'euros)Le prix Nobel de physique a été attribué cette année à 1 chercheur américain, M. Yoichiro Nambu et 2 chercheurs japonnais, M. Makoto Kobayashi et Toshihide Maskawa « pour la découverte du mécanisme de brisure spontanée de symétrie en physique subatomique » (Réf : le monde le site officiel des prix nobel).

Si le prix nobel de physique 2007 était un tant soit peu compréhensible par les non-initié à travers ses applications pratiques (voir Un prix Nobel Français dans notre ordinateur !) le prix Nobel 2008 semble beaucoup plus éloigné de nos préoccupations quotidiennes. De quoi s’agit-il ?

La symétrie et la physique

flocon de neigeLa symétrie des objets naturels (les flocons de neige, certaines fleurs) a quelque chose de fascinant car relativement rare. Lorsqu’on parle de symétrie en physique, il ne s’agit pas de celles des objets naturels. Il s’agit en fait de la symétrie des lois de la physique. Mais que vient faire la symétrie dans ces lois ?

La symétrie pour les physiciens est la capacité à rester insensible à certaines transformations. Ainsi, un objet symétrique comme un carré, une sphère ou un flocon de neige n’est pas discernable de son reflet dans un miroir. Si l’on compare l’objet original et son reflet, on verra le même objet : on parle dans ces conditions de symétrie par réflexion dans un miroir.

Dans leur recherche de loi pour comprendre et prévoir le monde, les physiciens ont tendance à rechercher de telles symétries pour simplifier ces lois. C’est à dire qu’ils élaborent des lois qui sont inchangées lorsqu’on appliquent certaines transformations.

La symétrie par translation dans l’espace

Prenons un exemple simple de symétrie : la symétrie par translation dans l’espace. C’est une symétrie suivie par les lois de la physique. Celle-ci stipule que si l’on fait une certaine mesure ou qu’on applique une certaine loi quelque part dans l’espace les résultats que l’on obtiendrait ne dépendent pas de l’endroit où l’on fait la mesure. Cette loi parait bien étrange si l’on réfléchit un peu. En effet, si je mesure la valeur de la gravitation exercée par la Terre à Paris, je n’obtiendrais par la même valeur que si je faisais la mesure 400 km au-dessus du sol Parisien.

La symétrie par translation ne serait-elle pas vérifiée ? En réalité pour appliquer la symétrie par translation dans l’espace à la gravitation exercée par la terre, il faudrait également déplacer la terre de 400 km à la verticale de Paris. Dans ces conditions, la valeur de la gravitation sera la même.

Cela parait stupide d’inventer une loi qui dit que la valeur de la gravitation à Paris serait la même si on déplace la Terre dans l’espace. Quel est l’intérêt de chercher à vérifier une telle symétrie ? Cela permet de simplifier l’expression de la loi de gravitation : au lieu d’exprimer la loi de la gravitation à chaque position possible de la terre, on l’exprime d’une manière générale à une certaine distance de la terre. D’ailleurs, la preuve que la symétrie par translation d’espace est bien vérifiée est obtenue en se rappelant que la terre est toujours en mouvement autour du soleil et que s’il on fait la mesure de la gravitation Terrestre un certain jour à une certaine heure à Paris, on trouvera la même valeur un autre jour alors que nous sommes plusieurs millions de kilomètre plus loin.

La recherche de la symétrie dans les lois de la physique n’est donc pas une recherche esthétique de perfection mais plutôt une recherche de simplification de ces lois.

Quelles sont les symétries vérifiées par les lois de la physique ?

Il y a comme on vient de le voir la symétrie par translation dans l’espace. On admet généralement que la symétrie par translation de temps est également juste : les lois physiques vérifiée aujourd’hui était vrai hier et seront vrais demain (par exemple si l’on recréé les conditions du big bang dans le LHC ce qu’on trouvera était valable au moment du big bang). Bien entendu, cette loi est difficile à vérifier au-delà de la mémoire humaine mais elle est nécessaire pour décrire ce qu’a été le monde avant que la science ne commence à le décrire. Si cette symétrie était violée, alors on ne pourrait plus dire grand chose du passé puisque cela voudrait dire que les lois de la physique telles qu’elles s’expriment aujourd’hui n’étaient pas valable dans le passé.

Une symétrie fondamentale pour l’histoire de la physique est la symétrie de vitesse constante en ligne droite. Celle-ci affirme que toutes les lois physiques doivent être les même pour 2 observateurs en déplacement à vitesse constante l’un par rapport à l’autre. Autrement dit, si l’on se déplace à vitesse constante en ligne droite et que l’on ne peut pas observer l’environnement (imaginons par exemple un voyage interstellaire dans un vaisseau sans hublot), aucune expérience ne nous permet de déterminer si nous sommes en mouvement ou non. Cette symétrie est à l’origine de la relativité d’Einstein : c’est en réalisant qu’elle n’était pas vérifiée par les lois du mouvement de Newton appliquée à l’électromagnétisme qu’Einstein proposa de nouvelles lois du mouvement.

Un dernier exemple de symétrie qui fonctionne : les phénomènes ne sont pas modifiés lorsqu’on remplace un atome par un autre du même type.

Certaines symétries ne fonctionnent pas

Bien entendu, cela devient tout de suite plus intéressant (et du coup plus compliqué) lorsqu’on s’intéresse aux symétries qui ne sont pas vérifiées. On parle alors de brisure de symétrie.

La dépendance au changement d’échelle en est un exemple assez simple à se représenter. Imaginons un objet qui ait une taille de l’ordre de 1 m : une table en bois par exemple. Peut-on construire de la même façon une table avec une échelle différente ? Une table de 10 m ? Une table de 100 m ? Une table de 1 km ? Il est évident que non. Il arrivera un moment où le plateau de bois s’affaissera sous son propre poids. Les lois de la physique ne sont donc pas insensibles au changement d’échelle.

Une autre symétrie classique qui ne fonctionne pas est celle évoquée au début de cet article sur la réflexion par un miroir. C’est difficile à expliquer mais même si 99.9% des lois de la physique vérifient une symétrie droite-gauche, toutes ne le sont pas. En particulier, dans le monde des particules, la droite et la gauche est définie de manière absolue.

La brisure de symétrie Matière-antimatière

Une brisure de symétrie qui présente un intérêt tout particulier pour nous (et pour les lauréats du prix Nobel de physique 2008) est la brisure de symétrie Matière-Antimatière.

Toutes les particules qui constituent la matière ont une soeur jumelle « anti-particulaire ». Ainsi, il existe une particule nommée positon qui a toutes les caractéristiques d’un électron mais qui est chargé positivement. La rencontre entre une particule et son homologue anti-particule est détonante : les 2 entités disparaissent et libèrent toute leur énergie de masse (voir l’article “la masse de ce produit contient l’équivalent de 21 000 tonnes de TNT par gramme”). Conseil de physicien : si vous rencontrez un jour un extra-terrestre assurez-vous qu’il est fait de matière car une poignée de main entre un terrien-matière et un extraterrestre-antimatière ne donnerait qu’un flash intense d’énergie.

La symétrie matière-antimatière stipule qu’un monde fait d’antiparticule a exactement les mêmes caractéristiques qu’un monde fait de particules. C’est à dire que nos lois de la physique ne font pas la différence entre matière et anti-matière : pour notre extraterrestre-antimatière la tartine tombe toujours du côté beurré de sa planète-antimatière.

Au moment du big bang, il y a 14 Milliards d’année, la quantité de matière et d’antimatière était exactement la même. Comme nous habitons dans un univers fait de matière, il faut bien qu’il y ait une petite différence entre une particule et son homologue antiparticule. Cette différence accordant un petit avantage à la matière qui a pu perdurer au-delà des premières seconde du big bang. Les travaux des 3 Nobels de physique 2008 ont permis d’expliquer cette petite différence, cette brisure spontanée de symétrie matière-antimatière.

Comme l’ont dit les membres du comité Nobel « nous sommes tous des enfants de la brisure de symétrie » et cela valait bien un Nobel à ceux qui ont su l’expliquer.

Références bibliographiques : chapitre « la symétrie en physique » in la nature de la physique – R. Feynman

La nature de la lumière

A propos de la nature de la lumière, on entend tout et son contraire. Elle est parfois décrite comme une onde et parfois comme un courant de grain de lumière (les photons). Quelle description est la bonne ? Qui a raison ? Qui a tord ?

Cette question est cruciale dans tous les systèmes de pensées scientifique puisqu’elle permet de comprendre la façon dont on appréhende le monde. Ainsi, pour les atomistes grecs les objets émettaient des particules reproduisant la forme des objets de manière réduite dans notre oeil. Pour Euclide et les pythagoriciens, c’est notre oeil qui émet un « quid » et permet la vision. Cette description sera réfutée par Aristote car alors nous pourrions voir les objets la nuit, même en l’absence de lumière. Cependant, c’est du côté de l’Egypte que l’optique géométrique a été minutieusement étudiée avec les travaux d’Alhazen (Ibn Al-Haytham). Dans son livre « Les trésors de l’optique » (écrit entre 1015 et 1021, traduit en latin en 1572), il décrit la lumière de manière mécaniste, comme un flux de sphères pesante, émis de sources ponctuelles en des rayons rectilignes, susceptibles d’être réflechis, réfractés et perçus par l’oeil. Son livre traite également des lentilles (incluant l’oeil), des miroirs plans et curviligne, des couleurs et de la camera obscura (Une boîte noire percée d’un trou : le principe de la chambre noire). Son approche expérimentale et mathématique restera inégalé pendant 500 ans.

Le XVIIème siècle verra se développer une description minutieuse de ce que l’on appelle actuellement l’optique géométrique (avec les travaux de Képler, Galilée, Bacon et Descartes). En 1665, Francesco Maria Grimaldi décrit le phénomène de diffraction, de sorte qu’à la fin de ce siècle 2 modèles de la lumière se dispute le haut du pavé : le modèle corpusculaire de Newton et le modèle ondulatoire de Huygens.

Selon Newton, la lumière est constituée de corpuscules soumis à l’action des forces. Cela permet d’expliquer le comportement de la lumière comme on l’observe en optique géométrique : réfraction (changement de direction de la lumière lors de la traversée des milieux transparents), réflexion (comme pour un miroir) et modification du trajet de la lumière par les lentilles. En observant le phénomène de dispersion par un prisme (tel qu’il est étudié en classe de 2de), il en déduit que ces corpuscules sont de différents types, correspondant aux différentes couleurs perçues par l’oeil.

De son côté, Huygens, réfute ces idées en invoquant le fait que 2 pinceaux de lumière se croisant ne sont pas déviés. Il propose un modèle ondulatoire en 1678 dans lequel la lumière serait une perturbation d’un milieu, comme le son ou les vagues. Le milieu de propagation de la lumière est appelé Ether. En postulant le ralentissement de la lumière dans les milieux transparents, il propose même un modèle pour expliquer les phénomènes de réfraction et réflexion.

Ces deux modèles sont convaincants, bien que contradictoires, et permettent d’expliquer les observations de l’optique géométrique. Cependant, ils divergent sur la façon dont la lumière interagit avec la matière : pour Newton, la lumière va plus vite dans un milieu de fort indice, tandis que pour Huygens, c’est l’inverse. Avec les moyens expérimentaux de l’époque, il était impossible de déterminer quel modèle avait raison ou non. Il fallut attendre les expériences de Foucault (1850) et Fizeau (1851) pour déterminer la vitesse de la lumière dans l’eau qui donnèrent raison au modèle de Huygens.

Ainsi, à partir du milieu du XIXème siècle, les scientifiques furent convaincus que la lumière était une onde. Il restait à déterminer dans les propriétés du milieu dans lequel se propageait cette onde (voir l’article sur la ola) : l’éther. C’est dans cette optique que Michelson et Morlay (en 1887) proposèrent une expérience qui est devenu maintenant un classique des classes prépa. Le lien avec l’éther est relativement simple : si la lumière se propage dans un milieu nommé éther, alors la terre se déplace dans ce milieu à la vitesse de 30 km/s lors de son périple autour du soleil. Dans ces conditions, selon la loi d’additivité des vitesses, la vitesse de la lumière ne devrait pas être la même dans toutes les directions sur terre. L’expérience de Michelson et Morlay permit une mesure très précise de la différence de vitesse de la lumière dans deux directions perpendiculaires : ils découvrirent qu’il n’y en avait pas ! La vitesse de la lumière est la même dans toute les directions (idée à la base de la théorie de la relativité restreinte d’Einstein), ce qui est en contradiction avec l’idée d’un milieu de propagation de la lumière. La lumière est donc belle et bien une onde mais non matérielle, qui correspond à une perturbation du vide lui-même !

Il peut sembler paradoxale d’imaginer une perturbation du vide. Cela serait impossible dans le vide absolu. Mais quand on parle de vide, on parle en fait de vide de matière, pas d’énergie. Dans un vide de matière, on peut trouver de l’énergie sous forme de champ électromagnétique.Modèle de propagation des champs électriques et magnétiques C’est ce que découvrirent les scientifiques de la fin du XIXème siècle (avec les travaux expérimentaux de Faraday) et Maxwell (en 1864) fournit une description théorique très détaillée des phénomènes électromagnétiques permettant de rendre compte à la fois des phénomènes électriques, magnétiques et de la propagation de la lumière.

Cette fin du XIXème siècle constitue véritablement une forme d’apogée pour les sciences physiques puisqu’elles permettaient d’expliquer la plupart des expériences observées à l’époque. On raconte qu’on déconseillait aux élèves brillants de cette époque de s’engager en sciences physique car on croyait alors que tout était découvert et qu’il n’y avait plus qu’à résoudre quelques problèmes techniques.

Parmi les mystères de la fin du XIXème perdurait celui du rayonnement du corps noir : un corps chaud émet une lumière. Cette lumière est le fruit de l’interaction entre la matière et la lumière. A l’aide des modèles statistiques de la fin du XIXème siècle, on peut expliquer ce rayonnement mais on aboutit à ce qui fut appeler « la catastrophe ultraviolette ». En effet, les modèles de l’époque prévoyait un rayonnement infini dans le domaine de l’ultraviolet et des rayons X lorsqu’un corps est chauffé, en complète contradiction avec les résultats expérimentaux. Pour expliquer cela, Max Planck proposa en 1900 de quantifier l’interaction entre la matière et la lumière : les atomes échangeraient des « quantas » d’énergie avec l’onde lumineuse. Sa proposition est « ad hoc« , c’est à dire qu’elle permet de résoudre le problème de la catastrophe ultraviolette mais Planck n’explique pas l’origine de cette quantification.

En 1905, Einstein, dans un article devenu un classique de l’histoire de la physique (voir cet article issu du them@Doc « 1905, les trois percées d’Einstein »), suggéra que c’était la lumière elle-même qui était constitué de « quanta« . Il propose de décrire la lumière comme constituée de petits grains de lumière : les photons. Cela permet d’expliquer à la fois le rayonnement des corps chaud, l’électroluminescence (le fait qu’un corps éclairé avec une lumière d’une certaine couleur peut émettre une autre couleur, comme par exemple un tee-shirt blanc sous une lampe UV) et l’effet photoélectrique (le fait que la lumière peut induire un courant électrique dans un circuit, effet utilisé dans certaines alarmes qui se déclenche lorsqu’on coupe un faisceau de lumière) : 3 phénomènes que la description de Maxwell échoue à expliquer. Est-ce à dire que toute la physique du XIXème siècle s’était fourvoyé en rejetant le modèle de Newton ? L’affaire n’est pas aussi simple car en fait pour rendre compte de l’ensemble des expériences que l’on peut faire avec la lumière, il faut considérer qu’elle est à la fois onde et corpuscule. C’est ce qu’on appelle la double nature de la lumière. Elle est onde si l’on considère les expériences de diffraction et elle est corpuscule si l’on considère le rayonnement du corps noir et les phénomènes cités ci-dessus.

En réalité, et c’est là toute la subtilité de la mécanique quantique, il n’est pas possible de trancher entre les 2 approches et l’on devrait parler au niveau microscopique de particonde (en anglais certains auteurs parlent de warticle, contraction de wave et particle), c’est à dire d’un objet qui revêt une forme ondulatoire ou corpusculaire selon la façon dont on l’appréhende… Cette description échappe à notre compréhension habituelle du monde, bienvenu dans la science moderne du XXème siècle.

Le dictionnaire des idées reçues

Ce mois-ci, la recherche propose un dossier complet sur les idées reçues sous la forme d’une dictionnaire. Petit extrait des idées reçues traitées :

La science combat les [Idées reçues], Si c’est naturel c’est bon pour la santé, Les drogues douces mènent aux drogues dures, Une frontière sépare les mondes quantique et classique, Les espèces invasives menacent les écosystèmes, Les propositions vraies sont démontrables, Les champignons sont des plantes, Nous n’utilisons que 10 % de notre cerveau, L’homme détruit les forêts, Christophe Colomb a découvert l’Amérique, L’Univers est peuplé de galaxies, etc.

Et pour compléter la revue, la recherche propose un mini-site sur les idées reçues avec article, débat, quizz et interview audio.

Pierre Gilles de Gennes : 1932 – 2007

PGGPierre-Gilles de Gennes est décédé ce Vendredi 17 Mai 2007. Il est connu du grand public pour avoir reçu le prix Nobel de physique en 1991 pour ses travaux sur les cristaux liquides et les polymères.

Chercheur de génie, ayant le goût de la pluridisciplinarité (il s’est intéressé à de nombreux sujets : magnétisme, supraconductivité, cristaux liquides, polymères, mousses et bulles), il avait également le goût de la transmission de notions complexes à travers des exemples simples. Je tenais à lui rendre hommage car avec lui, 74 ans de savoir et de savoir-faire pour le transmettre se sont éteint Vendredi dernier.

Quelques liens

Une interview-autobiographie est accessible sur le site de futura-science. Il y retrace également les bouleversements qui ont secoués la physique de 1890 à 1950. On pourra également le voir lors de conférences à l’ENS de Paris : « débat avec des littéraires » (2003), « tribulations des inventeurs »(2003), « l’interface physique-médecine »(2005).

Pourquoi des formules mathématiques en physique ?

Et puis d’abord pourquoi on écrit des formules avec des lettres en math puisqu’après on remplace les lettres par des chiffres ?

Cette question et celle du post m’ont réellement été posées par des élèves.

Revenons donc aux origines. Quel est le sens de (a+b)/c=a/b+b/c ?

Cette affirmation est vraie

  • si je prends a=1, b=2 et c=4 : (1+2)/4=3/4=0,75 et 1/4+2/4=0,25+0,75
  • mais elle vraie aussi si je prends a=5, b=10 et c=100 : (5+10)/100=15/100=0,15 et 5/100+10/100=0,05+0,1=0,15

Et je pourrai continuer ainsi pendant des heures et des heures, cela fonctionnerait toujours. Ainsi, en écrivant

(a+b)/c=a/b+b/c,

j’ai écrit une règle générale qui résume en une ligne un nombre infini de ligne (que je pourrais écrire s’il me prenait de douter de cette affirmation et que je cherchais à la mettre en défaut).

Oui mais quel est le rapport avec la physique ?

L’un des objectifs des sciences physiques depuis Galilée est de trouver des règles générales de ce type qui s’appliquerait aux expériences que l’on peut faire sur la réalité matérielle. Rien ne prouve que cela fonctionnera et qu’il existera de tels lois. Mais ceux qui ont essayé en ont trouvé.

Par exemple, si on fait tomber une bille de différentes hauteurs h et que l’on mesure la vitesse d’arrivée de la bille au sol, on peut se rendre compte que la vitesse divisée par la racine de la hauteur de chute est une constante qui semble ne pas dépendre de l’endroit où on a fait l’expérience, ni de la masse de la bille, ni de l’âge de l’expérimentateur. On peut donc tenter d’écrire une loi du genre :

v/√h = Cte

Bien sûr, personne n’a essayé de faire toutes les expériences possibles, n’importe où sur la terre avec n’importe quelle masse. Mais tous ceux qui ont essayé ont toujours trouvé le même résultat avec (presque) la même constante. Ils ont donc induit une règle qui permet de prévoir le résultat d’expérience que l’on a pas encore fait. A chaque fois que l’on retente l’expérience et que l’on trouve un résultat cohérent avec cette règle, on la valide encore un petit peu plus. Et la règle reste vraie tant qu’aucune expérience ne l’ait mise en défaut.

De fil en aiguille, durant les 400 dernières années, la physique a produit un grand nombre de lois ou règles de ce type. Certaines découlant d’autres lois et l’ensemble forme un tout cohérent basé sur une poignée de lois générales desquelles découlent d’autres lois moins générale et des résultats d’expériences. Comprendre la physique d’aujourd’hui revient donc à comprendre ces lois générales et à en mesurer les conséquences. Leur formulation mathématique est simplement un moyen « concentré » pour les exprimer.

Exercice de milieu de 1ère S ou de TS : quelle est la règle de physique auquel ce post fait référence ? Sauriez-vous retrouver cette règle à l’aide du théorème de l’énergie cinétique ? En réalité, la constante dépend légèrement de l’endroit où l’on fait l’expérience sur terre. Comment faudrait-il réécrire la règle pour qu’elle n’en dépende plus ?

La science en mouvement

La physique présentée au lycée est comme une langue morte. Elle se présente avec un vocabulaire qui lui est propre et semble scellée dans le marbre de la connaissance, validée par des personnalités qui ont atteint le panthéon de l’humanité. Pourtant, la physique est une langue bien vivante qui se construit et se déconstruit au fil des discussions et interrogations entre chercheurs, professeurs et étudiants. Aucune théorie de physique n’est gravée dans le marbre. Tous les modèles proposés par les physiciens (et les chimistes) sont construits progressivement par des aller-retour entre modélisation et expérimentation.

Quel lien entre modélisation scientifique et expérimentation ?

La science évolue par l’élaboration de modèles qui permettent de rendre compte de la réalité.

Son but est multiple :

  • comprendre le monde, l’interpréter,
  • le prévoir,
  • le modifier.

Comment la connaissance scientifique se construit ?

Par des aller-retour entre expérience et modèle :

Lorsque l’expérience produit un modèle, le raisonnement est inductif.

Lorsque le modèle permet de prévoir les résultats d’une expérience, le raisonnement est déductif. C’est un moyen de valider ou d’invalider le modèle.

Les modèles présentés en science au lycée sont validés par de nombreuses expériences. La science du lycée est une science séculaire en bon accord avec les expériences de la vie quotidienne. C’est-à-dire, qu’il n’y a pas d’expériences de la vie quotidienne qui mettent en défaut les modèles présentés.

En réalité, au lycée on ne peut faire que bâtir des expériences qui vérifie le modèle, c’est-à-dire que le prof de science présente un modèle (qui a été validé par de nombreux aller-retour avec l’expérience) et l’expérience illustre ce modèle. C’est la pédagogie de l’expérience d’illustration du cours. Le modèle existe, on ne sait pas comment il s’est construit et on dit « le modèle c’est la réalité, regarder l’expérience se plie à cette réalité ». Mais c’est une approche faussée par des contraintes pédagogiques. En réalité, l’expérience c’est la réalité et le modèle ne fait que rendre compte de cette réalité.

Parfois, pour que les élèves comprennent mieux le modèle, on emprunte le chemin inverse. Mais il s’agit d’une mise en scène. C’est l’approche historique : on fait une expérience et on se demande quel modèle on peut bâtir à partir de cette expérience. Bien sûr, on ne va pas réinventer un nouveau modèle, et les élèves sont guidés sur les traces des géants (voir le livre de S. Hawking ) pour que nous retrouvions ensemble le modèle qu’ils ont bâtis.

La structure des révolutions scientifiques - T. Khun Remarque : Un point essentiel dans la compréhension de cette élaboration et qui est souvent masqué par les contraintes pédagogiques est l’aspect contextuel des modèles (histoire, culture, société), ils ne sont pas absolu. Ils sont présentés comme tel mais en réalité, les expériences (la réalité) les font continuellement évoluer. Au fur et à mesure que le modèle se construit, de nouvelles expériences s’élaborent et contribuent à renverser le modèle dominant.

Pour aller plus loin, cette dynamique est décrite dans le livre La Structure des Révolutions Scientifiques de Thomas Khun