Définition de la seconde

Définir la seconde, pas si simple quand on y pense…

http://www.dailymotion.com/video/x6ssqg

Oui, les chaussettes, c’est presque ça. Mais pour comprendre comment on a inventé la seconde, il faut faire l’inverse : d’abord le jour, puis l’heure, la minute et enfin la seconde.

Imaginons que deux personnes souhaitent se donner un rendez-vous. Comment faire pour être sûr qu’elles seront bien présentes au même moment, au même endroit ?

Pour mesurer le temps, il faut avoir le nez en l’air et regarder les étoiles. Notre astre, le soleil est la première source de mesure du temps. L’alternance de lumière jour-nuit nous donne la première balise : 1 jour = la durée séparant 2 positions identiques du soleil. Pour se donner un rendez-vous, on peut par exemple se dire « rendez-vous dans 3 jours, ici ». C’est-à-dire « on attend que le soleil passe 2 fois à cette position du ciel et on se retrouve à la troisième ».

Mais comme cette durée est un peu longue, on a eu l’idée de la subdiviser en plusieurs parties. En l’occurrence, on a choisi 24 subdivisions. Pourquoi 24 ? Il faut remonter au temps des babyloniens pour avoir la réponse. Ceux-ci comptaient sur leur doigts comme nous mais en comptant aussi les 2 pouces des pieds ! Il comptait donc jusqu’à 12. C’est surprenant pour nous, mais pas si idiot quand on y pense. 12 se divise par 2, 3, 4 et 6. Ce qui est très commode pour faire des calculs quand on n’a pas de calculatrice. Ainsi, si l’on veut diviser la journée en parties égales et que l’on compte en base 12 comme les babyloniens, on obtient 12 heures le jour et 12 heures la nuit, ce qui nous donne 24 heures pour une journée complète.

Dans la foulée, on peut aussi diviser l’année en 12 mois : un an c’est la durée nécessaire pour que le soleil revienne à la même position dans le ciel les jours de solstice. En plus en un an, on observe 12 fois la pleine lune, encore un argument pour compter en base 12 et diviser l’année en 12 mois.

Au passage, si l’on compte le nombre de fois où le soleil se lève en 1 an, on trouve 365. Si l’on n’est pas trop regardant, 365 c’est à peu près 360. Et alors ? Alors 360 c’est 12 fois 30, on retrouve encore un beau 12 et le nombre de jours à mettre dans un mois.

Pourquoi une seconde est-elle le 60ème de la minute qui elle-même est le 60ème de l’heure ? Il aurait été plus simple de prendre le 100ème dans les deux cas, les conversions en auraient été largement simplifiées.
Cette question résonne avec une autre question : pourquoi les angles sont mesurés en degré, minute, seconde ?

Pour mesurer une durée plus précise que l’heure, il faut inventer des mécanismes du type gnomon : un bâton planté dans le sol. L’ombre portée par le bâton sur le sol nous donne un moyen simple de mesurer des durées précises. C’est le principe du cadran solaire où la mesure du temps est en fait une mesure d’angle.

Pour mesurer les angles, les babyloniens (vous savez ceux qui sont fan du 12) ont eu l’idée de diviser le cercle en 6 parties égales (la moitié de 12), elles-mêmes divisibles en 60 parties égales (la moitié de 120), on obtient le 360 degré (6*60) du tour complet.

Une fois que l’on a le degré, il ne reste plus qu’à inventer sa subdivision : le 60ème de degré qu’on appelle minute et le 60ème de minute qu’on appelle la seconde.

Là encore, la faute en revient aux babyloniens. Et ces 60 minutes par heure (ou degré) et 60 secondes par minute sont une réminiscence de la culture babylonienne.

Pour faire des tâches quotidiennes ce système de mesure du temps est parfaitement adapté et on l’utilise tous les jours pour se donner des rendez-vous. Mais si l’on cherche un peu de précision, on remarque que ça ne fonctionne pas tout à fait : le soleil met moins de 24 heures pour revenir à une même position, il y a un peu plus de 365 jours dans un an. Au final, la mesure du temps basé sur des phénomènes est relativement imprécise, surtout quand on veut faire des mesures de physique sur des atomes ou des particules. De plus, la mesure de la seconde est l’une des mesures fondamentales du mètre puisqu’on définit le mètre comme la distance parcourue par la lumière en 1299 792 458 seconde . Du coup, depuis 1967, les physiciens ont trouvé un autre moyen de définir la seconde. Plutôt que de garder la tête dans les étoiles, ils ont pris une mesure sur un atome :

La seconde est la durée de 9 192 631 770 périodes de la radiation correspondant à la transition entre les niveaux hyperfins F=3 et F=4 de l’état fondamental 6S½ de l’atome de césium 133

C’est pour cela que les horloges qui gouvernent le monde (horloges d’internet, des satellites GPS, des heures officielles)  sont atomiques.

Finalement, je me demande si je ne préfère pas la définition donnée par les chaussettes…

A quoi ressemble la terre lors d’une éclipse de soleil ?

Ombre de la lune sur la terre

L’ombre de la lune sur terre, le 11 Août 1999

Cette photo prise de la station orbitale Russe Mir (quelques mois avant sa destruction) montre l’ombre de la lune sur la terre. Cette ombre se déplace à la vitesse de variant entre 1 706 km/h à l’équateur, et environ 3 380 km/h aux pôles (voir sur le site d’astrosurf). Le 11 Août 99, dans l’ombre de la lune, voici ce qu’on pouvait voir  :

eclipse de soleil

Le plus surprenant dans le phénomène de l’éclipse c’est que la lune occulte parfaitement le soleil. Cela veut dire que vus de la terre, la lune et le soleil ont le même diamètre.
Comme le soleil est 400 fois plus loin de la terre que la lune cela signifie qu’il est exactement 400 fois plus gros que la Lune. Étonnant, non ?

La première seconde planète extra-solaire photographiée ?

Cette photo serait la première photo d’une planète extra-solaire !

Cela reste encore a démontrer mais le cercle rouge de la photo ci-dessus serait une planète de masse 8 fois supérieure à Jupiter qui serait en orbite autour d’une étoile de type solaire à 330 fois la distance Terre-soleil. Celle-ci est située à 500 années-lumière de la terre.

Jusqu’à maintenant, toutes les preuves d’existence de planètes extra-solaires était indirectes. En effet, les astronomes détectent la présence de planète autour d’une étoile par les variations de luminosité de cette dernière : lorsque la planète passe devant l’étoile, elle intercepte un peu de sa lumière. Cette variation de luminosité est infime ce qui rend la détection de planète extra-solaire très difficile. Cette photo serait donc une première historique puisqu’on y voit un objet qui pourrait être une planète orbitant autour d’une étoile autre que le soleil !

Il reste encore à démontrer que c’est bien le cas, ce qui devrait prendre environ 2 ans : le temps de vérifier que cet objet se déplace bien avec son étoile.

Petite correction Nov 2008 (voir les commentaires) : L’observatoire Européen ESO avait déjà pris une photo d’une planète extra-solaire en Avril 2004. A noter, cependant que l’étoile de la photo ci-dessus est une étoile type soleil alors que celle ci-contre est une jeune étoile faiblement lumineuse.

Source : Gemini observatory (pour la première photo), ESO (pour la seconde)

Pourquoi les spationautes flottent dans la navette spatiale ?

Image de prévisualisation YouTube

Le poids, la masse, la gravité

Si les photos et vidéos d’astronautes en orbite autour de la terre sont si fascinantes c’est parce qu’ils sont manifestement dans une situation impossible à vivre sur terre. Quoique nous fassions, nous retombons toujours sur le sol car la terre exerce une force qui nous attire. Celle-ci porte un nom : c’est le poids. Attention, il y a parfois une confusion entre poids et masse. Cela vient de l’imprécision du langage quotidien qui amalgame les deux. En effet, la masse correspond à la quantité de matière, elle s’exprime en kg tandis que le poids correspond à la force exercée par la terre, elle s’exprime donc en Newton (l’unité des forces). Bien entendu, les deux notions sont reliées puisque plus il y aura de masse (donc de quantité de matière), plus la force exercée par la terre sera élevée. D’ailleurs cela se traduit par une équation : P=m.g c’est à dire que le poids est proportionnel à la masse. La constante de proportionalité g est appelée constante gravitationnelle, elle vaut 9,8 N/kg (dans la suite, on prendra une valeur égale à 10). Ainsi, un spationaute de masse 80 kg subira à la surface de la terre un poids de 80.10=800 N. lorsque son médecin lui demande son poids il devrait répondre 800 N et non pas 80 kg.

La décroissance de g lorsqu’on s’éloigne de la terre

Cette constante gravitationnelle g dépend en fait de l’endroit où l’on se trouve. Plus on est proche de la terre, plus elle est élevée (la valeur 9,8 est une valeur moyenne). C’est une constante qui dépend également de la planète où l’on se trouve. Sur la Lune, sa valeur est 6 fois plus faible. Ainsi notre spationaute de 80 kg, sur la lune, serait soumis à une force de 130 N. Ayant développé une musculature pour soulever 800 N sur Terre, il pourra s’amuser à faire des galipettes. Comme on le voit sur cette vidéo de la nasa (rappelons que la combinaison des spationautes est lourde, de l’ordre de 100 kg…).

Mais revenons à notre spationaute qui flotte dans la navette spatiale, serait-ce parce qu’à cette altitude, il n’y a plus de gravité ? Si l’on fait le calcul, on trouve que g à l’altitude de vol de la navette spatiale (400 km) est de 8,7 N/kg. Notre spationaute est donc bien attiré par la terre puisque son poids à cette altitude est de 700 N (ce qui est même supérieur à la force éprouvée sur la Lune), alors pourquoi flotte-t-il ?

l’inertie et l’accélération de pesanteur

Pour répondre à cette question, il faut s’intéresser à la chute libre. Comme bien souvent dans un problème de physique, la réponse n’est pas directement là où on le croit… Pour comprendre « Pourquoi un spationaute flotte dans l’espace ? » il faut se poser la question « Si deux boules de masses différentes sont lâchées à une hauteur de disons 10 m du sol, laquelle arrivera la première ? la plus lourde ou la plus légère ? ». Réponse que tout le monde connait : elles arriveront en même temps. Voilà une réponse intéressante. Tout le monde la connait mais peu de gens la comprennent (je prend pour preuve le nombre de fois où en fin de repas, on m’a posé la question « Ah ben tiens, toi qui est prof de physique, tu vas pouvoir me dire pourquoi c’est pas la plus lourde qui arrive en premier ? »). Essayons de comprendre pourquoi.

1er point : comme on l’a vu, plus un objet est lourd, plus la terre l’attire (rappelons-nous P=m.g). Sur ce point, on est bien d’accord.

2nd point : plus un objet est lourd, plus il est difficile de le mettre en mouvement. Ce dernier point est bien souvent oublié, pourtant, il est incontestable qu’il est plus difficile de pousser une grosse berline qu’une twingo, et cela ne vient pas seulement des frottements : plus la masse est grande, plus l’objet à d’inertie, plus il est difficile à mettre en mouvement.

Il se trouve que ces deux faits se compensent exactement : l’objet le plus lourd est soumis à une plus grande force mais il est plus difficile à mettre en mouvement que l’objet le plus léger. Ainsi, les 2 objets ont le même mouvement, en l’occurrence, un mouvement accéléré. D’ailleurs la valeur de l’accélération est exactement égale à la valeur de la constante gravitationnelle. Ainsi, tout objet livré à lui-même au voisinage de la terre subit une accélération égale à 10 m/s² cela veut dire que tout objet en chute libre voit sa vitesse augmenter vers le bas de 10 m/s (36 km/h) à chaque seconde.

la chute libre

Imaginons maintenant que nous soyons dans un ascenseur dont le câble lâche. L’ascenseur se met à tomber en accélérant. S’il était initialement au repos, il aura une vitesse de 36 km/h au bout d’une seconde. Tout comme nous dans l’ascenseur qui aurons le même mouvement. Nous chuterons donc avec l’ascenseur en ayant toujours la même vitesse que lui. Si l’on se prenait en photo à ce moment…il n’y a guère que les physiciens pour penser à se prendre en photo dans un ascenseur en chute libre, tout être normalement constitué n’aurait qu’une seule activité : crier… mais bon, imaginons que nous aurions l’idée de nous prendre en photo, alors nous semblerions flotter dans l’ascenseur ! Comme l’astronaute dans la navette spatiale. Ainsi, les astronautes ne flottent pas réellement, ils sont simplement en train de tomber dans un mouvement exactement analogue à celui de la navette spatiale. Ce qui donne cette sensation qu’ils sont en apesanteur (non soumis à la pesanteur). En réalité, ils sont toujours soumis à la pesanteur : celle-ci les maintient dans un mouvement circulaire uniforme autour de la terre. S’il n’y avait pas de pesanteur, ils partiraient tout droit, vers l’infini est au-delà !

Annexe : le calcul de la constante gravitationnelle à 400 km de la surface terrestre.

De l’expression de l’interaction gravitationnelle F=G.mA.mB/dAB² on déduit g=G.M/d² où M est la masse de la planète et d la distance au centre de la planète. Dans les conditions de la navette spatiale : M = 5,98.10^24 kg et d = Rayon de la terre + altitude = 6,38.10^6+400.10^3 m ce qui donne g=8,7 N/kg.

Image de prévisualisation YouTube

du femtomètre aux années-lumière

universcale

Nikon propose sur son site anglais une belle animation pour illustrer les différentes échelles de notre univers : universcale. Cela rappelle le film sur les puissances de 10.

L’animation est en anglais, mais la navigation est assez facile : en cliquant sur les textes, ceux-ci disparaissent. Pour « zoomer » ou « dézoomer », il suffit d’utiliser la molette centrale de sa souris.

Elle illustre parfaitement le caractère « lacunaire » de la matière : il y a parfois de grandes plages d’échelles sans aucun objet. Par exemple, la taille de notre galaxie est de 1021m et la taille d’une nébuleuse est de l’ordre de 1018 m. On ne connait pas d’objet dont la taille est intermédiaire. De la même façon, notre système solaire s’étend sur 1014 m et contient une étoile de 109 m et des planètes de l’ordre de 108 m mais il n’y a pas d’objet entre 109 m et 1014 m. Cette structure lacunaire se retrouve également au niveau microscopique. En effet, à partir de 10-10 m, il ne semble plus y avoir « d’objet » mais en continuant à zoomer, on finit par trouver le noyau de l’atome à 10-15 m (cela répond aux interrogations de Lélia dans les commentaires de « ce produit est en fait constitué à 99,9999999999 % d’espace vide« ). La diversité d’objet que nous connaissons de 105 m à 10-9 m n’existe donc pas à toutes les échelles.

Un gaz à 2 000 000 °C trahi par son rayonnement !

Cet article de Techno-science nous apprend que

La célèbre nébuleuse d’Orion abrite en son sein une énorme bulle de gaz très ténu, d’une température de 2 millions de degrés. C’est ce qu’a découvert une équipe internationale menée par des chercheurs suisses et du Laboratoire d’Astrophysique de Grenoble (CNRS/Université Joseph-Fourier) grâce au satellite européen XMM-Newton. Cette température est tellement élevée que le gaz émet non pas dans le domaine visible, mais dans celui des rayons X, domaine d’investigation du satellite XMM, lancé par l’Agence Spatiale Européenne en 1999. Ces résultats sont publiés en ligne le 30 novembre 2007 sur Science Express.

Il s’agit d’une parfaite illustration de ce qui est enseigné en classe de seconde sur la relation entre la température et le spectre de la lumière émis par un corps chaud. En effet, plus la température d’un corps est grand plus son spectre de lumière émis s’enrichit en courte longueur d’onde.

Rappelons que le spectre du visible est entouré des ondes infrarouges et des ondes ultraviolettes comme le montre le schéma ci-dessous :

Ainsi, à 37 °C, un corps humain émet dans les infra-rouge. Ce rayonnement n’est pas visible par l’oeil humain. Par contre, certains animaux ont des capteurs de rayonnement infrarouge qui leur permettent de détecter leur proies dans le noirs (certains serpents et les moustiques ce qui leur permet de savoir où piquer). Certaines caméras permettent de nous révéler ce rayonnement :

Un Fer chauffé à 800-900 °C émet une lumière rouge caractéristique :

A plus haute température, on dit qu’il est chauffé à blanc :

Son spectre contient toutes les longueurs d’onde du visible et apparaît blanc. Lorsque la température augmente encore, le spectre s’enrichit de plus en plus en courte longueur d’onde, donnant une teinte de plus en plus bleu. La mesure du spectre des étoiles nous permet de cette façon de connaitre la température de surface de l’étoile. Sur la photo ci-dessous, on voit clairement que les étoiles les plus chaudes (celles du haut) sont plus lumineuses dans le bleu :

Enfin, l’article cité au début de ce billet évoque des gaz ayant une température de l’ordre du million de degré découverts grâce à son rayonnement dans les rayons X.

La nature de la lumière

A propos de la nature de la lumière, on entend tout et son contraire. Elle est parfois décrite comme une onde et parfois comme un courant de grain de lumière (les photons). Quelle description est la bonne ? Qui a raison ? Qui a tord ?

Cette question est cruciale dans tous les systèmes de pensées scientifique puisqu’elle permet de comprendre la façon dont on appréhende le monde. Ainsi, pour les atomistes grecs les objets émettaient des particules reproduisant la forme des objets de manière réduite dans notre oeil. Pour Euclide et les pythagoriciens, c’est notre oeil qui émet un « quid » et permet la vision. Cette description sera réfutée par Aristote car alors nous pourrions voir les objets la nuit, même en l’absence de lumière. Cependant, c’est du côté de l’Egypte que l’optique géométrique a été minutieusement étudiée avec les travaux d’Alhazen (Ibn Al-Haytham). Dans son livre « Les trésors de l’optique » (écrit entre 1015 et 1021, traduit en latin en 1572), il décrit la lumière de manière mécaniste, comme un flux de sphères pesante, émis de sources ponctuelles en des rayons rectilignes, susceptibles d’être réflechis, réfractés et perçus par l’oeil. Son livre traite également des lentilles (incluant l’oeil), des miroirs plans et curviligne, des couleurs et de la camera obscura (Une boîte noire percée d’un trou : le principe de la chambre noire). Son approche expérimentale et mathématique restera inégalé pendant 500 ans.

Le XVIIème siècle verra se développer une description minutieuse de ce que l’on appelle actuellement l’optique géométrique (avec les travaux de Képler, Galilée, Bacon et Descartes). En 1665, Francesco Maria Grimaldi décrit le phénomène de diffraction, de sorte qu’à la fin de ce siècle 2 modèles de la lumière se dispute le haut du pavé : le modèle corpusculaire de Newton et le modèle ondulatoire de Huygens.

Selon Newton, la lumière est constituée de corpuscules soumis à l’action des forces. Cela permet d’expliquer le comportement de la lumière comme on l’observe en optique géométrique : réfraction (changement de direction de la lumière lors de la traversée des milieux transparents), réflexion (comme pour un miroir) et modification du trajet de la lumière par les lentilles. En observant le phénomène de dispersion par un prisme (tel qu’il est étudié en classe de 2de), il en déduit que ces corpuscules sont de différents types, correspondant aux différentes couleurs perçues par l’oeil.

De son côté, Huygens, réfute ces idées en invoquant le fait que 2 pinceaux de lumière se croisant ne sont pas déviés. Il propose un modèle ondulatoire en 1678 dans lequel la lumière serait une perturbation d’un milieu, comme le son ou les vagues. Le milieu de propagation de la lumière est appelé Ether. En postulant le ralentissement de la lumière dans les milieux transparents, il propose même un modèle pour expliquer les phénomènes de réfraction et réflexion.

Ces deux modèles sont convaincants, bien que contradictoires, et permettent d’expliquer les observations de l’optique géométrique. Cependant, ils divergent sur la façon dont la lumière interagit avec la matière : pour Newton, la lumière va plus vite dans un milieu de fort indice, tandis que pour Huygens, c’est l’inverse. Avec les moyens expérimentaux de l’époque, il était impossible de déterminer quel modèle avait raison ou non. Il fallut attendre les expériences de Foucault (1850) et Fizeau (1851) pour déterminer la vitesse de la lumière dans l’eau qui donnèrent raison au modèle de Huygens.

Ainsi, à partir du milieu du XIXème siècle, les scientifiques furent convaincus que la lumière était une onde. Il restait à déterminer dans les propriétés du milieu dans lequel se propageait cette onde (voir l’article sur la ola) : l’éther. C’est dans cette optique que Michelson et Morlay (en 1887) proposèrent une expérience qui est devenu maintenant un classique des classes prépa. Le lien avec l’éther est relativement simple : si la lumière se propage dans un milieu nommé éther, alors la terre se déplace dans ce milieu à la vitesse de 30 km/s lors de son périple autour du soleil. Dans ces conditions, selon la loi d’additivité des vitesses, la vitesse de la lumière ne devrait pas être la même dans toutes les directions sur terre. L’expérience de Michelson et Morlay permit une mesure très précise de la différence de vitesse de la lumière dans deux directions perpendiculaires : ils découvrirent qu’il n’y en avait pas ! La vitesse de la lumière est la même dans toute les directions (idée à la base de la théorie de la relativité restreinte d’Einstein), ce qui est en contradiction avec l’idée d’un milieu de propagation de la lumière. La lumière est donc belle et bien une onde mais non matérielle, qui correspond à une perturbation du vide lui-même !

Il peut sembler paradoxale d’imaginer une perturbation du vide. Cela serait impossible dans le vide absolu. Mais quand on parle de vide, on parle en fait de vide de matière, pas d’énergie. Dans un vide de matière, on peut trouver de l’énergie sous forme de champ électromagnétique.Modèle de propagation des champs électriques et magnétiques C’est ce que découvrirent les scientifiques de la fin du XIXème siècle (avec les travaux expérimentaux de Faraday) et Maxwell (en 1864) fournit une description théorique très détaillée des phénomènes électromagnétiques permettant de rendre compte à la fois des phénomènes électriques, magnétiques et de la propagation de la lumière.

Cette fin du XIXème siècle constitue véritablement une forme d’apogée pour les sciences physiques puisqu’elles permettaient d’expliquer la plupart des expériences observées à l’époque. On raconte qu’on déconseillait aux élèves brillants de cette époque de s’engager en sciences physique car on croyait alors que tout était découvert et qu’il n’y avait plus qu’à résoudre quelques problèmes techniques.

Parmi les mystères de la fin du XIXème perdurait celui du rayonnement du corps noir : un corps chaud émet une lumière. Cette lumière est le fruit de l’interaction entre la matière et la lumière. A l’aide des modèles statistiques de la fin du XIXème siècle, on peut expliquer ce rayonnement mais on aboutit à ce qui fut appeler « la catastrophe ultraviolette ». En effet, les modèles de l’époque prévoyait un rayonnement infini dans le domaine de l’ultraviolet et des rayons X lorsqu’un corps est chauffé, en complète contradiction avec les résultats expérimentaux. Pour expliquer cela, Max Planck proposa en 1900 de quantifier l’interaction entre la matière et la lumière : les atomes échangeraient des « quantas » d’énergie avec l’onde lumineuse. Sa proposition est « ad hoc« , c’est à dire qu’elle permet de résoudre le problème de la catastrophe ultraviolette mais Planck n’explique pas l’origine de cette quantification.

En 1905, Einstein, dans un article devenu un classique de l’histoire de la physique (voir cet article issu du [email protected] « 1905, les trois percées d’Einstein »), suggéra que c’était la lumière elle-même qui était constitué de « quanta« . Il propose de décrire la lumière comme constituée de petits grains de lumière : les photons. Cela permet d’expliquer à la fois le rayonnement des corps chaud, l’électroluminescence (le fait qu’un corps éclairé avec une lumière d’une certaine couleur peut émettre une autre couleur, comme par exemple un tee-shirt blanc sous une lampe UV) et l’effet photoélectrique (le fait que la lumière peut induire un courant électrique dans un circuit, effet utilisé dans certaines alarmes qui se déclenche lorsqu’on coupe un faisceau de lumière) : 3 phénomènes que la description de Maxwell échoue à expliquer. Est-ce à dire que toute la physique du XIXème siècle s’était fourvoyé en rejetant le modèle de Newton ? L’affaire n’est pas aussi simple car en fait pour rendre compte de l’ensemble des expériences que l’on peut faire avec la lumière, il faut considérer qu’elle est à la fois onde et corpuscule. C’est ce qu’on appelle la double nature de la lumière. Elle est onde si l’on considère les expériences de diffraction et elle est corpuscule si l’on considère le rayonnement du corps noir et les phénomènes cités ci-dessus.

En réalité, et c’est là toute la subtilité de la mécanique quantique, il n’est pas possible de trancher entre les 2 approches et l’on devrait parler au niveau microscopique de particonde (en anglais certains auteurs parlent de warticle, contraction de wave et particle), c’est à dire d’un objet qui revêt une forme ondulatoire ou corpusculaire selon la façon dont on l’appréhende… Cette description échappe à notre compréhension habituelle du monde, bienvenu dans la science moderne du XXème siècle.

Les grandeurs numériques en physique : notation scientifique et chiffres significatifs

C’est quoi cette histoire de chiffres machincatif ?
De toute façon moi j’y ai jamais rien compris !

Voici ce que j’entends dire ces derniers jours en classe. Reprenons donc les choses et voyons ce qu’il faut retenir :

En physique et en chimie, les grandeurs numériques sont des grandeurs réelles mesurées à l’aide d’instruments de mesure plus ou moins précis. Ainsi,

  1. bien que nous n’ayons que 10 doigts pour les compter, nous sommes amener à manier des chiffres très petits ou très grands (la taille d’un noyau est 10-15 m, la taille de l’univers visible est de l’ordre de 13 milliards d’année-lumière). Nous utilisons donc la notation scientifique pour exprimer les résultats : a.10n où 1≤a<10.
    exemple : 0,00212=2,12.10-3 ou encore 123000000=1,23.108.
  2. Cette notation permet de déterminer facilement l’ordre de grandeur d’une valeur numérique, il suffit pour cela de remplacer le nombre devant la puissance de 10 par 1 s’il est inférieur à 5 et par 10 s’il est supérieur à 5.
    exemple : 3,454.104≈1.104 et 6,432.10-7≈10.10-7≈10-6.
  3. Dans l’écriture en notation scientifique, il faut faire attention aux nombres de chiffres significatifs. J’ai déjà eu l’occasion d’en parler dans ce billet.
  4. Toute grandeur physique doit être exprimée avec une unité quand elle en a une.
    Imaginons que nous voulions écrire la largeur d’une feuille A4 : 21 cm cette valeur s’écrit également 0,21 m ou encore 210 mm. Ainsi 21 cm = 0,21 m = 210 mm. Ecrivons ces dernières égalités sans les unités : 21=0,21=210… pfff n’importe quoi !
    Bien sûr, on écrit pas les unités dans les calculs (Par exemple, si l’on veut calculer la surface d’une feuille A4, on n’écrit pas 21cm×29,7cm=623 cm² mais 21×29,7=623 cm²)

Pour s’entraîner de manière ludique, il existe quelques exercices en ligne :

Les chiffres significatifs

A l’issue d’un calcul, une grande attention doit être portée au nombre de chiffres significatifs apparaissant dans les résultats numériques. En effet, une grandeur numérique en physique n’a pas tout à fait le même statut qu’en mathématiques.

En physique il s’agit toujours de grandeurs mesurées et toute mesure est effectuée avec une certaine précision. Si je mesure la largeur d’une feuille A4 je trouverais 21,0 cm. Pourquoi préciser le zéro après la virgule ? Car la valeur mesurée est égale à 21 cm et 0 mm. Ainsi 21 cm (2 chiffres significatifs) n’a pas le même statut que 21,0 cm (3 chiffres significatifs). Puisque dans le premier cas, il y a une incertitude sur le nombre de mm qui suit alors que le second, il y a une incertitude sur les dixième de millimètre. Autrement dit, en physique, 21,0 cm = 21,0 cm +/- 0,5 mm.

Comment utiliser cette propriété des calculs numériques dans une copie de physique ? En prenant garde que le résultat d’une multiplication ou d’une division ne contienne pas plus de chiffres significatifs que la donnée qui en a le moins.

Parce qu’une vidéo vaut mieux qu’une longue page web :

Quelques exemples d’utilisation :

2,0*8,15 = 16 alors que la calculatrice affiche 16,3

1,512e5*2,3 = 3,5e5 alors que la calculatrice affiche 347760 (=3,4776e5)