La radioactivité 2-protons : un quatrième type de radioactivité

Dans le cours de Terminale S, on apprend qu’il y a 3 sortes de radioactivité : ?, ?+ et ?. Dans cet article du site techno-science.net, on apprend qu’un autre type de radioactivité est possible bien que très rarement observé : la radioactivité 2-protons. Celle-ci a été réalisé dernièrement dans les locaux du GANIL (Grand Accélérateurs National d’Ions lourds dont je vous recommande la visite virtuelle). Dans ce type de radioactivité, ce sont 2 protons qui sont émis. Elle est rarement observée car elle est issue de noyaux présentant un excès de protons. Ceux-ci sont très instables et difficile à synthétiser au laboratoire. En effet, le noyau est le siège de 2 interactions aux effets contraires :

  • l’interaction forte qui assure la cohésion du noyau auxquels sont soumis les protons et neutrons,
  • et l’interaction coulombienne (ou électrique) qui tend à repousser les protons entre eux.

Généralement les noyaux ont un excès de neutrons par rapport aux protons car cela permet d’éloigner les protons les uns des autres et donc de diminuer la répulsion électrique à laquelle ils sont soumis.

L’existence de la radioactivité 2-protons a été formulée théoriquement dans les années 60. Son observation expérimentale fournit de nouvelles données sur la façon dont les protons s’associent dans le noyau ce qui permet de mieux comprendre les processus à l’oeuvre dans la nucléosynthèse stellaire (les explosions nucléaires qui ont lieu au cœur des étoiles et des supernova). Rappelons que ce processus est à l’origine de tous les éléments chimiques de notre environnement : des atomes d’hélium jusqu’aux atomes d’uranium en passant par les atomes de carbone et d’oxygène qui nous constituent.

Les effets biologiques de la radioactivité I : les effets à court terme

En complément de l’histoire de la découverte de la radioactivité, je propose de faire le point sur les effets biologiques de la radioactivité. Il s’agit en fait d’un sujet extrêmement controversé puisqu’il est au coeur du débat pro/anti-nucléaire et il est généralement simplement survolé en cours.

Cet article traite des effets à court terme. Pour les effets à long terme, c’est ici.

Un échantillon radioactif émet des radiations ? ou ?, c’est à dire qu’il émet des noyaux d’hélium (radiations ?) ou des électrons (radiations ?) à très grande vitesse. Les noyaux ? sont « gros ». Ils provoquent de nombreux dégâts (comme un chien dans un jeu de quille) dans leur environnement mais sont facilement arrêtés : une simple feuille de carton suffit à les arrêter. Les électrons sont beaucoup plus petits et peuvent pénétrer très loin dans la matière (plusieurs mètres d’air, plusieurs centimètres de tissu vivant, ou plusieurs millimètres d’aluminium). Dans tous les cas, lorsqu’ils sont arrêtés par de la matière ils transmettent leur énergie à leur environnement. Lorsque ces projectiles frappent des êtres vivants, ils endommagent les molécules au cœur même de la cellule et cela peut avoir une influence sur son fonctionnement. Il existe également les rayonnements ionisants X ou ? qui sont des rayonnements électromagnétiques (comme la lumière mais très énergétique et invisible à l’oeil) susceptibles d’arracher des électrons aux atomes et modifiant, une fois encore, la structure des molécules.

Les conséquences de ces modifications moléculaires au sein d’un environnement biologique (la cellule) sont multiples et dépendent de très nombreux facteurs. La dynamique cellulaire est susceptible d’éliminer les molécules modifiées (un peu à la manière d’un écosystème qui se régénère suite à une pollution), de sorte que le fonctionnement de la cellule n’est pas affecté. Il se peut également que le fonctionnement de la molécule soit perturbé et cela induit divers symptômes. On distingue deux types d’effets de la radioactivité sur un organisme vivant selon la dose auquel l’organisme a été soumis : les effets à court terme dans le cas des contamination intense et les effets à long terme dans le cas des contaminations diffuse (faible exposition mais en plusieurs fois). Les premiers effets sont bien connus puisqu’ils ont pu être étudiés in situ lors d’explosions nucléaires ou dans l’industrie nucléaire. Les seconds sont plus difficiles à étudier car il faut un suivi des personnes exposées sur plusieurs années. D’autre part, nous sommes soumis à de la radioactivité naturelle en permanence et il est difficile de distinguer les différents facteurs inducteurs de pathologies.


Dommages infligés à l’ADN par des rayonnements © UCAR University of Michigan

Les effets immédiats relève d’une forme d’empoisonnement à la radioactivité, c’est à dire que les symptômes observés dépendent de la dose reçue par la personne. Contrairement à l’activité radioactive d’une source qui est facile à mesurer, la dose reçue est plus difficile à quantifier. La mesure physique se fait en Gray qui sont des joules par kilogramme. Il s’agit donc d’une mesure de l’énergie reçue par unité de masse. Cette unité n’est pas très pertinente pour mesurer les conséquences biologiques d’une exposition à la radioactivité car de nombreux paramètres entrent en jeu : nature du rayonnement (?, ?, ? ou X), nature des tissus exposés, etc. Deux nouvelles grandeurs ont donc été inventées pour « lisser » tout cela : la dose équivalente et la dose efficace. La dose équivalente prend en compte la nature du rayonnement (la radioactivité ? a plus de conséquences que la ? par exemple, rappelez-vous : les particules ? sont grosses et font beaucoup de dégât). La dose efficace prend également en compte la nature des tissus affectés.

La différence est de taille entre ces deux grandeurs : pour une même dose d’exposition aux particules ?, une ingestion de poussières radioactives a des conséquences désastreuses pour l’organisme alors qu’une exposition extérieure (par la peau) a de faibles conséquences puisqu’une fraction de millimètres de tissus humaines suffisent à arrêter le rayonnement. Cependant, nous n’allons pas rentrer dans ces considérations et nous allons explorer les effets de la radioactivité en supposant que c’est l’ensemble de l’organisme qui est exposé aux radiations. L’unité dans lequel s’exprime ces grandeurs est le Sievert (Sv) (on utilisait autrefois le rem : 1 Sv=100 rem) :

  • Pour une dose de 1 Sv à 2 Sv reçue en une seule fois, des effets commencent à être ressenti : nausées, perte des cheveux mais ceux-ci disparaissent quelques temps après l’exposition et aucune maladie à court terme n’est développée. Ces symptômes sont bien connues des personnes qui suivent une radiothérapie.
  • A partir de 3 Sv, le risque de mortalité est de 50 % dans les 60 jours (cela veut dire que la moitié des personnes qui ont été soumises à de telles radiations sont mortes dans les 60 jours). Cete dose est connue dans le monde médicale sous la dénomination DL50 (Dose létale 50 : 50 % des sujets exposés à cette dose de substances toxique sont décédées).
  • Au-delà de 10 Sv, les dommages sont irréversibles avec paralysie dans les heures qui suivent l’exposition et des chances de survie infimes.

Dans notre environnement quotidien, nous ne sommes jamais exposés à de telles doses (voir la carte ci-dessous). La radioactivité ambiante en France est telle que la dose reçue annuellement est en moyenne de 3 à 4 millièmes de Sv. Cette valeur est une moyenne qui prend en compte par ordre d’importance le Radon, gaz radioactif d’origine naturelle issu de la désintégration de l’uranium présent dans la croûte terrestre (40%), la médecine nucléaire (30%), la radioactivité naturelle de la terre (10%), les rayonnements cosmiques (10%) et notre propre radioactivité interne liée au potassium 40 et au carbone 14 (10%). Les effets à court terme de la radioactivité ne sont donc observés que dans des cas extrêmes : radiothérapie, accidents nucléaires (du type Tchernobyl) et explosions militaires. La carte ci-dessous montre la radioactivité naturelle d’origine tellurique (provenant de la terre) en mSv/an:

La suite : les effets à long terme.

La nature de la lumière

A propos de la nature de la lumière, on entend tout et son contraire. Elle est parfois décrite comme une onde et parfois comme un courant de grain de lumière (les photons). Quelle description est la bonne ? Qui a raison ? Qui a tort ?

Cette question est cruciale dans tous les systèmes de pensées scientifique puisqu’elle permet de comprendre la façon dont on appréhende le monde. Ainsi, pour les atomistes grecs les objets émettaient des particules reproduisant la forme des objets de manière réduite dans notre oeil. Pour Euclide et les pythagoriciens, c’est notre oeil qui émet un « quid » et permet la vision. Cette description sera réfutée par Aristote car alors nous pourrions voir les objets la nuit, même en l’absence de lumière. Cependant, c’est du côté de l’Egypte que l’optique géométrique a été minutieusement étudiée avec les travaux d’Alhazen (Ibn Al-Haytham). Dans son livre « Les trésors de l’optique » (écrit entre 1015 et 1021, traduit en latin en 1572), il décrit la lumière de manière mécaniste, comme un flux de sphères pesantes, émis de sources ponctuelles en des rayons rectilignes, susceptibles d’être réfléchies, réfractées et perçues par l’oeil. Son livre traite également des lentilles (incluant l’oeil), des miroirs plans et curviligne, des couleurs et de la camera obscura (Une boîte noire percée d’un trou : le principe de la chambre noire). Son approche expérimentale et mathématique restera inégalé pendant 500 ans.

Le XVIIème siècle verra se développer une description minutieuse de ce que l’on appelle actuellement l’optique géométrique (avec les travaux de Képler, Galilée, Bacon et Descartes). En 1665, Francesco Maria Grimaldi décrit le phénomène de diffraction, de sorte qu’à la fin de ce siècle 2 modèles de la lumière se dispute le haut du pavé : le modèle corpusculaire de Newton et le modèle ondulatoire de Huygens.

Selon Newton, la lumière est constituée de corpuscules soumis à l’action des forces. Cela permet d’expliquer le comportement de la lumière comme on l’observe en optique géométrique : réfraction (changement de direction de la lumière lors de la traversée des milieux transparents), réflexion (comme pour un miroir) et modification du trajet de la lumière par les lentilles. En observant le phénomène de dispersion par un prisme (tel qu’il est étudié en classe de 2de), il en déduit que ces corpuscules sont de différents types, correspondant aux différentes couleurs perçues par l’oeil.

De son côté, Huygens, réfute ces idées en invoquant le fait que 2 pinceaux de lumière se croisant ne sont pas déviés. Il propose un modèle ondulatoire en 1678 dans lequel la lumière serait une perturbation d’un milieu, comme le son ou les vagues. Le milieu de propagation de la lumière est appelé Ether. En postulant le ralentissement de la lumière dans les milieux transparents, il propose même un modèle pour expliquer les phénomènes de réfraction et réflexion.

Ces deux modèles sont convaincants, bien que contradictoires, et permettent d’expliquer les observations de l’optique géométrique. Cependant, ils divergent sur la façon dont la lumière interagit avec la matière : pour Newton, la lumière va plus vite dans un milieu de fort indice, tandis que pour Huygens, c’est l’inverse. Avec les moyens expérimentaux de l’époque, il était impossible de déterminer quel modèle avait raison ou non. Il fallut attendre les expériences de Foucault (1850) et Fizeau (1851) pour déterminer la vitesse de la lumière dans l’eau qui donnèrent raison au modèle de Huygens.

Ainsi, à partir du milieu du XIXème siècle, les scientifiques furent convaincus que la lumière était une onde. Il restait à déterminer dans les propriétés du milieu dans lequel se propageait cette onde (voir l’article sur la ola) : l’éther. C’est dans cette optique que Michelson et Morlay (en 1887) proposèrent une expérience qui est devenu maintenant un classique des classes prépa. Le lien avec l’éther est relativement simple : si la lumière se propage dans un milieu nommé éther, alors la terre se déplace dans ce milieu à la vitesse de 30 km/s lors de son périple autour du soleil. Dans ces conditions, selon la loi d’additivité des vitesses, la vitesse de la lumière ne devrait pas être la même dans toutes les directions sur terre. L’expérience de Michelson et Morlay permit une mesure très précise de la différence de vitesse de la lumière dans deux directions perpendiculaires : ils découvrirent qu’il n’y en avait pas ! La vitesse de la lumière est la même dans toute les directions (idée à la base de la théorie de la relativité restreinte d’Einstein), ce qui est en contradiction avec l’idée d’un milieu de propagation de la lumière. La lumière est donc bel et bien une onde mais non matérielle, qui correspond à une perturbation du vide lui-même !

Il peut sembler paradoxale d’imaginer une perturbation du vide. Cela serait impossible dans le vide absolu. Mais quand on parle de vide, on parle en fait de vide de matière, pas d’énergie. Dans un vide de matière, on peut trouver de l’énergie sous forme de champ électromagnétique.Modèle de propagation des champs électriques et magnétiques C’est ce que découvrirent les scientifiques de la fin du XIXème siècle (avec les travaux expérimentaux de Faraday) et Maxwell (en 1864) fournit une description théorique très détaillée des phénomènes électromagnétiques permettant de rendre compte à la fois des phénomènes électriques, magnétiques et de la propagation de la lumière.

Cette fin du XIXème siècle constitue véritablement une forme d’apogée pour les sciences physiques puisqu’elles permettaient d’expliquer la plupart des expériences observées à l’époque. On raconte qu’on déconseillait aux élèves brillants de cette époque de s’engager en sciences physique car on croyait alors que tout était découvert et qu’il n’y avait plus qu’à résoudre quelques problèmes techniques.

Parmi les mystères de la fin du XIXème perdurait celui du rayonnement du corps noir : un corps chaud émet une lumière. Cette lumière est le fruit de l’interaction entre la matière et la lumière. A l’aide des modèles statistiques de la fin du XIXème siècle, on peut expliquer ce rayonnement mais on aboutit à ce qui fut appeler « la catastrophe ultraviolette ». En effet, les modèles de l’époque prévoyait un rayonnement infini dans le domaine de l’ultraviolet et des rayons X lorsqu’un corps est chauffé, en complète contradiction avec les résultats expérimentaux. Pour expliquer cela, Max Planck proposa en 1900 de quantifier l’interaction entre la matière et la lumière : les atomes échangeraient des « quantas » d’énergie avec l’onde lumineuse. Sa proposition est « ad hoc« , c’est à dire qu’elle permet de résoudre le problème de la catastrophe ultraviolette mais Planck n’explique pas l’origine de cette quantification.

En 1905, Einstein, dans un article devenu un classique de l’histoire de la physique (voir cet article issu du them@Doc « 1905, les trois percées d’Einstein »), suggéra que c’était la lumière elle-même qui était constitué de « quanta« . Il propose de décrire la lumière comme constituée de petits grains de lumière : les photons. Cela permet d’expliquer à la fois le rayonnement des corps chaud, l’électroluminescence (le fait qu’un corps éclairé avec une lumière d’une certaine couleur peut émettre une autre couleur, comme par exemple un tee-shirt blanc sous une lampe UV) et l’effet photoélectrique (le fait que la lumière peut induire un courant électrique dans un circuit, effet utilisé dans certaines alarmes qui se déclenche lorsqu’on coupe un faisceau de lumière) : 3 phénomènes que la description de Maxwell échoue à expliquer. Est-ce à dire que toute la physique du XIXème siècle s’était fourvoyé en rejetant le modèle de Newton ? L’affaire n’est pas aussi simple car en fait pour rendre compte de l’ensemble des expériences que l’on peut faire avec la lumière, il faut considérer qu’elle est à la fois onde et corpuscule. C’est ce qu’on appelle la double nature de la lumière. Elle est onde si l’on considère les expériences de diffraction et elle est corpuscule si l’on considère le rayonnement du corps noir et les phénomènes cités ci-dessus.

En réalité, et c’est là toute la subtilité de la mécanique quantique, il n’est pas possible de trancher entre les 2 approches et l’on devrait parler au niveau microscopique de particonde (en anglais certains auteurs parlent de warticle, contraction de wave et particle), c’est à dire d’un objet qui revêt une forme ondulatoire ou corpusculaire selon la façon dont on l’appréhende… Cette description échappe à notre compréhension habituelle du monde, bienvenu dans la science moderne du XXème siècle.

Le dictionnaire des idées reçues

Ce mois-ci, la recherche propose un dossier complet sur les idées reçues sous la forme d’une dictionnaire. Petit extrait des idées reçues traitées :

La science combat les [Idées reçues], Si c’est naturel c’est bon pour la santé, Les drogues douces mènent aux drogues dures, Une frontière sépare les mondes quantique et classique, Les espèces invasives menacent les écosystèmes, Les propositions vraies sont démontrables, Les champignons sont des plantes, Nous n’utilisons que 10 % de notre cerveau, L’homme détruit les forêts, Christophe Colomb a découvert l’Amérique, L’Univers est peuplé de galaxies, etc.

Et pour compléter la revue, la recherche propose un mini-site sur les idées reçues avec article, débat, quizz et interview audio.

Un prix Nobel Français dans notre ordinateur !

Le Français Albert Fert et l’Allemand Peter Grünberg ont reçu le prix Nobel de physique 2007 pour leurs travaux sur la magnéto-résistance géante (GMR). Ces travaux datent de 1988 et leurs résultats sont utilisés dans les têtes de lecture des disques durs depuis 1997. Pour comprendre le lien entre la GMR et les têtes de lecture de nos disque durs, voyons comment fonctionne l’enregistrement magnétique d’un signal sur bande (cassette audio ou vidéo) ou disque dur.

Le principe de l’enregistrement magnétique est basé sur la capacité de certains matériaux à s’aimanter lorsqu’ils sont soumis à un champ magnétique (les matériaux ferromagnétiques). Ce type d’enregistrement fut découvert en 1898 par l’ingénieur Danois Valdemar Poulsen en déplaçant un aimant sur une lame de Fer.

Qu’est-ce qu’un champ magnétique ?

Le champ magnétique modifie le mouvement des charges qui sont déjà en mouvement (tandis que le champ électrique met les charges en mouvement). Il est créé par des charges en mouvement : lorsqu’un courant circule dans une bobine, il crée un champ magnétique.

Comment on enregistre des informations avec un champ magnétique ?

Pour enregistrer des informations sur une bande magnétique ou un disque dur on fait passer un petit courant électrique dans une bobine au-dessus d’un matériau particulier (ferromagnétique) qui est capable de se « magnétiser » lorsqu’il est soumis à un champ magnétique. A l’issu de ce processus, le matériau est constitué d’une série de petits aimants dirigés dans un sens ou un autre, c’est comme si l’on plaçait côte à côte des petits aimants présentant leur face Nord ou leurs face Sud.

L’information est donc enregistrée dans la matière sous la forme d’une succession de pôle Nord et Sud : N N S N S S S N N, etc. Dans le cas des bande magnétique (vidéocassette ou cassette audio), les petits aimants sont déposés en fine couche sur un support souple, pour les disque durs, ils sont déposés sur un disque.

Pour lire le support, il faut maintenant « lire » cette série. Pour cela, on déplace un petit fil au-dessus des »micro-aimants » : ceux-ci vont induire un courant électrique dans le fil. Les variation du courant nous indiquera la série enregistrée sur le support.

Pour augmenter la capacité d’enregistrement du support, il est nécessaire de diminuer la région magnétisée (afin de mettre plus de N ou S sur une même surface) mais cela pose des problèmes de lecture car plus la région magnétisée est petite plus le champ magnétique est petit donc difficile à détecter. C’est là qu’interviennent les travaux de notre nouveau prix Nobel. Dans les disques durs modernes, les têtes de lectures sont constituées d’un matériau dont la résistance électrique dépend du champ magnétique (ce sont les têtes de lecture magnétorésistives) : on ne mesure plus le courant électrique induit par le champ magnétique mais la modification de résistance électrique. Les travaux d’Albert Frey et son équipe ont permis de découvrir que dans des minces couches de matériaux ferromagnétiques alternées avec des matériaux non magnétiques (une sorte de micro sandwich) l’effet de magnétorésistance était très important d’où le terme de magnétorésistance géante (GMR). Cela permet de détecter des champs beaucoup plus faibles et d’augmenter la capacité de nos disques durs.

Pour mesurer l’importance de toutes ces découvertes sur notre quotidien, rappelons-nous que le premier ordinateur muni d’une mémoire de masse sur bande magnétique (l’équivalent d’un disque dur) était l’Univac 110. C’était un ordinateur de 11.5 m de long et 6 m de large qui utilisait des disques magnétiques de 21.6 cm tournant à 3500 tour/min et stockant l’équivalent de 48 ko. A l’heure actuelle le moindre ordinateur est livré avec un disque dur d’une centaine de Go soit 2 millions de fois plus d’information !

Pour aller plus loin :

A propos du prix nobel, 2 questions digne du trivial pursuit :

  • Qui a gagné le prix Nobel de mathématique 1965 ?
  • Qu’a inventé Alfred Nobel ?

J’attends vos réponses en commentaire.

La ola : une onde comme une autre

Qu’est-ce qu’une ola ?

La réponse dépend du point de vue. Pour un supporter « c’est trop délire, comme ça déchire », pour un biologiste, il s’agit d’un mouvement coordonné de mammifères, pour un sociologue, il s’agit d’un mouvement collectif permettant à des individus de signifier leur appartenance à un groupe social et pour le physicien, il s’agit d’une onde.

Rappelons la définition d’une onde selon le programme de sc. physique de Terminale S : « propagation sans transport de matière d’une perturbation dans un milieu initialement à l’équilibre« .

Dans une ola, il y a propagation d’une perturbation (les spectateurs qui se lèvent), sans transport de matière dans un milieu (la foule formée par les spectateurs) initialement à l’équilibre (les spectateurs assis, les bras le long du corps). On y retrouve donc tous les ingrédients d’une onde : une perturbation par rapport à un état d’équilibre et une tendance du milieu à revenir à son état d’équilibre (la ola est lancée lorsque les spectateurs sont au repos : essayez de lancer une ola lorsqu’un but est marqué et que tous les spectateurs sautent et lèvent les bras de manière désordonnée !).

Puisque la Ola est une onde, on peut donc la caractériser comme n’importe quelle onde. Le mouvement des spectateurs étant perpendiculaire au mouvement de propagation de la ola, l’onde est transversale. On peut également essayer de définir sa célérité.

[kml_flashembed movie="http://www.youtube.com/v/5rp7ULtp7FY" width="425" height="350" wmode="transparent" /]

Allons, vous plaisantez, tout cela n’est pas sérieux !

Si, si, tout cela est très sérieux et a même fait l’objet d’un article dans nature (La revue scientifique de référence) : Mexican Waves in an excitable medium. Dans cet article, on y apprend que la célérité de l’onde est de 12 m/s (20 sièges par secondes) et que la perturbation a une largeur de 6 à 12 m (correspondant à 15 sièges). Les auteurs de cet article propose même une simulation en ligne de leur modèle.

Alors, qui c’est qui vous fournit une bonne excuse pour regarder le prochain match de la coupe du monde de rugby ?

[edit 2013] Mais il n’y a pas que dans les stades qu’il y a des olas. Les pingouins empereur font la ola aussi. La preuve en image :

[youtube]http://www.youtube.com/watch?v=AQYkqT6nu14[/youtube]

Et la ola des pingouins s’étudie comme n’importe quel phénomène physique :

[youtube]http://www.youtube.com/watch?v=Yeu90S1PKlE[/youtube]

Pierre Gilles de Gennes : 1932 – 2007

PGGPierre-Gilles de Gennes est décédé ce Vendredi 17 Mai 2007. Il est connu du grand public pour avoir reçu le prix Nobel de physique en 1991 pour ses travaux sur les cristaux liquides et les polymères.

Chercheur de génie, ayant le goût de la pluridisciplinarité (il s’est intéressé à de nombreux sujets : magnétisme, supraconductivité, cristaux liquides, polymères, mousses et bulles), il avait également le goût de la transmission de notions complexes à travers des exemples simples. Je tenais à lui rendre hommage car avec lui, 74 ans de savoir et de savoir-faire pour le transmettre se sont éteint Vendredi dernier.

Quelques liens

Une interview-autobiographie est accessible sur le site de futura-science. Il y retrace également les bouleversements qui ont secoués la physique de 1890 à 1950. On pourra également le voir lors de conférences à l’ENS de Paris : « débat avec des littéraires » (2003), « tribulations des inventeurs »(2003), « l’interface physique-médecine »(2005).

Mentions légales : « la masse de ce produit contient l’équivalent de 21 000 tonnes de TNT par gramme »

Continuons un peu à explorer les recommandations de sécurité proposées par les physiciens.

Avertissement de santé :
Le déplacement de cet objet doit se faire avec toutes les précautions appropriées compte tenu que sa masse et donc son poids dépendent de sa vitesse relative à l’utilisateur.

EinsteinCet avertissement fait référence à la relativité restreinte (est-il nécessaire de présenter son père ?) dans lequel les équations du mouvement sont modifiées de sorte que mathématiquement, tout ce passe comme si la masse dépendait de la vitesse de l’objet. Ainsi, plus on se rapproche de la vitesse de la lumière, plus la masse semble augmenter, tendant vers l’infini lorsque la vitesse tend vers celle de la lumière. C’est ce qui permet d’affirmer qu’il est impossible à un objet massif d’atteindre la vitesse de la lumière puisque plus on se rapproche de la vitesse de la lumière, plus il faut communiquer d’énergie à l’objet pour le faire accélérer (on démontre qu’il faut une énergie infinie pour accélérer un objet à la vitesse de la lumière). C’est la raison pour laquelle on apprend en seconde que la vitesse de la lumière est une limite pour tous les objets massifs de l’univers. Ainsi lors du maniement d’un objet, prenez soin de ne pas l’amener à une valeur proche de celle de la lumière sans quoi, c’est le tour de rein assuré !

laserAu fait, quelle est la valeur de la vitesse de la lumière ? 300 000 kilomètres par seconde. C’est une vitesse colossale à notre échelle (pour se donner un ordre d’idée, la vitesse la plus grande atteinte par les humains est celle des équipages d’Apollo qui lors de leur périple vers la Lune ont voyagé à 30 km/s soit dix mille fois moins que la vitesse de la lumière). Mais cette vitesse n’est pas si grande aux échelles de l’univers puisqu’il faut quand même 8 minutes à la lumière pour nous parvenir du soleil, 4 ans pour nous parvenir de l’étoile la plus proche et 100 milles ans pour traverser notre galaxie. Ramenons cette vitesse à la cadence de l’horloge d’un ordinateur. Celle-ci est de 2 GHz, soit 2 milliards d’impulsion par seconde. Quelle est la distance parcourue par la lumière le temps d’une impulsion ? 300 millions de mètres divisé par 2 milliards donne 15 cm. Ce qui veut dire que la lumière ne parcourt que 15 cm le temps d’un cycle d’horloge. Cette valeur explique que plus les ordinateurs « pensent vite », plus ils doivent être petit, sans quoi la communication entre les éléments risque de devenir une limite à leur vitesse de calcul.

Attention :
la masse de ce produit contient l’équivalent en énergie de 21 000 tonnes de TNT par gramme.

Là encore une proposition qui nous vient de la relativité restreinte. En effet, l’expression de l’énergie d’un objet dans le cadre de cette théorie s’écrit : E=mc²+½mv².

Cette expression s’interprète comme la somme de l’énergie cinétique telle qu’on l’apprend en 1ère S et un terme correspondant à l’énergie au repos : mc². Cette expression est certainement la plus célèbre de la physique. Elle associe à toute masse une énergie dont la valeur est égale au produit de la masse par la vitesse de la lumière au carré. Cette dernière ayant une valeur colossale, l’énergie de masse atteint des échelle qui sont étrangères à notre environnement quotidien. Ainsi, une masse de 1 gramme a une énergie au repos exprimée en joule de 0,001x(300 000 000)² soit un 9 suivi de 13 zéros. A quoi cela correspond-il ? A l’énergie délivrée par une centrale nucléaire en 25 heures (une centrale nucléaire délivre une puissance de 1000 MW) ou l’énergie délivrée par 21 000 tonnes de TNT !

star trek - enterprisePeut-on libérer cette énergie ? En partie dans les réactions nucléaires, une partie infime mais qui suffit à expliquer les niveaux d’énergies atteint par les explosions nucléaires. Pour libérer totalement cette énergie il faut faire rencontrer à la matière son équivalent en antimatière. Cette rencontre se solde par une libération d’énergie sous forme de rayonnement gamma (le nom donné par les physiciens à la lumière de très courte longueur d’onde et de très haute énergie). C’est la façon dont est propulsé l’Enterprise dans Star Trek. Je tiens à vous rassurer tout de suite, il n’y a aucune chance que vous rencontriez au coin de rue votre double en anti-matière. En effet, les seules échantillons d’anti-matière que nous connaissions sont ceux que nous générons au sein des accélérateurs de particules. Pourquoi n’existe-t-il pas d’anti-matière naturelle ? Pour une raison toute simple : imaginons qu’un échantillon d’anti-matière existe quelque part sur notre planète, le moindre contact avec la matière se solderait par une libération colossale d’énergie. Il faudrait donc que cet échantillon soit isolé de toute matière, ce qui est impossible dans un environnement aussi dense que le notre.

Il est donc vrai que chaque gramme d’un objet contient l’équivalent en énergie de 21000 tonnes de TNT mais cela n’a de réalité qu’au coeur des réacteurs nucléaires, des bombes nucléaires et des étoiles.

mention légale : »ce produit est en fait constitué à 99,9999999999 % d’espace vide »

Continuons avec les mentions légales…

Note d’équivalence des composants :
Les particules subatomiques (protons, électrons, etc.) qui composent ce produit sont exactement identiques à celles utilisées par d’autres fabricants, aucune revendication contraire ne peut être légitimement exprimée.

Ca n’est pas une nouvelle digne de faire la une du New York Times mais il est toujours bon de se rappeler que la matière est composée d’atomes qui sont eux-mêmes composés de particules. On dénombre 90 types d’atomes naturels (de l’hydrogène le plus léger à l’uranium le plus lourd, voir la classification périodique des éléments) constitués uniquement de 3 types de particules : les protons, les neutrons et les électrons (particules quasi ponctuelles de masse négligeable devant celle des protons et des neutrons). Protons et neutrons forment le noyau de l’atome (d’une dimension de 10^(-15) m soit 0,000000000000001 m) tandis que les électrons constituent le nuage électronique de l’atome (d’une dimension de 10^(-10) m soit 0,0000000001 m) qui va donner ses dimensions à l’atome. Le noyau est donc 100 000 fois plus petit que l’atome : si l’on veut faire une maquette d’un atome de 100 m de diamètre, le noyau occuperait (100/100 000=0,001) une bille de 1 mm au centre de la maquette ! L’atome est donc une drôle de chose difficile à se représenter consitutée d’un noyau très petit qui contient toute sa masse et d’électrons quasi ponctuels qui tournent autour sur une très grande distance par rapport au noyau. Sur le schéma ci-dessus, les taille relatives entre le noyau et l’atome ne sont pas respectée car sinon le noyau serait invisible : il mesurerait 0,55 micromètre.

Tous les atomes sont constitués des mêmes particules, c’est seulement le nombre ces particules qui vont faire la différence. Les électrons sont assez faciles à arracher et la branche des sciences de la matière qui s’intéresse aux échanges d’électrons entre atomes est la chimie. Il est par contre beaucoup plus difficile de modifier le noyau : c’est le domaine de la physique nucléaire. Ainsi, tout notre environnement dans sa diversité est généré par les interactions entre trois types de particules seulement !

Attention :
En dépît de la liste d’ingrédients entrant dans la composition de ce produit, le consommateur est prévenu que ce produit est en fait constitué à 99,9999999999 % d’espace vide.

Nous venons de voir qu’un atome contient beaucoup de vide puisque sa masse est concentrée dans une sphère 100 000 fois plus petite que son volume total. Considérons une bouteille contenant 1 litre d’eau. Sa masse est de 1 kg. Sa densité est donc de 1 kg/L. La densité du noyau d’un atome est de 2.10^17 kg/m³. Si l’on enlève tout l’espace vide dans cette bouteille d’eau, la densité de cette bouteille devient égale à celle du noyau et la bouteille n’occupe plus que 5.10^{-18} m³ soit 0,000000000005 mL : 5 millionième de milliardième de mL ! Un espace tellement petit qu’il nous est difficile de l’imaginer. Et ce raisonnement que nous avons fait pour une bouteille d’eau est valable pour n’importe quel objet de notre environnement : même nous ! On peut démontrer que si l’on enlève tout le vide des atomes qui nous constitue, l’ensemble de l’humanité tiendrait dans un dé à coudre…

Ok, tout cela est intéressant mais, il est impossible d’enlever le vide des atomes me direz-vous. Et pourtant : dans l’avant dernière phase de vie d’une étoile, la matière se condense au point d’atteindre la densité du noyau des atomes. On appelle ce type d’étoile des naines blanches. Ces objets existent réellement dans l’espace comme on peut le voir sur la photo ci-dessous où les naines blanches ont été entourées :
naines blanches

D’après vous quelle serait le rayon de la terre si on enlevait tout le vide entre les atomes ?

mention légale : « Ce produit courbe l’espace et le temps dans son voisinage »

Et si les fabricants prenait en compte les résultats de la physique moderne ? Depuis le début du XXème siècle, la physique a connu de grandes révolutions qui modifient profondément la façon dont les physiciens envisagent notre monde. Bien que très répandus dans l’univers de la vulgarisation scientifique, ces théories sont peu abordées dans l’enseignement des sciences au lycée. Il y a quelques années, des physiciens se sont amusés à inventer des mentions légales « universelles » qui pourraient être apposé sur tout produit (d’une boîte de gateau de grand-mère au dernier gadget technologique de votre neveu). L’original est en anglais. Histoire de commencer l’année avec humour j’ai décidé de les traduire et de les commenter dans les jours à venir. Commençons par deux fondamentaux :

Avertissement :
Ce produit attire tout autre matière de l’univers, même les produits d’autres fabricants, selon une force proportionnelle au produit des masses et inversement proportionnelle à la distance entre eux.

sir Isaac NewtonSelon le modèle de l’interaction gravitationnelle, proposé par Isaac Newton (dans son ouvrage majeur : « Philosophiae Naturalis Principia Mathematica« ) 2 objets massiques interagissent selon une force présentant les caractéristiques énoncées ci-dessus. Cette loi est dite universelle car elle s’applique pour tout objet quelque soit leur distance, en tout point de l’univers. Ce qui est remarquable c’est que Newton ait énoncé cette loi pour expliquer la nature de la relation entre la terre et la lune. Précurseur des grandes unifications de la science moderne (comme le challenge du XXème siècle d’unifier relativité et mécanique quantique), Newton a su trouver dans les phénomènes de la vie quotidienne (tout objet subit une attraction vers la terre, de sorte que livré à lui-même il tombe vers le bas) l’explication à un phénomène astronomique (la lune est elle aussi attiré par la terre mais elle la rate sans cesse : elle est en orbite).

Ainsi, vous êtes, selon cette loi, présentement en interaction avec tous les objets de votre environnement (l’ordinateur, la table, la chaise, etc.). Cela veut dire que vous les attirez et que eux-même vous attire. Cela est vrai pour les objets proches comme pour les objets plus éloignés (un fer à repasser à l’autre bout de la planète) voire très éloigné (Io un satellite de Jupiter, les sondes voyager qui sont maintenant au-delà des limites du système solaire, l’hypothétique trou noir situé au centre de notre galaxie et même les galaxies les plus éloignées).

Pourquoi n’avons-nous pas conscience de cela dans notre quotidien ? Tout simplement parce que nous sommes proches d’un objet aux dimensions astronomiques : la terre. L’attraction terrestre est bien supérieure à tout autre attraction. Pour fixer les esprits, une masse de 50 kg subit de la part de la terre une attraction 5 millions de fois supérieure à celle exercée par un camion de 33 tonnes situé à 1 m. Ainsi, au quotidien, nous expérimentons simplement l’interaction gravitationnelle exercée par la terre que nous appelons le poids. Tout autre interaction gravitationnelle étant négligeable devant celle exercée par la terre. Nous ne le ressentons donc pas au quotidien mais tous les objets s’attirent donc les uns les autres, comme ce paquet de lessive A qui attire ce paquet de lessive B d’un concurrent…

Avertissement :
Ce produit courbe l’espace et le temps dans son voisinage.

Dans les modèles de la physique classique (comme le modèle de Newton ci-dessus), un objet évolue dans un espace à 3 dimensions en interaction avec d’autres objets. Selon le modèle de la relativité proposé par Einstein, espace et temps ne sont pas distinguable. La relativité restreinte décrit la manière dont il convient d’envisager les changements de référentiel : la façon dont il faut décrire les changements de l’espace et du temps lorsqu’on envisage de décrire un mouvement par rapport à un objet ou par rapport à un autre. Les équations et les paradoxes qui découlent de la relativité restreinte sont trop complexes pour être expliquées ici et feront, peut-être l’objet d’un prochain article.

Dans le modèle de la relativité restreinte, la gravitation n’est pas envisagée. Historiquement, les bases de la relativité restreinte ont été décrites par Albert Einstein en 1905. Dans cette théorie, il est dit qu’aucune information ne peut être transmise plus vite que la vitesse de la lumière. La description de l’interaction gravitationnelle pose problème dans ce cadre, puisqu’elle apparait instantanée : deux corps massiques (qui ont une masse) sont en interaction quelque soit leur distance. Qu’un objet voit sa masse modifiée (et c’est le cas dans les réactions nucléaires où les variations de masse sont la cause de libération d’énergie selon la célèbre formule E=mc²) et l’autre objet en est immédiatement informé puisque l’interaction gravitationnelle est modifié, même si les deux objets sont situé à plusieurs année-lumière l’un de l’autre ! Cela est en contradiction avec les principes de la relativité restreinte et amena Einstein à proposé le modèle de la relativité générale en 1915.

Dans le cadre de la relativité générale, la gravitation n’est pas perçue comme une interaction entre deux corps massique mais comme une modification de l’espace-temps lui-même ! Ainsi, tout corps massique modifie l’espace-temps dans son environnement un peu de la même façon qu’une bille sur une toile tendue courbe la toile dans son environnement (voir la représentation ci-contre). Cela est vrai pour les objets astronomiques, mais aussi pour tous les objets de l’environnement, même celui que vous avez reçu du père noël.

D’autres avertissements à venir…