Définition de la seconde

Définir la seconde, pas si simple quand on y pense…

[dailymotion]http://www.dailymotion.com/video/x6ssqg_n5lhistoire-racontee-par-des-chauss_fun[/dailymotion]

Oui, les chaussettes, c’est presque ça. Mais pour comprendre comment on a inventé la seconde, il faut faire l’inverse : d’abord le jour, puis l’heure, la minute et enfin la seconde.

Imaginons que deux personnes souhaitent se donner un rendez-vous. Comment faire pour être sûr qu’elles seront bien présentes au même moment, au même endroit ?

Pour mesurer le temps, il faut avoir le nez en l’air et regarder les étoiles. Notre astre, le soleil est la première source de mesure du temps. L’alternance de lumière jour-nuit nous donne la première balise : 1 jour = la durée séparant 2 positions identiques du soleil. Pour se donner un rendez-vous, on peut par exemple se dire « rendez-vous dans 3 jours, ici ». C’est-à-dire « on attend que le soleil passe 2 fois à cette position du ciel et on se retrouve à la troisième ».

Mais comme cette durée est un peu longue, on a eu l’idée de la subdiviser en plusieurs parties. En l’occurrence, on a choisi 24 subdivisions. Pourquoi 24 ? Il faut remonter au temps des babyloniens pour avoir la réponse. Ceux-ci comptaient sur leur doigts comme nous mais en comptant aussi les 2 pouces des pieds ! Il comptait donc jusqu’à 12. C’est surprenant pour nous, mais pas si idiot quand on y pense. 12 se divise par 2, 3, 4 et 6. Ce qui est très commode pour faire des calculs quand on n’a pas de calculatrice. Ainsi, si l’on veut diviser la journée en parties égales et que l’on compte en base 12 comme les babyloniens, on obtient 12 heures le jour et 12 heures la nuit, ce qui nous donne 24 heures pour une journée complète.

Dans la foulée, on peut aussi diviser l’année en 12 mois : un an c’est la durée nécessaire pour que le soleil revienne à la même position dans le ciel les jours de solstice. En plus en un an, on observe 12 fois la pleine lune, encore un argument pour compter en base 12 et diviser l’année en 12 mois.

Au passage, si l’on compte le nombre de fois où le soleil se lève en 1 an, on trouve 365. Si l’on n’est pas trop regardant, 365 c’est à peu près 360. Et alors ? Alors 360 c’est 12 fois 30, on retrouve encore un beau 12 et le nombre de jours à mettre dans un mois.

Pourquoi une seconde est-elle le 60ème de la minute qui elle-même est le 60ème de l’heure ? Il aurait été plus simple de prendre le 100ème dans les deux cas, les conversions en auraient été largement simplifiées.
Cette question résonne avec une autre question : pourquoi les angles sont mesurés en degré, minute, seconde ?

Pour mesurer une durée plus précise que l’heure, il faut inventer des mécanismes du type gnomon : un bâton planté dans le sol. L’ombre portée par le bâton sur le sol nous donne un moyen simple de mesurer des durées précises. C’est le principe du cadran solaire où la mesure du temps est en fait une mesure d’angle.

Pour mesurer les angles, les babyloniens (vous savez ceux qui sont fan du 12) ont eu l’idée de diviser le cercle en 6 parties égales (la moitié de 12), elles-mêmes divisibles en 60 parties égales (la moitié de 120), on obtient le 360 degré (6*60) du tour complet.

Une fois que l’on a le degré, il ne reste plus qu’à inventer sa subdivision : le 60ème de degré qu’on appelle minute et le 60ème de minute qu’on appelle la seconde.

Là encore, la faute en revient aux babyloniens. Et ces 60 minutes par heure (ou degré) et 60 secondes par minute sont une réminiscence de la culture babylonienne.

Pour faire des tâches quotidiennes ce système de mesure du temps est parfaitement adapté et on l’utilise tous les jours pour se donner des rendez-vous. Mais si l’on cherche un peu de précision, on remarque que ça ne fonctionne pas tout à fait : le soleil met moins de 24 heures pour revenir à une même position, il y a un peu plus de 365 jours dans un an. Au final, la mesure du temps basé sur des phénomènes est relativement imprécise, surtout quand on veut faire des mesures de physique sur des atomes ou des particules. De plus, la mesure de la seconde est l’une des mesures fondamentales du mètre puisqu’on définit le mètre comme la distance parcourue par la lumière en 1?299 792 458 seconde . Du coup, depuis 1967, les physiciens ont trouvé un autre moyen de définir la seconde. Plutôt que de garder la tête dans les étoiles, ils ont pris une mesure sur un atome :

La seconde est la durée de 9 192 631 770 périodes de la radiation correspondant à la transition entre les niveaux hyperfins F=3 et F=4 de l’état fondamental 6S½ de l’atome de césium 133

C’est pour cela que les horloges qui gouvernent le monde (horloges d’internet, des satellites GPS, des heures officielles)  sont atomiques.

Finalement, je me demande si je ne préfère pas la définition donnée par les chaussettes…

La surface terrestre requise pour alimenter le monde

Quelle source d’énergie pour alimenter le monde ?

Surface requise pour alimenter le monde avec des panneaux solaires
Surface requise pour alimenter le monde avec des panneaux solaires

Du point de vue de la physique, toute action se décrit en terme de transfert d’énergie. Pour rouler, une voiture brule de l’essence : il s’agit d’une réaction chimique qui convertit de l’énergie potentielle chimique en énergie cinétique. De la même façon, une centrale électrique convertit de l’énergie primaire (hydraulique pour un barrage, chimique pour du charbon, nucléaire pour une centrale nucléaire) en énergie électrique.

L’activité du monde économique est basée sur cette conversion d’énergie primaire en une autre forme d’énergie. Une énergie primaire est une énergie naturellement accessible. Il n’y en a pas tant que ça :

  • Energie hydraulique : l’énergie des cours d’eau, des marées
  • Energie éolienne : l’énergie cinétique du vent
  • Energie chimique : l’énergie potentiellement libérable du charbon, du pétrole
  • Energie solaire : l’énergie lumineuse reçue du soleil
  • Energie nucléaire : l’énergie de cohésion des noyaux nucléaires

Les 3 premières sont en fait des « filles » de l’énergie solaire. Récupérer les énergies hydrauliques et éoliennes revient à prélever une infime partie des énergies mise en oeuvre dans la machinerie climatique de la terre. L’énergie chimique fossilisée est issue d’organismes vivants, or tous les organismes vivants puisent leur énergie du soleil : les plantes transforment l’énergie solaire en énergie chimique, les animaux mangent les plantes et profitent de cette énergie chimique.

L’économie actuelle est essentiellement basée sur l’énergie chimique, une source d’énergie épuisable qui en plus modifie l’équilibre physico-chimique du climat. La question des énergies renouvelables est celle de la recherche d’une source d’énergie primaire économiquement rentable et écologiquement acceptable. Le solaire est certainement le meilleur candidat. En témoigne la carte présentée qui montre une estimation de la surface de panneaux solaires nécessaire pour alimenter le monde.

« Décroissance radioactive » : ce qu’il faut retenir

La radioactivité est bien loin en ces périodes de révisions et une petite fiche pour explorer les connaissances exigibles en radioactivité ne peut pas faire de mal.

Connaître la signification du symbole ZAX et donner la composition du noyau correspondant.

Voici une vieille connaissance qui date de la seconde :

ZAX : noyau de symbole X qui a pour nombre de masse A et numéro atomique Z. Un noyau ZAX est donc constitué de Z protons et A-Z neutrons.

Définir l’isotopie et reconnaître des isotopes.

2 noyaux isotopes ont le même nombre de protons mais un nombre différent de neutrons. Ainsi, ils ont le même Z mais pas le même A.

Reconnaître les domaines de stabilité et d’instabilité des noyaux sur un diagramme (N,Z).

Il s’agit de reconnaitre sur un diagramme du type :

diagramme de stabilité N-Z

Qu’il y a une zone correspondant à des noyaux stable, donc non radioactifs. Sur le diagramme ci-dessus, c’est la zone la plus rouge. On voit que pour des petits Z, cette zone suit plus ou moins la courbe N=Z, puis s’en éloigne au fur et à mesure que les Z devient de plus en plus grand.

Et qu’autour de cette zone, les noyaux sont de plus en plus instables au fur et à mesure qu’on s’en éloigne. Le reste du diagramme (en blanc ici) correspond à des noyaux qui ont une durée de vie tellement infinitésimale qu’il n’a jamais été possible de les fabriquer.

Définir un noyau radioactif.

Un noyau radioactif est un noyau qui subit spontanément une désintégration nucléaire. Cela se traduit par l’émission d’un rayonnement et la transmutation du noyau père en un noyau fils.

Connaître et utiliser les lois de conservation.

Lors d’une désintégration nucléaire, le nombre total de nucléons et le nombre de charge se conservent. Ce sont les lois de Soddy. Ainsi, lors d’une désintégration ? qui produit un noyau d’Hélium (A=4 et Z=2), on aura :

désintégration alpha

Par exemple, un noyau d’uranium 238 (A=92, Z=92) se désintègre en Thorium 234 (A=234 et Z=90).

Définir la radioactivité ?, ?+?, ? l’émission ? et écrire l’équation d’une réaction nucléaire pour une émission ?, ?+?, ?? en appliquant les lois de conservation.

  • La radioactivité ? se caractérise par l’émission d’un noyau d’hélium He : A=4, Z=2.
  • La radioactivité ?+? se caractérise par l’émission d’un positron : un anti-électron qui porte à les mêmes caractéristiques qu’un électron si ce n’est sa charge qui est positive et A=0 (il ne s’agit pas d’un nucléon) et Z=1 (charge positive).
  • La radioactivité ?? se caractérise par l’émission d’un électron : A=0 (il ne s’agit pas d’un nucléon) et Z=-1 (charge négative).
  • L’émission ? correspond à la désexcitation du noyau fils. En effet, une désintégration radioactive produit beaucoup d’énergie et le noyau fils est bien souvent dans un état excité (voirs le cours de fin d’année sur la quantification des niveaux d’énergie). Le passage de l’état excité à l’état au repos passe par l’émission d’un rayonnement électromagnétique nommé rayonnement ?.

Ainsi, un noyau Cobalt 60 (symbole Co, A=60 et Z=27) radioactif ? produira un électron (A=0, Z=-1) et son noyau fils sera carctérisé par (A=60 et Z=28) pour assurer les lois de conservation de Soddy. Si l’on regarde dans un tableau périodique des éléments, on trouvera que Z=28 correspond au Nickel (symbole Ni). L’équation de désintégration s’écrit donc :

6027Co ? 6028Ni + 0-1e

À partir de l’équation d’une réaction nucléaire, reconnaître le type de radioactivité.

Celle-ci est assez simple, il suffit de reconnaître l’élément éjecté : une noyau 42He c’est de la radioactivité ?, un positron 01e c’est du ?+ et un électron 0-1e c’est du ?. Attention la présence d’un noyau d’hélium dans les produits ne signifie pas obligatoirement qu’on a affaire à une radioactivité ?. Il est possible également que ce soit une réaction de fusion. Besoin de se rafraîchir la mémoire ? Jetez donc un oeil sur la fiche Réaction nucléaire.


Connaître l’expression de la loi de décroissance et exploiter la courbe de décroissance.

Une population de noyau décroit en suivant la loi de décroissance suivante : N(t)=N0e-?t. Cela se traduit par :

Courbe de décroissance radioactive

Sur le graphique, on trouvera comment lire la valeur de N0 et comment trouver ?.

Savoir que 1 Bq est égal à une désintégration par seconde.

Dit comme ça c’est un peu rapide. Déjà il faut savoir que le Becquerel, Bq, (du nom d’un physicien qui a compté… on fait comme ça en physique : on donne le nom des gens qui comptent à des unités comme ça on est sûr que les apprentis retiendront leur nom même s’ils ne savent pas de qui il s’agit) est l’unité de l’activité d’une source radioactive. Et donc, lorsque pour une source radioactive il y a une désintégration par seconde, alors son activité est de 1 Bq. Ainsi le Bq est égal à des s-1.

Pour info : 1 Bq c’est tout petit, une source radioactive qui émet une particule par seconde, c’est à peine détectable. Dans un exercice où l’on vous fait calculer l’activité d’une source radioactive, ne vous étonnez pas de trouver de très grand nombre. Avant le Bq, on utilisait le Ci (de Curie) qui vaut 3,7·1010 Bq. C’est une unité plus adaptée à la radioactivité mais elle n’est pas « standard ».

Expliquer la signification et l’importance de l’activité dans le cadre des effets biologiques.

Une source radioactive émet des radiations très énergétique. lorsque ces radiations arrivent sur un organisme vivant, c’est comme un éléphant dans un magasin de porcelaine : ça fait beaucoup de dégat (voir les effets biologiques de la radioactivité I & II). Ainsi, l’activité qui mesure le nombre de désintégration par seconde donne une bonne idée de la dangerosité d’une source. Plus elle est active, plus elle est susceptible d’avoir un impact biologique.

Connaître la définition de la constante de temps et du temps de demi-vie.

La constante de temps est l’inverse de la constante radioactive ? qui apparaît dans l’expression de la loi de décroissance radioactive : N(t)=N0e-?t. ?=1/?.

Le temps de demi-vie est la durée pour qu’une population de noyau soit divisée par 2 : N(t1/2)=N0/2.

Utiliser les relations entre ? et ? et t1/2.

Noter bien qu’il est dit « utiliser » et pas « savoir les démontrer », donc à priori, il n’est pas nécessaire de savoir démontrer que N(t1/2)=N0/2 implique que t1/2=ln2/?. Cependant, ce calcul est parfois demandé (voir par exemple Liban 2008 sur labolycee.org). Pour mémoire :

N(t1/2)=N0/2 ? N0e-?t1/2 = N0/2 ?  e-?t1/2 = 1/2 ? e?t1/2 = 2 ? ?.t1/2=ln2

D’où t1/2=ln2/? et en se rappelant que ?=1/? on peut écrire : t1/2=?.ln2.

Pour l’application de ces expressions, attention aux unités : si ? est en seconde, alors t1/2 l’est aussi. Cependant t1/2 est souvent donner en heure ou en seconde, donc il faut le convertir en seconde pour avoir ? en seconde et ? en s-1.

Ceci est extrêmement important car l’activité (nombre de désintégration par seconde) est égale à la dérivée de N par rapport au temps : A=-dN/dt qui est égal à ?N. Ainsi l’unité de ? donne l’unité de A. Comme A est en Bq (donc en s-1) alors, il faut toujours exprimer ? en s-1.

Un exemple ? Envisageons une source de carbone 14 contenant 1 mole de noyaux (6.1023 noyaux). La demi-vie du carbone 14 est de 5 730 ans. Ainsi, ?=ln2/t1/2=ln2/t1/2=ln2/(5730*365*24*3600)=3,84 10-12 s-1 et A=2,3  1012 Bq.

Déterminer l’unité de ? ou de ? par analyse dimensionnelle.

Celle-ci est assez facile : Sachant que ln2 est juste un nombre sans unité, t1/2=ln2/? implique que t1/2 et ? ont une unité inverse l’une de l’autre. Si t1/2 est en heure alors ? est en h-1. Pour ?, t1/2=?.ln2 implique que t1/2 et ? ont la même unité.

Expliquer le principe de la datation, le choix du radioélément et dater un événement.

Du fait de la décroissance exponentielle d’une population de noyaux radioactive, une source a une activité qui décroit de manière exponentielle : A(t)=A0e-?t. Ainsi, connaissant le temps de demi-vie de l’élément considéré et l’activité initiale, il est facile de trouver l’age de l’échantillon en mesurant son activité à l’instant présent.

Bien entendu, connaître l’activité initiale n’est pas facile. Il faut faire des raisonnements très rusé pour y arriver. Cependant, dans tous les sujets de bac traitant de datation on vous guide tout au long du raisonnement qui permet de déterminer l’activité initiale.

Un exemple classique de datation : la datation au carbone 14. Elle est basée sur le fait que le carbone 14 (isotope radioactif du carbone) est continuement régénéré dans la haute atmosphère. Ainsi le taux carbone 14 sur carbone 12 (C14/C12) est constant dans l’atmosphère, de l’ordre de 10-12. Comme les plantes « respirent » le carbone de l’air (par le dioxyde de carbone), le taux C14/C12 des plantes est le même que celui de l’atmosphère. A partir du moment où l’organisme vivant meurt, les échanges cessent et la quantité de Carbone 14 décroit de manière exponentielle. Ainsi, une mesure de l’activité radioactive due au carbone 14 permet de savoir depuis combien de temps l’organisme est mort. Le temps de demi-vie du carbone 14 étant de 5730 ans, on peut pas remonter plus loin que 50 000 ans. Au-delà de cette durée, il n’y a plus assez de Carbone 14 pour mesurer l’activité radioactive.

La résonance en vidéo

Pour obtenir le phénomène de résonance, il faut un excitateur et un résonateur. Le résonateur est un système oscillant à qui l’excitateur fournit de l’énergie par un couplage approprié. Pour que le phénomène de résonance ait lieu, il faut que la fréquence de l’excitateur soit approximativement égale à celle du résonateur.

Hum, tout cela est un peu difficile à comprendre théoriquement. Voyons  ça en vidéo :

[kml_flashembed movie="http://www.dailymotion.com/swf/x4oira" width="425" height="335" wmode="transparent" /]

Bien sûr ce phénomène n’existe pas uniquement pour ces drôles d’objet de physiciens. Comme quasiment tout système matériel a une fréquence propre d’oscillation, il est possible de faire entrer en résonance toute sorte d’objet. Lorsqu »un objet est excité à sa fréquence de résonance, les oscillations peuvent prendre une telle amplitude que cela peut entraîner la destruction de l’objet.

Il y a bien sûr le classique verre de vin qui éclate s’il est soumis à sa fréquence de résonnance.

[kml_flashembed movie="http://www.youtube.com/v/17tqXgvCN0E" width="425" height="350" wmode="transparent" /]

Bien plus dramatique (mais heureusement sans mort), la résonance du pont de Tacoma :

[kml_flashembed movie="http://www.youtube.com/v/3mclp9QmCGs" width="425" height="350" wmode="transparent" /]

Et même les hélicoptères lorsqu’ils sont posés sur le sol ! Sur cette première séquence d’un épisode de Mac Gyver, on voit un hélicoptère qui entre en résonnance :

[kml_flashembed movie="http://www.youtube.com/v/6vICf8l-KV0" width="425" height="350" wmode="transparent" /]

Fort heureusement, la pilote a immédiatement décolé. Que ce serait-il passer s’il était rester au sol ?

[kml_flashembed movie="http://www.youtube.com/v/RihcJR0zvfM" width="425" height="350" wmode="transparent" /]

En réalité le phénomène de résonance est très courant. Dans le cas des tremblements de terre, c’est le phénomène de résonance qui induit l’effondrement des batiments : l’onde sismique agit comme un excitateur sur les batiments qui entrent en résonance.

Quel carburant pour la voiture du futur ?

Actuellement, nos voitures fonctionnent en effectuant une réaction d’oxydation des hydrocarbures présents dans l’essence :

Hydrocarbure + O2 ? CO2 + H2O

L’énergie libérée est le fruit des propriétés oxydantes de l’atmosphère et de l’énergie chimique emmagasinée dans les hydrocarbures. L’essence ordinaire est extraordinairement énergétique : 1 g d’essence libère 15 fois plus d’énergie qu’1 g d’explosif ! De plus cette énergie est contrôlable : contrairement aux explosifs, toute l’énergie n’est pas libérée instantanément.

Le problème avec ce mode de fonctionnement, c’est que d’une part, la réserve de pétrole n’est pas inépuisable et d’autre part, cela relâche du dioxyde de carbone (CO2) dans l’atmosphère ce qui contribue au réchauffement climatique.

Les biocarburants: une solution durable ?

La première idée qui vient à l’esprit c’est de remplacer l’essence par un carburant tout aussi énergétique mais renouvelable. Ainsi, certains constructeurs ont mis au point des voitures qui roulent au bioéthanol. Ce carburant est d’origine agricole. C’est à dire qu’on le produit à partir de colza ou d’autres huiles végétales.

Fondamentalement, cette idée est basée sur le même principe que l’essence : les organismes vivants synthétise des molécules susceptibles de libérer de l’énergie lors de l’oxydation par l’atmosphère. Pour l’essence, ces molécules ont été synthétisées il y a plusieurs millions d’années et sont en quantité limitée, pour les biocarburants ces molécules sont synthétisée chaque année et sont potentiellement infiniment renouvelable. La combustion des biocarburants produit aussi du CO2 mais celui-ci sera consommé par les champs servant à produire les biocarburants : le bilan est donc nul.

Bien sûr il y a un hic : jusqu’ici, l’agriculture était destinée à la nourriture. C’est donc une nouvelle utilisation de l’agriculture : manger ou conduire, il faut choisir ! La superficie des terres agricoles étant limitée, il faut augmenter les rendements de l’agriculture. Or cette augmentation des rendements a un coût énergétique : il faut consommer plus d’énergie pour produire plus (utilisation d’engrais, de tracteurs, etc.). Ainsi, produire des biocarburants consomme du pétrole et au final, il y a toujours relargage de CO2 par le pétrole.

et la voiture électrique ?

Puisque le carburant pose problème, utilisons des voitures électriques ! En effet, les moteurs électriques peuvent se montrer très performant et ne sont pas polluant. La production d’électricité est plus ou moins polluante mais on peut imaginer que des solutions durables respectueuses pour l’environnement vont être de plus en plus adoptées.

Seul petit problème technique : l’électricité ne se stocke pas en tant que tel. Il y a donc 2 solutions : soit la voiture fonctionne sur batterie (le stockage d’énergie est chimique) qui sont rechargées pendant la nuit, soit l’électricité est produite directement par la voiture.

La première solution présente de nombreux inconvénients : il faut garer sa voiture proche d’une prise électrique, les batteries sont encombrantes, chères, polluantes et doivent être changées régulièrement. La seconde solution parait donc plus adaptée à l’usage habituel que nous avons de la voiture mais comment produire de l’électricité directement dans la voiture ?

L’idée qui vient immédiatement à l’esprit est l’utilisation de panneaux solaires. En effet, l’énergie solaire est gratuite, directement accessible et éternellement renouvelable (tout du moins pour les 4 milliards d’années à venir). Encore une fois, il y a un hic : la terre reçoit du soleil environ 1000 Watt par m2 (1 kW/m2). Ainsi, il faut présenter une grande surface de panneau solaire pour faire avancer une voiture (voir l’image ci-contre). Une petite voiture développe environ 100 chevaux ce qui correspond à 100 kW. Il faudrait donc 100 m2 de panneaux solaires pour avoir la même puissance : il va falloir revoir la taille de nos routes !

Une solution qui parait plus adaptée pour produire de l’électricité à l’échelle d’une voiture est l’utilisation de l’hydrogène.

L’hydrogène : la solution à tous nos problèmes énergétiques ?

Le dihydrogène (H2) réagit très violemment avec le dioxygène de l’air pour former de l’eau :

2H2+O2 ? H2O

Cette réaction produit beaucoup d’énergie sans émission polluante. Cette énergie est parfaitement maitrisable dans une pile à combustible mais elle est plus difficile à maitriser en faisant le plein d’une voiture, par exemple. C’est l’un des nombreux problèmes avec une voiture à hydrogène : le plein doit se faire de sorte à ce que le dihydrogène ne soit jamais en contact avec l’air, sinon, c’est l’explosion assurée !

Pour mesurer, cette réactivité, on peut la comparer à l’essence : 1 g de dihydrogène est 2,5 fois plus énergétique qu’1 g d’essence. Avec un plein de 40 L d’essence, on peut faire environ 500 km. Cela correspond à 30 kg d’essence. Avec 30 kg d’hydrogène, on pourrait donc faire 1250 km ! Seulement, l’hydrogène n’est pas un liquide mais un gaz et 30 kg d’hydrogène occupe un très grand volume. Il est donc nécessaire de liquéfié l’hydrogène pour l’utiliser. C’est un autre problème avec l’hydrogène : on perd de l’énergie simplement à liquifier le gaz. Un autre problème est sa très faible densité, même lorsqu’il est liquide : sa densité est de 0,071g/cm3. Ainsi, 30 kg d’hydrogène ont un volume de plus de 400 L ! Encore une fois, il va falloir revoir la taille de nos voitures.

Mais le principal problème du dihydrogène est ailleurs : il n’existe pas à l’état naturel. Il faut le fabriquer. Comment ? C’est extrêmement simple, il suffit de faire la réaction inverse de celle qui a été notée plus haut :

2H2+O2 ? H2O

Si la première réaction produisait de l’énergie, celle-ci en consomme. Ainsi, toute l’énergie contenue dans l’hydrogène provient d’ailleurs : l’hydrogène n’est pas une source d’énergie, c’est juste un vecteur d’énergie. Si nos voitures devaient fonctionner à l’hydrogène, il faudrait trouver une autre source d’énergie qui permette de produire de l’hydrogène. Cela pourrait être des centrales électriques solaires (s’il n’était pas envisageable de fabriquer des voitures occupant une centaine de m2, il est parfaitement envisageable de faire des centrales électriques solaire de plusieurs hectares). Et l’économie du futur commence à se dessiner :

Des centrales solaires qui convertissent l’énergie solaire en énergie électrique. Celle-ci est utilisée pour produire du dihydrogène qui serait le carburant des transports en commun (du fait de sa faible densité, il faut prévoir de gros réservoirs de dihydrogène donc de gros véhicules). Il y a pour l’instant encore de nombreux obstacles à la réalisation de cette solution : rendement des panneaux solaires encore trop faibles, dangerosité du dihydrogène (stations services explosives, réservoirs qui pourraient exploser en cas d’accident), etc. mais la BMW Hydrogen 7 de série, qui sera commercialisé à partir de 2020 (voir sa fiche sur viamichelin) apparait comme l’une des premières briques de ce futur.

Pourquoi les spationautes flottent dans la navette spatiale ?

[youtube]https://www.youtube.com/watch?v=3bCoGC532p8[/youtube]

Le poids, la masse, la gravité

Si les photos et vidéos d’astronautes en orbite autour de la terre sont si fascinantes c’est parce qu’ils sont manifestement dans une situation impossible à vivre sur terre. Quoique nous fassions, nous retombons toujours sur le sol car la terre exerce une force qui nous attire. Celle-ci porte un nom : c’est le poids. Attention, il y a parfois une confusion entre poids et masse. Cela vient de l’imprécision du langage quotidien qui amalgame les deux. En effet, la masse correspond à la quantité de matière, elle s’exprime en kg tandis que le poids correspond à la force exercée par la terre, elle s’exprime donc en Newton (l’unité des forces). Bien entendu, les deux notions sont reliées puisque plus il y aura de masse (donc de quantité de matière), plus la force exercée par la terre sera élevée. D’ailleurs cela se traduit par une équation : P=m.g c’est à dire que le poids est proportionnel à la masse. La constante de proportionalité g est appelée constante gravitationnelle, elle vaut 9,8 N/kg (dans la suite, on prendra une valeur égale à 10). Ainsi, un spationaute de masse 80 kg subira à la surface de la terre un poids de 80.10=800 N. lorsque son médecin lui demande son poids il devrait répondre 800 N et non pas 80 kg.

La décroissance de g lorsqu’on s’éloigne de la terre

Cette constante gravitationnelle g dépend en fait de l’endroit où l’on se trouve. Plus on est proche de la terre, plus elle est élevée (la valeur 9,8 est une valeur moyenne). C’est une constante qui dépend également de la planète où l’on se trouve. Sur la Lune, sa valeur est 6 fois plus faible. Ainsi notre spationaute de 80 kg, sur la lune, serait soumis à une force de 130 N. Ayant développé une musculature pour soulever 800 N sur Terre, il pourra s’amuser à faire des galipettes. Comme on le voit sur cette vidéo de la nasa (rappelons que la combinaison des spationautes est lourde, de l’ordre de 100 kg…).

[kml_flashembed movie="http://www.youtube.com/v/kbxkcEW3UYM" width="425" height="350" wmode="transparent" /]

Mais revenons à notre spationaute qui flotte dans la navette spatiale, serait-ce parce qu’à cette altitude, il n’y a plus de gravité ? Si l’on fait le calcul, on trouve que g à l’altitude de vol de la navette spatiale (400 km) est de 8,7 N/kg. Notre spationaute est donc bien attiré par la terre puisque son poids à cette altitude est de 700 N (ce qui est même supérieur à la force éprouvée sur la Lune), alors pourquoi flotte-t-il ?

l’inertie et l’accélération de pesanteur

Pour répondre à cette question, il faut s’intéresser à la chute libre. Comme bien souvent dans un problème de physique, la réponse n’est pas directement là où on le croit… Pour comprendre « Pourquoi un spationaute flotte dans l’espace ? » il faut se poser la question « Si deux boules de masses différentes sont lâchées à une hauteur de disons 10 m du sol, laquelle arrivera la première ? la plus lourde ou la plus légère ? ». Réponse que tout le monde connait : elles arriveront en même temps. Voilà une réponse intéressante. Tout le monde la connait mais peu de gens la comprennent (je prend pour preuve le nombre de fois où en fin de repas, on m’a posé la question « Ah ben tiens, toi qui est prof de physique, tu vas pouvoir me dire pourquoi c’est pas la plus lourde qui arrive en premier ? »). Essayons de comprendre pourquoi.

1er point : comme on l’a vu, plus un objet est lourd, plus la terre l’attire (rappelons-nous P=m.g). Sur ce point, on est bien d’accord.

2nd point : plus un objet est lourd, plus il est difficile de le mettre en mouvement. Ce dernier point est bien souvent oublié, pourtant, il est incontestable qu’il est plus difficile de pousser une grosse berline qu’une twingo, et cela ne vient pas seulement des frottements : plus la masse est grande, plus l’objet à d’inertie, plus il est difficile à mettre en mouvement.

Il se trouve que ces deux faits se compensent exactement : l’objet le plus lourd est soumis à une plus grande force mais il est plus difficile à mettre en mouvement que l’objet le plus léger. Ainsi, les 2 objets ont le même mouvement, en l’occurrence, un mouvement accéléré. D’ailleurs la valeur de l’accélération est exactement égale à la valeur de la constante gravitationnelle. Ainsi, tout objet livré à lui-même au voisinage de la terre subit une accélération égale à 10 m/s² cela veut dire que tout objet en chute libre voit sa vitesse augmenter vers le bas de 10 m/s (36 km/h) à chaque seconde.

la chute libre

Imaginons maintenant que nous soyons dans un ascenseur dont le câble lâche. L’ascenseur se met à tomber en accélérant. S’il était initialement au repos, il aura une vitesse de 36 km/h au bout d’une seconde. Tout comme nous dans l’ascenseur qui aurons le même mouvement. Nous chuterons donc avec l’ascenseur en ayant toujours la même vitesse que lui. Si l’on se prenait en photo à ce moment…il n’y a guère que les physiciens pour penser à se prendre en photo dans un ascenseur en chute libre, tout être normalement constitué n’aurait qu’une seule activité : crier… mais bon, imaginons que nous aurions l’idée de nous prendre en photo, alors nous semblerions flotter dans l’ascenseur ! Comme l’astronaute dans la navette spatiale. Ainsi, les astronautes ne flottent pas réellement, ils sont simplement en train de tomber dans un mouvement exactement analogue à celui de la navette spatiale. Ce qui donne cette sensation qu’ils sont en apesanteur (non soumis à la pesanteur). En réalité, ils sont toujours soumis à la pesanteur : celle-ci les maintient dans un mouvement circulaire uniforme autour de la terre. S’il n’y avait pas de pesanteur, ils partiraient tout droit, vers l’infini est au-delà !

Annexe : le calcul de la constante gravitationnelle à 400 km de la surface terrestre.

De l’expression de l’interaction gravitationnelle F=G.mA.mB/dAB² on déduit g=G.M/d² où M est la masse de la planète et d la distance au centre de la planète. Dans les conditions de la navette spatiale : M = 5,98.10^24 kg et d = Rayon de la terre + altitude = 6,38.10^6+400.10^3 m ce qui donne g=8,7 N/kg.

[youtube]https://www.youtube.com/watch?v=RmV90BmMNMg[/youtube]

Une centrale nucléaire peut-elle exploser comme une bombe nucléaire ?

Explications en vidéo


Une centrale nucléaire peut-elle exploser comme… par lewebpedagogique

Centrales nucléaires et bombes nucléaires ont en commun de tirer parti de l’extraordinaire énergie contenue dans le noyau des atomes à travers des réactions nucléaires de fission (voir les articles « Ce produit est constitué de 99,999999 % de vide » et « Ce produit contient l’équivalent de 21 000 tonnes de TNT« ). On distingue 2 types de réactions nucléaires : la fusion et la fission. Dans la fusion, 2 petits noyaux se réunnissent pour former un gros noyau alors que dans la fission, c’est un gros noyau qui se désintègre en plusieurs petits noyaux : généralement 2 noyaux + 2 ou 3 neutrons comme on peut le voir sur la figure ci-contre où un noyau d’Uranium 236 (contenant 236 particules) se désintègre pour former un noyau de Krypton , de Baryum 141 et 3 neutrons. L’Uranium 236 est un isotope de l’Uranium : il contient 92 protons (comme tous les noyaux d’uranium) et 236-92 = 144 neutrons. On ne le trouve pas naturellement dans la nature puisque les minerais d’uranium sont constitués à 99,3 % d’Uranium 238 (92 protons et 146 neutrons) et 0,7 % d’Uranium 235 (92 protons et 143 neutrons). Pour former un noyau d’Uranium 236, il faut qu’un noyau d’Uranium 235 capte un neutron comme cela est indiqué sur la figure ci-dessous :

Réaction en chaîne

Ainsi, la réaction nucléaire au coeur d’une centrale nucléaire comme d’une bombe nucléaire est du type :

1 noyau d’Uranium 235 + 1 neutron ? 2 noyaux plus petits + 2 à 3 neutrons

Supposons que 2 neutrons émis par la désintégration d’un noyau d’Uranium 235 rencontrent 2 noyaux d’uranium 235. Ceux-ci vont à nouveau se désintégrer donnant naissance à 2×2=4 nouveaux neutrons eux-mêmes susceptibles de rencontrer 4 autres noyaux d’uranium 235 qui eux-même vont produire 4×2=8 nouveaux neutrons susceptible de continuer le processus (voir le schéma ci-contre) : c’est une réaction en chaîne. Sachant qu’à chaque fois que ce processus à lieu, il libère une très grande énergie, on comprend qu’une réaction nucléaire libère une quantité colossale d’énergie en un temps extrêmement court : 10 kg d’Uranium 235 sont complètement désintégrés en seulement 84 étapes comme celle qui vient d’être décrite !

Masse critique

L’emballement ou non de la réaction dépend de la rencontre ou non entre les noyaux produits par la désintégration  et d’autres noyaux d’Uranium 235. S’il n’y a pas assez de noyaux d’Uranium 235, les neutrons produits vont pouvoir s’échapper de l’échantillon d’uranium 235 et la réaction en chaîne ne se fera pas. Il y a donc une masse critique d’uranium 235 pour laquelle la réaction en chaîne se réalise. En théorie cette masse est de 200 kg d’Uranium 235. Durant la seconde guerre mondiale, il n’était pas possible de réunir une telle masse d’uranium 235 et les scientifiques Nazis ont renoncé à développer une bombe nucléaire pour cette raison. Cependant, le groupe de chercheur réuni par le gouvernement Américain à Los Alamos pour élaborer la bombe nucléaire réussirent à réduire cette masse critique en entourant l’uranium 235 de réflecteur à neutrons, renvoyant les neutrons émis vers le centre du « combustible ». Cela leur permit de réduire la valeur de la masse critique à 15 kg d’Uranium 235.

Enrichissement de l’uranium

Comme nous l’avons vu, à l’état naturel, les minerais d’Uranium sont constitué à seulement 0,7 % d’Uranium 235. Cette concentration est bien trop faible pour initier la réaction en chaîne. Il est nécessaire d’enrichir l’Uranium pour augmenter la concentration en Uranium 235. Pour un usage militaire (dans les bombes nucléaires), il faut 80 % d’Uranium 235. L’enrichissement de l’uranium est très complexe, très long et très coûteux, il est nécessaire de séparer les noyaux d’Uranium 235 des noyaux d’Uranium 238. C’est la raison pour laquelle, bien que la technologie des bombes nucléaires soit relativement simple à comprendre sur le papier, tous les pays ne sont pas capables de construire une bombe nucléaire. La photo ci-contre montre un des instrument retrouvé en Irak qui permet d’enrichir l’uranium.

Dans les centrales nucléaires, pour que la réaction nucléaire ne s’emballent pas, on fait en sorte que les neutrons produis par la désintégration d’un noyau ne rencontre pas plus d’un noyau d’Uranium 235. Pour cela, on utilise un minerai à 3 % seulement et on ralentit les neutrons à l’aide d’un modérateur (de l’eau ou de l’eau lourde et des barres de carbones graphites) comme on peut le voir sur la photo ci-contre, où les barres de combustibles (à droite) sont au fond d’une piscine. Les neutrons produit par la réaction nucléaire sont ralentis par l’eau et empêche l’emballement de la réaction. En effet, en cas d’erreur de manipulation et d’emballement de la réaction, la lenteur des neutrons limite la taille de l’explosion. A une température de quelques milliers de degrés, les atomes bougent plus vite que les neutrons et ceux-ci ne leur rentrent plus dedans : la réaction en chaine est stoppée. L’énergie produite peut effectivement faire exploser le réacteur mais à des niveaux d’énergie comparable à celle des explosions conventionnelles, c’est à dire des millions de fois plus petite qu’une explosion nucléaire. Contrôler une centrale nucléaire n’est pas du tout identique à contrôler une bombe nucléaire (par construction incontrôlable une fois la réaction en chaine activée).

Il y a bien de réels dangers dans l’utilisation des réacteurs nucléaires (dont celui de la fonte du réacteur en cas de fuite sur le système de refroidissement, avec le risque de dispersion de matériaux radioactifs dans l’environnement) mais une explosion du type bombe nucléaire n’en fait pas parti.

Et le plutonium ?

La fusion de noyaux de Plutonium est également utilisée dans les bombes nucléaires. Celle-ci est plus efficace que celle de l’uranium car elle produit plus de neutrons. La masse critique de Plutonium est donc plus faible que celle d’Uranium : 5 kg de Plutonium suffit là il en fallait 15 avec l’Uranium (en 1945, la bombe qui a explosé sur Hiroshima était une bombe à Uranium tandis que celle qui a explosé à Nagasaki était une bombe à Plutonium). Parmi les déchets de combustible des réacteurs nucléaires, on trouve beaucoup de Plutonium. En effet, lorsque l’uranium 238 (qui constitue la majorité des barres de combustible) est frappé par un neutron, il se transforme en noyau d’Uranium 239, élément radioactif (temps de demi-vie de 23 min) qui se désintègre en Neptunium 239, lui-même radioactif (demi-vie 2,3 jours) pour donner les fameux noyaux de plutonium 239.

Ainsi, l’enjeu du nucléaire civil dépasse bien souvent le simple accès aux ressources énergétique car lorsqu’un pays se dote d’une centrale nucléaire, il se munit par la même occasion d’une source de Plutonium, susceptible d’être recyclé à des fins militaires : la frontière entre nucléaire civil et nucléaire militaire est ténue comme l’illustre cet extrait d’un article publié dans le monde du 16 Novembre 2007 :

Le rapport remis, vendredi 16 novembre, par le directeur de l’Agence internationale de l’énergie atomique (AIEA), Mohamed El Baradei, ne permet pas de savoir si le programme nucléaire iranien est civil ou militaire. Guetté comme une étape cruciale dans la crise diplomatique autour du nucléaire iranien, le rapport que le directeur de l’Agence internationale de l’énergie atomique (AIEA), Mohamed El Baradei, a remis, vendredi 16 novembre, est un document lourd d’ambiguïtés, susceptible de donner lieu à des interprétations divergentes, et donc d’attiser les tiraillements à l’ONU à propos de nouvelles sanctions contre Téhéran.

Les effets biologiques de la radioactivité II : les effets à long terme

Dans l’article précédent, nous avons vu qu’au quotidien nous sommes soumis à une dose diffuse de radioactivité, trop faible pour avoir des conséquence à court terme. Quels sont les effets sur le long terme de ces doses diffuses ?

Ceux-ci sont plus délicats à quantifier que les effets à court terme. Je suivrais pour en expliquer les effets le raisonnement de Richard Muller dans son cours physics for future presidents. On considère qu’une exposition à 25 Sv a 100 % de chances d’induire un cancer. Cela peut sembler paradoxale puisqu’on a vu que l’on meurt très rapidement « par empoisonnement » à partir de 10 Sv. La solution de ce paradoxe est dans ce qu’on appelle l’hypothèse linéaire : on suppose qu’il est équivalent de soumettre 1 personne à 25 Sv et 25 000 personnes à 1 mSv. Cela peut sembler absurde et cette hypothèse est souvent remise en cause par les spécialistes. Cependant, il faut bien garder à l’esprit que l’apparition d’un cancer n’est pas « systématique » et qu’il faut raisonner de manière statistique. En application du principe de précaution, les organismes nationaux et internationaux utilisent cette hypothèse pour quantifier les conséquences des expositions aux faibles doses de radioactivité. Sans rentrer dans la controverse (parfois violente), nous retiendrons cette hypothèse et allons en explorer les conséquences.

Retenons : pour 25 000 personnes soumises à 1 mSv, statistiquement, 1 personne développera 1 cancer

On pourra également retenir que l’exposition à 1 mSv augmente notre probabilité d’avoir un cancer de 1/25000 soit 0,004 %.

Voyons les conséquences de cette hypothèse. En France, la dose environnementale annuelle reçue du fait de la radioactivité naturelle et médicale est de 3 à 4 mSv par individus (avec de fortes variations selon l’endroit où l’on vit, son métier, etc.). Soit une dose de 3,5×60 millions = 210 millions mSv reçue annuellement en France. Cela provoque donc à priori 210 millions divisé par 25 000 = 8 400 cancers par an. Ce chiffre peut sembler énorme mais il est encore loin derrière les 66 000 décès par an lié au tabagisme. Il est également à comparer à la probabilité de mourir d’un cancer qui est de l’ordre de 25 % (moins pour les femmes et plus pour les hommes). 8400 personnes souffrant d’un cancer représente 0,014 % de la population totale. Cela veut donc dire que l’environnement radioactif participe de 0,014 % au 25 % de risque d’avoir un cancer.

Autre exemple d’application de l’hypothèse énoncée plus haut : chacun d’entre nous est radioactif (du fait entre autre du carbone 14 et du potassium 14). La dose reçue est d’environ 0,25 mSv/an. Le risque de cancer par auto-contamination est donc de 0,25×0,004=0,001 %. Ce chiffre est insignifiant devant le risque naturel. Cependant, il signifie malgré tout qu’environ 600 personnes développent un cancer auto-induit en France chaque année !

Combien de personnes sont mortes à Hiroshima des conséquences à long terme de la radioactivité ? Selon Richard Muller, moins de 1 %. Cela peut paraitre paradoxale mais voyons le raisonnement : à part les personnes loin du centre de l’explosion, très peu de personnes ont survécus aux effets conventionnels de la bombe (effet thermique de l’explosion sous la forme d’une boule de feu) et aux effets à court terme d’une exposition à la radioactivité. Les meilleurs estimations donnent 52 000 survivants qui ont reçu une dose moyenne de 200 mSv. Cela induit que 200×52000=10 400 000 mSv ont été reçues. En divisant par 25 000 on arrive à 416 cancers soit 0,8 % des 52 000 survivants. On estime le nombre de victimes d’Hiroshima entre 50 000 et 150 000, il y a donc eu moins de 1 % de mort par cancer du fait de la bombe.

Un dernier exemple très controversé, ce qui nous permettra de voir les limites de ce raisonnement : les conséquences de l’accident de Tchernobyl. En 1986, l’un des réacteur de la centrale nucléaire de Tchernobyl explose du fait d’une succession d’erreurs humaines (voir le descriptif de l’accident sur le site astrosurf). Des matériaux radioactifs furent dégagés dans l’atmosphère et se dispersèrent dans toute l’europe (voir l’image satellite ci-contre). On estime que l’humanité a reçu une dose de 600 000 000 mSv. Cet accident aurait donc induit 600 000 000/25 000 = 24 000 cancers (il s’agit d’une estimation grossière, qui relève plus de l’ordre de grandeur que du décompte exact des cancers). Mais ses conséquences ne s’arrêtent pas là. En effet, ces considérations statistiques ne décompte que les cancers directement induits par la radioactivité et ne prennent pas en compte le processus de mutation génétique (pathologies cardiaques, diabètes, naissances difformes, etc.) qui peut se répercuter de générations en générations, affectant plus particulièrement les enfants, 20 ans après la catastrophe (voir par exemple cet article sur le site d’UNICEF).

Il est évident que les conséquences d’une radio-exposition sont complexes. Inhaler des poussières radio-actives n’a pas les mêmes conséquences qu’une exposition à la radioactivité par la peau. Certains organes sont plus sensibles que d’autres, certains sujet également (en particulier les enfants, les adolescents et les femmes enceintes). Les considérations statistiques ne prennent pas en compte les individus (par définition) et lorsqu’on dit que telle exposition induit 100 cancers de plus que la normalité ce qui est insignifiant statistiquement, c’est toujours 100 cancers de trop, surtout si un choix politique permet de les éviter. Néanmoins, ces estimations permettent de donner une idée des conséquences d’une exposition à une faible dose de radioactivité. Sans minimiser les effets d’une catastrophe du type Tchernobyl, elles permettent de relativiser les effets de la radioactivité naturelle : vivre dans une belle maison en granit rose a certainement beaucoup plus de conséquences positives que de conséquences négatives liées à l’activité radioactive du granit (qui contient des traces d’uranium).

Bibliographie:

Les effets biologiques de la radioactivité I : les effets à court terme

En complément de l’histoire de la découverte de la radioactivité, je propose de faire le point sur les effets biologiques de la radioactivité. Il s’agit en fait d’un sujet extrêmement controversé puisqu’il est au coeur du débat pro/anti-nucléaire et il est généralement simplement survolé en cours.

Cet article traite des effets à court terme. Pour les effets à long terme, c’est ici.

Un échantillon radioactif émet des radiations ? ou ?, c’est à dire qu’il émet des noyaux d’hélium (radiations ?) ou des électrons (radiations ?) à très grande vitesse. Les noyaux ? sont « gros ». Ils provoquent de nombreux dégâts (comme un chien dans un jeu de quille) dans leur environnement mais sont facilement arrêtés : une simple feuille de carton suffit à les arrêter. Les électrons sont beaucoup plus petits et peuvent pénétrer très loin dans la matière (plusieurs mètres d’air, plusieurs centimètres de tissu vivant, ou plusieurs millimètres d’aluminium). Dans tous les cas, lorsqu’ils sont arrêtés par de la matière ils transmettent leur énergie à leur environnement. Lorsque ces projectiles frappent des êtres vivants, ils endommagent les molécules au cœur même de la cellule et cela peut avoir une influence sur son fonctionnement. Il existe également les rayonnements ionisants X ou ? qui sont des rayonnements électromagnétiques (comme la lumière mais très énergétique et invisible à l’oeil) susceptibles d’arracher des électrons aux atomes et modifiant, une fois encore, la structure des molécules.

Les conséquences de ces modifications moléculaires au sein d’un environnement biologique (la cellule) sont multiples et dépendent de très nombreux facteurs. La dynamique cellulaire est susceptible d’éliminer les molécules modifiées (un peu à la manière d’un écosystème qui se régénère suite à une pollution), de sorte que le fonctionnement de la cellule n’est pas affecté. Il se peut également que le fonctionnement de la molécule soit perturbé et cela induit divers symptômes. On distingue deux types d’effets de la radioactivité sur un organisme vivant selon la dose auquel l’organisme a été soumis : les effets à court terme dans le cas des contamination intense et les effets à long terme dans le cas des contaminations diffuse (faible exposition mais en plusieurs fois). Les premiers effets sont bien connus puisqu’ils ont pu être étudiés in situ lors d’explosions nucléaires ou dans l’industrie nucléaire. Les seconds sont plus difficiles à étudier car il faut un suivi des personnes exposées sur plusieurs années. D’autre part, nous sommes soumis à de la radioactivité naturelle en permanence et il est difficile de distinguer les différents facteurs inducteurs de pathologies.


Dommages infligés à l’ADN par des rayonnements © UCAR University of Michigan

Les effets immédiats relève d’une forme d’empoisonnement à la radioactivité, c’est à dire que les symptômes observés dépendent de la dose reçue par la personne. Contrairement à l’activité radioactive d’une source qui est facile à mesurer, la dose reçue est plus difficile à quantifier. La mesure physique se fait en Gray qui sont des joules par kilogramme. Il s’agit donc d’une mesure de l’énergie reçue par unité de masse. Cette unité n’est pas très pertinente pour mesurer les conséquences biologiques d’une exposition à la radioactivité car de nombreux paramètres entrent en jeu : nature du rayonnement (?, ?, ? ou X), nature des tissus exposés, etc. Deux nouvelles grandeurs ont donc été inventées pour « lisser » tout cela : la dose équivalente et la dose efficace. La dose équivalente prend en compte la nature du rayonnement (la radioactivité ? a plus de conséquences que la ? par exemple, rappelez-vous : les particules ? sont grosses et font beaucoup de dégât). La dose efficace prend également en compte la nature des tissus affectés.

La différence est de taille entre ces deux grandeurs : pour une même dose d’exposition aux particules ?, une ingestion de poussières radioactives a des conséquences désastreuses pour l’organisme alors qu’une exposition extérieure (par la peau) a de faibles conséquences puisqu’une fraction de millimètres de tissus humaines suffisent à arrêter le rayonnement. Cependant, nous n’allons pas rentrer dans ces considérations et nous allons explorer les effets de la radioactivité en supposant que c’est l’ensemble de l’organisme qui est exposé aux radiations. L’unité dans lequel s’exprime ces grandeurs est le Sievert (Sv) (on utilisait autrefois le rem : 1 Sv=100 rem) :

  • Pour une dose de 1 Sv à 2 Sv reçue en une seule fois, des effets commencent à être ressenti : nausées, perte des cheveux mais ceux-ci disparaissent quelques temps après l’exposition et aucune maladie à court terme n’est développée. Ces symptômes sont bien connues des personnes qui suivent une radiothérapie.
  • A partir de 3 Sv, le risque de mortalité est de 50 % dans les 60 jours (cela veut dire que la moitié des personnes qui ont été soumises à de telles radiations sont mortes dans les 60 jours). Cete dose est connue dans le monde médicale sous la dénomination DL50 (Dose létale 50 : 50 % des sujets exposés à cette dose de substances toxique sont décédées).
  • Au-delà de 10 Sv, les dommages sont irréversibles avec paralysie dans les heures qui suivent l’exposition et des chances de survie infimes.

Dans notre environnement quotidien, nous ne sommes jamais exposés à de telles doses (voir la carte ci-dessous). La radioactivité ambiante en France est telle que la dose reçue annuellement est en moyenne de 3 à 4 millièmes de Sv. Cette valeur est une moyenne qui prend en compte par ordre d’importance le Radon, gaz radioactif d’origine naturelle issu de la désintégration de l’uranium présent dans la croûte terrestre (40%), la médecine nucléaire (30%), la radioactivité naturelle de la terre (10%), les rayonnements cosmiques (10%) et notre propre radioactivité interne liée au potassium 40 et au carbone 14 (10%). Les effets à court terme de la radioactivité ne sont donc observés que dans des cas extrêmes : radiothérapie, accidents nucléaires (du type Tchernobyl) et explosions militaires. La carte ci-dessous montre la radioactivité naturelle d’origine tellurique (provenant de la terre) en mSv/an:

La suite : les effets à long terme.