La radioactivité 2-protons : un quatrième type de radioactivité

Dans le cours de Terminale S, on apprend qu’il y a 3 sortes de radioactivité : ?, ?+ et ?. Dans cet article du site techno-science.net, on apprend qu’un autre type de radioactivité est possible bien que très rarement observé : la radioactivité 2-protons. Celle-ci a été réalisé dernièrement dans les locaux du GANIL (Grand Accélérateurs National d’Ions lourds dont je vous recommande la visite virtuelle). Dans ce type de radioactivité, ce sont 2 protons qui sont émis. Elle est rarement observée car elle est issue de noyaux présentant un excès de protons. Ceux-ci sont très instables et difficile à synthétiser au laboratoire. En effet, le noyau est le siège de 2 interactions aux effets contraires :

  • l’interaction forte qui assure la cohésion du noyau auxquels sont soumis les protons et neutrons,
  • et l’interaction coulombienne (ou électrique) qui tend à repousser les protons entre eux.

Généralement les noyaux ont un excès de neutrons par rapport aux protons car cela permet d’éloigner les protons les uns des autres et donc de diminuer la répulsion électrique à laquelle ils sont soumis.

L’existence de la radioactivité 2-protons a été formulée théoriquement dans les années 60. Son observation expérimentale fournit de nouvelles données sur la façon dont les protons s’associent dans le noyau ce qui permet de mieux comprendre les processus à l’oeuvre dans la nucléosynthèse stellaire (les explosions nucléaires qui ont lieu au cœur des étoiles et des supernova). Rappelons que ce processus est à l’origine de tous les éléments chimiques de notre environnement : des atomes d’hélium jusqu’aux atomes d’uranium en passant par les atomes de carbone et d’oxygène qui nous constituent.

Les effets biologiques de la radioactivité I : les effets à court terme

En complément de l’histoire de la découverte de la radioactivité, je propose de faire le point sur les effets biologiques de la radioactivité. Il s’agit en fait d’un sujet extrêmement controversé puisqu’il est au coeur du débat pro/anti-nucléaire et il est généralement simplement survolé en cours.

Cet article traite des effets à court terme. Pour les effets à long terme, c’est ici.

Un échantillon radioactif émet des radiations ? ou ?, c’est à dire qu’il émet des noyaux d’hélium (radiations ?) ou des électrons (radiations ?) à très grande vitesse. Les noyaux ? sont « gros ». Ils provoquent de nombreux dégâts (comme un chien dans un jeu de quille) dans leur environnement mais sont facilement arrêtés : une simple feuille de carton suffit à les arrêter. Les électrons sont beaucoup plus petits et peuvent pénétrer très loin dans la matière (plusieurs mètres d’air, plusieurs centimètres de tissu vivant, ou plusieurs millimètres d’aluminium). Dans tous les cas, lorsqu’ils sont arrêtés par de la matière ils transmettent leur énergie à leur environnement. Lorsque ces projectiles frappent des êtres vivants, ils endommagent les molécules au cœur même de la cellule et cela peut avoir une influence sur son fonctionnement. Il existe également les rayonnements ionisants X ou ? qui sont des rayonnements électromagnétiques (comme la lumière mais très énergétique et invisible à l’oeil) susceptibles d’arracher des électrons aux atomes et modifiant, une fois encore, la structure des molécules.

Les conséquences de ces modifications moléculaires au sein d’un environnement biologique (la cellule) sont multiples et dépendent de très nombreux facteurs. La dynamique cellulaire est susceptible d’éliminer les molécules modifiées (un peu à la manière d’un écosystème qui se régénère suite à une pollution), de sorte que le fonctionnement de la cellule n’est pas affecté. Il se peut également que le fonctionnement de la molécule soit perturbé et cela induit divers symptômes. On distingue deux types d’effets de la radioactivité sur un organisme vivant selon la dose auquel l’organisme a été soumis : les effets à court terme dans le cas des contamination intense et les effets à long terme dans le cas des contaminations diffuse (faible exposition mais en plusieurs fois). Les premiers effets sont bien connus puisqu’ils ont pu être étudiés in situ lors d’explosions nucléaires ou dans l’industrie nucléaire. Les seconds sont plus difficiles à étudier car il faut un suivi des personnes exposées sur plusieurs années. D’autre part, nous sommes soumis à de la radioactivité naturelle en permanence et il est difficile de distinguer les différents facteurs inducteurs de pathologies.


Dommages infligés à l’ADN par des rayonnements © UCAR University of Michigan

Les effets immédiats relève d’une forme d’empoisonnement à la radioactivité, c’est à dire que les symptômes observés dépendent de la dose reçue par la personne. Contrairement à l’activité radioactive d’une source qui est facile à mesurer, la dose reçue est plus difficile à quantifier. La mesure physique se fait en Gray qui sont des joules par kilogramme. Il s’agit donc d’une mesure de l’énergie reçue par unité de masse. Cette unité n’est pas très pertinente pour mesurer les conséquences biologiques d’une exposition à la radioactivité car de nombreux paramètres entrent en jeu : nature du rayonnement (?, ?, ? ou X), nature des tissus exposés, etc. Deux nouvelles grandeurs ont donc été inventées pour « lisser » tout cela : la dose équivalente et la dose efficace. La dose équivalente prend en compte la nature du rayonnement (la radioactivité ? a plus de conséquences que la ? par exemple, rappelez-vous : les particules ? sont grosses et font beaucoup de dégât). La dose efficace prend également en compte la nature des tissus affectés.

La différence est de taille entre ces deux grandeurs : pour une même dose d’exposition aux particules ?, une ingestion de poussières radioactives a des conséquences désastreuses pour l’organisme alors qu’une exposition extérieure (par la peau) a de faibles conséquences puisqu’une fraction de millimètres de tissus humaines suffisent à arrêter le rayonnement. Cependant, nous n’allons pas rentrer dans ces considérations et nous allons explorer les effets de la radioactivité en supposant que c’est l’ensemble de l’organisme qui est exposé aux radiations. L’unité dans lequel s’exprime ces grandeurs est le Sievert (Sv) (on utilisait autrefois le rem : 1 Sv=100 rem) :

  • Pour une dose de 1 Sv à 2 Sv reçue en une seule fois, des effets commencent à être ressenti : nausées, perte des cheveux mais ceux-ci disparaissent quelques temps après l’exposition et aucune maladie à court terme n’est développée. Ces symptômes sont bien connues des personnes qui suivent une radiothérapie.
  • A partir de 3 Sv, le risque de mortalité est de 50 % dans les 60 jours (cela veut dire que la moitié des personnes qui ont été soumises à de telles radiations sont mortes dans les 60 jours). Cete dose est connue dans le monde médicale sous la dénomination DL50 (Dose létale 50 : 50 % des sujets exposés à cette dose de substances toxique sont décédées).
  • Au-delà de 10 Sv, les dommages sont irréversibles avec paralysie dans les heures qui suivent l’exposition et des chances de survie infimes.

Dans notre environnement quotidien, nous ne sommes jamais exposés à de telles doses (voir la carte ci-dessous). La radioactivité ambiante en France est telle que la dose reçue annuellement est en moyenne de 3 à 4 millièmes de Sv. Cette valeur est une moyenne qui prend en compte par ordre d’importance le Radon, gaz radioactif d’origine naturelle issu de la désintégration de l’uranium présent dans la croûte terrestre (40%), la médecine nucléaire (30%), la radioactivité naturelle de la terre (10%), les rayonnements cosmiques (10%) et notre propre radioactivité interne liée au potassium 40 et au carbone 14 (10%). Les effets à court terme de la radioactivité ne sont donc observés que dans des cas extrêmes : radiothérapie, accidents nucléaires (du type Tchernobyl) et explosions militaires. La carte ci-dessous montre la radioactivité naturelle d’origine tellurique (provenant de la terre) en mSv/an:

La suite : les effets à long terme.

La nature de la lumière

A propos de la nature de la lumière, on entend tout et son contraire. Elle est parfois décrite comme une onde et parfois comme un courant de grain de lumière (les photons). Quelle description est la bonne ? Qui a raison ? Qui a tort ?

Cette question est cruciale dans tous les systèmes de pensées scientifique puisqu’elle permet de comprendre la façon dont on appréhende le monde. Ainsi, pour les atomistes grecs les objets émettaient des particules reproduisant la forme des objets de manière réduite dans notre oeil. Pour Euclide et les pythagoriciens, c’est notre oeil qui émet un « quid » et permet la vision. Cette description sera réfutée par Aristote car alors nous pourrions voir les objets la nuit, même en l’absence de lumière. Cependant, c’est du côté de l’Egypte que l’optique géométrique a été minutieusement étudiée avec les travaux d’Alhazen (Ibn Al-Haytham). Dans son livre « Les trésors de l’optique » (écrit entre 1015 et 1021, traduit en latin en 1572), il décrit la lumière de manière mécaniste, comme un flux de sphères pesantes, émis de sources ponctuelles en des rayons rectilignes, susceptibles d’être réfléchies, réfractées et perçues par l’oeil. Son livre traite également des lentilles (incluant l’oeil), des miroirs plans et curviligne, des couleurs et de la camera obscura (Une boîte noire percée d’un trou : le principe de la chambre noire). Son approche expérimentale et mathématique restera inégalé pendant 500 ans.

Le XVIIème siècle verra se développer une description minutieuse de ce que l’on appelle actuellement l’optique géométrique (avec les travaux de Képler, Galilée, Bacon et Descartes). En 1665, Francesco Maria Grimaldi décrit le phénomène de diffraction, de sorte qu’à la fin de ce siècle 2 modèles de la lumière se dispute le haut du pavé : le modèle corpusculaire de Newton et le modèle ondulatoire de Huygens.

Selon Newton, la lumière est constituée de corpuscules soumis à l’action des forces. Cela permet d’expliquer le comportement de la lumière comme on l’observe en optique géométrique : réfraction (changement de direction de la lumière lors de la traversée des milieux transparents), réflexion (comme pour un miroir) et modification du trajet de la lumière par les lentilles. En observant le phénomène de dispersion par un prisme (tel qu’il est étudié en classe de 2de), il en déduit que ces corpuscules sont de différents types, correspondant aux différentes couleurs perçues par l’oeil.

De son côté, Huygens, réfute ces idées en invoquant le fait que 2 pinceaux de lumière se croisant ne sont pas déviés. Il propose un modèle ondulatoire en 1678 dans lequel la lumière serait une perturbation d’un milieu, comme le son ou les vagues. Le milieu de propagation de la lumière est appelé Ether. En postulant le ralentissement de la lumière dans les milieux transparents, il propose même un modèle pour expliquer les phénomènes de réfraction et réflexion.

Ces deux modèles sont convaincants, bien que contradictoires, et permettent d’expliquer les observations de l’optique géométrique. Cependant, ils divergent sur la façon dont la lumière interagit avec la matière : pour Newton, la lumière va plus vite dans un milieu de fort indice, tandis que pour Huygens, c’est l’inverse. Avec les moyens expérimentaux de l’époque, il était impossible de déterminer quel modèle avait raison ou non. Il fallut attendre les expériences de Foucault (1850) et Fizeau (1851) pour déterminer la vitesse de la lumière dans l’eau qui donnèrent raison au modèle de Huygens.

Ainsi, à partir du milieu du XIXème siècle, les scientifiques furent convaincus que la lumière était une onde. Il restait à déterminer dans les propriétés du milieu dans lequel se propageait cette onde (voir l’article sur la ola) : l’éther. C’est dans cette optique que Michelson et Morlay (en 1887) proposèrent une expérience qui est devenu maintenant un classique des classes prépa. Le lien avec l’éther est relativement simple : si la lumière se propage dans un milieu nommé éther, alors la terre se déplace dans ce milieu à la vitesse de 30 km/s lors de son périple autour du soleil. Dans ces conditions, selon la loi d’additivité des vitesses, la vitesse de la lumière ne devrait pas être la même dans toutes les directions sur terre. L’expérience de Michelson et Morlay permit une mesure très précise de la différence de vitesse de la lumière dans deux directions perpendiculaires : ils découvrirent qu’il n’y en avait pas ! La vitesse de la lumière est la même dans toute les directions (idée à la base de la théorie de la relativité restreinte d’Einstein), ce qui est en contradiction avec l’idée d’un milieu de propagation de la lumière. La lumière est donc bel et bien une onde mais non matérielle, qui correspond à une perturbation du vide lui-même !

Il peut sembler paradoxale d’imaginer une perturbation du vide. Cela serait impossible dans le vide absolu. Mais quand on parle de vide, on parle en fait de vide de matière, pas d’énergie. Dans un vide de matière, on peut trouver de l’énergie sous forme de champ électromagnétique.Modèle de propagation des champs électriques et magnétiques C’est ce que découvrirent les scientifiques de la fin du XIXème siècle (avec les travaux expérimentaux de Faraday) et Maxwell (en 1864) fournit une description théorique très détaillée des phénomènes électromagnétiques permettant de rendre compte à la fois des phénomènes électriques, magnétiques et de la propagation de la lumière.

Cette fin du XIXème siècle constitue véritablement une forme d’apogée pour les sciences physiques puisqu’elles permettaient d’expliquer la plupart des expériences observées à l’époque. On raconte qu’on déconseillait aux élèves brillants de cette époque de s’engager en sciences physique car on croyait alors que tout était découvert et qu’il n’y avait plus qu’à résoudre quelques problèmes techniques.

Parmi les mystères de la fin du XIXème perdurait celui du rayonnement du corps noir : un corps chaud émet une lumière. Cette lumière est le fruit de l’interaction entre la matière et la lumière. A l’aide des modèles statistiques de la fin du XIXème siècle, on peut expliquer ce rayonnement mais on aboutit à ce qui fut appeler « la catastrophe ultraviolette ». En effet, les modèles de l’époque prévoyait un rayonnement infini dans le domaine de l’ultraviolet et des rayons X lorsqu’un corps est chauffé, en complète contradiction avec les résultats expérimentaux. Pour expliquer cela, Max Planck proposa en 1900 de quantifier l’interaction entre la matière et la lumière : les atomes échangeraient des « quantas » d’énergie avec l’onde lumineuse. Sa proposition est « ad hoc« , c’est à dire qu’elle permet de résoudre le problème de la catastrophe ultraviolette mais Planck n’explique pas l’origine de cette quantification.

En 1905, Einstein, dans un article devenu un classique de l’histoire de la physique (voir cet article issu du [email protected] « 1905, les trois percées d’Einstein »), suggéra que c’était la lumière elle-même qui était constitué de « quanta« . Il propose de décrire la lumière comme constituée de petits grains de lumière : les photons. Cela permet d’expliquer à la fois le rayonnement des corps chaud, l’électroluminescence (le fait qu’un corps éclairé avec une lumière d’une certaine couleur peut émettre une autre couleur, comme par exemple un tee-shirt blanc sous une lampe UV) et l’effet photoélectrique (le fait que la lumière peut induire un courant électrique dans un circuit, effet utilisé dans certaines alarmes qui se déclenche lorsqu’on coupe un faisceau de lumière) : 3 phénomènes que la description de Maxwell échoue à expliquer. Est-ce à dire que toute la physique du XIXème siècle s’était fourvoyé en rejetant le modèle de Newton ? L’affaire n’est pas aussi simple car en fait pour rendre compte de l’ensemble des expériences que l’on peut faire avec la lumière, il faut considérer qu’elle est à la fois onde et corpuscule. C’est ce qu’on appelle la double nature de la lumière. Elle est onde si l’on considère les expériences de diffraction et elle est corpuscule si l’on considère le rayonnement du corps noir et les phénomènes cités ci-dessus.

En réalité, et c’est là toute la subtilité de la mécanique quantique, il n’est pas possible de trancher entre les 2 approches et l’on devrait parler au niveau microscopique de particonde (en anglais certains auteurs parlent de warticle, contraction de wave et particle), c’est à dire d’un objet qui revêt une forme ondulatoire ou corpusculaire selon la façon dont on l’appréhende… Cette description échappe à notre compréhension habituelle du monde, bienvenu dans la science moderne du XXème siècle.

Un prix Nobel Français dans notre ordinateur !

Le Français Albert Fert et l’Allemand Peter Grünberg ont reçu le prix Nobel de physique 2007 pour leurs travaux sur la magnéto-résistance géante (GMR). Ces travaux datent de 1988 et leurs résultats sont utilisés dans les têtes de lecture des disques durs depuis 1997. Pour comprendre le lien entre la GMR et les têtes de lecture de nos disque durs, voyons comment fonctionne l’enregistrement magnétique d’un signal sur bande (cassette audio ou vidéo) ou disque dur.

Le principe de l’enregistrement magnétique est basé sur la capacité de certains matériaux à s’aimanter lorsqu’ils sont soumis à un champ magnétique (les matériaux ferromagnétiques). Ce type d’enregistrement fut découvert en 1898 par l’ingénieur Danois Valdemar Poulsen en déplaçant un aimant sur une lame de Fer.

Qu’est-ce qu’un champ magnétique ?

Le champ magnétique modifie le mouvement des charges qui sont déjà en mouvement (tandis que le champ électrique met les charges en mouvement). Il est créé par des charges en mouvement : lorsqu’un courant circule dans une bobine, il crée un champ magnétique.

Comment on enregistre des informations avec un champ magnétique ?

Pour enregistrer des informations sur une bande magnétique ou un disque dur on fait passer un petit courant électrique dans une bobine au-dessus d’un matériau particulier (ferromagnétique) qui est capable de se « magnétiser » lorsqu’il est soumis à un champ magnétique. A l’issu de ce processus, le matériau est constitué d’une série de petits aimants dirigés dans un sens ou un autre, c’est comme si l’on plaçait côte à côte des petits aimants présentant leur face Nord ou leurs face Sud.

L’information est donc enregistrée dans la matière sous la forme d’une succession de pôle Nord et Sud : N N S N S S S N N, etc. Dans le cas des bande magnétique (vidéocassette ou cassette audio), les petits aimants sont déposés en fine couche sur un support souple, pour les disque durs, ils sont déposés sur un disque.

Pour lire le support, il faut maintenant « lire » cette série. Pour cela, on déplace un petit fil au-dessus des »micro-aimants » : ceux-ci vont induire un courant électrique dans le fil. Les variation du courant nous indiquera la série enregistrée sur le support.

Pour augmenter la capacité d’enregistrement du support, il est nécessaire de diminuer la région magnétisée (afin de mettre plus de N ou S sur une même surface) mais cela pose des problèmes de lecture car plus la région magnétisée est petite plus le champ magnétique est petit donc difficile à détecter. C’est là qu’interviennent les travaux de notre nouveau prix Nobel. Dans les disques durs modernes, les têtes de lectures sont constituées d’un matériau dont la résistance électrique dépend du champ magnétique (ce sont les têtes de lecture magnétorésistives) : on ne mesure plus le courant électrique induit par le champ magnétique mais la modification de résistance électrique. Les travaux d’Albert Frey et son équipe ont permis de découvrir que dans des minces couches de matériaux ferromagnétiques alternées avec des matériaux non magnétiques (une sorte de micro sandwich) l’effet de magnétorésistance était très important d’où le terme de magnétorésistance géante (GMR). Cela permet de détecter des champs beaucoup plus faibles et d’augmenter la capacité de nos disques durs.

Pour mesurer l’importance de toutes ces découvertes sur notre quotidien, rappelons-nous que le premier ordinateur muni d’une mémoire de masse sur bande magnétique (l’équivalent d’un disque dur) était l’Univac 110. C’était un ordinateur de 11.5 m de long et 6 m de large qui utilisait des disques magnétiques de 21.6 cm tournant à 3500 tour/min et stockant l’équivalent de 48 ko. A l’heure actuelle le moindre ordinateur est livré avec un disque dur d’une centaine de Go soit 2 millions de fois plus d’information !

Pour aller plus loin :

A propos du prix nobel, 2 questions digne du trivial pursuit :

  • Qui a gagné le prix Nobel de mathématique 1965 ?
  • Qu’a inventé Alfred Nobel ?

J’attends vos réponses en commentaire.

Pourquoi le pain durcit alors que les biscuits ramollissent ?

Avez-vous déjà remarquer que le pain durcit alors que les biscuits ramollissent à l’air ? Etonnant, non ?

Si l’on fait une recherche sur google « pourquoi le pain est dur ? » on apprend que c’est parce qu’il se déshydrate.

De la même façon, si l’on recherche « pourquoi les biscuits ramollissent ? » on apprend que c’est parce que les biscuits captent l’humidité de l’air ambiant.

Donc le pain durcit parce qu’il s’assèche et les biscuits ramollissent parce qu’ils prennent l’humidité. Est-ce à dire que l’eau préfère les biscuits au pain ? Serait-ce parce que les molécules d’eau sont gourmandes ?

En fait, l’explication est un peu plus complexe qu’une bête histoire d’assèchement ou d’absorption d’eau car il faut tenir compte des liaisons hydrogène.

C’est quoi les laisons Hydrogène ?

Ce sont des liaisons qui interviennent entre 2 molécules. On dit qu’elles sont faibles car elles sont beaucoup plus facile à casser que les liaisons covalentes (celles qui lient les atomes entre eux dans les molécules). On les appelle liaisons hydrogène car elles s’établissent généralement entre un atome d’hydrogène et un autre atome. Il y en a beaucoup dans l’eau entre les atomes d’hydrogènes d’une molécule d’eau et les atomes d’oxygène d’une autre molécule d’eau (double trait entre les molécules dans le schéma ci-dessous). C’est d’ailleurs la raison pour laquelle l’eau solide est moins dense que l’eau liquide (les glaçons flottent) : à l’état solide, les molécules d’eau sont liées par des liaisons H et elles vont s’orienter les unes par rapport aux autres de sorte qu’elles prennent plus de place que si les liaisons n’existaient pas :

Ok, mais quel est le lien avec le pain dur ?

J’y viens… En vieillissant, l’eau contenue dans le pain a tendance à former des liaisons Hydrogène entre les molécules d’amidon qui constitue le pain. Ces ponts entre molécules rigidifient l’ensemble et le pain durcit ! Laissé à l’air libre, les molécules d’eau de l’air pénètrent dans le pain et rajoutent des ponts entre les molécules d’amidon : le pain durcit encore plus vite. Ceci explique pourquoi lorsqu’on congèle du pain frais, il retrouve toute sa fraicheur après chauffage : lorsqu’il est congelé, les molécules d’eau sont « fixées » et ne peuvent migrer dans le pain pour former des ponts entre les molécules d’amidon. De la même façon, lorsqu’on réchauffe du pain dur, il retrouve un peu de sa fraîcheur car le chauffage « casse » les ponts hydrogène entre les molécules d’amidon.

C’est donc bien le même processus qui est à l’oeuvre dans le durcissement du pain et le ramollissement des biscuits : l’absorption de l’humidité ambiante. C’est d’ailleurs la raison pour laquelle dans les deux cas, on conseille de les conserver dans une boite en fer qui les préserve de l’humidité.

La ola : une onde comme une autre

Qu’est-ce qu’une ola ?

La réponse dépend du point de vue. Pour un supporter « c’est trop délire, comme ça déchire », pour un biologiste, il s’agit d’un mouvement coordonné de mammifères, pour un sociologue, il s’agit d’un mouvement collectif permettant à des individus de signifier leur appartenance à un groupe social et pour le physicien, il s’agit d’une onde.

Rappelons la définition d’une onde selon le programme de sc. physique de Terminale S : « propagation sans transport de matière d’une perturbation dans un milieu initialement à l’équilibre« .

Dans une ola, il y a propagation d’une perturbation (les spectateurs qui se lèvent), sans transport de matière dans un milieu (la foule formée par les spectateurs) initialement à l’équilibre (les spectateurs assis, les bras le long du corps). On y retrouve donc tous les ingrédients d’une onde : une perturbation par rapport à un état d’équilibre et une tendance du milieu à revenir à son état d’équilibre (la ola est lancée lorsque les spectateurs sont au repos : essayez de lancer une ola lorsqu’un but est marqué et que tous les spectateurs sautent et lèvent les bras de manière désordonnée !).

Puisque la Ola est une onde, on peut donc la caractériser comme n’importe quelle onde. Le mouvement des spectateurs étant perpendiculaire au mouvement de propagation de la ola, l’onde est transversale. On peut également essayer de définir sa célérité.

Merci d'activer Javascript et Flash pour voir cette vidéo Flash.

Allons, vous plaisantez, tout cela n’est pas sérieux !

Si, si, tout cela est très sérieux et a même fait l’objet d’un article dans nature (La revue scientifique de référence) : Mexican Waves in an excitable medium. Dans cet article, on y apprend que la célérité de l’onde est de 12 m/s (20 sièges par secondes) et que la perturbation a une largeur de 6 à 12 m (correspondant à 15 sièges). Les auteurs de cet article propose même une simulation en ligne de leur modèle.

Alors, qui c’est qui vous fournit une bonne excuse pour regarder le prochain match de la coupe du monde de rugby ?

[edit 2013] Mais il n’y a pas que dans les stades qu’il y a des olas. Les pingouins empereur font la ola aussi. La preuve en image :

Image de prévisualisation YouTube

Et la ola des pingouins s’étudie comme n’importe quel phénomène physique :

Image de prévisualisation YouTube

Les grandeurs numériques en physique : notation scientifique et chiffres significatifs

C’est quoi cette histoire de chiffres machincatif ?
De toute façon moi j’y ai jamais rien compris !

Voici ce que j’entends dire ces derniers jours en classe. Reprenons donc les choses et voyons ce qu’il faut retenir :

En physique et en chimie, les grandeurs numériques sont des grandeurs réelles mesurées à l’aide d’instruments de mesure plus ou moins précis. Ainsi,

  1. bien que nous n’ayons que 10 doigts pour les compter, nous sommes amener à manier des chiffres très petits ou très grands (la taille d’un noyau est 10-15 m, la taille de l’univers visible est de l’ordre de 13 milliards d’année-lumière). Nous utilisons donc la notation scientifique pour exprimer les résultats : a.10n où 1?a<10.
    exemple : 0,00212=2,12.10-3 ou encore 123000000=1,23.108.
  2. Cette notation permet de déterminer facilement l’ordre de grandeur d’une valeur numérique, il suffit pour cela de remplacer le nombre devant la puissance de 10 par 1 s’il est inférieur à 5 et par 10 s’il est supérieur à 5.
    exemple : 3,454.104?1.104 et 6,432.10-7?10.10-7?10-6.
  3. Dans l’écriture en notation scientifique, il faut faire attention aux nombres de chiffres significatifs. J’ai déjà eu l’occasion d’en parler dans ce billet.
  4. Toute grandeur physique doit être exprimée avec une unité quand elle en a une.
    Imaginons que nous voulions écrire la largeur d’une feuille A4 : 21 cm cette valeur s’écrit également 0,21 m ou encore 210 mm. Ainsi 21 cm = 0,21 m = 210 mm. Ecrivons ces dernières égalités sans les unités : 21=0,21=210… pfff n’importe quoi !
    Bien sûr, on écrit pas les unités dans les calculs (Par exemple, si l’on veut calculer la surface d’une feuille A4, on n’écrit pas 21cm×29,7cm=623 cm² mais 21×29,7=623 cm²)

Pour s’entraîner de manière ludique, il existe quelques exercices en ligne :

Objectif : bac 2008

sentierEncore une nouvelle année qui commence ! Mais pour ceux qui entrent en terminale, cette année n’est pas tout à fait comme les autres. Il est difficile d’en prendre la mesure dans cette première semaine de rentrée mais d’ores et déjà, l’objectif est de réussir le bac 2008. Le but semble encore loin mais, il est préférable d’y penser dès maintenant. On voit souvent sur les forums, des élèves qui s’interrogent sur le « bon » moment pour se mettre au travail et attaquer les révisions et immanquablement la réponse des enseignants est dès le mois de septembre.

Qu’on se le dise : le bac ça se prépare dès maintenant.

Durant cette année, il y aura 2 phases :

  1. la phase de découverte, compréhension, intégration du cours
  2. la phase de révision

La première phase est la plus longue puisqu’elle s’étend de Septembre à Juin mais elle est la clé de réussite de la seconde phase. Avez-vous déjà repeint une pièce ? On passe une première couche puis une deuxième avant d’attaquer les finitions. La première couche n’est pas parfaite mais elle couvre l’ensemble de la surface à peindre. Ainsi, durant toute l’année, il faut s’efforcer de bien comprendre l’ensemble, de ne pas laisser de zones d’ombres, de bien saisir ce qu’on attend de vous. Par contre, il ne sert à rien dans un premier temps de chercher à tout comprendre jusque dans les moindres détails. Il faut accepter parfois de comprendre partiellement. Les choses peuvent se mettre en place progressivement et il est bon parfois de revenir sur un point qui a posé problème un peu plus tard. Comme en peinture : la première couche a parfois des zones moins blanches que d’autres, mais on verra ça plus tard.

Que faut-il travailler dans la première phase ?

Les connaissances et savoir-faire exigibles du programmes. On les trouve dans les premières parties des manuels ou directement dans le programme lui-même : à télécharger sur le site du ministère de l’éducation nationale.

Ce qui va nous intéresser plus particulièrement est dans les tableaux que propose ce programme :

extrait programme physique-chimie

La dernière colonne expose ce sur quoi vous allez être interrogé pour obtenir le bac. Ce sont ces points qui doivent être travaillés tout au long de l’année. A l’issu de chaque cours, il est bon de voir quels sont les points que votre prof a abordé et de remplir des fiches explicitant ces points. Par exemple, ci-dessus on lit « définir une onde mécanique et sa célérité ». Dès que vous repérez dans le cours la définition d’une onde mécanique, recopiez-là sur une fiche « Ondes mécaniques progressives ».

Ainsi, à la fin de l’année, vous vous retrouverez à la tête d’une collection de fiches présentant tout ce que vous devez savoir pour réussir votre épreuve de bac. Vous serez donc familiarisé avec toutes ces notions et les connaitrez probablement déjà sur le bout des doigts puisque ces notions auront été travaillées lors de la création de la fiche, lors de la préparation des devoirs et lors du (des) bac(s) blanc(s).

Je vous déconseille d’acheter des fiches toutes faîtes comme on en trouve parfois dans le commerce : la création de la fiche fait partie du processus d’apprentissage. N’hésitez pas à utiliser des codes de couleurs, à varier la typo pour distinguer les titres du contenu à retenir.

correction exercice de spécialité – épreuve de physique-chimie bac 2007

Et voici, toujours sauf erreur de ma part, la correction de l’exercice de spécialité (dont on trouvera l’énoncé en suivant ce lien) :

1.1.
1 : une éprouvette graduée
2 : un chauffage à reflux
3 : un système de filtration sous vide (büchner)
1.2.
A : Réfrigérant à boule
B : Ballon bicol
C : Chauffe-ballon
1.3. Le solide obtenu (tube 2) contient la même expèce chimique que celles introduites dans le tube 3 (acide benzoïque pur : produit de la sytnhèse) et aucune espèce chimique du tube 1 (alccol benzylique : réactif de la synthèse). On en déduit que le produit de la synthèse est bien l’acide benzoïque et qu’il ne reste aucun résidu de réactifs.

2.1. Pour le premier couple, les deux équations a) et b) sont équilibrées. La première correspond à une oxydation en milieu basique de l’alcool benzylique, ce qui correspond aux conditions expérimentales proposées par l’énoncé. C’est donc la demi-équation à retenir.
Pour le second couple, l’équation c) est à écartée car elle correspond au couple MnO4-/Mn2+ et ici, il s’agit du couple MnO4-/MnO2.
Les deux équations d) et e) pourraient convenir. La première correspond à un milieu basique et la seconde à un milieu acide. Il faut donc choisir la première.
Le choix est donc a) et d).
2.2. on a prélevé 2,O mL d’alcool benzylique, soit n1 = rho1.V/M1 = 1,0×2,0/108 = 1,9×10-2 mol -> solution a)
2.3. A l’issue d’un tableau d’avancement, comme n1/3 = 6,3×10-3 et n2/4 = 3,0×10-2/4 = 7,5×10-3 > n1/3 on trouve que les ions permanganates sont en excès -> solution a)
2.4. Si tout l’alcool benzylique avait réagit, on aurait pu obtenir n1 = 1,9×10-2 mol d’ions benzoate (même coefficients stoechiométriques dans l’équation d’oxydation de l’alcool). Après cristallisation, on aurait donc pu obtenir n1 = 1,9×10-2 mol d’acide benzoïque. Soit m2 = n2.M2 = 1,9×10-2 x 122 = 2,3 g -> solution c)
2.5. la masse d’acide benzoïque est égale à m’-m = 141,8 – 140,4 = 1,4 g
r = masse réelle obtenue / masse théorique = 1,4/2,3 = 0,61 -> solution b) 61 %

Correction épreuve de physique du BAC S 2007

Sauf erreur de ma part, voici la correction de l’épreuve 2007 du Bac en physique (dont on trouvera un énoncé à cette adresse). Ce sujet a du donner des sueurs à bon nombre d’entre vous : un sujet comportant de nombreuses parties indépendantes, touchant à de nombreuses parties du programme (et pas les plus classiques), le tout sans calculatrice !

Dans cette correction 10^n = 10n

Exercice I

1. 3ème loi de Newton (loi des actions réciproques) : le boulet exerce sur le système {Galiote+Gaz+Canon} une force opposée à la force qu’il subit de la part de ce système. C’est la « Réaction considérable du boulet » évoqué dans le sujet.

2.1.1. Fa = rho.V.g = 1,3.16.10^-3.10 = 2,1.10^-1 N (poussée d’archimède exercée par l’air sur le boulet)

2.1.2. P = m.g = 100.10 = 10^3 N

2.1.3. P/Fa = 10^3/2,1.10^-1 ~ 5.10^3 >>100 donc Fa est négligeable devant P.

2.1.4. Sur le boulet s’exercent : le poids, la poussée d’archimède et les forces de frottements. Ces deux dernières forces sont négligeable selon la remarque de l’énoncé et la question 2.1.3. Le boulet est donc soumis seulement au poids : il s’agit d’une chute libre.

2.2.1. En appliquant la seconde loi de Newton et en tenant compte du résultat du 2.1.4., onarrive à a=g
ce qui se traduit par d²x/dt²=0 et d²y/dt²=-g
Soit, dx/dt = Vox et dy/dt = -g.t + Voy
Soit, x = Vox.t+xo et y = -1/2.g.t² + Voy.t + yo
Les conditions initiales sont (xo,yo)=(0,0) et (Vox,Voy)=(Vo.cos(alpha), Vo sin(alpha))
Donc x = Vo.cos(alpha).t et y = -1/2.g.t² + Vo.sin(alpha).t

2.2.2. selon l’expression de x, t=x/Vo.cos(alpha)
d’où y=-1/2.g.(x/Vo.cos(alpha))² + Vo.sin(alpha).x/Vo.cos(alpha)
ce qui donne y=x.(A.x+B) où :
A=-g/(2.Vo².cos²(alpha)) et B=tan(alpha)
Pour les unités, il faut utiliser [g]=m/s² et [Vo]=m/s, tous les autres termes étant sans unités, on obtient :
[A]=(m/s²)/(m/s)²=1/m et [B]=1 (sans unité)

2.3.1. O et M vérifient y=0 => x.(A.x+B)=0 => x=0 (solution O) ou A.x+B=0 (solution M)
La première solution correspond à O, la seconde à M, d’où l’on déduit que A.d+B=0 (puisque pour M, x=d) :
d=-B/A
Rq: si l’on utilise les expressions du 2.2.2., on obtient d=-tan(alpha)/[-g/(2.Vo².cos²(alpha))]=2.Vo².cos(alpha).sin(alpha)/g=Vo²sin(2alpha)/g (avec un peu de trigonométrie) ce qui est l’expression proposée dans l’énoncé.

2.3.2. d = Vo²sin(2alpha)/g est maximale pour sin(2 alpha)=1 <=> 2 alpha=90 <=> alpha=45°

2.3.3. d = 2400 m lorsque Vo²/g=2400 => Vo² = 2400.g = 24000 = 2,4.10^4 => Vo=sqrt(2,4).100=1,5.10^2 m/s

2.3.4. Si l’on prend en compte les forces de frottements, le boulet est ralenti durant « le vol » et à vitesse initiale égale, il va atterrir moins loin => il faut donc augmenter la vitesse initiale pour conserver la portée maximale avec un angle de 45°.

3.1. A l’anode se produit une oxydation

3.2. 2 Cl-(aq) = Cl2 (g) + 2 e-
Des électrons sont produits, il sont attirés par la borne du générateur qui est donc positive.

3.3.1. I = ?Q/?t et ?Q = N.e donc N = I.?t/e
D’autre part n=N/Na donc n=I.?t/(Na.e)

3.3.2. Pour 1 mole de H2 dégagée, 2 moles d’électrons sont échangées entre les 2 électrodes.
Ainsi, n(H2)=1/2 n(e-)
Or I = DQ/Dt = N.e/Dt => n(e-) = N/Na = I.Dt/Na.e d’où l’expression de l’énoncé : n(H2) = I.Dt/(2.e.Na)

3.3.3. n(H2) = 1x530x3600 / (2×1,6.10^-19×6,0.10^23) = 5,3×3,6×10^5 / (2×1,6x6x10^4) = 19×10/19 = 10 mol

3.3.4. V = n.Vm = 10×24 = 240 L

Exercice II

A.Partition lunaire

1.1. Onde mécanique progressive : phénomène de propagation d’une perturbation d’un milieu matériel sans transport de matière.

1.2. Onde transerversale : onde mécanique progressive pour laquelle la perturbation est transversale à la direction de propagation.

1.3. Le texte qualifie les ondes crées lors de l’eclipse d’ondes transversales, or les ondes sonores sont des ondes de compression de l’air, longitudinales, les ondes évoquées dans le texte ne peuvent donc pas être sonores.

2.1. f = 1/T = 1/(10×60) = 1/6.10^-2 = 1,7.10^-3 Hz << 20 Hz

2.2. c = lambda/T => lambda = c.T = 100.10^3/3600.10.60 = 1,7.10^4 m = 17 km
Pour que des ondes soient diffractées, il faut que la taille caractéristique de l’obstacle, a, soit telle que lambda/a < 1. Cette condition est vérifiée ici, des montagnes séparées par une distance de 10 km peuvent donc diffracter ces ondes.

B. Découverte historique d’un nouvel élément chimique

1.1. Il fallait faire un schéma de ce type.
1.2. E = h.nu où nu est la fréquence de la radiation lumineuse. Comme c=lambda.nu => nu=c/lambda
d’où E = h.c/lambda

1.3.1. E = 6,626×10^-34 x 2,998×10^8 / 589,0×10^-9 en J
E = 6,626×10^-34 x 2,998×10^8 / (589,0×10^-9 x 1,602×10^-19) en eV
E = 2,105 eV

1.3.2. On remarque que -3,034 – (-5,139) = 2,105 eV
La raie D du sodium correspond donc à la transition entre l’état E1 et l’état E0.

1.4. Si lon ajoute 2,110 à -5,139 on arrive à -3,029 qui ne correspond à aucun état de l’atome de Sodium. De la même façon, si on ajoute 2,110 à -3,034 on arrive à -0,924 qui ne correspond à acun état excité de l’atome de Sodium. Il en va de même avec tous les états de l’atome de Sodium. Cette transition n’est donc pas une transition de l’atome de sodium.

2.1. Il s’agit de réaction de fusion.

2.2. Les deux isotopes sont 3He et 4He car ces noyaux ont le même nombre de protons mais un nombre différent de neutrons.

2.3. Selon les lois de conservations des réactions nucléaires (conservation des nombres de masse et de charge) :
3+x = 4 + y
2+2 = 2 + y
d’où
y = 2 et x = 3

2.4.1. Les propriétés des configurations électroniques dépendent du nombre d’électrons du nuage d’électron donc du nombre de protons qui le caractérise mais pas du nombre de neutrons. Ces deux types d’atomes possèdent donc la même configuration électronique puisque ce sont des isotopes.

2.4.2. Ils ne peuvent donc pas être distingués expérimentalement à l’aide d’un spectre.

Exercice III

Affirmation 1 : VRAI
le flacon de méthanol comporte le pictogramme « Toxique », il doit donc impérativement être manipulé sous la hotte.

Affirmation 2 : FAUX
Ce schéma correspond à une distillation. Un montage de chauffage à reflux est surmonté d’une colonne à bulle ouverte à son extrémité.
Schéma du chauffage à reflux :

Affirmation 3 : FAUX
Le protocole expérimental précise « un volume V2 d’environ 20 mL », il n’est donc pas nécessaire d’utiliser une pipette jaugée. Une simple éprouvette graduée suffit.

Affirmation 4 : VRAI
n1 = m1/M1 = 27,6/138 = 2,76.10/1,38.10² = 2,00.10^-1 mol

Affirmation 5 : FAUX
n2 = rho2.V/M2 = 0,8.20/32 = 16/32 = 1/2 mol

Affirmation 6 : FAUX
D’une façon générale, la réaction de synthèse d’une ester s’écrit :
R-COOH + R’-OH -> R-COO-R’ + H20
Donc ici,
HO-C6H6-COOH + CH3-OH -> HO-C6H6-COOCH3 +H2O

Affirmation 7 : VRAI
Les coefficients steochiométriques sont égaux à 1 et on a introduit 0,5 mol de méthanol pour 0,2 mol d’acide salicylique. Le méthanol est donc en excès.

Affirmation 8 : FAUX
Le cyclohexane a une masse volumique de 0,78 g/mL < 1 g/mL (celle de l’eau).
La phase inférieure est donc l’eau, la phase supérieure est la phase organique.

Affirmation 9 : VRAI
L’hydrogénocarbonate de sodium NaHCO3 contient les ions HCO3- qui sont la forme basique du couple
(H20,CO2)/HCO3-
Les acides AH de la phases organiques réagissent donc avec les ions HCO3- pour former CO2 et A-

Affirmation 10 : FAUX
Le méthanol dont la témpérature d’ébullition est de 65°C sortira avant l’ester (température d’ébullition de 223°C)

Affirmation 11 : FAUX
on récupère n3 = m3/M3 = 21/152 = 2,1.10/1,52.100 = 0,14 mol
Si la réaction était totale, on aurait obtenue 0,2 mol d’ester, le rendement est donc de 0,14/0,2 = 1,4/2 = 0,7 > 0,5
Le rendement est supérieur à 50 %

Affirmation 12 : FAUX
L’acide sulfurique est un catalyseur il augmente la vitesse de réaction sans modifier l’état d’équilibre.

Affirmation 13 : VRAI
L’excès de réactif déplace l’équilibre de sorte à consommer le réactif en excès : le rendement de la réaction a donc été augmenté.