La surface terrestre requise pour alimenter le monde

Quelle source d’énergie pour alimenter le monde ?

Surface requise pour alimenter le monde avec des panneaux solaires
Surface requise pour alimenter le monde avec des panneaux solaires

Du point de vue de la physique, toute action se décrit en terme de transfert d’énergie. Pour rouler, une voiture brule de l’essence : il s’agit d’une réaction chimique qui convertit de l’énergie potentielle chimique en énergie cinétique. De la même façon, une centrale électrique convertit de l’énergie primaire (hydraulique pour un barrage, chimique pour du charbon, nucléaire pour une centrale nucléaire) en énergie électrique.

L’activité du monde économique est basée sur cette conversion d’énergie primaire en une autre forme d’énergie. Une énergie primaire est une énergie naturellement accessible. Il n’y en a pas tant que ça :

  • Energie hydraulique : l’énergie des cours d’eau, des marées
  • Energie éolienne : l’énergie cinétique du vent
  • Energie chimique : l’énergie potentiellement libérable du charbon, du pétrole
  • Energie solaire : l’énergie lumineuse reçue du soleil
  • Energie nucléaire : l’énergie de cohésion des noyaux nucléaires

Les 3 premières sont en fait des « filles » de l’énergie solaire. Récupérer les énergies hydrauliques et éoliennes revient à prélever une infime partie des énergies mise en oeuvre dans la machinerie climatique de la terre. L’énergie chimique fossilisée est issue d’organismes vivants, or tous les organismes vivants puisent leur énergie du soleil : les plantes transforment l’énergie solaire en énergie chimique, les animaux mangent les plantes et profitent de cette énergie chimique.

L’économie actuelle est essentiellement basée sur l’énergie chimique, une source d’énergie épuisable qui en plus modifie l’équilibre physico-chimique du climat. La question des énergies renouvelables est celle de la recherche d’une source d’énergie primaire économiquement rentable et écologiquement acceptable. Le solaire est certainement le meilleur candidat. En témoigne la carte présentée qui montre une estimation de la surface de panneaux solaires nécessaire pour alimenter le monde.

Quel carburant pour la voiture du futur ?

Actuellement, nos voitures fonctionnent en effectuant une réaction d’oxydation des hydrocarbures présents dans l’essence :

Hydrocarbure + O2 ? CO2 + H2O

L’énergie libérée est le fruit des propriétés oxydantes de l’atmosphère et de l’énergie chimique emmagasinée dans les hydrocarbures. L’essence ordinaire est extraordinairement énergétique : 1 g d’essence libère 15 fois plus d’énergie qu’1 g d’explosif ! De plus cette énergie est contrôlable : contrairement aux explosifs, toute l’énergie n’est pas libérée instantanément.

Le problème avec ce mode de fonctionnement, c’est que d’une part, la réserve de pétrole n’est pas inépuisable et d’autre part, cela relâche du dioxyde de carbone (CO2) dans l’atmosphère ce qui contribue au réchauffement climatique.

Les biocarburants: une solution durable ?

La première idée qui vient à l’esprit c’est de remplacer l’essence par un carburant tout aussi énergétique mais renouvelable. Ainsi, certains constructeurs ont mis au point des voitures qui roulent au bioéthanol. Ce carburant est d’origine agricole. C’est à dire qu’on le produit à partir de colza ou d’autres huiles végétales.

Fondamentalement, cette idée est basée sur le même principe que l’essence : les organismes vivants synthétise des molécules susceptibles de libérer de l’énergie lors de l’oxydation par l’atmosphère. Pour l’essence, ces molécules ont été synthétisées il y a plusieurs millions d’années et sont en quantité limitée, pour les biocarburants ces molécules sont synthétisée chaque année et sont potentiellement infiniment renouvelable. La combustion des biocarburants produit aussi du CO2 mais celui-ci sera consommé par les champs servant à produire les biocarburants : le bilan est donc nul.

Bien sûr il y a un hic : jusqu’ici, l’agriculture était destinée à la nourriture. C’est donc une nouvelle utilisation de l’agriculture : manger ou conduire, il faut choisir ! La superficie des terres agricoles étant limitée, il faut augmenter les rendements de l’agriculture. Or cette augmentation des rendements a un coût énergétique : il faut consommer plus d’énergie pour produire plus (utilisation d’engrais, de tracteurs, etc.). Ainsi, produire des biocarburants consomme du pétrole et au final, il y a toujours relargage de CO2 par le pétrole.

et la voiture électrique ?

Puisque le carburant pose problème, utilisons des voitures électriques ! En effet, les moteurs électriques peuvent se montrer très performant et ne sont pas polluant. La production d’électricité est plus ou moins polluante mais on peut imaginer que des solutions durables respectueuses pour l’environnement vont être de plus en plus adoptées.

Seul petit problème technique : l’électricité ne se stocke pas en tant que tel. Il y a donc 2 solutions : soit la voiture fonctionne sur batterie (le stockage d’énergie est chimique) qui sont rechargées pendant la nuit, soit l’électricité est produite directement par la voiture.

La première solution présente de nombreux inconvénients : il faut garer sa voiture proche d’une prise électrique, les batteries sont encombrantes, chères, polluantes et doivent être changées régulièrement. La seconde solution parait donc plus adaptée à l’usage habituel que nous avons de la voiture mais comment produire de l’électricité directement dans la voiture ?

L’idée qui vient immédiatement à l’esprit est l’utilisation de panneaux solaires. En effet, l’énergie solaire est gratuite, directement accessible et éternellement renouvelable (tout du moins pour les 4 milliards d’années à venir). Encore une fois, il y a un hic : la terre reçoit du soleil environ 1000 Watt par m2 (1 kW/m2). Ainsi, il faut présenter une grande surface de panneau solaire pour faire avancer une voiture (voir l’image ci-contre). Une petite voiture développe environ 100 chevaux ce qui correspond à 100 kW. Il faudrait donc 100 m2 de panneaux solaires pour avoir la même puissance : il va falloir revoir la taille de nos routes !

Une solution qui parait plus adaptée pour produire de l’électricité à l’échelle d’une voiture est l’utilisation de l’hydrogène.

L’hydrogène : la solution à tous nos problèmes énergétiques ?

Le dihydrogène (H2) réagit très violemment avec le dioxygène de l’air pour former de l’eau :

2H2+O2 ? H2O

Cette réaction produit beaucoup d’énergie sans émission polluante. Cette énergie est parfaitement maitrisable dans une pile à combustible mais elle est plus difficile à maitriser en faisant le plein d’une voiture, par exemple. C’est l’un des nombreux problèmes avec une voiture à hydrogène : le plein doit se faire de sorte à ce que le dihydrogène ne soit jamais en contact avec l’air, sinon, c’est l’explosion assurée !

Pour mesurer, cette réactivité, on peut la comparer à l’essence : 1 g de dihydrogène est 2,5 fois plus énergétique qu’1 g d’essence. Avec un plein de 40 L d’essence, on peut faire environ 500 km. Cela correspond à 30 kg d’essence. Avec 30 kg d’hydrogène, on pourrait donc faire 1250 km ! Seulement, l’hydrogène n’est pas un liquide mais un gaz et 30 kg d’hydrogène occupe un très grand volume. Il est donc nécessaire de liquéfié l’hydrogène pour l’utiliser. C’est un autre problème avec l’hydrogène : on perd de l’énergie simplement à liquifier le gaz. Un autre problème est sa très faible densité, même lorsqu’il est liquide : sa densité est de 0,071g/cm3. Ainsi, 30 kg d’hydrogène ont un volume de plus de 400 L ! Encore une fois, il va falloir revoir la taille de nos voitures.

Mais le principal problème du dihydrogène est ailleurs : il n’existe pas à l’état naturel. Il faut le fabriquer. Comment ? C’est extrêmement simple, il suffit de faire la réaction inverse de celle qui a été notée plus haut :

2H2+O2 ? H2O

Si la première réaction produisait de l’énergie, celle-ci en consomme. Ainsi, toute l’énergie contenue dans l’hydrogène provient d’ailleurs : l’hydrogène n’est pas une source d’énergie, c’est juste un vecteur d’énergie. Si nos voitures devaient fonctionner à l’hydrogène, il faudrait trouver une autre source d’énergie qui permette de produire de l’hydrogène. Cela pourrait être des centrales électriques solaires (s’il n’était pas envisageable de fabriquer des voitures occupant une centaine de m2, il est parfaitement envisageable de faire des centrales électriques solaire de plusieurs hectares). Et l’économie du futur commence à se dessiner :

Des centrales solaires qui convertissent l’énergie solaire en énergie électrique. Celle-ci est utilisée pour produire du dihydrogène qui serait le carburant des transports en commun (du fait de sa faible densité, il faut prévoir de gros réservoirs de dihydrogène donc de gros véhicules). Il y a pour l’instant encore de nombreux obstacles à la réalisation de cette solution : rendement des panneaux solaires encore trop faibles, dangerosité du dihydrogène (stations services explosives, réservoirs qui pourraient exploser en cas d’accident), etc. mais la BMW Hydrogen 7 de série, qui sera commercialisé à partir de 2020 (voir sa fiche sur viamichelin) apparait comme l’une des premières briques de ce futur.

La nature de la lumière

A propos de la nature de la lumière, on entend tout et son contraire. Elle est parfois décrite comme une onde et parfois comme un courant de grain de lumière (les photons). Quelle description est la bonne ? Qui a raison ? Qui a tort ?

Cette question est cruciale dans tous les systèmes de pensées scientifique puisqu’elle permet de comprendre la façon dont on appréhende le monde. Ainsi, pour les atomistes grecs les objets émettaient des particules reproduisant la forme des objets de manière réduite dans notre oeil. Pour Euclide et les pythagoriciens, c’est notre oeil qui émet un « quid » et permet la vision. Cette description sera réfutée par Aristote car alors nous pourrions voir les objets la nuit, même en l’absence de lumière. Cependant, c’est du côté de l’Egypte que l’optique géométrique a été minutieusement étudiée avec les travaux d’Alhazen (Ibn Al-Haytham). Dans son livre « Les trésors de l’optique » (écrit entre 1015 et 1021, traduit en latin en 1572), il décrit la lumière de manière mécaniste, comme un flux de sphères pesantes, émis de sources ponctuelles en des rayons rectilignes, susceptibles d’être réfléchies, réfractées et perçues par l’oeil. Son livre traite également des lentilles (incluant l’oeil), des miroirs plans et curviligne, des couleurs et de la camera obscura (Une boîte noire percée d’un trou : le principe de la chambre noire). Son approche expérimentale et mathématique restera inégalé pendant 500 ans.

Le XVIIème siècle verra se développer une description minutieuse de ce que l’on appelle actuellement l’optique géométrique (avec les travaux de Képler, Galilée, Bacon et Descartes). En 1665, Francesco Maria Grimaldi décrit le phénomène de diffraction, de sorte qu’à la fin de ce siècle 2 modèles de la lumière se dispute le haut du pavé : le modèle corpusculaire de Newton et le modèle ondulatoire de Huygens.

Selon Newton, la lumière est constituée de corpuscules soumis à l’action des forces. Cela permet d’expliquer le comportement de la lumière comme on l’observe en optique géométrique : réfraction (changement de direction de la lumière lors de la traversée des milieux transparents), réflexion (comme pour un miroir) et modification du trajet de la lumière par les lentilles. En observant le phénomène de dispersion par un prisme (tel qu’il est étudié en classe de 2de), il en déduit que ces corpuscules sont de différents types, correspondant aux différentes couleurs perçues par l’oeil.

De son côté, Huygens, réfute ces idées en invoquant le fait que 2 pinceaux de lumière se croisant ne sont pas déviés. Il propose un modèle ondulatoire en 1678 dans lequel la lumière serait une perturbation d’un milieu, comme le son ou les vagues. Le milieu de propagation de la lumière est appelé Ether. En postulant le ralentissement de la lumière dans les milieux transparents, il propose même un modèle pour expliquer les phénomènes de réfraction et réflexion.

Ces deux modèles sont convaincants, bien que contradictoires, et permettent d’expliquer les observations de l’optique géométrique. Cependant, ils divergent sur la façon dont la lumière interagit avec la matière : pour Newton, la lumière va plus vite dans un milieu de fort indice, tandis que pour Huygens, c’est l’inverse. Avec les moyens expérimentaux de l’époque, il était impossible de déterminer quel modèle avait raison ou non. Il fallut attendre les expériences de Foucault (1850) et Fizeau (1851) pour déterminer la vitesse de la lumière dans l’eau qui donnèrent raison au modèle de Huygens.

Ainsi, à partir du milieu du XIXème siècle, les scientifiques furent convaincus que la lumière était une onde. Il restait à déterminer dans les propriétés du milieu dans lequel se propageait cette onde (voir l’article sur la ola) : l’éther. C’est dans cette optique que Michelson et Morlay (en 1887) proposèrent une expérience qui est devenu maintenant un classique des classes prépa. Le lien avec l’éther est relativement simple : si la lumière se propage dans un milieu nommé éther, alors la terre se déplace dans ce milieu à la vitesse de 30 km/s lors de son périple autour du soleil. Dans ces conditions, selon la loi d’additivité des vitesses, la vitesse de la lumière ne devrait pas être la même dans toutes les directions sur terre. L’expérience de Michelson et Morlay permit une mesure très précise de la différence de vitesse de la lumière dans deux directions perpendiculaires : ils découvrirent qu’il n’y en avait pas ! La vitesse de la lumière est la même dans toute les directions (idée à la base de la théorie de la relativité restreinte d’Einstein), ce qui est en contradiction avec l’idée d’un milieu de propagation de la lumière. La lumière est donc bel et bien une onde mais non matérielle, qui correspond à une perturbation du vide lui-même !

Il peut sembler paradoxale d’imaginer une perturbation du vide. Cela serait impossible dans le vide absolu. Mais quand on parle de vide, on parle en fait de vide de matière, pas d’énergie. Dans un vide de matière, on peut trouver de l’énergie sous forme de champ électromagnétique.Modèle de propagation des champs électriques et magnétiques C’est ce que découvrirent les scientifiques de la fin du XIXème siècle (avec les travaux expérimentaux de Faraday) et Maxwell (en 1864) fournit une description théorique très détaillée des phénomènes électromagnétiques permettant de rendre compte à la fois des phénomènes électriques, magnétiques et de la propagation de la lumière.

Cette fin du XIXème siècle constitue véritablement une forme d’apogée pour les sciences physiques puisqu’elles permettaient d’expliquer la plupart des expériences observées à l’époque. On raconte qu’on déconseillait aux élèves brillants de cette époque de s’engager en sciences physique car on croyait alors que tout était découvert et qu’il n’y avait plus qu’à résoudre quelques problèmes techniques.

Parmi les mystères de la fin du XIXème perdurait celui du rayonnement du corps noir : un corps chaud émet une lumière. Cette lumière est le fruit de l’interaction entre la matière et la lumière. A l’aide des modèles statistiques de la fin du XIXème siècle, on peut expliquer ce rayonnement mais on aboutit à ce qui fut appeler « la catastrophe ultraviolette ». En effet, les modèles de l’époque prévoyait un rayonnement infini dans le domaine de l’ultraviolet et des rayons X lorsqu’un corps est chauffé, en complète contradiction avec les résultats expérimentaux. Pour expliquer cela, Max Planck proposa en 1900 de quantifier l’interaction entre la matière et la lumière : les atomes échangeraient des « quantas » d’énergie avec l’onde lumineuse. Sa proposition est « ad hoc« , c’est à dire qu’elle permet de résoudre le problème de la catastrophe ultraviolette mais Planck n’explique pas l’origine de cette quantification.

En 1905, Einstein, dans un article devenu un classique de l’histoire de la physique (voir cet article issu du them@Doc « 1905, les trois percées d’Einstein »), suggéra que c’était la lumière elle-même qui était constitué de « quanta« . Il propose de décrire la lumière comme constituée de petits grains de lumière : les photons. Cela permet d’expliquer à la fois le rayonnement des corps chaud, l’électroluminescence (le fait qu’un corps éclairé avec une lumière d’une certaine couleur peut émettre une autre couleur, comme par exemple un tee-shirt blanc sous une lampe UV) et l’effet photoélectrique (le fait que la lumière peut induire un courant électrique dans un circuit, effet utilisé dans certaines alarmes qui se déclenche lorsqu’on coupe un faisceau de lumière) : 3 phénomènes que la description de Maxwell échoue à expliquer. Est-ce à dire que toute la physique du XIXème siècle s’était fourvoyé en rejetant le modèle de Newton ? L’affaire n’est pas aussi simple car en fait pour rendre compte de l’ensemble des expériences que l’on peut faire avec la lumière, il faut considérer qu’elle est à la fois onde et corpuscule. C’est ce qu’on appelle la double nature de la lumière. Elle est onde si l’on considère les expériences de diffraction et elle est corpuscule si l’on considère le rayonnement du corps noir et les phénomènes cités ci-dessus.

En réalité, et c’est là toute la subtilité de la mécanique quantique, il n’est pas possible de trancher entre les 2 approches et l’on devrait parler au niveau microscopique de particonde (en anglais certains auteurs parlent de warticle, contraction de wave et particle), c’est à dire d’un objet qui revêt une forme ondulatoire ou corpusculaire selon la façon dont on l’appréhende… Cette description échappe à notre compréhension habituelle du monde, bienvenu dans la science moderne du XXème siècle.

Un prix Nobel Français dans notre ordinateur !

Le Français Albert Fert et l’Allemand Peter Grünberg ont reçu le prix Nobel de physique 2007 pour leurs travaux sur la magnéto-résistance géante (GMR). Ces travaux datent de 1988 et leurs résultats sont utilisés dans les têtes de lecture des disques durs depuis 1997. Pour comprendre le lien entre la GMR et les têtes de lecture de nos disque durs, voyons comment fonctionne l’enregistrement magnétique d’un signal sur bande (cassette audio ou vidéo) ou disque dur.

Le principe de l’enregistrement magnétique est basé sur la capacité de certains matériaux à s’aimanter lorsqu’ils sont soumis à un champ magnétique (les matériaux ferromagnétiques). Ce type d’enregistrement fut découvert en 1898 par l’ingénieur Danois Valdemar Poulsen en déplaçant un aimant sur une lame de Fer.

Qu’est-ce qu’un champ magnétique ?

Le champ magnétique modifie le mouvement des charges qui sont déjà en mouvement (tandis que le champ électrique met les charges en mouvement). Il est créé par des charges en mouvement : lorsqu’un courant circule dans une bobine, il crée un champ magnétique.

Comment on enregistre des informations avec un champ magnétique ?

Pour enregistrer des informations sur une bande magnétique ou un disque dur on fait passer un petit courant électrique dans une bobine au-dessus d’un matériau particulier (ferromagnétique) qui est capable de se « magnétiser » lorsqu’il est soumis à un champ magnétique. A l’issu de ce processus, le matériau est constitué d’une série de petits aimants dirigés dans un sens ou un autre, c’est comme si l’on plaçait côte à côte des petits aimants présentant leur face Nord ou leurs face Sud.

L’information est donc enregistrée dans la matière sous la forme d’une succession de pôle Nord et Sud : N N S N S S S N N, etc. Dans le cas des bande magnétique (vidéocassette ou cassette audio), les petits aimants sont déposés en fine couche sur un support souple, pour les disque durs, ils sont déposés sur un disque.

Pour lire le support, il faut maintenant « lire » cette série. Pour cela, on déplace un petit fil au-dessus des »micro-aimants » : ceux-ci vont induire un courant électrique dans le fil. Les variation du courant nous indiquera la série enregistrée sur le support.

Pour augmenter la capacité d’enregistrement du support, il est nécessaire de diminuer la région magnétisée (afin de mettre plus de N ou S sur une même surface) mais cela pose des problèmes de lecture car plus la région magnétisée est petite plus le champ magnétique est petit donc difficile à détecter. C’est là qu’interviennent les travaux de notre nouveau prix Nobel. Dans les disques durs modernes, les têtes de lectures sont constituées d’un matériau dont la résistance électrique dépend du champ magnétique (ce sont les têtes de lecture magnétorésistives) : on ne mesure plus le courant électrique induit par le champ magnétique mais la modification de résistance électrique. Les travaux d’Albert Frey et son équipe ont permis de découvrir que dans des minces couches de matériaux ferromagnétiques alternées avec des matériaux non magnétiques (une sorte de micro sandwich) l’effet de magnétorésistance était très important d’où le terme de magnétorésistance géante (GMR). Cela permet de détecter des champs beaucoup plus faibles et d’augmenter la capacité de nos disques durs.

Pour mesurer l’importance de toutes ces découvertes sur notre quotidien, rappelons-nous que le premier ordinateur muni d’une mémoire de masse sur bande magnétique (l’équivalent d’un disque dur) était l’Univac 110. C’était un ordinateur de 11.5 m de long et 6 m de large qui utilisait des disques magnétiques de 21.6 cm tournant à 3500 tour/min et stockant l’équivalent de 48 ko. A l’heure actuelle le moindre ordinateur est livré avec un disque dur d’une centaine de Go soit 2 millions de fois plus d’information !

Pour aller plus loin :

A propos du prix nobel, 2 questions digne du trivial pursuit :

  • Qui a gagné le prix Nobel de mathématique 1965 ?
  • Qu’a inventé Alfred Nobel ?

J’attends vos réponses en commentaire.

Retour sur la 1S pour le bac (III): La nomenclature de chimie organique

chimieUn petit point sur la nomenclature de chimie organique. Bien sûr, vous ne pouvez pas être interrogé sur ce point pour le bac (c’est une compétence de 1s et le bac ne concerne que les compétences exigibles au programme de terminale) mais vous devez savoir nommer les esters jusqu’à 5 atomes de carbone (voir p.102 du programme de terminal). Un petit rappel ne peut donc pas faire de mal.

Construire le nom : exemple des alcanes

Pour donner un nom à un alcane, on commence par compter le nombre de carbone de la chaîne carbonnée qui a le plus de carbone (si l’alcane est ramifié) et on lui donne comme nom en fonction du nombre de carbone :

methane (pour 1 carbone), éthane (2), propane (3), butane (4), pentane (5), hexane (6), heptane (7), octane (8), nonane (9), decane (10).

Dans le cas où l’alcane est ramifié, on rajoute avant le nom de la molécule : méthyl, éthyl, propyl, etc… selon le nombre d’atomes de carbone de la branche, précédé du numéro de l’atome de carbone qui porte la ramification.

Il faut commencer à numéroter de sorte à obtenir les plus petits nombres possibles

par exemple :

CH3-CH-CH3
.         |
.        CH2-CH3

il y a 4 atomes de carbones sur la chaîne la plus longue (c’était un piège) c’est donc un butane. Il y a une ramification avec un atome de carbone (méthyl) porté par le carbone n° 2. Le nom de la molécule est donc méthylbutane. Il n’est pas nécessaire mettre le 2 car il n’y a pas d’autre choix pour mettre un groupement méthyl sur un butane.

CH3-CH-CH2-CH-CH2-CH3
.         |               |
.         CH3        C2H5

Il y a 6 atomes sur la chaîne la plus longue : c’est un hexane. Il y a 2 ramifications, l’une avec 1 atome de carbone (méthyl) et l’autre avec 2 atomes (éthyl). Le nom complet est donc : 4-éthyl-2-méthylhexane

Lorsqu’il y a plusieurs ramifications, on les classe par ordre alphabétique. Lorsqu’il n’y a pas d’ambiguité sur la position de la ramification, on ne précise pas sa position. Exemple : dans le cas du méthylpropane, le groupement méthyl est forcément sur le carbone du milieu.

Exercice : les molécules suivantes sont mal nommées, corriger le nom : 2-méthylbutane, 3 propylpropane, éthylpropane

Les groupes caractéristiques

Un groupe caractéristique est un ensemble d’atomes composé :

  • soit d’atomes autres que des carbones et des hydrogènes
  • soit de liaisons doubles ou triples

Voici les différentes familles de molécules que l’on rencontre au lycée (où R, R’ et R » représentent des groupement alkyle, c’est à dire ne contenant que des atomes de carbone et d’hydrogène) :

Groupe caractéristique Famille Nomenclature : suffixe ou préfixe Exemple
C=C Alcène -ène Propène
R-OH Alcool -ol 2-méthylpentan-1-ol
R-X où X est un halogène (F,Cl, Br, I) Composés halogénés Fluoro-, iodo-, chloro-, bromo- 2-chloro-4-méthylpentane
R-CH=O Aldéhydes -al 3-méthylbutanal
R-CO-R’ Cétone -one 2-éthylpentan-3-one
R-COOH Acide carboxylique Alcool R-oïque Acide butanoïque
R-N-R’
|
R »
Amine -amine Ethlyamine, diéthylamine
R-COO-R’ Ester R-oate d’R’-yle Pentanoate d’éthyle
R-CO-O-CO-R’ Anhydride d’acide Anhydride R-oïque R’-oïque Anhydride éthanoïque méthanoïque

Exercice : écrire la formule semi-développée des exemples du tableau ci-dessus.