La mécanique de Newton : ce qu’il faut en retenir

« La mécanique de Newton » est le premier chapitre de la mécanique. Il revient sur les 3 lois de Newton déjà étudiées en première S tout en précisant l’expression vectorielle de la seconde loi grâce à une définition rigoureuse de l’accélération. Les chapitres suivants s’attacheront à appliquer ces trois lois dans différentes situations.

Note : dans l’article qui suit, les vecteurs sont notés en gras.

Voici ce que le programme exige que vous sachiez sur cette partie :

Choisir un système. Choisir les repères d’espace et de temps.

Pour un vrai problème de physique (pas un problème pré-mâché de sujet de bac), le choix du système est plus délicat que ce qu’il peut y paraître à priori. Cependant dans la plupart des problèmes de bac, le système est clairement défini par le sujet. Ainsi, il ne faut pas s’en faire, juste bien se rappeler lorsqu’on attaque le problème de bien préciser le système étudié, et l’origine du repère d’espace et de temps surtout si le sujet ne le précise pas.choixrep.gif

Par exemple : dans le cas d’une chute libre verticale, on peut choisir de prendre comme origine du repère la position du système au moment où il est lâché et comme origine du temps le moment où il est lâché.

Un point délicat cependant : la direction dans laquelle on oriente le repère. Si l’on oriente l’axe vertical vers le bas, la gravité g sera égale à +g.k (où k est le vecteur unitaire de l’axe vertical). Si l’axe est orienté vers le haut, g=-g.k (voir le schéma ci-contre).

Faire l’inventaire des forces extérieures appliquées à ce système.

Bon, une compétence acquise depuis la seconde normalement. Généralement, on trouvera :

  • le poids (du moment que l’expérience a lieu à la surface de la terre) : P=m.g
  • la poussée d’archimède (dans l’eau mais aussi dans l’air, n’oubliez pas que les montgolfières  et les ballons gonflés à l’hélium flottent) : Pa=-?.V.g
  • les frottements (sauf si le sujet vous invite à les négliger) de l’air, de l’eau, etc.: leur expression est précisée dans le sujet
  • la réaction du support (pour un objet posé sur le sol, une table, etc.) : perpendiculaire au support s’il n’y a pas de frottement, ayant une composante tangeante au support dans le cas contraire.

Bien sûr, cette liste n’est pas exhaustive et on peut trouver d’autres forces : l’interaction gravitationnelle exercée par une planète ou une étoile, l’interaction électrique, etc.

Définir le vecteur accélération et exploiter cette définition, connaître son unité.

Le vecteur accélération est défini comme le taux de variation du vecteur vitesse : a=?v/?t

vectvit.jpgPour bien définir le vecteur accélération, il faut avoir une idée claire sur ce qu’on appelle la vitesse. Dans la vie de tous les jours, la vitesse est un scalaire (un chiffre), alors qu’en physique c’est un vecteur, défini par sa norme, sa direction et son sens. Sa norme correspond à la définition de la vie de tous les jours : la distance parcourue par unité de temps (la seconde en physique), sa direction est tangeante à la trajectoire et son sens est celui du mouvement.

Selon la façon dont on appréhende le problème, les vecteurs vitesse et accélération vont s’écrire de différentes façons :

  • Dans le cas d’une étude expérimentale où l’on a une collection de points M1, M2, M3, etc. correspondant à différentes positions du point étudié, vi=(OMi+1OMi-1)/?t et ai=(vi+1vi-1)/?t
  • Dans le cas où l’on a OM(t) [x(t), y(t), z(t)], alors le vecteur vitesse se calcule en dérivant chacune des coordonnées : v(t) [dx/dt(t), dy/dt(t), dz/dt(t)]. Pour le vecteur accélération, c’est la même chose mais en dérivant les coordonnées de v(t) soit a(t) [dvx/dt(t), dvy/dt(t), dvz/dt(t)]=[d²x/dt²(t), d²y/dt²(t), d²z/dt²(t)]

L’unité de l’accélaration est celle de la vitesse divisée par du temps soit du m.s-2.

Enoncer les trois lois de Newton.

Première loi : également appelée principe d’inertie
Dans un référentiel galiléen, si le vecteur vitesse vG du centre d’inertie G du solide ne varie pas, la somme des forces extérieures qui s’exercent sur le solide est nulle et réciproquement : toto_html_29182c88.gif

Cette loi est généralement appliquée aux solides au repos ou en mouvement de translation rectiligne uniforme pour déterminer les forces qui s’y appliquent (par exemple pour un palet qui glisse sans frottement, la réaction de la glace est exactement opposée au poids du palet).

Seconde loi : également appelé postulat fondamental de la dynamique
Dans un référentiel galiléen, la somme des forces extérieures appliquées à un solide est égale au produit de sa masse par l’accélération de son centre d’inertie : toto_html_b0d6cf8.gif

Dans cette dernière expression, les forces s’expriment en Newton (N), la masse en kilogramme (kg) et l’accélération en mètre par seconde carré (m.s-2). Nous allons beaucoup l’utiliser par la suitepour déterminer les trajectoires d’objets en mouvement.

Troisième loi : également appelé le principe des actions réciproques
Si 2 corps sont en interaction, alors la force exercée par le premier sur le second est égale et opposée à la force exercée par le second sur le premier : toto_html_m4594a5d6.gif

Cette loi s’oublie facilement et pourtant elle est fondamentale pour comprendre le recul d’une arme à feu (voir par exemple la première question du bac 2007).

Savoir exploiter un document expérimental (série de photos, film, acquisition de données avec un ordinateur…) : reconnaître si le mouvement du centre d’inertie est rectiligne uniforme ou non, determiner des vecteurs vitesse et accélération, mettre en relation accélération et somme des forces, tracer et exploiter des courbes vG = f(t).

Pour une série de points M1, M2, M3, etc. nous avons vu comment déterminer les vecteurs vitesses et accélération. Bien entendu, si le mouvement est un mouvement rectiligne uniforme, la trajectoire sera une droite et deux points consécutifs seront toujours à la même distance les uns des autres.

Pour vous entraîner : les questions de 1.1 à 1.5 de Pondichéry 2005 sont une application directe des points qui viennent d’être discutés.

Quel carburant pour la voiture du futur ?

Actuellement, nos voitures fonctionnent en effectuant une réaction d’oxydation des hydrocarbures présents dans l’essence :

Hydrocarbure + O2 ? CO2 + H2O

L’énergie libérée est le fruit des propriétés oxydantes de l’atmosphère et de l’énergie chimique emmagasinée dans les hydrocarbures. L’essence ordinaire est extraordinairement énergétique : 1 g d’essence libère 15 fois plus d’énergie qu’1 g d’explosif ! De plus cette énergie est contrôlable : contrairement aux explosifs, toute l’énergie n’est pas libérée instantanément.

Le problème avec ce mode de fonctionnement, c’est que d’une part, la réserve de pétrole n’est pas inépuisable et d’autre part, cela relâche du dioxyde de carbone (CO2) dans l’atmosphère ce qui contribue au réchauffement climatique.

Les biocarburants: une solution durable ?

La première idée qui vient à l’esprit c’est de remplacer l’essence par un carburant tout aussi énergétique mais renouvelable. Ainsi, certains constructeurs ont mis au point des voitures qui roulent au bioéthanol. Ce carburant est d’origine agricole. C’est à dire qu’on le produit à partir de colza ou d’autres huiles végétales.

Fondamentalement, cette idée est basée sur le même principe que l’essence : les organismes vivants synthétise des molécules susceptibles de libérer de l’énergie lors de l’oxydation par l’atmosphère. Pour l’essence, ces molécules ont été synthétisées il y a plusieurs millions d’années et sont en quantité limitée, pour les biocarburants ces molécules sont synthétisée chaque année et sont potentiellement infiniment renouvelable. La combustion des biocarburants produit aussi du CO2 mais celui-ci sera consommé par les champs servant à produire les biocarburants : le bilan est donc nul.

Bien sûr il y a un hic : jusqu’ici, l’agriculture était destinée à la nourriture. C’est donc une nouvelle utilisation de l’agriculture : manger ou conduire, il faut choisir ! La superficie des terres agricoles étant limitée, il faut augmenter les rendements de l’agriculture. Or cette augmentation des rendements a un coût énergétique : il faut consommer plus d’énergie pour produire plus (utilisation d’engrais, de tracteurs, etc.). Ainsi, produire des biocarburants consomme du pétrole et au final, il y a toujours relargage de CO2 par le pétrole.

et la voiture électrique ?

Puisque le carburant pose problème, utilisons des voitures électriques ! En effet, les moteurs électriques peuvent se montrer très performant et ne sont pas polluant. La production d’électricité est plus ou moins polluante mais on peut imaginer que des solutions durables respectueuses pour l’environnement vont être de plus en plus adoptées.

Seul petit problème technique : l’électricité ne se stocke pas en tant que tel. Il y a donc 2 solutions : soit la voiture fonctionne sur batterie (le stockage d’énergie est chimique) qui sont rechargées pendant la nuit, soit l’électricité est produite directement par la voiture.

La première solution présente de nombreux inconvénients : il faut garer sa voiture proche d’une prise électrique, les batteries sont encombrantes, chères, polluantes et doivent être changées régulièrement. La seconde solution parait donc plus adaptée à l’usage habituel que nous avons de la voiture mais comment produire de l’électricité directement dans la voiture ?

L’idée qui vient immédiatement à l’esprit est l’utilisation de panneaux solaires. En effet, l’énergie solaire est gratuite, directement accessible et éternellement renouvelable (tout du moins pour les 4 milliards d’années à venir). Encore une fois, il y a un hic : la terre reçoit du soleil environ 1000 Watt par m2 (1 kW/m2). Ainsi, il faut présenter une grande surface de panneau solaire pour faire avancer une voiture (voir l’image ci-contre). Une petite voiture développe environ 100 chevaux ce qui correspond à 100 kW. Il faudrait donc 100 m2 de panneaux solaires pour avoir la même puissance : il va falloir revoir la taille de nos routes !

Une solution qui parait plus adaptée pour produire de l’électricité à l’échelle d’une voiture est l’utilisation de l’hydrogène.

L’hydrogène : la solution à tous nos problèmes énergétiques ?

Le dihydrogène (H2) réagit très violemment avec le dioxygène de l’air pour former de l’eau :

2H2+O2 ? H2O

Cette réaction produit beaucoup d’énergie sans émission polluante. Cette énergie est parfaitement maitrisable dans une pile à combustible mais elle est plus difficile à maitriser en faisant le plein d’une voiture, par exemple. C’est l’un des nombreux problèmes avec une voiture à hydrogène : le plein doit se faire de sorte à ce que le dihydrogène ne soit jamais en contact avec l’air, sinon, c’est l’explosion assurée !

Pour mesurer, cette réactivité, on peut la comparer à l’essence : 1 g de dihydrogène est 2,5 fois plus énergétique qu’1 g d’essence. Avec un plein de 40 L d’essence, on peut faire environ 500 km. Cela correspond à 30 kg d’essence. Avec 30 kg d’hydrogène, on pourrait donc faire 1250 km ! Seulement, l’hydrogène n’est pas un liquide mais un gaz et 30 kg d’hydrogène occupe un très grand volume. Il est donc nécessaire de liquéfié l’hydrogène pour l’utiliser. C’est un autre problème avec l’hydrogène : on perd de l’énergie simplement à liquifier le gaz. Un autre problème est sa très faible densité, même lorsqu’il est liquide : sa densité est de 0,071g/cm3. Ainsi, 30 kg d’hydrogène ont un volume de plus de 400 L ! Encore une fois, il va falloir revoir la taille de nos voitures.

Mais le principal problème du dihydrogène est ailleurs : il n’existe pas à l’état naturel. Il faut le fabriquer. Comment ? C’est extrêmement simple, il suffit de faire la réaction inverse de celle qui a été notée plus haut :

2H2+O2 ? H2O

Si la première réaction produisait de l’énergie, celle-ci en consomme. Ainsi, toute l’énergie contenue dans l’hydrogène provient d’ailleurs : l’hydrogène n’est pas une source d’énergie, c’est juste un vecteur d’énergie. Si nos voitures devaient fonctionner à l’hydrogène, il faudrait trouver une autre source d’énergie qui permette de produire de l’hydrogène. Cela pourrait être des centrales électriques solaires (s’il n’était pas envisageable de fabriquer des voitures occupant une centaine de m2, il est parfaitement envisageable de faire des centrales électriques solaire de plusieurs hectares). Et l’économie du futur commence à se dessiner :

Des centrales solaires qui convertissent l’énergie solaire en énergie électrique. Celle-ci est utilisée pour produire du dihydrogène qui serait le carburant des transports en commun (du fait de sa faible densité, il faut prévoir de gros réservoirs de dihydrogène donc de gros véhicules). Il y a pour l’instant encore de nombreux obstacles à la réalisation de cette solution : rendement des panneaux solaires encore trop faibles, dangerosité du dihydrogène (stations services explosives, réservoirs qui pourraient exploser en cas d’accident), etc. mais la BMW Hydrogen 7 de série, qui sera commercialisé à partir de 2020 (voir sa fiche sur viamichelin) apparait comme l’une des premières briques de ce futur.

Pourquoi les spationautes flottent dans la navette spatiale ?

[youtube]https://www.youtube.com/watch?v=3bCoGC532p8[/youtube]

Le poids, la masse, la gravité

Si les photos et vidéos d’astronautes en orbite autour de la terre sont si fascinantes c’est parce qu’ils sont manifestement dans une situation impossible à vivre sur terre. Quoique nous fassions, nous retombons toujours sur le sol car la terre exerce une force qui nous attire. Celle-ci porte un nom : c’est le poids. Attention, il y a parfois une confusion entre poids et masse. Cela vient de l’imprécision du langage quotidien qui amalgame les deux. En effet, la masse correspond à la quantité de matière, elle s’exprime en kg tandis que le poids correspond à la force exercée par la terre, elle s’exprime donc en Newton (l’unité des forces). Bien entendu, les deux notions sont reliées puisque plus il y aura de masse (donc de quantité de matière), plus la force exercée par la terre sera élevée. D’ailleurs cela se traduit par une équation : P=m.g c’est à dire que le poids est proportionnel à la masse. La constante de proportionalité g est appelée constante gravitationnelle, elle vaut 9,8 N/kg (dans la suite, on prendra une valeur égale à 10). Ainsi, un spationaute de masse 80 kg subira à la surface de la terre un poids de 80.10=800 N. lorsque son médecin lui demande son poids il devrait répondre 800 N et non pas 80 kg.

La décroissance de g lorsqu’on s’éloigne de la terre

Cette constante gravitationnelle g dépend en fait de l’endroit où l’on se trouve. Plus on est proche de la terre, plus elle est élevée (la valeur 9,8 est une valeur moyenne). C’est une constante qui dépend également de la planète où l’on se trouve. Sur la Lune, sa valeur est 6 fois plus faible. Ainsi notre spationaute de 80 kg, sur la lune, serait soumis à une force de 130 N. Ayant développé une musculature pour soulever 800 N sur Terre, il pourra s’amuser à faire des galipettes. Comme on le voit sur cette vidéo de la nasa (rappelons que la combinaison des spationautes est lourde, de l’ordre de 100 kg…).

[kml_flashembed movie="http://www.youtube.com/v/kbxkcEW3UYM" width="425" height="350" wmode="transparent" /]

Mais revenons à notre spationaute qui flotte dans la navette spatiale, serait-ce parce qu’à cette altitude, il n’y a plus de gravité ? Si l’on fait le calcul, on trouve que g à l’altitude de vol de la navette spatiale (400 km) est de 8,7 N/kg. Notre spationaute est donc bien attiré par la terre puisque son poids à cette altitude est de 700 N (ce qui est même supérieur à la force éprouvée sur la Lune), alors pourquoi flotte-t-il ?

l’inertie et l’accélération de pesanteur

Pour répondre à cette question, il faut s’intéresser à la chute libre. Comme bien souvent dans un problème de physique, la réponse n’est pas directement là où on le croit… Pour comprendre « Pourquoi un spationaute flotte dans l’espace ? » il faut se poser la question « Si deux boules de masses différentes sont lâchées à une hauteur de disons 10 m du sol, laquelle arrivera la première ? la plus lourde ou la plus légère ? ». Réponse que tout le monde connait : elles arriveront en même temps. Voilà une réponse intéressante. Tout le monde la connait mais peu de gens la comprennent (je prend pour preuve le nombre de fois où en fin de repas, on m’a posé la question « Ah ben tiens, toi qui est prof de physique, tu vas pouvoir me dire pourquoi c’est pas la plus lourde qui arrive en premier ? »). Essayons de comprendre pourquoi.

1er point : comme on l’a vu, plus un objet est lourd, plus la terre l’attire (rappelons-nous P=m.g). Sur ce point, on est bien d’accord.

2nd point : plus un objet est lourd, plus il est difficile de le mettre en mouvement. Ce dernier point est bien souvent oublié, pourtant, il est incontestable qu’il est plus difficile de pousser une grosse berline qu’une twingo, et cela ne vient pas seulement des frottements : plus la masse est grande, plus l’objet à d’inertie, plus il est difficile à mettre en mouvement.

Il se trouve que ces deux faits se compensent exactement : l’objet le plus lourd est soumis à une plus grande force mais il est plus difficile à mettre en mouvement que l’objet le plus léger. Ainsi, les 2 objets ont le même mouvement, en l’occurrence, un mouvement accéléré. D’ailleurs la valeur de l’accélération est exactement égale à la valeur de la constante gravitationnelle. Ainsi, tout objet livré à lui-même au voisinage de la terre subit une accélération égale à 10 m/s² cela veut dire que tout objet en chute libre voit sa vitesse augmenter vers le bas de 10 m/s (36 km/h) à chaque seconde.

la chute libre

Imaginons maintenant que nous soyons dans un ascenseur dont le câble lâche. L’ascenseur se met à tomber en accélérant. S’il était initialement au repos, il aura une vitesse de 36 km/h au bout d’une seconde. Tout comme nous dans l’ascenseur qui aurons le même mouvement. Nous chuterons donc avec l’ascenseur en ayant toujours la même vitesse que lui. Si l’on se prenait en photo à ce moment…il n’y a guère que les physiciens pour penser à se prendre en photo dans un ascenseur en chute libre, tout être normalement constitué n’aurait qu’une seule activité : crier… mais bon, imaginons que nous aurions l’idée de nous prendre en photo, alors nous semblerions flotter dans l’ascenseur ! Comme l’astronaute dans la navette spatiale. Ainsi, les astronautes ne flottent pas réellement, ils sont simplement en train de tomber dans un mouvement exactement analogue à celui de la navette spatiale. Ce qui donne cette sensation qu’ils sont en apesanteur (non soumis à la pesanteur). En réalité, ils sont toujours soumis à la pesanteur : celle-ci les maintient dans un mouvement circulaire uniforme autour de la terre. S’il n’y avait pas de pesanteur, ils partiraient tout droit, vers l’infini est au-delà !

Annexe : le calcul de la constante gravitationnelle à 400 km de la surface terrestre.

De l’expression de l’interaction gravitationnelle F=G.mA.mB/dAB² on déduit g=G.M/d² où M est la masse de la planète et d la distance au centre de la planète. Dans les conditions de la navette spatiale : M = 5,98.10^24 kg et d = Rayon de la terre + altitude = 6,38.10^6+400.10^3 m ce qui donne g=8,7 N/kg.

[youtube]https://www.youtube.com/watch?v=RmV90BmMNMg[/youtube]

Oscillations libres dans un dipôle RLC série

Continuons avec les connaissances et savoir-faire exigibles pour l’épreuve de physique du bac avec ce qu’il faut retenir du dipôle RLC. Comme d’habitude, les connaissances et savoir-faire exigibles du programme sont en gras :

Lorsqu’on branche un condensateur chargé à une bobine, celui-ci tend à vouloir se décharger (voir le cas du dipôle RC). Des charges ont donc tendance à se déplacer dans le circuit. Mais une bobine « n’aime » pas que le courant qui le traverse varie (voir l’étude du dipôle RL). Elle va donc avoir tendance à ralentir cette décharge. Cependant, progressivement, le condensateur arrive à imposer un courant et il va progressivement se décharger. Lorsque la charge qu’il porte est nulle, le transfert de charge pourrait s’arrêter là mais comme la bobine impose une continuité du courant, elle va obliger le condensateur à se charger dans l’autre sens et ainsi de suite : on observe des oscillations de la tention aux bornes du condensateur.

Définir et reconnaître les régimes périodique, pseudo-périodique et apériodique.
Savoir tracer l’allure de la tension aux bornes du condensateur en fonction du temps pour les régimes périodique, pseudo-périodique et apériodique.

Pour le processus qui vient d’être décrit, 3 régimes sont possibles selon la valeur de la résistance totale du circuit. Dans le cas où la résistance est nulle, on observe un régime périodique :


source : http://montblancsciences.free.fr

Dans le cas où la résistance du circuit est faible, on observe un régime pseudo-périodique :


source : http://montblancsciences.free.fr

Dans le cas d’une grande résistance, on observe un régime apériodique :

source : http://montblancsciences.free.fr

Dans le cas d’un amortissement négligeable, effectuer la résolution analytique pour la tension aux bornes du condensateur ou la charge de celui-ci.
En déduire l’expression de l’intensité dans le circuit.

Envisageons un circuit constitué d’un condensateur de capacité C et une bobine idéale d’inductance L. A t=0, le condensateur est chargé, portant une tension U0. La résolution analytique s’effectue toujours selon la même méthodologie :

  1. Obtention de l’équation différentielle – condensateur et bobine sont en série et vérifient donc uC+uL=0. Pour obtenir l’équation vérifiée par uC, il faut exprimer uL en fonction de uC. On sait que uL=L.di/dt d’une part et que i=dq/dt donc on peut en déduire que uL=Ld²q/dt² où d²q/dt² est la dérivée seconde par rapport au temps de la charge (la dérivée de la dérivée : q »(t) en notation mathématique). Or q=C.uC dont uL=LCd²uC/dt et uC vérifie :
    uC+LC.d²uC/dt²=0.
  2. Résolution de l’équation différentielle – cette équation admet des solutions de la forme : uC(t)=Um.cos(2?.t/T0+?0) où Um représente l’amplitude (en Volt), T0 , la période (en s) et ?0, la phase à l’origine (en rad). La détermination de ces grandeurs se fait en 2 étapes : en injectant cette expression dans l’équation différentielle puis en appliquant les conditions initiales. La dérivée de uC(t) par rapport au temps est
    duC/dt= -2?/T0.Um.sin(2?.t/T0+?0).
    La dérivée seconde est donc d²uC/dt²= -(2?/T0)².Um.cos(2?.t/T0+?0). Si l’on injecte cette dernière expression dans l’équation différentielle ainsi que celle de uC(t), on obtient :
    Um.cos(2?.t/T0+?0) -LC(2?/T0)².Um.cos(2?.t/T0+?0)=0
    ce qui est équivalent à :
    (1-LC(2?/T0)²)Um.cos(2?.t/T0+?0) =0 qui n’est possible pour tout t que si T0=2?.?(LC)
  3. Obtention de i(t) – De l’expression de uC(t), on peut déduire i qui est égale à dq/dt donc à C.duC/dt ? i(t)=-2?/T0.C.Um.sin(2?.t/T0+?0)
  4. Conditions initiales – Les conditions initiales sont uC(t=0)=U0 et i(t=0)=0. Si l’on applique les expressions trouvées précédemment, on obtient :
    Um.cos(?0)=U0 et Um.sin(?0)=0 qui implique que ?0=0 et Um=U0.

Pour finir, nous avons donc les expressions suivantes :

uC(t)=U0.cos(2?.t/T0) où T0=2?.?(LC)
q(t)=C.uC(t)=Q0.cos(2?.t/T0) où Q0=C.U0
i(t)=dq/dt=
-Im.sin(2?.t/T0) où Im=2?.Q0/T0

Connaître l’expression de la période propre, la signification de chacun des termes et leur unité.

De la résolution analytique, on a déduit T0=2?.?(LC) où L est l’inductance de la bobine et C, la capacité du condensateur.

On peut vérifier que cette expression est homogène :

  • de l’étude du dipôle RC, on avait déduit que RC est homogène à un temps,
  • de l’étude du dipôle RL, on avait déduit que L/R est homogène à un temps,
  • on en déduit que LC est homogène à L/R.RC=Temps²
  • donc ?(LC) est homogène à un temps.

Savoir que le dispositif qui entretient les oscillations fournit l’énergie évacuée par transfert thermique.
Savoir interpréter en terme d’énergie les régimes périodique, pseudo-périodique, apériodique et entretenu.

Les oscillations observées dans le cas où l’amortissement est nul (pas de résistance), correspondent en fait à un échange d’énergie entre le condensateur et la bobine : le condensateur a initialement emmagasiné une énergie sous forme électrique (1/2.C.uC²) qu’il transmet à la bobine (1/2.L.i²).

A chaque transfert,  la résistance dissipe de l’énergie puisqu’elle est traversée par un courant électrique (une résistance dissipe une énergie R.i² à chaque instant). Ainsi, l’énergie totale du circuit électrique diminue progressivement à chaque transfert d’énergie entre le condensateur et la bobine et les oscillations s’amortissent.

Dans le cas où la résistance est très élevée, toute l’énergie est dissipée dès le premier transfert et la partie de ping-pong avec l’énergie entre condensateur et bobine ne se fait pas.

Pour entretenir les oscillations, il est nécessaire de « réinjecter » de l’énergie à chaque transfert, ce qui se fait à l’aide d’un dispositif qui fournit l’énergie dissipée  par la résistanc.

Savoir exploiter un document expérimental pour:

  • identifier les tensions observées,
  • reconnaître un régime
  • montrer l’influence de R et de L ou C sur le phénomène d’oscillations
  • déterminer une pseudo-période.

La tension aux bornes du condensateur est initialement égale à U0. Aux bornes de la résistance, elle est nulle initialement puisqu’il n’y a pas de courant.

L’influence de R, L et C a été discutée dans les points précédents.

La pseudo-période se détermine en prenant 2 passages par zéro dans le même sens de la tension aux bornes du condensateur. Cette pseudo-période est voisine de la période propre calculée précédemment (T0=2?.?(LC)).

Sur le site de l’académie de Caen, on trouve une petite application qui simule la tension aux bornes d’un condensateur.

« Le dipôle RL » : ce qu’il faut en retenir

Les compétences et savoir-faire exigibles correspondant au dipôle RL sont :

Connaître la représentation symbolique d’une bobine.
En utilisant la convention récepteur, savoir orienter le circuit sur un schéma et représenter les différentes flèches-tension.

On remarque tout de suite que ces compétences sont très proches (dans leur formulation tout au moins) de celles exigées pour le dipôle RC.

La représentation symbolique d’une bobine est la suivante :

Dipôle RL

Sur ce schéma on voit que la bobine est symbolisé par une bobine idéale caractérisée par son inductance L et une résistance r.

Pour l’orientation d’un circuit, c’est toujours la même histoire : le courant est compté positif à partir de la borne + du générateur, traverse le circuit et retourne au générateur par la borne -.

Connaître l’expression de la tension aux bornes d’une bobine; connaître la signification de chacun des termes et leur unité. Savoir exploiter la relation.

La différence de tension aux bornes d’une bobine est la somme de 2 termes :

uL=L.di/dt+r.i

Le premier terme caractérise les bobines.Une bobine idéale n’a pas de second terme. Ce dernier correspond simplement au fait qu’une bobine est un fil enroulé sur lui-même qui possède donc une petite résistance.

L est l’inductance de la bobine, exprimée en Henry (H) tandis que r correspond à la résistance de la bobine, exprimée en Ohms (?).

Effectuer la résolution analytique pour l’intensité du courant dans un dipôle RL soumis à un échelon de tension.
En déduire la tension aux bornes de la bobine.
Connaître l’expression de la constante de temps et savoir vérifier son unité par analyse dimensionnelle.

Partant du montage classique constitué d’un générateur de tension (délivrant U0), d’un interrupteur que l’on ferme à l’instant t=0, d’une résistance et d’une bobine, on peut écrire :

U0=uL+uR
et i(t=0)=0

La suite est très classique et la méthode de calcul est toujours la même :

  1. remplacer les différentes tensions par leur expression en fonction de la variable demandée (ici i) : uR=R.i et uL=L.di/dt+r.i ce qui nous permet d’obtenir l’équation différentielle vérifiée par la variable demandée : U0=L.di/dt+r.i+R.i ? U0=L.di/dt+i.(r+R)
  2. Déterminer les paramètres de la solution mathématique de cette équation. Ici, la solution est de la forme i(t)=A.e-t/?+B. Pour déterminer ? et B, il faut calculer la dérivée de i(t) et remplacer di/dt par sa dérivée et i par son expression. On arrivera ici à B=U0/(r+R) et ?=L/(r+R). Pour les détails du calculs, je vous laisse vous reporter à votre cours (je vais quand même pas faire tout le travail !)
  3. Déterminer les inconnues restantes en utilisant les conditions initiales. Ici i(t=0)=0 ce qui se traduit par A+B=0 d’où A=-B ce qui donne en remplaçant B par l’expression trouvée précédemment : A=-U0/(r+R)
  4. Recoller les morceaux pour écrire la solution : i(t)=A.e-t/?+B s’exprime i(t)=U0/(r+R).(1-e-t/?) où ?=L/(r+R)

Ayant l’expression de i(t), il suffit de se rappeler que uL=L.di/dt+r.i pour calculer uL, ce qui donne après simplification : uL(t)=U0/(r+R).(Re-t/?+r)

Au passage, nous avons obtene l’expression de la constante de temps : L/(R+r) c’est à dire la valeur de l’inductance divisée par la somme de toutes les résistances du circuit. Comme d’habitude, il faut être capable de vérifié que cette expression est « dimensionnellement » juste :

L.di/dt est homogène à une tension donc [L]=Volt.Temps/Ampère tandis que U=R.i implique que [R]=Volt/Ampère. Ceci permet d’affirmer que [L/(R+r)]=Temps.

Connaître l’expression de l’énergie emmagasinée.
Savoir qu’une bobine s’oppose aux variations du courant du circuit où elle se trouve et que l’intensité de ce courant ne subit pas de discontinuité.

Lorsqu’une bobine est traversée par un courant électrique, elle emmagasine de l’énergie sous forme magnétique. L’énergie emmagasinée a pour expression :

Em=1/2.Li²

Par conséquent, pour assurer la continuité des transferts d’énergie, il est impossible d’avoir de brusque variation de courant au sein d’une bobine.

Cela est en accord avec les résultats de l’analyse dimensionnelle. En effet, nous avons obtenu : i(t)=U0/(r+R).(1-e-t/?) et uL(t)=U0/(r+R).(Re-t/?+r). Lorsque t est égal à 0, cela donne i=0 et uL=U0. Ce qui signifie que lorsqu’on ferme l’interrupteur, la bobine assure la continuité de i en « prenant » toute la tension fournie par le générateur. Ainsi, la résistance ne porte aucune tension (uR=0 car i=0).

Pour un temps infini, i tend vers U0/(r+R)=I0 qui est la valeur de l’intensité qui traverse 2 résistances r et R soumise à U0 tandis que la bobine porte une tension uL(t)=r.U0/(r+R)=r.I0 : la bobine se comporte comme une simple résistance r.

Savoir exploiter un document expérimental pour:
– identifier les tensions observées
– montrer l’influence de R et de L lors de l’établissement et de la disparition du courant
– déterminer une constante de temps.

Encore une fois on retrouve les grands classique du programme : dans le cas de l’établissement du courant dans le dpôle RL, l’intensité qui traverse la bobine étant continue, on identifie facilement la tension aux bornes de la résistance (c’est celle qui est nulle et continue en t=0) tandis que la tension aux bornes de la bobine est discontinue (elle est nulle pour t<0 et égale à U0 pour t>0).

La mesure de la constante de temps se fait toujours de la même façon :

  • soit à l’aide de la tangente à l’origine,
  • soit en déterminant le temps tel que i(?)=I0.(1-e-1)=0,63.I0 c’est à dire i égal à 63 % de sa valeur finale.

Compte tenu de l’expression de ?, une forte résistance diminue le temps d’établissement du régime permanent tandis qu’une forte inductance l’augmente.

Les bacs blancs approchant, j’essaierai de poster rapidement ce qu’il faut retenir du chapitre RLC.

Le dipôle RC : ce qu’il faut en retenir

Continuons avec notre série « compétences et savoir-faire exigibles » du programme de Terminale S et voyons ce qu’il faut retenir du cours sur le dipôle RC. Comme d’habitude, les phrases en gras sont issue directement du programme de TS.

Connaître la représentation symbolique d’un condensateur.

Un condensateur est constitué de deux plaques conductrices séparées par un matériau isolant. Son symbole est :

symbole condensateur

Il est caractérisé par sa capacité C, dont l’unité est en Farad.

En utilisant la convention récepteur, savoir orienter un circuit sur un schéma, représenter les différentes flèches-tension, noter les charges des armatures du condensateur.

Par convention, le courant électrique sort de la borne + du générateur, traverse le circuit et rentre par la borne – du générateur. Pour un dipôle, la convention récepteur consiste à représenter la flèche-tension dans le sens inverse du courant, elle est donc dirigée en direction de la borne qui reçoit le courant. La borne par laquelle entre le courant électrique porte une charge positive +q. L’autre borne porte une charge -q :

cond.jpg

Connaître les relations charge-intensité et charge-tension pour un condensateur en convention récepteur; connaître la signification de chacun des termes et leur unité.

Un condensateur dont la borne positive voit arriver une intensité i porte une charge q qui varie au cours du temps. La relation entre i et q est :

i=dq/dt où d/dt représente la dérivée (c’est à dire qu’on écrirait en mathématique i(t)=q'(t))

La relation entre la charge de la borne positive et la différence de tension, u, aux bornes du condensateur est :

q=C.u (relation 1)
Un moyen mémotechnique simple (on pourrait presque dire cul-cul) pour s’en souvenir : cette relation se lit « cu »= »cu ».

Dans ces deux expressions,

  • i est l’intensité en Ampère (A);
  • u, la tension aux bornes du condensateur en Volt (V);
  • q, la charge en Coulomb (C);
  • C, la capacité du condensateur en Farad (F).

Savoir exploiter la relation q = Cu.

Si l’on combine les 2 relations précédentes, on peut écrire i=dq/dt=d(C.u)/dt=C.d(u)/dt. Ainsi, l’intensité qui « traverse » un condensateur (en réalité il n’y a pas vraiment « traversée » de courant puisque les charges sont accumulées sur les armatures) est reliée à la tension aux bornes du condensateur par la relation :

i=C.d(u)/dt (relation 2)

Effectuer la résolution analytique pour la tension aux bornes du condensateur ou la charge de celui-ci lorsque le dipole RC est soumis à un échelon de tension.

Ce calcul se trouve dans tous les manuels de physique de terminale et facilement sur internet. Je vais donc essayer d’en dresser simplement les grandes lignes ici.

Imaginons un dipôle RC dans lequel le condensateur est déchargé, soumis à une tension égale à +E à l’instant t=0. C’est à dire qu’à l’instant t=0, on ferme l’interrupteur K du circuit ci-dessous :

A partir de l’instant t=0, E=uR+uc (relation 3) où uR et uc représentent les tensions aux bornes de la résistance R et du condensateur C.

On peut écrire que d’une part uR=R.i et i=C.duc/dt (relation 2 ci-dessous) d’où uR=RC.duc/dt. Ainsi, la relation (3) se réécrit :

E = RC.duc/dt + uc (4)

Cette dernière relation est une équation différentielle puisqu’elle relie uc et sa dérivée duc/dt (en mathématique, on l’aurait écrit E= RC.uc‘(t) + uc(t)). La solution d’une telle équation est de la forme uc(t)=A.e-t/?+B dont la dérivée duc/dt est égale à -A/?.e-t/?.

Il nous faut maintenant relier les paramètres A, B et ? aux contextes de l’équation (4). Si l’on « injecte » cette solution dans l’équation (4), on trouve :

E = A.e-t/?.(-RC/?+1)+B ? E-B = A.e-t/?.(-RC/?+1)

qui n’est possible que si E-B=0 et -RC/?+1=0 soit :

B = E
? = RC

La détermination de A se fait par les conditions initiales (c’est à dire la valeur de uc(t) lorsque t=0) :

uc(t=0) = A+B obtenu grâce à l’expression de uc(t)

et on sait que uc(t=0) = 0 (le condensateur n’est pas chargé initialement : q=0 ? uc=0)

D’où l’on peut déduire que A=-B donc A=-E. Ce qui nous permet de conclure que :

uc(t)=E(1-e-t/?) où ? = RC.

ouf ! l’un des gros morceau du programme vient de passer. Lorsque vous avez abordé ce type de calcul en Décembre c’était la première fois que vous l’aviez rencontré mais par la suite, on refera ce type de calcul et je vous garantie que d’ici Juin cela devrait être plus facile.

En déduire l’expression de l’intensité dans le circuit.

Maintenant que nous avons uc(t), il est facile d’obtenir i(t) en utilisant la relation (2) :

i = C.duc/dt = C.(-E/?).e-t/?=-E/R.e-t/?

Un petit coup d’analyse dimensionnelle (voir le billet l’analyse dimensionnelle) nous permet de vérifier que nous ne nous sommes pas trompé : l’exponentielle est sans dimension et E/R à la dimension d’une intensité (rappelez-vous U=R.I donc I=U/R).

Connaître l’expression de la constante de temps et savoir vérifier son unité par analyse dimensionnelle.

Comme nous venons de le voir, ?=RC.

R a pour unité V/A (se rappeler de U=R.I donc R = U/I)
C a pour unité A.s/V (se rappeler de i=C.du/dt)

Donc l’unité de ? est (V/A)×(A.s/V)=s : la contante de temps porte bien son nom, c’est bien un temps.

Connaître l’expression de l’énergie emmagasinée dans un condensateur.

L’énergie emmagasinée dans un condensateur est le produite de sa charge par la différence de tension à ses bornes, divisé par 2 :

Ec =q.u/2 =C.u²/2

Savoir que la tension aux bornes d’un condensateur n’est jamais discontinue.

Ce principe découle directement de l’expression de l’énergie. En effet, il n’est pas possible que le condensateur se décharge instantanément de l’énergie qu’il a emmagasiné. Par conséquent, la tension à ses bornes est forcément continue.

Savoir exploiter un document expérimental pour :

  • identifier les tensions observées,
  • montrer l’influence de R et de C sur la charge ou la décharge,
  • déterminer une constante de temps lors de la charge et de la décharge.

L’expression uc(t)=E(1-e-t/?) donne (sur ce graphique, E est égal à 1) :

Tandis que i(t)=-E/R.e-t/? donne (même remarque que précédemment E/R=1) :

Pour reconnaître d’un coup d’oeil la bonne courbe, il faut se rappeler qu’initialement (à t=0), les deux grandeurs i et u sont nulles. Sur la première u(t) reste continue tandis que i(t) est discontinue, passant de 0 à E/R.

La mesure de ? est décrite sur le premier graphique.

quelle est la différence entre xf et xmax ?

Voilà une question qu’on entend beaucoup au début de l’année de terminale S, lorsqu’on fait le cours sur les équilibres chimiques.

Transformation chimique

Une transformation chimique est l’évolution d’un système chimique d’un état initial à un état final. Avant ce cours de terminale S toutes les réactions chimiques présentées sont totales. C’est à dire qu’elles ne cessent que lorsqu’il n’y a plus de réactifs. Ainsi, l’état final est défini comme l’état du système dans lequel un des réactif a complètement disparu. Dans cet état il n’y a plus de réaction car il n’y a plus de réactif pour maintenir la réaction.

En réalité, les choses ne sont pas aussi simples et comme on l’apprend en terminale, une transformation chimique traduit l’évolution du système d’un état initial hors équilibre vers un état d’équilibre dans lequel 2 réactions ont lieu dans le sens direct et indirect.

L’avancement de la réaction

Pour mesurer l’état d’avancement de la réaction, on défini une grandeur x qui est nulle initialement et qui croît tout au long de la réaction. Ainsi, dans le cas où la réaction est totale, cette grandeur atteint une valeur maximale, notée xmax. Dans le cas où la réaction n’est pas totale, celle-ci s’arrête avant que x n’atteigne cette valeur x. On note alors la valeur de l’avancement xf.

Pour résumer :

xmax correspond au cas où la réaction est totale
xf correspond au cas où la réaction n’est pas totale : xf<xmax

« Réactions acido-basiques en solution aqueuse » : ce qu’il faut retenir

Le dernier paragraphe de la seconde partie du programme de TS traite des réactions basiques en solution, voici ce qu’il faut en retenir (les phrases en gras sont les extraites du programme) :

Savoir que Ke est la constante d’équilibre associée à l’équation de la réaction d’autoprotolyse de l’eau.

L’autoprotolyse de l’eau est la capacité de l’eau à réagir sur elle-même. L’eau est à la fois une base et un acide : on trouve H2O dans H3O+/ H2O et HO/H2O. 2 molécules d’eau peuvent donc échanger un proton ce qui donne :

2 H2O = H3O+ + HO

Cet équilibre est toujours présent en solution aqueuse et est caractérisé par une constante de réaction : Ke=[H3O+].[HO] où Ke=10-14

Connaissant la valeur du pH d’une solution aqueuse, dire si elle est acide, basique ou neutre.

C’est une compétence de collégien ! Une solution dont le pH est inférieur à 7 est acide, tandis qu’une solution dont le pH est supérieur à 7 est basique. Une solution neutre est une solution dans laquelle pH=7.

À partir de la concentration molaire des ions H3O+ ou OH-, déduire la valeur du pH de la solution.

Si [H3O+] est donné, on utilise pH=-log([H3O+]). Sinon, on utilise la relation Ke=[H3O+].[HO], qui est toujours vérifiée, et [H3O+]=Ke/[HO] donc pH=-log(Ke/[HO]).

Associer la constante d’acidité KA à l’équation de la réaction d’un acide sur l’eau.

Un acide AH réagit avec l’eau pour former sa base conjuguée A et un ion oxonium H3O+ :

AH + H2O = A + H3O+

La constante de cette réaction est Ka qui vaut donc :

Ka= [A][H3O+]/[AH]

Déterminer la constante d’équilibre associée à l’équation d’une réaction acido-basique à l’aide des constantes d’acidité des couples en présence.

Envisageons la réaction acido-basique mettant en jeu 2 couples :

A1H + A2 = A1 + A2H

Sa constante de réaction est K= [A1].[A2H]/[A1H].[A2] Dans ce quotient, on peut introduire en haut et en bas [H3O+] : K= [A1].[H3O+].[A2H]/[A1H].[H3O+].[A2] On reconnait alors Ka1 et Ka2, de sorte que :

K= Ka1/ka2

Connaissant le pH d’une solution aqueuse et le pKA du couple acide/base indiquer l’espèce prédominante; application aux indicateurs colorés.

De la relation Ka= [A][H3O+]/[AH], il découle pH=pKa+log([A]/[AH]). Ainsi, s’il y a plus de A que de AH dans la solution, le pH est supérieur à pKa, si c’est AH qui prédomine, alors le pH est inférieur à pKa. L’inverse est également vrai : si le pH est supérieur à pKa, alors il y a plus de A que de AH et si le pH est inférieur à pKa, alors c’est AH qui prédomine. Cela se résume par le diagramme de prédminance :

Les indicateurs colorés sont des espèces chimiques dont la forme acide et la forme basique n’ont pas la même couleur en solution. Ainsi, lors d’un dosage, on utilisera l’indicateur coloré dont la zone de virage correspond à la variation de pH lors de l’équivalence :

 

« Etat d’équilibre d’un système » : ce qu’il faut retenir

Continuons avec les compétences exigibles du programme de TS de chimie. Le second chapitre de la partie B s’intitule « Etat d’équilibre d’un système », voici ce qu’il faut en retenir :

Utiliser la relation liant la conductance G aux concentrations molaires effectives [Xi] des ions Xi en solution.

Cela relève du programme de 1ère S, voir l’article que faut-il retenir du programme de 1ère S ? à ce propos.

Savoir que, lorsque l’état d’équilibre du système est atteint, les quantités de matière n’évoluent plus, et que cet état d’équilibre est dynamique.

Contrairement à ce qui a été enseigné jusque là, une réaction ne s’arrête pas lorsqu’il n’y a plus de réactifs. En effet, une réaction a lieu simultanément dans les deux sens. C’est pourquoi on parle d’équilibre chimique et que la flèche ? se fait remplacer par un =. Ainsi, partant d’un état hors équilibre, le système évolue jusqu’à un état d’équilibre où réactifs et produits interagissent en permanence (aspect dynamique de l’équilibre). Cependant les quantités de matière cessent d’évoluer dans cet état d’équilibre.

En disposant de l’équation d’une réaction, donner l’expression littérale du quotient de réaction Qr.

Pour décrire cet équilibre, on a besoin de se munir d’un nouvel outil. Il s’agit du quotient de réaction Qr :

aA + bB = cC + dD

le quotient de réaction est Qr = [C]c[D]d/[A]a [B]b

Attention : cette expression est valable pour les solutés. Pour les solvants, les solides et les gaz, on remplace leurs concentrations par 1. Ainsi, pour la réaction de dissolution du chlorure de sodium :

NaCl(s) ? Na+(aq)+Cl(aq)

Qr = [Na+(aq)][Cl(aq)]

D’où l’importance de ces petits (aq), (s), (l) et autres (g) qui permettent de montrer l’état physique des espèces chimiques considérées.

Savoir que le quotient de réaction dans l’état d’équilibre d’un système, Qr,éq, prend une valeur, indépendante de la composition initiale, qui est la constante d’équilibre associée à l’équation de la réaction.

Le quotient de réaction tend vers une valeur qui ne dépend que de la réaction lorsque le système chimique tend vers son état d’équilibre. Cette valeur notée K est la constante d’équilibre associée à l’équation de la réaction :

Qr ? Qr,éq=K indépendante des conditions initiales

Savoir que, pour une transformation donnée, le taux d’avancement final dépend de la constante d’équilibre et de l’état initial du système.

S’il est vrai que le quotient de réaction dans l’état final Qr,éq est indépendant des conditions initiales, il n’en est pas de même du taux d’avancement final. En effet, celui-ci dépend de la façon dont le système évolue. Imaginons que nous partions d’un système déjà à l’équilibre : Qr,i = Qr,éq. Alors le taux d’avancement est nul (x reste à 0, le système n’évolue pas : xf=0 et ?=xf/xmax=0). Tandis que si l’on part d’une situation où Qr,i = 0 (parce qu’il n’y a pas de produits initialement), le système va évoluer de sorte à avoir Qr,f = Qré,q. L’avancement va donc évoluer vers une valeur xf et le taux d’avancement sera non nul. Pour résumer :

Qr,i ? Qr,éq=K indépendant des conditions initiales (Qr,i)

x=0 ? xf qui dépend des conditions initiales (Qr,i) et de K

« La réaction a lieu dans les deux sens » : ce qu’il faut retenir

Le premier chapitre de la partie B du programme de chimie s’intitule « Une transformation chimique n’est pas toujours totale et la réaction a lieu dans les deux sens », voici ce qu’il faut en retenir :

Définir un acide ou une base selon Brønsted.

C’est de l’ordre de la révision de 1ère S. Un acide est une espèce chimique susceptible de céder un ou plusieurs ion H+ ( du type AH, par exemple) tandis qu’une base est une espèce chimique susceptible de capter un ou plusieurs ion H+ (du type A)

Ecrire l’équation de la réaction associée à une transformation acido-basique et identifier dans cette équation les deux couples mis en jeu.

D’une manière générale, pour 2 couples A1H/A1 et A2H/A2, une réaction acido-basique entre A1H et A2 sera du type :

A1H + A2 = A1 + A2H

Connaître la définition du pH pour les solutions aqueuses diluées.

pH=-log([H3O+] ) ? [H3O+] = 10-pH
Ex : [H3O+] = 10-2 mol/L ? pH=2

Connaissant la valeur de la concentration et du pH d’une solution d’acide, calculer l’avancement final de la réaction de cet acide sur l’eau et le comparer à l’avancement maximal.

Ah, chic, ça se complique un peu. D’une manière générale, l’équation de dissolution d’un acide dans l’eau et le tableau d’avancement correspondant est :

x AH + H2O ? A- + H3O+
Ei x=0 cV solvant 0 0
Eint x cV-x solvant x x
Ef xf cV-xf solvant xf xf
Emax xmax = cV 0 solvant cV cV

On voit que la quantité d’H3O+ est xf et donc que [H3O+] =xf /V. Ainsi, connaissant le pH, on peut calculer xf = [H3O+].V =10-pH.V

Cette valeur est à comparer à xmax = cV, elle est généralement plus petite.

Connaître la définition du taux d’avancement final et le déterminer à partir d’une mesure.

Le taux d’avancement final est le rapport entre l’avancement final (réel) et l’avancement maximal (théorique, tel qu’on a appris à le calculer en seconde) :

? = xf/xmax

Dans le calcul précédent, on trouverait ? = 10-pH/c.