Science

La Terre n'arrêtera pas de tourner, mais...

SCIENCE AU QUOTIDIEN / «Comme on voit toujours la même face de la lune, certains disent que c’est parce qu’elle ne tourne pas sur elle-même. Si c’est vrai, il s’agirait d’une rare exception parce qu’à ma connaissance tous les astres tournent sur eux mêmes, non ? Et j’ai aussi lu quelque part que la vitesse de rotation de la Terre ralentissait petit à petit, si bien que dans quelques millions d’années, elle s’arrêterait complètement et que sa face constamment exposée au Soleil serait brulée tandis que l’autre serait gelée. Qu’en est-il ?», demande Ghislain Gauthier.

Si la Lune ne tournait pas sur elle-même, il s’agirait en effet d’une exception fabuleusement rare. Les astres — qu’il s’agisse de planètes, de lunes ou d’étoiles — se forment lorsque des nuages de gaz et/ou de poussières flottant dans l’espace finissent par s’effondrer sous l’effet de leur propre gravité. Ces nuages vont alors tourner sur eux-mêmes, puis former un disque qui tourne sur lui-même, puis le disque va petit à petit se transformer en sphère. Et le «produit final», la planète, conserve cette rotation.

J’imagine que l’Univers est trop vaste pour qu’on puisse dire qu’il n’existe absolument aucun astre sans rotation. Mais à partir de ce qu’on sait des étoiles, planètes, lunes et astéroïdes que l’on a observés jusqu’à maintenant, la règle est que tous les objets ont une rotation. Et notre Lune n’y fait pas exception.

On peut avoir l’impression contraire parce qu’on en voit toujours la même face, mais c’est simplement parce que sa rotation est synchronisée avec sa «révolution», comme disent les physiciens : elle prend le même temps pour faire un tour sur elle-même (environ 28 jours) qu’elle n’en met pour faire le tour de la Terre (28 jours aussi). Ce n’est pas un hasard s’il en est ainsi — et l’explication nous permettra au passage de comprendre pourquoi il est vrai que la rotation terrestre ralentit peu à peu.

La Terre et la Lune sont d’énormes masses assez rapprochées (à l’échelle cosmique, s’entend) et qui exercent une forte gravité l’une sur l’autre. Cette gravité, bien sûr, explique pourquoi la Lune continue de tourner autour de notre planète, mais elle fait un petit quelque chose de plus : des effets de marée. Sur Terre, on les voit avec le niveau de la mer, mais la gravité lunaire ne fait pas qu’attirer des masses d’eau. La croûte terrestre se soulève également d’environ 30 centimètres au passage de la Lune, ce qui crée une sorte de «bourrelet» de matière qui se déplace au rythme de la rotation de la Terre et de la révolution lunaire.

Maintenant, il y a deux choses à souligner à propos de ce «bourrelet». La première, c’est qu’il représente un surplus de masse, qui exerce donc un surplus de force gravitationnelle. Comparé à la totalité de la gravité terrestre, ce n’est pas grand-chose, mais cela reste une force qui agit. La seconde, c’est que ce bourrelet est toujours légèrement décalé, légèrement en avance par rapport à la Lune parce que la Terre tourne sur elle-même en 24 heures, alors que la Lune met 28 jours à compléter un tour de la Terre.

Et ce dernier point est capital : comme l’orbite lunaire va dans le même sens que la rotation terrestre, cela signifie que le petit surplus de force gravitationnelle du bourrelet fait accélérer la Lune.

Compte tenu des distances et des masses impliquées, l’accélération est infinitésimale. Pour vous donner une idée, sachez que plus un satellite file rapidement sur sa course orbitale, plus il s’éloigne de sa planète — et l’accélération dont on parle ici fait s’éloigner la Lune au rythme de… 3 cm par année. C’est comparable à la vitesse à laquelle poussent les ongles, alors la distance Terre-Lune est d’environ 380 000 km. Presque rien, quoi.

L’accélération de la Lune n’est cependant qu’un des deux côtés d’une même médaille. Car ultimement, d’où vient l’énergie qu’il faut pour la faire orbiter plus vite ? De la rotation terrestre, sur laquelle notre satellite naturel agit comme une sorte d’ancre. À mesure que la Lune accélère, la Terre tourne de moins en moins vite sur elle-même. Encore une fois, c’est infinitésimal, mais c’est suffisant pour faire une différence notable sur de longues périodes.

Des géologues ont d’ailleurs été capables d’en prendre des mesures très concrètes. On connaît en effet des roches qui se sont formées par l’accumulation de sédiments dans des circonstances telles que l’on peut encore discerner, même des millions d’années plus tard, l’effet de chaque marée individuelle. En analysant les caractéristiques des couches de sédiments que chaque cycle de marée a laissé derrière lui dans des roches de l’Australie, un chercheur a pu estimer que chaque journée durait environ 22 heures il y a 620 millions d’années — et même autour de 18 heures il y a 2,45 milliards d’années.

La Terre a eu le même genre d’effet de marée sur la Lune, et en a ralenti la rotation jusqu’à la synchroniser avec sa révoltuion. La différence est que comme la Terre est beaucoup plus massive, elle exerce des forces plus grandes sur la Lune, et son inertie (sa résistance aux forces exercées par la Lune) est plus importante. C’est pourquoi la Terre n’a pas encore synchronisé sa rotation avec l’orbite lunaire. Cela finira éventuellement par arriver, mais il faudra être patient : on estime que cela prendra encore… 50 milliards d’années.

Pour en savoir plus :

- George E. Williams, «Geological Constrait on the Precambrian History of Earth’s Rotation and the Moon’s Orbit», Reviews of Geophysics, 2000, https://bit.ly/2BW1q8P

- Fraser Cain, «When Will Earth Lock to the Moon ?», Universe Today, 2016, https://bit.ly/2AZupaf

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

Auto électrique : va-t-on manquer de watts-heure ?

SCIENCE AU QUOTIDIEN / «On parle beaucoup, ces temps-ci, de remplacer les voitures à essence par des voitures à l'électricité. Et c’est tant mieux : notre planète a bien besoin que la pollution diminue. Mais je n'ai jamais vu d'étude qui évaluerait la quantité d'électricité qui serait nécessaire si tous les véhicules routiers fonctionnaient à l'électricité. Au Québec, on se targue d'avoir beaucoup d'électricité mais déjà, lors de grands froids, nous sommes en déficit ! En outre, je me pose de sérieuses questions sur la capacité des provinces et États voisins, qui n’ont pas nos réserves d’électricité propre, de répondre à cette demande. Auront-elles besoin de construire des centrales nucléaire, au gaz ou au charbon ?», demande Gilles Lamontagne, de Leclercville.

D’après la version 2018 de L’état de l’énergie au Québec, un rapport publié annuellement par la Chaire de gestion du secteur de l’énergie des HEC, les voitures et les camions légers parcourent en moyenne 13 500 km par année dans la Belle Province. Histoire de faire un calcul conservateur (au sens de «pessimiste»), mettons les choses au pire et arrondissons à 15 000 km/an.

Ce même rapport indique qu’il y avait 5,2 millions de véhicules personnels en 2014. Toujours dans le même esprit conservateur, supposons que nous sommes rendus à 6 millions de véhicules personnels aujourd’hui. Cela nous fait collectivement un grand total de 15 000 km/an*véhicule x 6 000 000 véhicules = 90 milliards de km parcourus au volant de nos bagnoles chaque année.

Maintenant, combien d’énergie consomme un véhicule électrique pour une distance donnée ? Pour les modèles 2018, on trouve sur le site de Ressources naturelles Canada des chiffres allant de 15,5 kilowatt-heure (kWh, donc l’énergie dépensée par 155 ampoules de 100 W qui seraient allumées pendant 1 heure complète) par 100 kilomètres à 20 kWh/100 km pour les véhicules tout-électriques les plus populaires, comme la Chevrolet Bolt, la Hyundai Ioniq EV et la Nissan Leaf. Mais encore une fois, soyons pessimistes (après tout, il est plus énergivore de rouler en hiver dans la neige) et prenons le cas le plus gourmand, soit l’utilitaire-sport de Tesla, le Model X P100D, qui «brûle» 25 kWh/100 km.

Si tout le parc automobile du Québec était converti en tout électrique et qu’il consommait autant que le SUV de Tesla, cela nous ferait une consommation totale de 90 milliards de km/an x 25 kWh/100 km = 22 500 000 000 kWh. Rendu là, autant éliminer quelques zéros inutiles et exprimer cette quantité d’énergie en «térawatts-heure» : 22,5 TWh.

Est-ce beaucoup ? Est-ce que les fameux «surplus» d’Hydro-Québec, que l’on dit énormes, pourraient couvrir cette nouvelle demande ? Eh bien non : dans son Plan d’approvisionnement 2017-2026, la société d’État évalue ses surplus annuels à… 10 TWh. C’est clairement insuffisant pour couvrir ces futurs besoins. Et pour tout dire, ces 22,5 TWh représenteraient une part substantielle de la production totale d’Hydro-Québec, qui fut de 177 TWh l’an dernier. Ce qui indique qu’il y aurait du travail à faire pour alimenter autant de voitures électriques.

Mais cela ne constituerait pas un obstacle infranchissable non plus, dit le physicien de l’Université de Montréal Normand Mousseau, qui a codirigé la Commission sur les enjeux énergétiques du Québec. Cela «ne représente que le huitième de la consommation totale d’électricité au Québec. Il suffirait d’un peu d’efficacité énergétique dans l’utilisation de l’électricité pour le chauffage ou de réduire les exportations qui ne sont pas rentables (hors heures de pointe) pour fournir cette énergie. On exporte plus de 30 TWh par année», m’a-t-il écrit lors d’un échange de courriels.

Il y aurait aussi des économies à faire ailleurs, lit-on dans le rapport que M. Mousseau a cosigné en 2014, et qui donneraient un coup de pouce. Qu’on en juge simplement par ce passage (entre autres) : «À Montréal, 39 % des citoyens qui demeurent à moins de 1 kilomètre de leur travail utilisent tout de même leur voiture pour s’y rendre. Dans l’ensemble du Québec, cette proportion atteint 48 %.»

On peut aussi, par ailleurs, imaginer que ce n’est pas forcément Hydro-Québec qui ajoutera de la puissance afin de recharger les voitures électriques. Avec le prix des panneaux solaires et des batteries qui chute continuellement depuis des années, bien des particuliers pourraient éventuellement s’installer leurs propres systèmes de recharge.

Mentionnons enfin que oui, il est vrai que nos voisins des autres provinces et de la Nouvelle-Angleterre n’ont pas la chance d’avoir une géographie aussi propice à l’hydroélectricité que nous, et que par conséquent leur production d’électricité est très dépendante des combustibles fossiles et du nucléaire. Cependant, il faut savoir que le nucléaire ne produit presque pas de gaz à effet de serre — donc en ajouter ne serait pas un problème, du moins pas de ce point de vue. Mais de toute manière, les énergies renouvelables sont déjà la principale source de nouvelle capacité électrique aux États-Unis. D’après des données gouvernementales, il s’est installé pour environ 11 gigaWatts de solaire et d’éolien chez l’Oncle Sam en 2017, contre à peu près 8,5 GW de centrales au gaz naturel (il n’y en a pas eu de nouvelle au charbon). Notons qu’il y a eu plus de centrales aux combustibles fossiles qui ont cessé leurs opérations l’an dernier (10,5 GW) qu’il n’y en a eu de nouvelles qui entraient en fonction.

Entendons-nous, les États-Unis sont encore loin de tirer la majeure partie de leur électricité de sources renouvelables, mais sur la question de la production à ajouter pour alimenter un éventuel parc auto tout-électrique, que pose M. Lamontagne, disons qu’il y a déjà un bout de chemin de fait.

Science

Bonne pour le cœur, l'huile de poisson?

SCIENCE AU QUOTIDIEN / «En lisant les journaux de lundi, j’ai vu des contradictions dans des reportages qui traitaient pourtant des deux mêmes études. Le Washington Post titrait : «Les suppléments d’huile de poisson protègent le cœur», alors que le New York Times indiquait : «Les suppléments de vitamine D et d’huile de poisson inefficaces pour prévenir le cancer et les maladies cardiaques». Alors où est l’erreur ? Qui a raison ?», demande Gérard Bélanger, de Québec.

Ces deux grands journaux américains furent loin d’être les seuls à se contredire au sujet de cette paire d’études. La chaîne CNN a titré sur son site : «Les suppléments d’oméga-3 et de vitamine D ne préviennent pas le cancer ou les maladies du cœur, selon une étude». De ce côté-ci de la frontière, la manchette de CBC se lisait : «La vitamine D réduit le risque de mourir du cancer, l’huile diminue les chances d’attaque cardiaque, suggère une étude», et le texte de l’agence Reuter publié par la société d’État parlait même d’une réduction «dramatique» des risques de crise cardiaque. L’Associated Press, elle, parlait plutôt de «résultats mitigés». Alors voyons ce qui a bien pu se passer pour que la presse tire ainsi dans toutes les directions.

Le 10 novembre dernier, le prestigieux New England Journal of Medicine a publié deux articles du groupe de recherche VITAL (acronyme bien imparfait pour Vitamin-D and Omega-3 Trial), qui détaillaient les résultats d’un vaste essai clinique au sujet des effets protecteurs des suppléments d’omégas-3 d’origine marine (l’huile de poisson) et la vitamine D. Leur consommation a littéralement explosé dans les années 2000, ayant été multipliée par 10 pour les suppléments d’huile de poisson et par 4 pour la vitamine D, justement parce qu’on entend souvent dire qu’ils sont «bons pour le cœur» et/ou qu’ils préviennent le cancer.. On parle ici d’un marché qui représente plusieurs dizaines de milliards $ à l’échelle mondiale.

Or, c’est un brin désespérant, les bases scientifiques sur lesquelles s’appuyaient toutes ces ventes de pilules ne sont pas très solide, pour ne pas dire «pas solides du tout», explique un éditorial du NEJM qui a accompagné le duo d’articles. Plusieurs études comparant des populations — ce qui n’est pas idéal — avaient trouvé que celles qui mangent plus de poisson avaient moins de problèmes cardiaques. On avait des essais cliniques — le «nec plus ultra» de la recherche médicale et nutritionnelle — sur des gens qui présentaient un risque élevé d’avoir des problèmes cardiovasculaires, mais pas d’essai clinique en bonne et due forme sur la population en général. Et ce genre d’essai existait au sujet de la vitamine D, mais ils étaient de faible envergure.

Ce sont ces «trous» que VITAL visait à remplir : plus de 25 000 personnes ont participé à l’essai clinique. Certains ont reçu des suppléments de vitamine, d’autres des suppléments d’huile de poisson, d’autres ont pris les deux, et un dernier groupe n’a reçu que des placebos. Tout ce beau monde a été suivi pendant une période d’un peu plus de 5 ans.

Malgré ce que suggère la confusion médiatique, les résultats sont on ne peut plus clairs. Chez ceux qui ont pris des oméga-3, 3 % ont subi des accidents cardiovasculaires majeurs, contre 3,2 % pour le groupe placebo. Pour les diagnostics de «cancers invasifs», les taux sont de 6,3 % et 6,2 %. Aucune de ces différences n’est significative sur le plan statistique. Le portrait est le même pour la vitamine D : les taux d’accidents cardiovasculaires (3,1 % dans le groupe contrôle vs 3,2 % dans placebo) et de cancers invasifs (6,1 % vs 6,4 %) sont statistiquement identiques.

Les deux articles et l’éditorial du NEJM qui les accompagnaient sont explicites sur ce point : «la supplémentation en huile de poisson et en vitamine D dans cet essai clinique n’a pas réduit l’incidence de cancers invasifs ni (…) d’accidents cardiovasculaires majeurs.» Difficile d’être plus clair.

Ce qui a créé de la confusion malgré tout, c’est manifestement le fait que les chercheurs de VITAL ont pris plusieurs mesures différentes pour jauger l’effet des suppléments, dont certaines semblent avoir donné des résultats positifs. Ainsi, les oméga-3 ont été associés à une baisse de 28 % pour un sous-type précis d’«accidents cardiovasculaires majeurs», soit l’infarctus du myocarde. Pour sa part la vitamine D, si elle n’a pas réduit le nombre de cancers invasifs, semble avoir amoindri de 17 % les décès dû aux cancers.

Cependant, ces «bienfaits» apparents viennent avec un avertissement dans les articles du NEJM : il s’agissait de mesures dires secondaires, et il y en avait plusieurs. Or en statistique quand on fait des comparaisons, on doit faire des tests pour déterminer si les différences entre deux groupes (ici, le groupe traité et le groupe placebo) sont significatives. Mais il y a toujours une possibilité d'erreur, alors plus on fait de comparaisons, plus on risque de produire des «faux positifs» — les tests disent que la différence est réelle alors qu’elle est due au hasard. Il existe des outils statistiques pour contourner ce problème, mais les articles du NEJM mentionnent qu’ils ne s’en sont pas servis et ils avertissent d’«interpréter ces [mesures secondaires] avec prudence».

De toute évidence, cette subtilité statistique a échappé à plusieurs de mes collègues. La vraie conclusion de cet essai clinique, c’est que non, les suppléments de vitamine D et d’huile de poisson ne protègent aucunement contre le cancer ou les maladies cardiaques.

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

L'éternelle question du sein et du biberon...

ANALYSE / C'est une chose qui m'avait bien étonné, il y a quelques mois. Au milieu du débat qui avait entouré l'opposition américaine à une position de l'OMS en faveur de l'allaitement naturel, certaines voix s'étaient élevées pour dire qu'au-delà de cette joute politique, les autorités de santé publique (pratiquement toutes très en faveur) en font trop. Qu'elles mettent trop de pression sur les mères pour qu'elles allaitent, et pour des raisons parfois douteuses. J'ai voulu en savoir plus...

Alors j'y ai consacré ma dernière chronique «Polémique» dans Québec Science. Pour la résumer très sommairement (je vous laisse la lire), je pense que tout le monde convient que l'allaitement doit être le premier choix, celui qui est d'abord encouragé par les médecins et infirmières. Mais il est aussi vrai qu'on peut (parfois) aller trop loin dans cette voie et que, comme le soulignait la blogueuse scientifique américaine Kavin Senapathy, les avantages pour le bébé ne sont pas tous prouvés aussi solidement qu'on le croirait.

J'aimerais juste ajouter à cette chronique quelques détails de la plus récente revue de littérature scientifique que l'OMS a publié à ce propos. Ses auteurs ont examiné et regroupé les données au sujet de cinq bienfaits allégués qu'aurait l'allaitement pour les enfants. Voici (très sommairement) les conclusions, point par point :

  • Cholestérol : aucun effet.
  • Pression sanguine : l'allaitement naturel semble avoir un effet, mais il est trop mince pour être cliniquement significatif.
  • Diabète : résultats contradictoires, il faut faire plus de recherche.
  • Obésité : effet protecteur possible, mais pas sûr. Les études de bonne qualité indiquent une réduction du risque de 12 %, mais cela peut être à cause de facteurs confondants. les mères qui allaitent sont en moyenne plus instruites, plus riches et plus soucieuses de la santé, et la réduction des taux d'obésité peut venir de là. Dans les pays moins développés, où les mères de toutes les classes sociales donnent le sein à peu près également, on n'observe pas d'effet sur l'obésité.
  • Facultés mentales : les preuves d'un effet positif sur le QI sont «solides», mais l'effet est d'une ampleur «modeste». Par rapport aux enfants qui ont reçu le biberon, les études de bonne qualité indiquent un écart de +2,2 points de QI chez les enfants allaités.

Bref, je le répète, l'allaitement naturel doit être le «mode par défaut», le premier choix, personne ne le conteste. Mais il ne faudrait pas non plus faire comme si c'était le seul choix valide — ses avantages sur la formule pour bébé ne sont pas énormes.

Science

Le bouchon venu de nulle part

SCIENCE AU QUOTIDIEN / «Je me demande ce qui cause les bouchons sur l’autoroute. Je suis conscient qu’une entrave comme un accident peut ralentir le flux des voitures, mais il arrive parfois que l’on puisse se retrouver en file pouvant rouler aussi lentement que 20 km/h sans qu’il n’y ait aucune entrave sur la voie. Si tout le monde suit la limite de 60 à 100 km/h, ne devrions-nous pas avancer à au moins un minimum de 60 km/h ?» demande Patrick Séguin, de Sherbrooke.

Si l’on me permet un rapprochement un brin fantasque, nous avons ici l’équivalent routier de la célébrité des sœurs Kardashian : les médias en parlent parce qu’elles sont célèbres, et elles sont célèbres parce que les médias en parlent. Et de la même manière, les voitures s’arrêtent parce qu’il y a un bouchon de circulation, et il y a un bouchon parce que les voitures s’arrêtent.

C’est du moins ce que l’on se dit quand, après avoir soupçonné un accident, on découvre en sortant de l’embouteillage que toutes les voies étaient parfaitement libres. Mais le fait est que c’est un phénomène qui a fait l’objet de nombreux travaux scientifiques et qu’il obéit aux lois de la physique — ce qui n’est pas sûr dans le cas des Kardashian, mais c’est une autre question.

Une équipe japonaise l’a même testé empiriquement il y a une dizaine d’années. Sur une petite piste circulaire de 230 mètres de circonférence, les chercheurs ont fait rouler 22 ou 23 voitures (cela variait d’un essai à l’autre) en demandant aux conducteurs de maintenir une vitesse de 30 km/h et une distance constante avec la voiture d’en avant. Il n’y avait aucun obstacle sur la piste, aucun resserrement, rien. Mais inévitablement, des embouteillages se sont formés à chaque essai, au bout de quelques minutes.

La raison première, expliquent-ils dans leur article paru en 2009 dans le New Journal of Physics, c’est la densité de la circulation. S’il n’y avait eu, par exemple, que 2 voitures sur la piste, elles auraient été espacées de plus de 100 mètres ; si l’une d’elle avait freiné pour un moment, l’autre n’aurait pas eu à le faire, ou alors elle aurait pu décélérer très progressivement, ce qui aurait donné le temps à la première de reprendre sa vitesse. Mais à 23 voitures, c’est une autre histoire. Si l’on suppose que chacune mesure 4 m de long, cela ne laisse que 6 m d’espacement moyen entre les véhicules, ce qui est peu.

Dans pareilles conditions, dès qu’une voiture freine de manière un tant soit peu brusque, l’autre derrière elle doit faire de même. Et, point important, ce second conducteur doit ralentir plus abruptement encore que le premier parce qu’il ne peut pas freiner simultanément — il y a forcément un temps de réaction. S’il y a une troisième voiture qui suit de proche, elle devra à son tour ralentir encore plus que la seconde, et ainsi de suite jusqu’à ce que, passé un certain point, toute la file soit forcée de s’arrêter complètement avant de repartir. C’est ce qui se passe sur nos autoroutes : quand le trafic devient suffisamment dense, alors le moindre freinage brusque, le moindre écervelé qui «coupe» une voiture peut provoquer une sorte de réaction en chaîne qui mènera à l’arrêt momentané de la circulation, plus ou moins loin derrière.

Maintenant, il y a deux choses à noter au sujet de ces bouchons. La première, c’est que l’endroit où le trafic s’immobilise n’est pas fixe, mais se propage vers l’arrière. En effet, les premières voitures qui doivent s’immobiliser le font à un endroit précis, mais repartent peu de temps après ; celles qui suivent doivent par définition s’immobiliser un peu derrière les premières, avant de repartir à leur tour ; et ainsi de suite. Le résultat est que le point où les voitures s’arrêtent progresse vers l’arrière à la manière d’une vague — les mathématiciens et les physiciens qui ont étudié la question parlent littéralement d’une «onde de trafic» —, typiquement à une vitesse de 15 à 20 km/h, selon une étude parue en 2010 dans les Philosophical Transactions of the Royal Society A : Mathematical, Physical and Engineering Sciences.

Et pour ceux qui seraient plus visuels, un chercheur de l’Université Temple (Pennsylvanie), Benjamin Seibold, a réalisé cette simulation vidéo:

Sciences

L'océan qui est mort au pied des Appalaches

SCIENCE AU QUOTIDIEN / «Lors d’un récent séjour à Berthier-sur-mer, quelle ne fut pas ma surprise d’observer des dépôts calcaires sur le sol, comme s’ils étaient orientés verticalement et non horizontalement. Généralement, je m’attendrais à voir de telles stratifications une par-dessus l’autre en regardant une paroi, comme j’en voyais dans mon enfance — j’ai grandi à proximité du fleuve aux Grondines. Comment les dépôts ont-ils pu s’accumuler de cette manière? Ont-ils été retournés par un cataclysme?» demande Daniel Guilbault, de Saint-Augustin-de-Desmaures.

Cela peut effectivement paraître étonnant puisque les roches que l’on voit à Berthier-sur-Mer — comme dans toutes les Appalaches — sont des roches dites sédimentaires: elles se sont formées par l’accumulation de débris divers (sable, coquilles, cadavres, algues mortes, etc.) au fond de l’océan, et ces sédiments ont par la suite été transformés en roche par la pression continue de l’eau. Alors forcément, les couches que l’on voit sur la photo ci-bas que m’a envoyée M. Guilbault se sont à l’origine empilées les unes sur les autres, pas une à côté de l’autre. Que s’est-il donc passé depuis?

Les roches des environs de Berthier-sur-Mer font partie d’une formation géologique nommée groupe de Saint-Roch, indique le chercheur en géologie de l’Université Laval Georges Beaudoin. Il s’agit de roches qui se sont formées il y a environ 500 millions d’années. À l’époque, note M. Beaudoin, les Appalaches n’existaient pas encore, et c’est justement ce qui s’est passé par la suite qui explique pourquoi les couches sont superposées autour de Grondines et juxtaposées à Berthier.

Comme on l’a déjà vu dans cette rubrique, les continents sont faits de plaques tectoniques, que l’on peut se représenter comme des espèces d’immenses «radeau» de pierre qui flottent sur la roche en fusion située sous la croûte terrestre, à plusieurs dizaines de kilomètres de profondeur. Comme il y a des mouvements dans cette roche en fusion, cela fait dériver les plaques tectoniques. Très lentement, soit, mais sur des centaines de millions d’années, les changements sont spectaculaires.

Ainsi, les roches de Berthier se sont formées au fond d’un océan ancien, Iapetus, qui était bordé (entre autres) par deux anciens continents nommés Laurentia et Baltica. Le premier, comme son nom l’indique, est grosso modo la plaque du Bouclier canadien avec les Laurentides actuelles, et le second forme maintenant le nord-ouest de l’Europe. Et quand on vous dit que la tectonique des plaques peut être spectaculaire, voyez plutôt: il y a un peu plus de 500 millions d’années, ces continents étaient situés sous les tropiques (!) de l’hémisphère sud (!!), c’est vous dire comme ils ont dérivés…

Sur une période d’environ 150 millions d’années, lit-on sur le site du Parc national de Miguasha, les continents qui entouraient Iapetus se sont rapprochés jusqu’à refermer complètement l’océan. Dans le processus, Laurentia et Baltica sont entrés en «collision», et les fonds marins qui gisaient entre les deux s’en sont trouvés (très) déformés, jusqu’à en relever hors de l’eau. C’est de cette manière que les Appalaches sont «nées», ou du moins ont «commencé à naître», puisque cette chaîne de montagnes s’est formée en plus d’une étape — mais c’est une autre histoire.

L’essentiel à retenir, ici, est qu’au cours de ce processus, certaines couches sédimentaires qui s’étaient jusque là tenue bien sagement à l’horizontale ont été soulevées jusqu’à en devenir verticale. C’est ce qu’a observé M. Guilbault à Berthier-sur-Mer.

En ce qui concerne la couleur des couches sur la photo (ci-bas), M. Beaudoin indique que «dans les strates rouges, on a simplement des couches qui se sont formées dans de l’eau plus oxydées ou qui se sont oxydées par la suite, et les couches plus grises semblent être des calcaires [moins riches en fer] ou des grès [ndlr: une roche faite de sable comprimé]».

Maintenant, cela peut sembler étonnant, mais ces redressements de roches sédimentaires ne sont pas particulièrement rares, du moins pas aussi exceptionnels qu’on serait tenté le penser a priori. Il suffit simplement pour s’en convaincre de prendre l’exemple du Rocher Percé: si l’on regarde attentivement la photo ci-haut, on se rend vite compte que le plus célèbre caillou du Québec est fait d’une série de strates orientées à la verticale. Ces couches se sont elles aussi formées à l’horizontale dans le fond d’un océan avant que la tectonique des plaques ne les soulève et ne les ré-incline à la verticale. Attention, avertit M. Beaudoin, ça ne s’est pas passé en même temps que la roche autour de Berthier-sur-Mer: la pierre du Rocher Percé est plus récente par plusieurs dizaines de millions d’années et s’est soulevée plus tard (ce fut une autre «étape» de la naissance des Appalaches). Mais le principe est le même et cela montre qu’il est relativement commun de voir des roches sédimentaires dont les couches sont orientées à la verticale.

Enfin, explique M. Beaudoin, les strates de la roche autour de Grondines sont à l’horizontale parce qu’elles font partie d’un autre ensemble géologique, les basses terres du Saint-Laurent. Ce sont elles aussi des roches sédimentaires, mais elles n’ont presque pas subi de déformations. «Le front de déformation [en ce qui concerne la formation des Appalaches], c’est ce qu’on appelle la faille de Logan», dit-il. C’est cette fameuse faille qui remonte le Golfe Saint-Laurent et bifurque vers le sud en amont de Québec.

Les roches sédimentaires au sud de cette faille ont été soulevées et peuvent être à la verticale dans certains secteurs (mais c’est loin d’être le cas partout); celles des basses terres, comme à Grondines, se trouvent au nord de la faille Logan n’ont pas subi de «cataclysme» et reposent toujours à l’horizontale.

Science

Cet étrange délai à la télévision...

SCIENCE AU QUOTIDIEN / «J’aimerais que l’on m’explique comment il se fait qu’il y a souvent un délai, parfois important, dans les échanges au téléjournal lorsque le chef d’antenne parle à un journaliste qui n’est pas en studio. Si on peut parler et se comprendre instantanément au téléphone, il doit bien y avoir moyen d’éliminer cet agaçant délai, non ?» demande Yvan Dion, de La Malbaie.

Il est effectivement bien étonnant qu’en cette ère de connexion ultra-haute-vitesse, une technologie datant du même millénaire que le Moyen Âge transmette la voix plus rapidement (enfin, parfois) que le Web. Mais c’est pourtant bien ce qui se passe, du moins à l’occasion.

«En gros, c’est ce qu’on appelle la latence dans les réseaux, et elle peut venir de quatre sources différentes», explique Florent Parent, professionnel de recherche en informatique à l’Université Laval qui s’occupe également du réseau reliant les superordinateurs de Calcul Canada.

Le premier type de délai et sans doute le plus simple à comprendre, dit-il, est la propagation du signal. Même dans un réseau de fibre optique ou un réseau sans fil où les signaux voyagent essentiellement à la vitesse de la lumière, soit près de 300 000 kilomètres par seconde, cela peut faire une différence dans certaines circonstances.

«Par exemple, illustre l’informaticien, dans le réseau qui relie les universités [ndlr : la recherche implique souvent l’envoi d’énormes fichiers de données], si je me branche ici à l’Université Laval et que j’envoie un ping [ndlr : un petit signal qui fait un aller-retour afin de vérifier l’état d’une connection] à Montréal, on parle de 7 millisecondes (ms) de temps de retour. Ce n’est pas assez pour être perceptible dans une conversation puisque en bas de 100 ms, on ne s’en rend pas vraiment compte. Dans le cas des conversations à la télé, il doit y avoir d’autres sources de délai. Et une hypothèse qui me vient en tête, c’est que peut-être que quand les journalistes sont sur le terrain, ils utilisent un réseau sans-fil, et là la communication se fait par satellite. Et ça, ça va allonger le délai de propagation.»

Souvent, en effet, les satellites de télécommunication sont placés sur des orbites géostationnaires, ce qui signifie qu’ils mettent exactement 24 heures à faire le tour de la planète — par conséquent, ils demeurent toujours au-dessus du même point sur Terre, d’où le nom de géostationnaire. Or ces orbites sont situés à une altitude de près de 36 000 km, si bien que même à la vitesse de la lumière, l’aller-retour prend (36 000 km x 2) ÷ 300 000 km/s = 240 millisecondes. Dans le cas d’une conversation au téléjournal qui passerait par ce genre de satellite, c’est un délai suffisamment long pour qu’on s’en rende compte.

Mais il peut aussi y avoir autre chose, poursuit M. Parent : le délai de traitement. «C’est bien beau la vitesse de la lumière, dit-il, mais il faut compter aussi le fait qu’on a des appareil qui reçoivent la voix, qui la convertissent en numérique, (…et) il y a un traitement de ça et une compression qui vont être faites, ça va ensuite être mis dans des sortes de «paquets» sur des commutateurs [un appareil qui est le point de convergence d’un réseau, ndlr], et souvent il va y avoir une redondance qui va être ajoutée au cas où des paquets seraient perdus, C’est ensuite envoyé, et chaque commutateur qui se trouve dans le chemin, entre le point de départ et le point d’arriver, doit traiter ça, et tout ça  prend du temps, alors ça va ajouter un délai de traitement.»

Ces délais sont généralement minimes, mis pas toujours, et ils s’ajoutent aux autres.

Une troisième source de délai est la «mise en file d’attente», indique notre informaticien. «Ça, on ne peut pas vraiment l’estimer d’avance parce que ça dépend de la quantité de trafic sur le réseau. Quand tout va bien, le délai à peu près nul. Mais s’il y a un gros événement où beaucoup le monde veut des données en même temps (…) où s’il y a un sursaut ponctuel (burst, en anglais) d’activités sur le réseau, alors tout ne peut pas être traité instantanément, alors le système fait une file d’attente. Habituellement, c’est traité selon le principe du premier arrivé, premier sorti, mais il peut y avoir des priorités.»

Enfin, le dernier type de délai est celui de la transmission, qui dépend de la qualité de la carte réseau d’un ordinateur, explique M. Parent. Les meilleures disponibles permettent de transmettre autour de 100 gigabits (et même plus) par seconde, mais une carte de mauvaise qualité peut introduire des délais dans la communication.

En plus de la carte, le protocole de transmission peut aussi faire une différence. «Le protocole internet le plus utilisé et que les gens connaissent le plus, c’est le fameux TCP/IP. Ce qu’on sait moins, c’est que dans ce protocole-là, à chaque petit paquet de données qui est envoyé [ndlr : les données sont toujours divisées en «petits paquets» qui sont envoyés séparément], TCP doit avoir un accusé qu’il a été bien reçu pour assurer une fiabilité de transmission. Ça date des années 80, une époque où les réseaux étaient beaucoup plus lents que maintenant, et c’est pour ça que des modifications ont été apportées au TCP/IP pour augmenter la performance, mais ça reste un travail d’ingénierie à chaque bout du réseau pour maximiser la vitesse.»

Bref, c’est la somme de tous ces délais qui fait la «latence» dans les communications. D’un système à l’autre, d’une situation particulière à l’autre, ils peuvent varier énormément, si bien qu’il est impossible de dire exactement qu’est-ce qui s’est passé dans les cas qui ont tant agacé notre lecteur de La Malbaie. Mais quand on les additionne, on comprend pourquoi il arrive, de temps à autre, que la discussion entre les journalistes et les chefs d’antenne se fasse avec un petit délai.

***

ÉCRIVEZ-NOUS Vous vous posez des questions sur le monde qui vous entoure? Qu'elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d'y répondre. À nos yeux, il n'existe aucune «question idiote», aucune question «trop petite» pour être intéressante! Alors, écrivez- nous à  jcliche@lesoleil.com

Jean-François Cliche

De bombes et d'icebergs...

SCIENCE AU QUOTIDIEN / «Comme les ouragans prennent vie à partir des côtes africaines et gagnent en puissance en se nourrissant de la chaleur des eaux chaude de l’Atlantique, serait-il possible de les «intercepter» lors de leur formation pour à tout le moins, les affaiblir ? Par exemple, en s’inspirant des Émirats arabes qui songent à remorquer des iceberg pour s’approvisionner en eau douce, est-ce que de remorquer des mastodontes gelés au début de la trajectoire de formation des ouragans pourrait avoir une incidence quelconque ? C’est un peu farfelu j’en conviens, mais ça m’intrigue quand même», demande Simon Côté.

Supposons que l’on soit capable de remorquer un grand iceberg en forme de cube et de 100 mètres d’arête. Ce serait une sacrée commande, même en y mettant plusieurs remorqueurs, puisque notre «glaçon» pèserait environ 910 millions de kg, mais passons. Et supposons aussi que l’on parvienne à amener le colosse intact jusque dans les eaux tropicales à une température de –10°C.

Pour faire fondre toute cette glace, puis en chauffer l’eau jusqu’à 26 °C (on ne veut pas atteindre 26,5, rappelons-le), il faut de l’énergie. Beaucoup d'énergie : ce sont des montagnes de chaleur, littéralement, que notre iceberg drainerait autour de lui.

D’abord, chaque gramme de glace prend 2 joules d’énergie pour gagner 1°C (pour comparaison, une ampoule de 100 watts brûle 100 joules par seconde). Alors pour chauffer nos 910 millions de kg de glace de –10°C jusqu’à 0°C, il faut un total de 18 200 gigajoules (Gj). Ensuite, pour que la glace fonde, il ne suffit pas de l’amener à 0°C, contrairement à ce qu’on pense souvent. Il faut aussi lui fournir un petit surplus d’énergie nommé chaleur latente de fusion, qui sert grosso modo à rompre les liens qui tiennent les molécules d’eau ensemble dans la glace. Facture énergétique : 333 joules par gramme, pour un total de 303 000 Gj. Et enfin, pour chauffer cette eau de 0° jusqu’à 26 °C, il faut compter 4,2 joules par gramme, ou près de 100 000 Gj en tout.

Au final, notre cube de glace de 100 mètres de côté drainerait à peu près 420 000 Gj en fondant, puis en se réchauffant jusqu’à 26 °C. Ce qui serait suffisant pour refroidir de 1°C la température de 100 millions de m3 d’eau.

Maintenant, la question est : est-ce que cela suffirait à faire une différence ? Et la réponse est clairement «non, même pas proche». Les ouragans prennent généralement forme dans les eaux tropicales (de 8 à 20° de latitude) entre l’Afrique et l’Amérique du Sud, quand la température de surface est de plus de 26,5 °C. Il faut aussi que d’autres conditions soient réunies, notamment des caractéristiques de vent et d’humidité en altitude, mais concentrons-nous sur la température de l’eau.

Cette semaine, d’après les cartes de température [https://bit.ly/2QdSSzx] que l’on trouve sur le site de la National Oceanic and Atmospheric Administration (NOAA), les eaux de surface de l’Atlantique dépassaient le seuil de 26,5 °C entre approximativement 8 et 13° de latitude et entre 60° et 30° de longitude ouest. Cela nous fait donc, de manière conservatrice, une superficie de près de 1,5 million de km2. En partant du principe que la «surface» inclut le premier mètre, on parle ici de 1500 milliards de mètres cubes d’eau à refroidir.

C’est donc dire qu’il faudrait 15 000 icebergs comme celui de notre exemple pour abaisser la température de toute cette eau de seulement 1°C. Et c’est sans compter le grand pan d’océan autour des Caraïbes, où les ouragans peuvent prendre beaucoup de force. Et cela fait abstraction du fait que les eaux de surface dépassent assez souvent les 26,5 °C par plusieurs degrés.

Bref, même en prenant un scénario très optimiste où notre iceberg ne fondrait pas avant d’arriver dans les Tropiques, il ne serait pas grand-chose de plus qu’une goutte d’eau dans l’océan…

* * * * *

«Je me demande pourquoi on n’est pas capable de briser un ouragan lors de sa formation, avant qu’elle ne devienne très forte. Y a t-il des sortes de bombe que l’on pourrait faire sauter dans l'œil dès sa formation pour la briser», demande Claude Duchesne, de Stoneham.

L’idée n’est pas neuve, loin de là. Elle a même fait l’objet de quelques travaux d’un chercheur américain dans les années 50, qui estimait qu’une petite bombe nucléaire bien placée pouvait faire le travail. Il a étudié l’effet atmosphérique de certains essais nucléaires de l’époque et fait quelques calculs, mais l’idée n’a jamais eu de suite vraiment concrète.

Et ce n’est peut-être pas une mauvaise chose, d’ailleurs. Au-delà du fait (assez gênant, merci) que ce «plan» impliquerait de saupoudrer des grandes quantités de radioactivité dans l’atmosphère et dans l’océan, il y a ce petit détail technique que cela a très, très peu de chances de fonctionner, pour deux raisons, lit-on sur le site de la NOAA.

D’abord, comme pour l’iceberg, il y a une question d’échelle : l’énergie relâchée par un ouragan équivaut grosso modo à faire exploser une bombe nucléaire de 10 mégatonnes… à toutes les 20 secondes. Alors on peut difficilement penser qu’en faire sauter 2 ou 3 changerait grand-chose.

Ensuite, ce qui fait la force d’un ouragan, c’est l’intensité de la basse pression dans son «œil» : plus cette pression est basse, plus l’air des alentours sera aspiré fortement, et plus les vents seront puissants. Pour affaiblir un ouragan, il faudrait donc ajouter de l’air en son centre. Encore une fois, on parle de quantités si astronomiques qu’elles interdisent l’espoir d’y arriver un jour : de l’ordre de 500 millions de tonnes d’air qu’il faudrait souffler dans l’œil d’un cyclone de force 5 pour qu’il tombe à une force 2, selon les calculs de la NOAA. Mais de toute manière, ce n’est pas ce que les bombes font. Une explosion ne déplace pas d’air, ou en tout cas pas tellement. Cela envoie surtout une onde de choc qui, une fois passée, laisse les pressions inchangées derrière elle.

Sources :

  • Central Pacific Hurricane Center, Myths About Hurricanes, NOAA, s.d., https://bit.ly/2xy2CdB
  • Mark Strauss, Nuking Hurricanes : The Surprising History of a Really Bad Idea, National Geographic, 2016, https://bit.ly/2MaW9w2

Élections 2018

La fin des «comtés sûrs»?

Parmi tous les signes qui montrent qu’il se passe «quelque chose» d’énorme dans la politique québécoise par les temps qui courent, celui-ci n’est certainement pas le moindre: dans le Québec francophone, il ne semble plus y avoir de «châteaux forts», de ces circonscriptions dont on sait à l’avance de quel côté elles vont pencher puisqu’elles votent de la même manière depuis des décennies. Et cela vaut tant pour les fiefs péquistes que pour les libéraux, d’après les données du sondeur Mainstreet.

Ce dernier fait un sondage quotidien à l’échelle nationale, et ajoute depuis peu des enquêtes plus petites (autour de 600 répondants, marge d’erreur d’environ 4 %) à l’échelle de certaines circonscriptions particulières, à raison de quatre par jour. Or si l’ouest de l’île de Montréal est parti pour demeurer fermement dans le giron libéral, rien ne va plus dans le Québec francophone, où il ne semble plus exister le moindre «comté sûr», qu’il soit bleu ou rouge.

Éditoriaux

Le bordel

Il était écrit dans le ciel qu’en donnant de grands coups de pied dans les accords de libre-échange et le système de commerce international, le président Donald Trump allait faire des perdants partout, y compris dans sa propre cour. Personne ne sait maintenant quand on sortira de ce triste bordel.

Mardi, Washington a annoncé l’octroi de 12 milliards $ d’aide étatique aux fermiers des États-Unis. Il s’agissait d’une réaction aux tarifs douaniers imposés aux produits américains par la Chine, le Canada, le Mexique et l’Union européenne au cours des dernières semaines. Et ces tarifs étaient eux-mêmes une réponse aux tarifs imposés à ces pays par l’administration Trump sur l’acier et l’aluminium, en mars.

En un sens, c’est presque un bon signe: cela indique qu’au bout de 30 années d’efforts de décloisonnement du commerce international, nos économies sont devenues à ce point imbriquées les unes aux autres qu’une puissance ne peut plus tenter de forcer la main à ses partenaires sans se faire sérieusement mal à elle-même.

Mais en 2016, les Américains ont élu un leader suffisamment borné et mal avisé pour lancer la planète dans cette voie. L’obsession de M. Trump pour la balance commerciale — encore mercredi, il a tweeté que son pays avait «perdu» 817 milliards $ l’an dernier — marque une bien drôle de conception des échanges internationaux. Bien que les déficits commerciaux puissent avoir des inconvénients, il est loin d’être évident qu’ils sont intrinsèquement mauvais puisque pour chaque transaction des États-Unis avec l’étranger, il y a de part et d’autre des entreprises qui y trouvent leur compte. Autrement, l’échange ne se ferait pas.

Certes, il arrive à l’occasion qu’un pays tente de «tricher» d’une manière ou d’une autre afin de gonfler artificiellement ses exportations et de favoriser ses entreprises. La Chine, par exemple, est souvent accusée de vol de propriété intellectuelle, de manipuler sa devise et de subventionner ses compagnies de manière déguisée, surtout ses sociétés d’État. Et les accusations ne viennent pas que des États-Unis ou de parties intéressées.

Mais l’imposition unilatérale de tarifs douaniers n’est purement et simplement pas la bonne manière de combattre les pratiques déloyales. Typiquement, ce genre de guerre commerciale finit en un festival des représailles, où un pays décrète des sanctions contre un second à cause d’une injustice (perçue ou réelle), le second réplique en tarifant d’autres produits, ce à quoi le premier réagit en «beurrant» ensuite une nouvelle couche de droits de douane et/ou en allongeant des deniers publics pour «compenser» ses industries «victimes» de tarifs injustes, et ainsi de suite. C’est précisément pour cette raison qu’on a doté l’Organisation mondiale du commerce de mécanismes de règlement des disputes lors de sa création, en 1995, et la même chose vaut pour tous les traités de libre-échange. Pas plus tard qu’en juin dernier, d’ailleurs, l’Union européenne a entamé des démarches à l’OMC au sujet des pratiques chinoises sur la propriété intellectuelle.

L’Oncle Sam n’a pourtant jamais été désavantagé à l’OMC. D’après une compilation récente du Cato Institute, les États-Unis ont gagné 91 % des causes qu’ils ont amenées devant l’OMC et ont perdu 89 % de celles où ils étaient poursuivis (les pays membres ne se rendent jusqu’à l’arbitrage que lorsqu’ils sont pratiquement certains de gagner, d’où les pourcentages élevés).

Il reste deux ans, possiblement six, à M. Trump pour s’en rappeler. Et pour le reste du monde, il reste deux ans, possiblement six, à espérer que son successeur verra plus clair.