Science

L'«écho» des pensionnats autochtones

SCIENCE AU QUOTIDIEN / «En lisant votre article sur l’épigénétique («Darwin contre Lamarck, round 2»), je me demandais si on pouvait faire un lien avec la situation des autochtones, chez qui le diabète fait des ravages. La pauvreté et les changements dans l’alimentation ont-ils pu avoir ce genre d’effets ?», demande Raoul Kanapé, d’Essipit.

La fonction des gènes, c’est de conserver de l’information servant à fabriquer des protéines. Or les gènes sont pratiquement inchangeables : nous ne faisons qu’en hériter, vivre avec tels quels pendant toute notre existence, et les passer à nos enfants. Cependant, tous les gènes ne doivent pas être exprimés également dans toutes nos cellules — les neurones et les cellules du cœur, par exemple, ne font pas du tout le même travail et n’ont donc pas besoin de produire les mêmes protéines. De même, nos gènes peuvent ne pas être bien adaptés à la situation dans laquelle nous naissons, si bien que l’évolution nous a doté de mécanismes collectivement nommés épigénétique, qui vont augmenter ou diminuer (voire réduire au silence complet) l’expression de tels ou tels gènes.

Dans cette chronique de décembre dernier [https://bit.ly/2Rx1SPn], j’abordais un débat qui fait rage actuellement en science : les «ajustements» épigénétiques peuvent-ils être transmis de génération en génération ? La théorie classique en biologie veut que non, les caractères acquis ne se transmettent pas, seuls les gènes sont passés aux enfants. Mais des expériences récentes sur des souris suggèrent que l’épigénétique pourrait «résonner» sur plus d’une génération, et des données historiques vont dans le même sens. On connaît en effet quelques cas documentés de disette, comme celle qui a sévit aux Pays-Bas à l’hiver 1944-45, où les femmes qui étaient enceintes à ce moment-là ou qui le sont devenues peu après ont donné naissance à des enfants qui ont, même à l’âge adulte, fait nettement plus de diabète et d’obésité que la moyenne. Comme si la famine les avait «programmés» pour avoir des métabolismes économes, et qui se sont avérés mal adaptés lorsque l’abondance est revenue.

Est-ce que cela peut expliquer la véritable «épidémie» de diabète qui sévit chez les autochtones, qui en souffrent de 3 à 5 fois plus que la moyenne (les taux dépassent même 25 % dans certaines communautés) ? Il est effectivement possible que ce soit-là un morceau du puzzle, répond Marie-Claude Tremblay, professeure de médecine familiale à l’Université Laval qui mène des recherches sur le diabète et la santé autochtone, notamment.

À cet égard, le mode de vie nomade qui était marqué par des famines occasionnelles est l’élément qui vient le plus spontanément à l’esprit. Mais, rappelle la chercheuse, il y a aussi (et surtout) un événement qui a exposé un grand nombre d’Autochtones à toutes sortes de privations dans un passé assez récent : les pensionnats.

«Il y en a beaucoup qui ont subi de la malnutrition chronique dans les pensionnats, c’est documenté dans les archives et beaucoup de témoignages à la Commission vérité et réconciliation l’ont mentionné. Ça a pu avoir un effet épigénétique», dit Mme Tremblay.

En outre, hormis la malnutrition, toute forme de traumatisme peut avoir des conséquences semblables. «Ces enfants-là étaient arrachés de leur milieu, et on sait à quel point l’attachement est important pour les enfants, illustre-t-elle. Ils n’avaient pas le droit de parler leur langue, on les rasait, on cherchait à effacer l’Indien en eux. Juste ça, c’est un traumatisme. Et on ajoute ça à la malnutrition et aux abus. (…) Ce qu’on sait, c’est que les traumatismes vont avoir un effet sur les niveaux de cortisol [ndlr : l’hormone du stress] et ça, ça va agir sur l’hormone de croissance ressemblant à l’insuline (igf1) et ça va faire en sorte que le métabolisme va changer» d’une manière qui favorise le diabète et l’obésité.»

De là, on peut penser que les mères exposées ont fait plus de diabètes et d’obésité, et que leurs enfants ont été ou sont également plus à risque. Certaines études ont aussi trouvé des gènes (et pas seulement de l’épigénétique) liés à l’obésité qui sont plus fréquents chez les autochtones.

Cependant, insiste Mme Tremblay, le diabète et l’obésité sont des problèmes de santé complexes et l’épigénétique n’est selon toute vraisemblance rien de plus qu’un petit bout du tableau d’ensemble. Au-delà des pensionnats, dit-elle, «le» gros changement que ces populations ont subi fut la colonisation, avec toutes les conséquences qu’elle a eues : sédentarité, diète traditionnelle remplacée par une alimentation de mauvaise qualité, etc. Le surpoids et le diabète ont clairement des racines sociales et économiques, souligne Mme Tremblay, étant plus fréquents chez les gens pauvres et peu instruits. Or ce sont justement là des facteurs de risque qui sont très présents dans bien des Premières Nations : d’après Statistique Canada, moins de la moitié (48 %) des autochtones de 15 ans et plus ont un diplôme d’études secondaires et leur revenu médian est d’environ 18 000 $, contre 28 000 $ pour les allochtones. Et encore, la situation est bien pire dans certaines communautés éloignées.

«Alors ce ne serait pas complet et pas éthique de parler du diabète chez les autochtones sans parler de tout cela», indique Mme Tremblay.

Autres sources :

- Stewart B. Harris et al., «Type 2 Diabetes in Aboriginal People», Canadian Journal of Diabetes, 2013, https://bit.ly/2D1hSnD  

- Kyle Millar et Heather J. Dean, «Developmental Origins of Type 2 Diabetes in Aboriginal Youth in Canada: It Is More Than Diet and Exercise», Journal of Nutrition and Metabolism, 2012, https://bit.ly/2SjvFja

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

Miroir, miroir, dis-moi qui est le plus vert

SCIENCE AU QUOTIDIEN / «Est-il vrai qu’un végétarien propriétaire d’un Hummer fait plus pour l’environnement qu’un utilisateur des transports collectifs carnivore?» demande Gilles Lépine.

Voici une belle question, bien courte et en apparence bien simple, dont on se dit à vue de nez qu’elle doit avoir une réponse qui doit elle aussi être simple et courte. Mais en vérité, dans ce genre de comptabilité il y a toujours de longues, longues listes de facteurs dont on doit tenir compte (nombre de kilomètres parcourus par année, nature et procédés de fabrication des aliments, etc.) et qui impliquent de faire de nombreux choix méthodologiques. Si bien que cette question «pourrait avoir des dizaines de réponses différentes selon les hypothèses considérées», dit Réjean Samson, directeur du Centre international de référence en analyse du cycle de vie (CIRAIG) de l’École polytechnique de Montréal.

Alors faisons quand même quelques petits calculs rapides à partir de moyenne nationales, mais gardons à l’esprit que d’un cas particulier à l’autre, les résultats peuvent varier énormément.

Du strict point de vue des gaz à effet de serre (GES), un Hummer brûle autour de 20 litres d’essence par 100 kilomètres parcourus (l/100 km). En supposant 20 000 km parcourus par année et 2,3 kg de CO2 émis par litre d’essence (d’après le site de Ressources naturelles Canada), cela nous donne 9,2 tonnes de GES par année pour notre conducteur de Hummer.

De quelle quantité de CO2 un usager type du transport en commun est-il «responsable» annuellement ? D’après le site du ministère américain des transports, le «plus polluant» des transports en commun est l’autobus, à 0,18 kg de CO2 par km. Alors mettons les choses au pire et supposons 20 000 km de bus par année pour notre passager — c’est vraiment beaucoup car une bonne partie des usagers du transport en commun vivent proche des centres plutôt qu’en banlieue, mais «mettons que», comme on dit. Cela nous fait un total de 3,6 tonnes de CO2 pour l’année, soit 5 de moins que le Hummer. Et c’est sans compter les gaz à effet de serre émis pendant la fabricant des véhicules, mais passons.

Est-ce que le régime végétarien du propriétaire de Hummer est suffisant pour compenser ? Les bienfaits environnementaux de cette diète varient pour la peine d’une étude à l’autre (encore ici, les choix méthodologiques sont multiples). En 2017, une étude parue dans les Environmental Research Letters parlait de 0,8 tonne de CO2 en moins par année pour quelqu’un qui abandonnerait la viande. Mais cela semble peu aux yeux de Dominique Maxime, lui aussi du CIRAIG, qui travaille plutôt avec le chiffre d’environ 1,5 tonne.

«Ce qui fait la différence, dans les régimes carnés, ça va surtout être les viandes rouges, donc les bovins. C’est parce que la fermentation entérique [dans l’intestin des ruminants, qui est particulier] produit du méthane, un GES 30 fois plus puissant que le CO2. Après, il y aussi toute la gestion des fumiers, qui concerne également le porc et qui est elle aussi une source de méthane», explique M. Maxime.

Dans tous les cas, cependant, c’est largement insuffisant pour compenser les émissions du Hummer. Ou du moins, ça l’est avec les hypothèses que l’on a faites — sur les distances parcourues, sur le fait que le propriétaire du Hummer vit en ville et/ou a accès à des transports en commun efficaces, etc. Mais d’un cas précis à l’autre, cela peut changer du tout au tout.

«En analyse de cycle de vie, on essaie de voir les choses en terme de fonctionnalité, explique M. Maxime. Du point de vue de l’alimentation, on mange tous pour les mêmes raisons, soit se maintenir en santé, peu importe les quantités qu’on ingère et si on est végétarien ou pas. Par contre, pour le choix entre le Hummer et le transport en commun, ce n’est pas forcément la même chose. La personne qui se paye Hummer peut le faire parce qu’elle a besoin, pour son travail, d’un véhicule puissant qui fait du tout terrain. Alors là, on ne peut pas comparer avec le transport en commun ou avec un véhicule ordinaire.»

La comparaison devrait alors se faire avec un véhicule qui sert la même «finalité», comme une grosse camionnette, et pas avec le transport en commun.

En outre, il faut souligner que nous n’avons parlé jusqu’ici que de GES, puisque c’est généralement ce type de pollution que l’on a en tête quand il est question de voitures. Or il y en a d’autres qui sont tout aussi importants, mais ils ne sont pas facilement comparables.

«L’agriculture, ça a d’autres impacts sur l’environnement, comme l’eutrophisation, à cause des quantités importantes de fertilisants utilisés qui vont ruisseler [ndlr : et une fois dans les lacs, vont favoriser la croissance de cyanobactérie et éventuellement «étouffer» les plans d’eau]», dit M. Maxime. Produire de la viande implique de produire des plantes fourragères, et comme la conversion de la matière végétale en matière animale n’est pas très efficace (selon le type d’animal et de fourrage, il faut de 2 à 7 kg de végétaux pour produire 1 kg de viande), manger de la viande implique de cultiver de plus grandes superficies, et donc de contribuer davantage à l’eutrophisation des cours d’eau.

La fabrication et l’usage des voitures n’ont pas ces inconvénients. Mais combien de tonnes de GES «vaut» une éclosion d’algues bleues ? Combien de de CO2 doit-on sauver pour compenser 1 hectare de forêt transformée en champs ? On compare des pommes et des oranges, ici.

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

Nos maisons ont-elles «froid» quand il vente?

SCIENCE AU QUOTIDIEN / «Il me semble déjà avoir lu quelque part qu'Hydro-Québec tient compte du vent dans ses prévisions de consommation d'électricité. Est-ce vrai qu’il y a un «refroidissement éolien» pour les maisons?», demande Pierre Larouche, de Mont-Joli.

Oui, il y a une sorte de facteur éolien pour la consommation d’électricité en hiver, et il est tout à fait vrai qu’Hydro Québec en tient compte dans ses prévisions de demande. C’est d’autant plus important que les plus fortes pointes de consommation d’électricité au Québec surviennent justement les matins de grand froid, alors il vaut mieux en tenir compte. (Notons tout de suite que j’écris «une sorte de facteur éolien» parce que le mécanisme n’est pas le même que pour la fameuse «température ressentie» dont on parle dans les bulletins de météo. J’y reviens.)

«Effectivement, dans le passé on a pu constater une grosse différence par grand froid, selon qu’il vente ou non, dit Olivier Milon, chargé d’équipe en prévision de la demande chez Hydro Québec. On a des règles d’approximation pour l’estimer. (…) Si on a une température de -20°C et que le vent passe de 10 à 15 km/h, on va observer une charge supplémentaire d’environ 240 mégawatts à l’échelle du Québec. C’est l’équivalent d’une grosse usine qui ouvrirait son four, par exemple.»

Le vent peut donc faire une bonne différence. Mais c’est tout de même la température qui demeure le facteur météo dominant, dans toute cette histoire. «Si on regarde l’effet d’une variation de 1 °C mesuré à l’aéroport de Dorval, si on passe de -20 à -21 °C par exemple, ça peut faire une différence allant jusqu’à 480 mégawatts», dit M. Milon.

Pour remettre tout cela en perspective, rappelons que les pointes de demande par grands froids, lors des pires moments, peuvent atteindre autour de 38 000 MW. C’est donc dire que, tout seul, 1°C ou 5 km/h de vent ne pousse pas beaucoup la demande vers le haut, mais ensemble ces deux facteurs peuvent finir par «peser lourd» dans la demande d’électricité : entre une température de -5°C sans vent et une journée à -25 avec des vents de 30 km/h, l’écart est de l’ordre de 10 000 MW.

Ce qui fait qu’à température égale, nos maisons coûtent plus cher à chauffer quand il vente, c’est qu’elles ne sont pas parfaitement hermétiques. Il y a toujours des échanges d’air entre l’intérieur et l’extérieur — heureusement, d’ailleurs — et le vent, en s’infiltrant par toutes les ouvertures possibles, va accélérer ces échanges-là, explique M. Milon. C’est un mécanisme assez différent de celui qui empire la sensation de froid sur la peau quand il vente. Et on y arrive à l’instant...

* * * * *

«Est-ce que le refroidissement éolien (ou la température ressentie) dont on parle tant lors des bulletins de météo a un quelconque fondement scientifique ?», demande Jean-Pierre Gagnon, de Chambly.

Oui, la «température ressentie» a un fondement scientifique, malgré son nom qui suggère la subjectivité. L’idée de base, c’est que l’air ne transmet pas bien la chaleur — en fait, c’est plutôt un isolant thermique. À cause de cela, il se forme toujours une couche d’air autour de tout objet qui est plus chaud que l’air ambiant, ce qui en ralentit le refroidissement. Mais quand il vente, les bourrasques dissipent cette couche d’air plus chaud, et l’objet perd donc sa chaleur plus rapidement.

Historiquement, ce sont deux explorateurs américains, Charles Passel et Paul Siple, qui ont étudié et quantifié ce phénomène les premiers. Lors d’un séjour en Antarctique, ils ont accroché des cylindres de plastiques remplis d’eau à l’extérieur de leur campement, en notant le temps que l’eau mettait à geler, de même que la température et la force du vent. À partir de là, ils ont accouché d’une formule mathématique qui exprimait la température qu’il devrait faire sans vent pour que l’eau gèle à la même vitesse.

Le résultat était très imparfait, disons-le. La formule surestimait grandement l’effet du vent par temps froid — à -15°C et des bourrasques à 50 km/h, elle indiquait un équivalent de -41°C alors que la version actuelle donnerait -29°C — et les bouteilles de plastique de Siple et Passel étaient une base un brin boiteuse pour déduire une impression de froid sur la peau.

Pour y remédier, Environnement Canada et la National Oceanic and Atmospheric Administration (États-Unis) ont fini par mener une expérience particulière. Ils ont fait marcher 12 personnes sur un tapis roulant dans une soufflerie réfrigérée pendant 30 minutes, en faisant varier la température (+10, 0 et -10 °C) et la vitesse du vent (2, 5 et 8 mètres par seconde). Tout au long de ce manège, la températures corporelle et du visage des marcheurs était mesurée. C’est sur ces résultats qu’une nouvelle formule plus précise, utilisée depuis 2001, a été formulée. Notons qu’elle tient aussi compte du fait que le vent à 1,5 mètre du sol est en général plus faible qu’à 10 mètres, où les stations météorologiques le mesurent.

Sources :

Francis Massen. The NewWindchill Formula: A Short Explanation, Station météorologique du Lycée classique de Diekirch, 2001. https://bit.ly/2DjuQyt

SA. Wind Chill Calculator, CSGNetwork, 2011. https://bit.ly/1xwv0te

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

Fini, le réchauffement?

SCIENCE AU QUOTIDIEN / «Un expert réviseur du GIEC, François Gervais, physicien et professeur émérite de l’Université de Tours en France, souligne une contradiction entre deux rapports du GIEC sur le réchauffement. L'hypothèse officielle retenue est une hausse de 0,2 °C par décennie (en réalité dans une fourchette de 0,1 à 0,3 °C) alors qu'un autre rapport di GIEC (AR5) montre une hausse de 0,04 °C par décennie entre 1998 et 2012, soit 5 fois moins. Je cite François Gervais : «cette hausse infinitésimale se prolonge depuis 20 ans aux fluctuations naturelles près.» Alors qui dit vrai?», demande Jean-Yves Uhel, de Sainte-Foy.

Il s’agit ici d’une entrevue que M. Gervais a accordée à la revue française Valeurs actuelles en octobre dernier, dans la foulée de la publication de son livre L’urgence climatique est un leurre. Dans cet ouvrage, il accuse le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC, relié à l’ONU) et la climatologie en général d’être inutilement alarmistes.

Il y a plusieurs choses à dire à ce sujet. D’abord, sur le fond, il n’y a absolument aucune contradiction entre la soi-disant «hypothèse officielle» de +0,2 °C par décennie et le rythme observé entre 1998 et 2012. La température moyenne qu’il fait sur Terre connaît des variations naturelles d’une année à l’autre, pour une foule de raisons — le cycle El Nino / La Nina, par exemple. Si bien que si l’on ne retient que des sous-périodes assez courtes, on peut en trouver qui semblent contredire la tendance générale. Mais par définition, c’est en regardant l’ensemble des données que l’on juge de la valeur d’une tendance générale, pas en découpant une petite séquence et en écartant le reste de la série.

L’exercice auquel se livre M. Gervais est d’autant plus douteux, d’ailleurs, que la «pause» du réchauffement à laquelle il fait référence est terminée depuis plusieurs années. Le graphique ci-bas montre l’«anomalie» de température (l’«écart» d’année en année par rapport à la moyenne de 1951-1980) depuis la fin du XIXe siècle. Les données viennent du site de la NASA. Il est vrai, comme le dit M. Gervais, que cette anomalie n’a pratiquement pas bougé entre 1998 (+0,62 °C) et 2012 (+0,61 °C). Mais l’augmentation de température a repris en 2013, l’anomalie a dépassé les 0,7 °C en 2014 et elle a oscillé autour de 0,9 °C de 2015 à 2017. Il est assez incongru, pour dire le moins, de laisser cela «hors de l’image»...

En outre, présenter le rythme de 0,2 °C par décennie comme une «hypothèse officielle» laisse entendre qu’il s’agit d’une simple projection théorique — j’imagine que ce n’était pas l’intention de M. Uhel, je tiens à le souligner. En réalité, ce rythme-là correspond aux observations empiriques, en particulier le fait que le réchauffement s’est accéléré au cours du XXe siècle. Si l’on regarde de nouveau notre graphique, on constate que l’anomalie de température est passée d’entre - 0,2 et - 0,3 °C à la fin du XIXe siècle à environ +0,7 °C dans les années 2010 — un rythme d’environ 0,08 °C par décennie. Si on part des années 50 (autour de -0,1 °C), le rythme grimpe à 0,15 °C par décennie. Et si on prend le tournant des années 80 (+ 0,0 °C) comme point de départ, on obtient environ 0,25 °C par décennie. Alors d’un point de vue factuel, cette «hypothèse officielle» ne me semble ni particulièrement hypothétique, ni très alarmiste.

Il faut dire ici, sur la forme, que M. Gervais n’en est pas à son premier découpage du genre. Dans un autre livre climatosceptique paru en 2013, L’innocence du carbone, il avait plusieurs fois cité des séquences très partielles et soigneusement choisies pour cadrer dans sa trame narrative. Ces «contre-vérités» avaient d’ailleurs été vigoureusement dénoncées par le climatologue français François-Marie Bréon dans Le Monde (https://lemde.fr/2AeRRB2).

Rappelons aussi que, tout scientifique qu’il soit, M. Gervais n’est pas lui-même climatologue. Ses travaux de recherche ont surtout porté sur l’électromagnétisme et la physique des matériaux à l’Université de Tours, où il a longtemps dirigé le Laboratoire d’électrodynamique des matériaux avancés. Ce n’est qu’après sa retraite en 2012, apparemment, qu’il a commencé à publier sur le climat. À cet égard, le titre d’«expert réviseur du GIEC» qu’il s’attribue ne veut pas dire grand-chose puisque n’importe quel universitaire peut envoyer ses commentaires aux GIEC et son nom figurera ensuite dans sa liste des «experts réviseurs».

Alors à la question de savoir «qui dit vrai», il me semble manifeste que l’avis des véritables experts, les climatologues (dont ceux du GIEC), est largement préférable à celui de M. Gervais, sauf tout le respect que je lui dois.

Science

La Terre n'arrêtera pas de tourner, mais...

SCIENCE AU QUOTIDIEN / «Comme on voit toujours la même face de la lune, certains disent que c’est parce qu’elle ne tourne pas sur elle-même. Si c’est vrai, il s’agirait d’une rare exception parce qu’à ma connaissance tous les astres tournent sur eux mêmes, non ? Et j’ai aussi lu quelque part que la vitesse de rotation de la Terre ralentissait petit à petit, si bien que dans quelques millions d’années, elle s’arrêterait complètement et que sa face constamment exposée au Soleil serait brulée tandis que l’autre serait gelée. Qu’en est-il ?», demande Ghislain Gauthier.

Si la Lune ne tournait pas sur elle-même, il s’agirait en effet d’une exception fabuleusement rare. Les astres — qu’il s’agisse de planètes, de lunes ou d’étoiles — se forment lorsque des nuages de gaz et/ou de poussières flottant dans l’espace finissent par s’effondrer sous l’effet de leur propre gravité. Ces nuages vont alors tourner sur eux-mêmes, puis former un disque qui tourne sur lui-même, puis le disque va petit à petit se transformer en sphère. Et le «produit final», la planète, conserve cette rotation.

J’imagine que l’Univers est trop vaste pour qu’on puisse dire qu’il n’existe absolument aucun astre sans rotation. Mais à partir de ce qu’on sait des étoiles, planètes, lunes et astéroïdes que l’on a observés jusqu’à maintenant, la règle est que tous les objets ont une rotation. Et notre Lune n’y fait pas exception.

On peut avoir l’impression contraire parce qu’on en voit toujours la même face, mais c’est simplement parce que sa rotation est synchronisée avec sa «révolution», comme disent les physiciens : elle prend le même temps pour faire un tour sur elle-même (environ 28 jours) qu’elle n’en met pour faire le tour de la Terre (28 jours aussi). Ce n’est pas un hasard s’il en est ainsi — et l’explication nous permettra au passage de comprendre pourquoi il est vrai que la rotation terrestre ralentit peu à peu.

La Terre et la Lune sont d’énormes masses assez rapprochées (à l’échelle cosmique, s’entend) et qui exercent une forte gravité l’une sur l’autre. Cette gravité, bien sûr, explique pourquoi la Lune continue de tourner autour de notre planète, mais elle fait un petit quelque chose de plus : des effets de marée. Sur Terre, on les voit avec le niveau de la mer, mais la gravité lunaire ne fait pas qu’attirer des masses d’eau. La croûte terrestre se soulève également d’environ 30 centimètres au passage de la Lune, ce qui crée une sorte de «bourrelet» de matière qui se déplace au rythme de la rotation de la Terre et de la révolution lunaire.

Maintenant, il y a deux choses à souligner à propos de ce «bourrelet». La première, c’est qu’il représente un surplus de masse, qui exerce donc un surplus de force gravitationnelle. Comparé à la totalité de la gravité terrestre, ce n’est pas grand-chose, mais cela reste une force qui agit. La seconde, c’est que ce bourrelet est toujours légèrement décalé, légèrement en avance par rapport à la Lune parce que la Terre tourne sur elle-même en 24 heures, alors que la Lune met 28 jours à compléter un tour de la Terre.

Et ce dernier point est capital : comme l’orbite lunaire va dans le même sens que la rotation terrestre, cela signifie que le petit surplus de force gravitationnelle du bourrelet fait accélérer la Lune.

Compte tenu des distances et des masses impliquées, l’accélération est infinitésimale. Pour vous donner une idée, sachez que plus un satellite file rapidement sur sa course orbitale, plus il s’éloigne de sa planète — et l’accélération dont on parle ici fait s’éloigner la Lune au rythme de… 3 cm par année. C’est comparable à la vitesse à laquelle poussent les ongles, alors la distance Terre-Lune est d’environ 380 000 km. Presque rien, quoi.

L’accélération de la Lune n’est cependant qu’un des deux côtés d’une même médaille. Car ultimement, d’où vient l’énergie qu’il faut pour la faire orbiter plus vite ? De la rotation terrestre, sur laquelle notre satellite naturel agit comme une sorte d’ancre. À mesure que la Lune accélère, la Terre tourne de moins en moins vite sur elle-même. Encore une fois, c’est infinitésimal, mais c’est suffisant pour faire une différence notable sur de longues périodes.

Des géologues ont d’ailleurs été capables d’en prendre des mesures très concrètes. On connaît en effet des roches qui se sont formées par l’accumulation de sédiments dans des circonstances telles que l’on peut encore discerner, même des millions d’années plus tard, l’effet de chaque marée individuelle. En analysant les caractéristiques des couches de sédiments que chaque cycle de marée a laissé derrière lui dans des roches de l’Australie, un chercheur a pu estimer que chaque journée durait environ 22 heures il y a 620 millions d’années — et même autour de 18 heures il y a 2,45 milliards d’années.

La Terre a eu le même genre d’effet de marée sur la Lune, et en a ralenti la rotation jusqu’à la synchroniser avec sa révoltuion. La différence est que comme la Terre est beaucoup plus massive, elle exerce des forces plus grandes sur la Lune, et son inertie (sa résistance aux forces exercées par la Lune) est plus importante. C’est pourquoi la Terre n’a pas encore synchronisé sa rotation avec l’orbite lunaire. Cela finira éventuellement par arriver, mais il faudra être patient : on estime que cela prendra encore… 50 milliards d’années.

Pour en savoir plus :

- George E. Williams, «Geological Constrait on the Precambrian History of Earth’s Rotation and the Moon’s Orbit», Reviews of Geophysics, 2000, https://bit.ly/2BW1q8P

- Fraser Cain, «When Will Earth Lock to the Moon ?», Universe Today, 2016, https://bit.ly/2AZupaf

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

Les confins de notre «patatoïde»

SCIENCE AU QUOTIDIEN / «Je lisais un article récemment qui disait que les sondes Voyager 1 et 2 étaient sorties de l'«héliosphère». Le texte indiquait qu'elles reçoivent maintenant davantage de rayonnement cosmique [ndlr : qui est une sorte de «pluie» de particules] parce qu'elles ne sont plus protégées par les particules électriquement chargées de notre Soleil. Ce que je ne comprends pas, par contre, c’est quelle différence cela peut-il faire que les particules viennent du Soleil ou du rayonnement cosmique ? Si on compare ces rayonnements à de la pluie, qu’il pleuve à gauche ou à droite ne change rien, non ?», demande Marc Fortin, de Laval.

Les deux sondes Voyager ont été lancées par la NASA en 1977. Le but premier de la mission était d’étudier Jupiter et Saturne mais, une fois ces objectifs remplis, les deux sondes ont poursuivi leurs routes sans interruption à des vitesses d’environ 17 kilomètres par seconde, vers ce que les astronomes appellent l’«espace interstellaire» — donc l’espace entre les étoiles. Voyons ce que cela veut dire.

Le Soleil, comme toutes les autres étoiles, éjecte continuellement de la matière dans toutes les directions. Ce «vent solaire», de son vrai nom, est surtout constitué d’électrons, de protons (des noyaux d’hydrogène, qui composent presque toute la masse du Soleil) et de «particules alpha» (des noyaux d’hélium). À l’échelle humaine, les masses impliquées sont gargantuesques : entre 1 et 2 millions de tonnes par seconde, mais à l’échelle solaire, ce n’est presque rien.

Ce vent solaire, explique Olivier Hernandez, directeur du Planétarium Rio-Tinto-Alcan, à Montréal, «va souffler une sorte de bulle autour du Soleil. Si le Soleil ne bougeait pas, ce serait une belle sphère, pas tout à fait parfaite parce que la force du vent n’est pas constante dans toutes les directions, mais quand même assez ronde. Cependant, le Soleil se déplace dans la galaxie, alors la bulle a plutôt une forme de «patatoïde», si l’on veut».

Ce vent a beau souffler fort — entre 400 et 700 km/s —, il finit toutefois par rencontrer de la résistance dans l’espace : le rayonnement cosmique. Celui-ci est lui aussi un flux de particules (certaines électriquement chargées, mais pas toutes) qui provient d’un peu partout dans l’Univers. C’est un mélange des «vents» provenant des autres étoiles de notre galaxie, du rayonnement émanant des supernovæ (l’explosion d’une étoile en fin de vie) et d’autres sources.

À approximativement 20 milliards de km du Soleil, les deux flux de particules se rencontrent. D’un côté se trouve la zone d’influence du Soleil, l’«héliosphère», où c’est le vent solaire qui domine. De l’autre, à l’extérieur du «patatoïde», ce sont les rayons cosmiques qui dominent : c’est l’espace interstellaire.

La frontière entre les deux, nommée héliopause, n’est pas une ligne bien précise mais «a une épaisseur de plusieurs millions de kilomètres parce que les densités sont très faibles», dit M. Hernandez. Autour de la Terre, le vent solaire comprend en moyenne autour de 5 atomes par cm³, mais dans l’héliopause (plus de 100 fois plus loin du Soleil) et dans l’espace interstellaire, les densités se comptent plutôt en atomes par kilomètre cube. Une particule qui arrive dans cette zone a donc généralement besoin de parcourir une très grande distance avant d’être «repoussée» par une autre particule venant en sens inverse.

C’est dans cette zone-tampon que la sonde Voyager 1 est (finalement) entrée en 2012. Enfin, semble être entrée, puisque cela a fait l’objet d’un débat, en partie parce que «comme le volume de l’héliosphère varie avec l’activité solaire, c’est un peu embêtant de déterminer où la frontière commence et si les sondes en sont sorties», dit M. Hernandez. Mais toujours est-il qu’un article paru dans les Geophysical Research Letters (GRL) a annoncé au début de 2013 que certains des instruments scientifiques sur Voyager 1 avaient enregistré des changements relativement brusques et qui se sont maintenus par la suite. Les deux sondes jumelles sont équipées, chacune, d’un instrument conçu pour mesurer les flux de particules à faible énergie (dont la plupart viennent du Soleil, une source de «vent» pas particulièrement violente) et d’un autre spécialisé dans la détection des particules à haute énergie, qui est une caractéristique des rayons cosmiques — parce que plusieurs de leurs sources sont des événements extrêmement énergétiques.

À partir du 25 août 2012, ont rapporté deux chercheurs américains dans les GRL, l’intensité de la «pluie» de particules à faible énergie a chuté de 90 % en seulement quelques jours, et a éventuellement baissé jusqu’à un facteur de 300 à 500. En même temps, les particules à forte énergie (des centaines de fois plus fortes que ce que le Soleil émet généralement) ont subitement doublé. «Le caractère soudain de ces changements d’intensité indique que Voyager-1 a franchi une frontière bien définie (…) possiblement reliée à l’héliopause», écrivaient-ils.

À ce jour, ces changements d’intensité se sont maintenus, peut-on constater sur le site de du Jet Propulsion Laboratory de la NASA, qui affiche en direct différents paramètres de la mission. Voyager-2, cependant, n’a toujours pas connu cette baisse dramatique des particules de faible énergie, et l’on considère qu’elle est toujours à l’intérieur de l’héliosphère.

Si l’on dit que Voyager-1 n’est plus «protégée» par le vent solaire, c’est parce qu’elle se trouve désormais dans un endroit où ce sont les rayons cosmiques (à très forte énergie) qui dominent et que «tout rayonnement hautement énergétique peut causer des dommages», dit M. Hernandez, mais il ajoute ne pas trop s’en faire pour la sonde. «Au départ, on espérait que les sondes auraient une durée de vie qui les amènerait jusqu’aux années 2020. Maintenant, on s’aperçoit que ce sera plus longtemps. Sur les 10 instruments qui ont été installés sur les sondes, il n’y en a plus que 4 ou 5 qui fonctionnent encore. Donc le risque n’est pas si énorme que ça : les instruments les plus sensibles sont déjà hors service et les autres vont probablement pouvoir continuer jusqu’à ce qu’ils aient épuisé leurs réserves d’énergie. Et éventuellement, les sondes deviendront incapables d’envoyer des signaux.

«En fait, ce serait plus problématique si c’étaient des humains qui arrivaient à l’héliopause. Alors là, oui, les particules hautement énergétiques endommageraient les tissus. On serait en principe capable de construire une protection contre ça, mais à cause de l’épaisseur de matériaux que ça prendrait et de leur masse, on ne serait pas capable d’envoyer tout ça dans l’espace à l’heure actuelle», conclut M. Hernandez.

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

Le bouchon venu de nulle part

SCIENCE AU QUOTIDIEN / «Je me demande ce qui cause les bouchons sur l’autoroute. Je suis conscient qu’une entrave comme un accident peut ralentir le flux des voitures, mais il arrive parfois que l’on puisse se retrouver en file pouvant rouler aussi lentement que 20 km/h sans qu’il n’y ait aucune entrave sur la voie. Si tout le monde suit la limite de 60 à 100 km/h, ne devrions-nous pas avancer à au moins un minimum de 60 km/h ?» demande Patrick Séguin, de Sherbrooke.

Si l’on me permet un rapprochement un brin fantasque, nous avons ici l’équivalent routier de la célébrité des sœurs Kardashian : les médias en parlent parce qu’elles sont célèbres, et elles sont célèbres parce que les médias en parlent. Et de la même manière, les voitures s’arrêtent parce qu’il y a un bouchon de circulation, et il y a un bouchon parce que les voitures s’arrêtent.

C’est du moins ce que l’on se dit quand, après avoir soupçonné un accident, on découvre en sortant de l’embouteillage que toutes les voies étaient parfaitement libres. Mais le fait est que c’est un phénomène qui a fait l’objet de nombreux travaux scientifiques et qu’il obéit aux lois de la physique — ce qui n’est pas sûr dans le cas des Kardashian, mais c’est une autre question.

Une équipe japonaise l’a même testé empiriquement il y a une dizaine d’années. Sur une petite piste circulaire de 230 mètres de circonférence, les chercheurs ont fait rouler 22 ou 23 voitures (cela variait d’un essai à l’autre) en demandant aux conducteurs de maintenir une vitesse de 30 km/h et une distance constante avec la voiture d’en avant. Il n’y avait aucun obstacle sur la piste, aucun resserrement, rien. Mais inévitablement, des embouteillages se sont formés à chaque essai, au bout de quelques minutes.

La raison première, expliquent-ils dans leur article paru en 2009 dans le New Journal of Physics, c’est la densité de la circulation. S’il n’y avait eu, par exemple, que 2 voitures sur la piste, elles auraient été espacées de plus de 100 mètres ; si l’une d’elle avait freiné pour un moment, l’autre n’aurait pas eu à le faire, ou alors elle aurait pu décélérer très progressivement, ce qui aurait donné le temps à la première de reprendre sa vitesse. Mais à 23 voitures, c’est une autre histoire. Si l’on suppose que chacune mesure 4 m de long, cela ne laisse que 6 m d’espacement moyen entre les véhicules, ce qui est peu.

Dans pareilles conditions, dès qu’une voiture freine de manière un tant soit peu brusque, l’autre derrière elle doit faire de même. Et, point important, ce second conducteur doit ralentir plus abruptement encore que le premier parce qu’il ne peut pas freiner simultanément — il y a forcément un temps de réaction. S’il y a une troisième voiture qui suit de proche, elle devra à son tour ralentir encore plus que la seconde, et ainsi de suite jusqu’à ce que, passé un certain point, toute la file soit forcée de s’arrêter complètement avant de repartir. C’est ce qui se passe sur nos autoroutes : quand le trafic devient suffisamment dense, alors le moindre freinage brusque, le moindre écervelé qui «coupe» une voiture peut provoquer une sorte de réaction en chaîne qui mènera à l’arrêt momentané de la circulation, plus ou moins loin derrière.

Maintenant, il y a deux choses à noter au sujet de ces bouchons. La première, c’est que l’endroit où le trafic s’immobilise n’est pas fixe, mais se propage vers l’arrière. En effet, les premières voitures qui doivent s’immobiliser le font à un endroit précis, mais repartent peu de temps après ; celles qui suivent doivent par définition s’immobiliser un peu derrière les premières, avant de repartir à leur tour ; et ainsi de suite. Le résultat est que le point où les voitures s’arrêtent progresse vers l’arrière à la manière d’une vague — les mathématiciens et les physiciens qui ont étudié la question parlent littéralement d’une «onde de trafic» —, typiquement à une vitesse de 15 à 20 km/h, selon une étude parue en 2010 dans les Philosophical Transactions of the Royal Society A : Mathematical, Physical and Engineering Sciences.

Et pour ceux qui seraient plus visuels, un chercheur de l’Université Temple (Pennsylvanie), Benjamin Seibold, a réalisé cette simulation vidéo:

Science

Hibou, chou, cheville...

«Comme nous visitons les parcs nationaux de l’Amérique du Nord, ma femme et moi, une question nous taraude : comment se fait-il que des espèces animales ont évolué pour changer la position de leurs genoux? L’être humain en position de quatre pattes a les genoux pliés vers l’avant et les coudes vers l’intérieur. Les chevaux ont les genoux pliés vers l’arrière et les coudes vers l’extérieur. D’autres mammifères leur ressemblent de ce point de vue. Les ours, quant à eux, ont des articulations semblables aux nôtres. Qu’est-ce qui a causé ces évolutions?» demande Paul-Yvon Blanchette, de Québec.

Voilà une très belle observation! Mais le fait est que contrairement aux apparences, ni les «genoux» du cheval, ni les nôtres ne se sont jamais renversés. Si les «genoux» des chevaux et d’autres mammifères comme le loup (et c’est la même chose pour les oiseaux) plient à l’envers par rapport aux nôtres, c’est parce que ce ne sont pas leurs genoux, justement. Nous les interprétons comme tels à cause, sans doute, de notre tendance à anthropomorphiser les animaux — nous voyons souvent des émotions/intentions humaines dans leur comportement, par exemple. Mais les «genoux articulés dans le mauvais sens» ne sont en fait rien d’autre que... des chevilles!

Chez les vertébrés, il y a essentiellement trois grandes manières de se tenir sur ses pattes. Chez l’humain, l’ours et quelques autres espèces, c’est le «talon» et la plante du pied (ou l’équivalent sur les pattes avant) qui soutiennent le poids. On les appelle plantigrades parce qu’ils se déplacent avec les métatarses (les os qui forment la plante du pied humain) à plat.

Cependant d’autres espèces, comme le chien et le chat, sont dites digitigrades parce qu’elles marchent sur leurs doigts/orteils, littéralement. Les os qui forment le «pied» d’un chat, par exemple, sont les phalanges, soit l’équivalent des orteils/doigts chez l’humain, ainsi que le bout des métatarses. Et d’autres espèces encore, comme les chevaux et les cerfs, se déplacent non pas sur les phalanges, mais sur la pointe des phalanges, souvent montées d’un sabot. On les appelle ongulés parce que les sabots sont l’équivalent des ongles/griffes chez ces espèces — et sont d’ailleurs faits des mêmes substances.

Maintenant, imaginons un instant ce qui passe quand, comme eux, nous marchons nous-mêmes sur la pointe des pieds. L’articulation qui touche au sol est alors celle entre les phalanges (orteils) et les métatarses (plante du pied). Et en remontant plus haut, la première articulation que l’on rencontre n’est plus le genou, mais bien la cheville — et elle plie justement à l’inverse du genou.

C’est ça que l’on voit chez le cheval, le chat, et tant d’autres animaux. Les segments que nous interprétons chez eux comme des tibias sont en fait des métatarses, comme le montre la figure ci-contre (le squelette est celui d’un loup). Et l’articulation entre les métatarses et le tibia n’est pas le genou, mais bien la cheville. Leur vrai genou, lui, est plus haut, mais chez beaucoup de ces espèces il est plus ou moins «caché» par les muscles de la cuisse/fesse.

Maintenant, quels sont les avantages et les inconvénients de ces différentes postures ? Pourquoi certaines espèces ont évolué dans un sens plutôt que dans un autre ? La posture plantigrade est celle qui offre la plus grande surface de contact avec le sol, et donc le plus de stabilité et de puissance, mais cela vient avec un coût : plus de frottement avec le sol (pas idéal pour courir de longues distances) et, à cause d’un jeu de leviers entre les os, une course moins rapide.

Selon l’habitat et la place d’une espèce dans un écosystème, il peut être avantageux de sacrifier la vitesse de pointe et/ou l’endurance pour avoir plus d’équilibre et de puissance. L’écureuil, par exemple, est un plantigrade, ce qui lui donne la stabilité requise pour ne pas tomber des arbres et la puissance qu’il faut pour sauter d’une branche à l’autre, lit-on dans l’Atlas d’anatomie comparée en ligne du chercheur Terry L. Derting. Dans le cas de l’humain, c’est moins clair, d’après une étude parue l’an dernier dans Open Biology. La plupart des primates se déplacent sans que leur talon touche au sol, les seuls vrais plantigrades de cette famille étant les grands singes (nous, les chimpanzés, les gorilles et les orang-outangs). L’article en question note que lesdits grands singes sont aussi les seuls primates à s’asséner des coups de poing lorsqu’ils se battent, les autres se contentant de se mordre. Ses auteurs font donc l’hypothèse que la plus grande stabilité de la position plantigrade permettrait aux grands singes de se taper dessus de la manière la plus efficace possible, pour ainsi dire. Ce serait cohérent avec le fait que les grands singes sont plus agressifs entre eux (les mâles, du moins) que les autres primates, mais c’est un sujet assez controversé.

Quoi qu’il en soit, à l’autre extrémité du spectre, on retrouve les onguligrades, auxquels la posture confère moins d’équilibre et de puissance que celle des plantigrades, mais qui sont (en règle générale) bien équipés pour la vitesse et/ou l’endurance. Et entre les deux se trouvent les digitigrades, qui sont (toujours en règle générale) des espèces ayant besoin d’un compromis de vitesse, d’équilibre et de puissance.

Ce n’est pas un hasard, note M. Derling, si les onguligrades sont presque tous herbivores (avec de rares exceptions omnivores comme le porc) et si beaucoup de digitigrades sont des prédateurs. Cela correspond aux besoins de chacun!

Sciences

Nombres dénombrables (et autres morceaux de poésie)

SCIENCE AU QUOTIDIEN / «C’est une question improbable, mais elle me laisse perplexe… Supposons que nous ayons une route d'une longueur infinie dont les voies sont séparées par des lignes jaunes discontinues. Imaginons aussi que leur espacement n’est pas égal : pour l’une des deux routes, il y aurait 1 trait à tous les 2 mètres alors que pour l’autre, ce serait 1 trait à chaque mètre. Laquelle des deux routes contiendrait le plus de traits, sachant qu'elles ont toutes les deux une longueur infinie ?», demande Benoît Rouleau, de Québec.

Confronté à un problème comme celui-là, à peu près tout le monde est d’emblée tenté de penser que l’une des deux routes compte deux fois plus de traits que l’autre. Et c’est tout à fait compréhensible. Après tout, sur chaque tranche de 1000 mètres, se dit-on, l’une compte 500 traits (1 à tous les 2 m) alors que l’autre en a 1000 (1 par mètre), et comme c’est vrai pour toutes les tranches de 1000 mètres jusqu’à l’infini, il s’ensuit forcément que la seconde a deux fois plus de traits que la première, non ?

Eh bien non, dit le mathématicien de l’Université Laval Jean-Marie de Koninck : en fait, les deux routes ont autant de traits.

«Ces deux routes-là sont des ensembles infinis qu’on appelle «dénombrables». Dénombrable, ça veut tout simplement dire qu’on a une méthode pour énumérer tous les éléments. Par exemple, si tu vas dans une soirée et que tu dis «Nous étions 12 hier soir», mais que quelqu’un te demande comment tu le sais, tu peux énumérer tous les invités : moi, Claude, Paul, etc. Alors tu fais ce qu’on appelle une bijection entre les personnes présentes et les nombres de 1 à n.» Essentiellement, cela signifie que l’on attribue le nombre 1 à un invité, puis le nombre 2 au second invité, et ainsi de suite jusqu’à 12.

Il en va de même avec les lignes jaunes des routes infinies, et les ensembles infinis dénombrables comme ceux-là ne sont pas plus grands l’un que l’autre, dit M. de Koninck. Évidemment, si l’on ne tient compte que d’un bout de route de 1000 mètres, alors ce n’est plus vrai. Mais pour des routes infinies, oui.

Une bonne façon de se représenter le problème est ce que les mathématiciens appellent le paradoxe de l’hôtel de Hilbert, du nom de son inventeur, David Hilbert, l’un des plus grands mathématiciens du XXe siècle. Il consiste à imaginer un grand hôtel avec un nombre infini de chambres, mais qui seraient toutes occupées. Si un nouveau client se présente, pourra-t-on trouver à le loger ? Notre expérience quotidienne des choses nous porte à croire que non puisque les chambres sont déjà toutes prises, mais c’est simplement parce que le cerveau humain n’est pas souvent (presque jamais, en fait) confronté à la notion d’infini.

Supposons en effet que l’on déplace le client de la chambre 1 dans la chambre 2, que l’on «décale» simultanément celui de la chambre 2 vers la 3, et ainsi de suite jusqu’à l’infini. Au bout de l’opération, la chambre 1 est libre et le nouveau client peut la prendre même si toutes les chambres étaient prises au départ. Comme le montre cet exemple, la notion d’infini peut mener à ce qui nous apparaît intuitivement  être des aberrations, mais c’est comme ça.

Il existe toutes sortes de déclinaisons de ce «paradoxe», mais il y en a une qui peut bien illustrer l’égalité du nombre de lignes entre nos deux routes. Le problème que pose M. Rouleau revient essentiellement à se demander s’il y a autant de nombres impairs (1, 3, 5, 7...) que d’entiers naturels (1, 2, 3, 4, 5, 6...), dit M. de Koninck. D’instinct, on se dit qu’il doit forcément y avoir deux fois plus d’entiers naturels que de nombres impairs, mais ce n’est pas le cas.

Retournons dans l’hôtel de Hilbert. Il y a un nombre infini de chambres, qui sont toutes occupées. Mais imaginons que cette fois-ci, nous n’avons pas affaire à un nouveau client qui arrive seul, mais un nombre infini de nouveaux clients qu’il faut accommoder. Est-ce possible?

Oui. Supposons que l’on déplace chaque client vers une chambre dont le numéro est le double de sa chambre actuelle. De cette manière, le locataire de la chambre 1 ira à la chambre 2, celui de la chambre 2 ira dans la chambre 4, celui de la chambre 3 finira dans la chambre 6, et ainsi de suite. Le résultat final est que toutes les chambres de nombre impair seront libres, et comme il y a une infinité de nombres impairs, alors l’opération nous donne assez de chambres pour accueillir le nombre infini de nouveaux clients.

C’est très contre-intuitif, mais ça marche : nous avions au départ de nouveaux invités que l’on pouvait numéroter de 1 jusqu’à l’infini, ce qui comprend tous les entiers naturels. Et même si seulement 1 entier sur 2 est impair, nous les avons tous logés en libérant uniquement les chambres impaires, parce qu’il y a une infinité de nombres impairs.

C’est par des raisonnements comme celui-là que les mathématiciens peuvent dire qu’il y a autant de nombres impairs que de nombres entiers. Et c’est pour cette raison que les deux routes imaginées par M. Rouleau ont un nombre égal de lignes jaunes.

* * * * *

«Je me suis toujours fié au Soleil pour m’orienter lorsque je suis dans des lieux inconnus et sans autre point de repère : est au levé, sud à midi et ouest au coucher. Or il semble que cette règle ne vaille pas partout — pas chez moi, en tout cas. J’ai réalisé récemment en utilisant un boussole que le Soleil se lève à ce temps-ci de l'année [en juillet] au NNE et qu’il n’arrive à l'est que bien plus tard en avant-midi. Comment se fait-il?» demande René Magnan, de Gatineau.

Ce qui «crée» le mouvement apparent du Soleil dans le ciel, c’est la rotation de la Terre sur elle-même. Cette rotation est réglée comme une horloge, prenant invariablement 24 heures à se compléter, ce qui implique que le Soleil se déplace toujours à la même vitesse dans le ciel. Alors s’il se levait et se couchait toujours aux mêmes points, il se trouverait à parcourir toujours le même trajet à la même vitesse, et la durée du jour serait invariable : 12 heures d’ensoleillement par jour, hiver comme été.

Or ce n’est pas vrai, évidemment : les jours sont bien plus longs en été. Alors comment est-ce possible ?

C’est simplement parce que l’inclinaison de la Terre par rapport au Soleil change selon la saison. En été, le pôle Nord est pour ainsi dire «penché» vers le Soleil, si bien que celui-ci ne se lève pas exactement à l’est ni ne se couche exactement à l’ouest, mais plus au nord. Comme il passe toujours par le sud vers midi, cela allonge sa trajectoire apparente dans le ciel — d’où les journées plus longues. Et en hiver, c’est l’inverse.

Sciences

L'océan qui est mort au pied des Appalaches

SCIENCE AU QUOTIDIEN / «Lors d’un récent séjour à Berthier-sur-mer, quelle ne fut pas ma surprise d’observer des dépôts calcaires sur le sol, comme s’ils étaient orientés verticalement et non horizontalement. Généralement, je m’attendrais à voir de telles stratifications une par-dessus l’autre en regardant une paroi, comme j’en voyais dans mon enfance — j’ai grandi à proximité du fleuve aux Grondines. Comment les dépôts ont-ils pu s’accumuler de cette manière? Ont-ils été retournés par un cataclysme?» demande Daniel Guilbault, de Saint-Augustin-de-Desmaures.

Cela peut effectivement paraître étonnant puisque les roches que l’on voit à Berthier-sur-Mer — comme dans toutes les Appalaches — sont des roches dites sédimentaires: elles se sont formées par l’accumulation de débris divers (sable, coquilles, cadavres, algues mortes, etc.) au fond de l’océan, et ces sédiments ont par la suite été transformés en roche par la pression continue de l’eau. Alors forcément, les couches que l’on voit sur la photo ci-bas que m’a envoyée M. Guilbault se sont à l’origine empilées les unes sur les autres, pas une à côté de l’autre. Que s’est-il donc passé depuis?

Les roches des environs de Berthier-sur-Mer font partie d’une formation géologique nommée groupe de Saint-Roch, indique le chercheur en géologie de l’Université Laval Georges Beaudoin. Il s’agit de roches qui se sont formées il y a environ 500 millions d’années. À l’époque, note M. Beaudoin, les Appalaches n’existaient pas encore, et c’est justement ce qui s’est passé par la suite qui explique pourquoi les couches sont superposées autour de Grondines et juxtaposées à Berthier.

Comme on l’a déjà vu dans cette rubrique, les continents sont faits de plaques tectoniques, que l’on peut se représenter comme des espèces d’immenses «radeau» de pierre qui flottent sur la roche en fusion située sous la croûte terrestre, à plusieurs dizaines de kilomètres de profondeur. Comme il y a des mouvements dans cette roche en fusion, cela fait dériver les plaques tectoniques. Très lentement, soit, mais sur des centaines de millions d’années, les changements sont spectaculaires.

Ainsi, les roches de Berthier se sont formées au fond d’un océan ancien, Iapetus, qui était bordé (entre autres) par deux anciens continents nommés Laurentia et Baltica. Le premier, comme son nom l’indique, est grosso modo la plaque du Bouclier canadien avec les Laurentides actuelles, et le second forme maintenant le nord-ouest de l’Europe. Et quand on vous dit que la tectonique des plaques peut être spectaculaire, voyez plutôt: il y a un peu plus de 500 millions d’années, ces continents étaient situés sous les tropiques (!) de l’hémisphère sud (!!), c’est vous dire comme ils ont dérivés…

Sur une période d’environ 150 millions d’années, lit-on sur le site du Parc national de Miguasha, les continents qui entouraient Iapetus se sont rapprochés jusqu’à refermer complètement l’océan. Dans le processus, Laurentia et Baltica sont entrés en «collision», et les fonds marins qui gisaient entre les deux s’en sont trouvés (très) déformés, jusqu’à en relever hors de l’eau. C’est de cette manière que les Appalaches sont «nées», ou du moins ont «commencé à naître», puisque cette chaîne de montagnes s’est formée en plus d’une étape — mais c’est une autre histoire.

L’essentiel à retenir, ici, est qu’au cours de ce processus, certaines couches sédimentaires qui s’étaient jusque là tenue bien sagement à l’horizontale ont été soulevées jusqu’à en devenir verticale. C’est ce qu’a observé M. Guilbault à Berthier-sur-Mer.

En ce qui concerne la couleur des couches sur la photo (ci-bas), M. Beaudoin indique que «dans les strates rouges, on a simplement des couches qui se sont formées dans de l’eau plus oxydées ou qui se sont oxydées par la suite, et les couches plus grises semblent être des calcaires [moins riches en fer] ou des grès [ndlr: une roche faite de sable comprimé]».

Maintenant, cela peut sembler étonnant, mais ces redressements de roches sédimentaires ne sont pas particulièrement rares, du moins pas aussi exceptionnels qu’on serait tenté le penser a priori. Il suffit simplement pour s’en convaincre de prendre l’exemple du Rocher Percé: si l’on regarde attentivement la photo ci-haut, on se rend vite compte que le plus célèbre caillou du Québec est fait d’une série de strates orientées à la verticale. Ces couches se sont elles aussi formées à l’horizontale dans le fond d’un océan avant que la tectonique des plaques ne les soulève et ne les ré-incline à la verticale. Attention, avertit M. Beaudoin, ça ne s’est pas passé en même temps que la roche autour de Berthier-sur-Mer: la pierre du Rocher Percé est plus récente par plusieurs dizaines de millions d’années et s’est soulevée plus tard (ce fut une autre «étape» de la naissance des Appalaches). Mais le principe est le même et cela montre qu’il est relativement commun de voir des roches sédimentaires dont les couches sont orientées à la verticale.

Enfin, explique M. Beaudoin, les strates de la roche autour de Grondines sont à l’horizontale parce qu’elles font partie d’un autre ensemble géologique, les basses terres du Saint-Laurent. Ce sont elles aussi des roches sédimentaires, mais elles n’ont presque pas subi de déformations. «Le front de déformation [en ce qui concerne la formation des Appalaches], c’est ce qu’on appelle la faille de Logan», dit-il. C’est cette fameuse faille qui remonte le Golfe Saint-Laurent et bifurque vers le sud en amont de Québec.

Les roches sédimentaires au sud de cette faille ont été soulevées et peuvent être à la verticale dans certains secteurs (mais c’est loin d’être le cas partout); celles des basses terres, comme à Grondines, se trouvent au nord de la faille Logan n’ont pas subi de «cataclysme» et reposent toujours à l’horizontale.