Science

Un café 2 laits 2 velcros svp!

SCIENCE AU QUOTIDIEN / «Pourquoi tout ce qui est sucré est collant? Le miel l’est, le sirop l’est, alors pourquoi?» demande Michel Lévesque.

Il y a deux grandes manières de faire coller deux choses ensemble. On peut procéder par réaction chimique, comme avec les colles. Par exemple, les «super-colles» (dont la célèbre Krazy Glue) sont des molécules nommées cyanoacrylate, qui sont des liquides à température de la pièce. Cependant, en présence ne serait-ce que d’un tout petit peu d’eau — même l’humidité de l’air suffit —, elles réagissent entre elles pour former de longues chaînes. Et une fois sous la forme d’un paquet de chaînes enchevêtrées, pour ainsi dire «prises en pain», les cyanoacrylates deviennent des solides : c’est ce qui fait durcir la colle.

L’autre façon de coller deux choses ensemble passe par des interactions moléculaires, qui sont pas des liens aussi solides et permanents que les réactions chimiques, mais qui peuvent quand même être relativement forts. Et c’est un type d’interaction en particulier, que les chimistes appellent ponts hydrogène, qui rend collantes les substances sucrées.

Quand on dit que deux atomes «réagissent» ensemble, cela signifie qu’ils «partagent» des électrons. Chacun y met un électron, et la paire qu’ils ont désormais en commun les tient ensemble. Or il y a des atomes qui attirent les électrons plus fortement que d’autres. Dans une molécule d’eau (H2O), par exemple, l’atome d’oxygène attire les électrons beaucoup plus fortement que les deux hydrogènes. Et comme les électrons ont une charge électrique négative, l’oxygène prend lui-même une (légère) charge négative; les hydrogènes sont au départ neutres, mais le fait de se faire plus ou moins «voler» un électron chacun les rend légèrement positifs. Cela nous fait donc une molécule qui est, dans l’ensemble, neutre, mais qui a des «bouts» qui sont magnétiques.

Alors que va-t-il se passer quand deux molécules d’eau vont se rencontrer ? Eh bien en magnétisme, les contraire s’attirent, alors les bouts positifs de l’une vont avoir tendance à s’aligner sur le bout négatif de  l’autre. Encore une fois, ça n’a pas la force d’un lien chimique en bonne et due forme, si bien que nos deux molécules d’eau ne resteront pas «attachées» longtemps et passeront rapidement leur chemin. Mais ces «ponts hydrogène», de leur petit nom, ont quand même des effets tangibles — par exemple, l’eau s’évaporerait à bien moins que 100°C si ce n’était de ces attractions.

Maintenant, explique le chercheur en chimie de l’Université Laval Normand Voyer, ces ponts hydrogène agissent un peu à la manière du velcro : «S’il y a seulement un ou deux crochets qui se prennent, ça ne tiendra pas bien. Mais s’il y en a beaucoup plus, alors là, ce sera plus solide.»

Or c’est en plein ce qui se passe avec les molécules de sucre. Si l’eau est une bien petite molécule (H2O), le sucre est dans une autre catégorie : 6 molécules de carbone, 12 d’hydrogène et 6 d’oxygène (C6H12O6). Alors cela fait beaucoup plus de «bouts» chargés positivement (les hydrogènes) et négativement (les oxygènes) que dans une molécule d’eau, donc beaucoup plus de ces «crochets de velcro», souligne M. Voyer. Et c’est pour cette raison que le sirop et le miel sont collants.

Maintenant, pourquoi le sucre blanc en granules ne colle-t-il pas ? «C’est parce que quand le sucre est sec, il est très dense. Alors c’est comme si le velcro était tout pris ensemble», explique M. Voyer. Quand on y ajoute un peu d’eau, cela dissout le sucre (au moins une partie), ce qui vient défaire la «boule» dont il parle. «Et ça, ça va libérer des centaines de milliards de petits crochets de velcro qui vont aller s’accrocher à n’importe quelle surface.»

* * * * *

«Nous avons eu un questionnement en famille récemment : quel sel utiliser pour faire cuire les homards ? Le sel de table, le gros sel, le sel de mer ? Mon beau-frère dit que cela ne change rien puisque ça reste du chlorure de sodium, mais qu’en est-il ?», demande Chantale Boivin, de Cap-Rouge.

Il est vrai que tous ces sels sont constitués très, très principalement de chlorure de sodium (NaCl). La part varie selon le type de sel, le fabricant et le site web consulté, mais pour le sel de table, elle tourne autour de 95 à 99 %, le reste étant constitué de traces d’autres minéraux et d’additifs comme l’iode (ajouté pour prévenir des carences qui causeraient des problèmes de développement) et des agents qui empêchent les grains de sel de s’agglomérer. [http://bit.ly/2w88ICE]

Et le sel de mer? Sur le site de Marisol [http://bit.ly/2Vz6ve2], un fabricant portugais de fleur de sel (soit les cristaux qui finissent par flotter sur de l’eau de mer que l’on fait évaporer), on apprend que la fleur de sel contient environ 97% de NaCl, le reste étant composés de minéraux divers, comme le magnésium. J’ai aussi trouvé d’autres analyses de sels de mer [http://bit.ly/2WPZWoO] dans lesquelles la part de chlorure de sodium varie entre 87 et 93 %, ce qui laisse plus de place pour les autres minéraux, mais elles comprennent une quantité (non-divulguée) d’eau, si bien que la part du NaCl y est sous-estimée.

Cela n’empêche pas qu’il y ait des différences avec le sel de table, remarquez. Les sels de mer peuvent receler des restants d’algues ou des traces d’argiles, par exemple, qui vont les colorer et leur donner une saveur particulière. Donc oui, c’est presque juste du NaCl (c’est pour cette raison, d’ailleurs, que les autorités médicales disent toutes qu’aucun type de sel n’est vraiment moins pire que les autres), mais il reste des différences.

Maintenant, lequel choisir pour le homard ? C’est une question de goût qui sort du cadre de cette chronique, mais quelque chose me dit que le homard est toujours bon de toute manière…

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

Comment respirer dans l'espace (pendant 20 ans)

SCIENCE AU QUOTIDIEN / «Lorsque j’ai vu les images du sas qui s’ouvrait pour laisser sortir David Saint-Jacques dans l’espace, le 8 avril dernier, je me suis demandé comment on arrivait à maintenir la «pression atmosphérique» à l’intérieur du laboratoire spatial ? Est-ce qu’on arrive à récupérer l’air présent dans le sas ? Et s’il y a des pertes d’air, est-ce qu’ils ont des bonbonnes de réserve ? Enfin, la pression est-elle la même que celle que nous avons au niveau du sol ?», demande Raymond Martel, de Québec.

De manière générale, dit Mathieu Caron, ingénieur principal des opérations à l’Agence spatiale canadienne, «la Station spatiale (SSI) est très étanche. C’est sûr que conceptuellement, il y a toujours des pertes, mais c’est infinitésimal». La principale source de perte d’air, précise-t-il, ce sont justement les «marches spatiales» comme celle dont M. Martel parle.

«Quand ils font des sorties dans l’espace, les astronautes vont dans le sas, ils ferment porte, mettent leur scaphandre, et après on commence à retirer l’air du sas, explique M. Caron. Ils descendent ça jusqu’à une fraction de la pression de départ : sur la SSI, la pression est à 101,3 kilopascal (ndlr : c’est la pression moyenne sur Terre, au niveau de la mer), et dans le sas ils descendent à peu près au tiers de ça. Mais il reste encore de l’air, et cet air-là est perdu dans l’espace quand les astronautes sortent.»

Et c’est sans compter qu’à ces pertes s’ajoute le fait que les astronautes et les animaux de laboratoire qui servent à des expériences à bord consomment eux-mêmes de l’oxygène, et rejettent du gaz carbonique. La Station a toutefois des réserves à bord : «Il y a quatre réservoirs à haute pression qui sont situés près du sas, dit M. Caron. Deux qui contiennent de l’oxygène et deux qui contiennent de l’azote. Ça sert surtout pour approvisionner les combinaisons des astronautes, quand ils font des sorties, mais ça peut aussi servir pour la station elle-même.» Ces réserves peuvent être utiles notamment en cas d’accident — c’est arrivé l’an dernier, d’ailleurs, quand un petit trou dans une capsule Soyouz a laissé s’échapper de l’air avant d’être colmaté.

La SSI peut aussi être réapprovisionnée en oxygène et en azote (qui compose 78% de l’air, ne l’oublions pas !) par les capsules russes inhabitées Progress, dit l’ingénieur de l’ASC.

En outre, poursuit-il, la station elle-même est équipée de plusieurs «systèmes» qui permettent de garder l’air respirable à bord. C’est d’ailleurs particulièrement important dans le cas de la SSI, qui est une installation permanente — contrairement aux fusées et aux navettes de jadis, qui ne restaient pas longtemps dans l’espace et pour lesquelles dépendre entièrement de leurs réserves n’étaient pas bien grave.

«Il y a d’abord un système qui prend les eaux usées et les recyclent, dit M. Caron, et une partie de cette eau-là subit ce qu’on appelle de l’électrolyse : on brise les molécules d’eau (H2O) avec un courant électrique, ce qui donne de l’oxygène (O2) et de l’hydrogène (H2). L’oxygène peut être remis dans l’atmosphère de la Station. Et ce qu’on fait avec l’hydrogène, c’est qu’on le combine avec du gaz carbonique (CO2) exhalé par les occupants de la SSI et récupéré par un autre «système», et là ça fait de l’eau et du méthane (CH4). L’eau, on la conserve, mais le méthane est renvoyé dans l’espace.»

Voilà donc comment on maintient une atmosphère vivable sur la station spatiale depuis des années.

* * * * *

«J’aimerais savoir si les astronautes de la SSI voient les constellations ou les phases de la lune comme nous les voyons depuis la Terre ? Je prends pour exemple la forme caractéristique de la Grande Ourse. De même, certaines constellations sont plus visibles en été alors que d’autres le sont davantage en hiver. Comme il n’y a pas de saisons dans l’espace, les astronautes voient-ils l’ensemble du ciel comme nous ?», demande Richard Marcoux.

La SSI file à près de 7,7 kilomètres par seconde (bien lire: par seconde), ce qui lui fait faire le tour de la planète de 15 à 16 fois par jour, alors les saisons ne comptent pas là-haut. Mais hormis ce «détail», oui, les astronautes voient la lune et les constellations comme nous, et même mieux que nous puisque la lumière des astres n’a pas à passer à travers l’atmosphère pour se rendre jusqu’à eux. La Station orbite à environ 400 km d’altitude, alors que la Lune est située à plus de 380 000 km de la Terre, donc les astronautes à bord ne la voient pas différemment de nous, et c’est encore plus vrai pour les étoiles, dont la distance se compte en années-lumière.

On peut avoir l’impression que les astronautes ne voient pas les étoiles parce que bien des photos prises dans l’espace n’en montrent aucune — c’est d’ailleurs une question qui m’a été envoyée à quelques reprises. Mais c’est simplement une question de contexte et de sensibilité des appareils. Les étoiles ne sont pas de grosses sources de lumière, si bien qu’elles peuvent être «enterrées», pour ainsi, par des sources lumineuses plus fortes, comme le Soleil ou la lumière que la Terre réfléchit. L’œil humain est souvent capable de retrouver un signal faible à travers un «bruit de fond», mais les appareils photo n’ont pas tous cette capacité. D’où les ciels entièrement noirs que l’on voit sur des image des missions lunaires, par exemple.

Les photos ci-bas l’illustrent bien, d’ailleurs. Toutes deux ont été prises sur la SSI, mais sur celle du haut, on ne voit aucune étoile parce que la Terre est une source de lumière trop forte. Sur celle du bas, cependant, on aperçoit très cllairement la Voie lactée. On peut aussi trouver, ici et sur le web, de très belles vidéos d’étoile prises de la Station.

Science

Les «étoiles dégénérées»

SCIENCE AU QUOTIDIEN / «Dans l’actualité scientifique récente, on a parlé abondamment des trous noirs et j’aimerais comprendre l’origine de ce nom qui me semble un peu étrange, considérant que l’objet en question est super massif alors que par définition, un trou est vide. Et s’il retient toute la lumière et est, de ce fait, invisible, alors pourquoi dit-on qu’il est noir ?», demande Pierre Laforce, de Québec.

Les trous noirs se forment quand des étoiles suffisamment grosses finissent de «brûler» l’hydrogène dont elles sont constituées, explique le physicien retraité de l’Université Laval Serge Pineault, qui a étudié ces drôles d’objets pendant sa carrière de chercheur. Lorsque les réactions de fusion nucléaire qui produisent l’énergie des étoiles comme notre Soleil cessent, alors elles se mettent à refroidir. Or les étoiles sont comme les autres objets de ce point de vue : plus elles sont chaudes, plus elles prennent de l’expansion, et inversement plus leur température diminue, plus elles se contractent. Et la contraction des étoiles en fin de vie a des conséquences, ma foi, spectaculaires en physique. Examinons-les, cela nous permettra de répondre à la question de M. Laforce.

À cause de la gravité, chaque particule d’une étoile exerce une force d’attraction sur toutes les autres — c’est ce qui les tient en un seul morceau pendant des milliards d’années. Et comme les étoiles ont des masses titanesques, cela implique que la pression en leur cœur est extrêmement intense : au centre du Soleil, par exemple, elle équivaut à environ 250 millions de fois celle qui prévaut dans les abysses marines, à 10 000 mètres sous la mer !

Maintenant, quand une étoile en fin de vie commence à refroidir et à se contracter, la distance entre chacune de ses parties diminue. Or justement, l’attraction gravitationnelle augmente rapidement à mesure que deux objets se rapprochent, à raison de «l’inverse du carré de la distance», comme disent les physiciens. Cela signifie que si la distance entre deux parties d’une étoile est réduite de moitié, alors elles s’attirent 2(2) = 4 fois plus fort ; si la distance est coupée en trois, alors l’attraction devient 3(2) = 9 fois plus grande ; et ainsi de suite. Alors forcément, la pression déjà inouïe à l’intérieur de l’étoile va s’accroître encore.

La matière au cœur d’une étoile se comporte à la manière d’un gaz et obéit aux mêmes lois de la physique, explique M. Pineault : si la température du gaz augmente, par exemple, alors sa pression augmente aussi ; si l’on augmente le volume du gaz, alors sa pression et sa température chutent; etc. Mais quand une étoile meurt et se contracte, alors la pression interne atteint des niveaux tels que la matière fini par avoir des comportements, disons, «inhabituels».

«Dans une étoile relativement petite comme le Soleil, dit-il, les électrons vont devenir tellement tassés qu’ils vont former ce qu’on appelle un gaz dégénéré, qui ne se comporte plus comme un gaz normal.» Grosso modo, la pression va forcer les électrons à «accepter» de s’entasser à plusieurs dans des volumes beaucoup plus petits que ce qui serait normalement possible — un peu comme si on parvenait à contraindre deux boules de billard à occuper un même espace en même temps au lieu de rebondir l’une sur l’autre. Cela peut sembler bizarre, du point de vue de l’expérience quotidienne que nous avons de la matière, mais c’est ce qui se passe, et cela donne une idée des pressions absurdes dont on parle ici. Les étoiles de la taille du Soleil finissent en «naines blanches», des objets de seulement quelques milliers de kilomètres de rayon et dont la densité avoisine 1 tonne par centimètre cube !

Chez les étoiles qui ont une masse 10 à 30 fois supérieures à celle du Soleil, c’est encore pire, poursuit M. Pineault : la pression est si intense qu’elle force les électrons et les protons à se «fusionner», pour ainsi dire, et devenir ainsi des neutrons. Ces objets, imaginez un peu, condensent la matière de 2 à 3 de soleils (ils perdent beaucoup de matière en se formant) dans une sphère de seulement 10 à 20 km de diamètre, ce qui donne des densités de l’ordre du million de tonnes par cm³.

Certaines de ces étoiles massives, cependant, conservent plus que 3 masses solaires lorsqu'elles «meurent», et dans leur cas il se passe… eh bien on ne comprend pas trop ce qui se passe là-dedans, indique M. Pineault, mais on sait qu’elles finissent en trous noirs. «La meilleure façon de se représenter les choses, dit-il, c’est de s’imaginer qu’on est sur étoile et qu’on a une pomme qu’on veut lancer à l’infini. À quelle vitesse doit-on lancer la pomme pour qu’elle s’arrache à la gravité de l’étoile ? À la surface du Soleil, cette «vitesse d’échappée» est de 600 km par seconde. Mais à mesure qu’une étoile se contracte, il faut lancer de plus en plus fort, jusqu’au point où il faudrait lancer pomme à la vitesse de lumière. Passé ce point-là, il n’y a plus de vitesse d’échappée possible parce que rien ne peut pas aller plus vite que la vitesse de la lumière.»

Cela implique aussi que l’espace-temps autour du trou noir est tellement tordu par la gravité que même la lumière est «capturée» si elle passe à une certaine distance de cette matière ultracondensée — distance que l’on nomme horizon des événements.

À l’origine. l’expression «trou noir» aurait désigné une cellule de prison particulièrement sordide à Calcutta, dans l’Inde coloniale, d’après le livre sur l’histoire de l’astronomie Mapping the Heavens [http://bit.ly/2IXF5fT]. Elle aurait fini par signifier plus généralement une «expérience horrible», et fut utilisée pour désigner les célèbres objets astronomiques à partir des années 60, pour des raisons qui ne semblent pas complètement claires. Mais le fait est que l’expression décrit fort bien ce qu’elle désigne. La gravité des trous noirs est telle que tout ce qui s’en approche y tombe irrémédiablement, comme dans un trou. Et si aucune lumière ne parvient à s’en échapper, alors l’horizon des événements apparaîtrait comme un cercle noir pour un œil humain qui l’observerait directement.

La toute première image d’un trou noir qui a été dévoilée récemment n’était pas uniformément noire parce qu’elle montrait aussi d’autres choses, comme un disque d’accrétion, soit de la matière qui tourne autour du trou noir lui-même, dit M. Pineault.

Science

Inondations: un «canal» comme à Winnipeg?

SCIENCE AU QUOTIDIEN / «Les inondations sont le sujet de l’heure, alors parlons-en. À Winnipeg, le problème a été en grande partie résolu par un canal de dérivation de 47 km diminuant de 4000 mètres cubes par seconde (m³/s) le débit de la rivière Rouge. Serait-il possible de faire la même chose pour la région de Montréal ? Si l’on déviait 2 000 m3/s de la rivière des Outaouais vers le Saint-Laurent, cela protégerait l’ouest de Montréal. Et cela ne correspondrait qu’à 10 % du débit du fleuve. A priori, le plus simple serait d’ouvrir un canal du lac des Deux Montagnes, au niveau des rapides de Sainte-Anne, vers le lac Saint-Louis», soulève Louis Lepage, de Québec.

En 1950, la région de Winnipeg a été touchée par des inondations particulièrement dévastatrices. Le niveau de la rivière Rouge est monté d’environ 10 mètres et a formé une sorte de «lac» temporaire d’environ 120 km de long sur près de 40 de large au sud de la ville. Plus de 10 000 résidences de Winnipeg (sans compter les fermes alentours) furent inondées, certaines sous 5 mètres d’eau, et il fallut une cinquantaine de jours avant que les eaux se retirent, lit-on sur le site de la Société historique du Manitoba.

C’est à la suite de cette catastrophe que le «canal de dérivation de la rivière Rouge» a été construit, de 1962 à 1968. Essentiellement, il s’agit d’un long chenal qui contourne Winnipeg sur une cinquantaine de kilomètres. Quand les eaux de la Rouge dépassent un certain niveau, le «trop plein» s’écoule en grande partie dans le canal au lieu de suivre son cours naturel, qui le ferait passer à travers la ville. Ça n’est pas une protection totale et «bétonnée», remarquez, puisque des inondations sont survenues par la suite, dont une majeure en 1997 qui a incité les gouvernements à augmenter de 2500 m³/s la capacité du canal. Les travaux furent complétés en 2005, mais des inondations sont quand même arrivées par la suite, notamment en 2009 et en 2011. Cependant, on calcule qu’à chaque fois, le canal de dérivation a permis d’atténuer la crise : le niveau des eaux aurait été de 2 à 3 mètres plus haut sans lui. Alors les dégâts en furent considérablement réduits, de toute évidence.

«De manière générale, ce genre de solution peut marcher, ça fait partie de la boîte à outils classique en prévention des inondations», commente l’hydrologue de l’Université Laval François Anctil. Mais dans le cas particulier de Montréal et de la rivière des Outaouais, lui et les autres experts consultés par Le Soleil ont leurs doutes — et pas que des petits…

D’abord, dit M. Anctil, les environs de Winnipeg dans les années 50 et 60 étaient très loin d’être aussi peuplés que la région de Montréal de 2019. Construire un canal et un barrage entre les deux lacs de l’ouest de Montréal demanderait donc de nombreuses expropriations, avec les coûts et les casse-têtes potentiels que cela implique.

Et il n’est pas sûr que le jeu en vaudrait la chandelle, poursuit-il, parce que l’hydrologie du secteur est assez compliquée. En date de jeudi soir, le lac des Deux Montagnes recevait 8500 m³/s de la rivière des Outaouais, dont 1000 m³/s passaient ensuite par la rivière des Mille-Îles (au nord de l’île de Laval), 3000 m³/s par la rivière des Prairies (sud de Laval) et 4500 m³/s par le fleuve, en passant par le lac Saint-Louis.

Science

VIH: erreur sur l'erreur médicale...

SCIENCE AU QUOTIDIEN / «Il semble qu’il n'y ait que deux théories reconnues sur l'origine du VIH: la «Bushmeat Theory» et la «VOP», pour vaccin oral contre la polio. D’après cette dernière, dans le Congo belge des années 50, la course aux profits aurait incité Dr Hilary Koprowski à fabriquer un VOP afin de profiter du fait que le vaccin Salk venait d'être banni aux États-Unis. Dr Koprowski aurait fabriqué son vaccin dans des cellules de chimpanzés infectés au virus de l’immunodéficience simienne (VIS, l’équivalent du VIH chez le singe). Alors, la source du VIH est-elle une des plus graves erreurs médicales de l’histoire ?», demande Michel Cormier, de Mont-Saint-Hilaire.

On sait que le VIH, ce terrible virus qui s’attaque à nos cellules immunitaires jusqu’à anéantir nos défenses, est génétiquement très, très proche du VIS (lire : presque identique), et on sait que celui-ci est endémique chez le chimpanzé — c’est-à-dire que toutes les populations de chimpanzés sont porteuses d’une souche ou d’une autre de VIS, et ce de manière permanente. Il est certain qu’à l’origine, le VIH était en fait un VIS qui a fait le «saut» d’un chimpanzé à un être humain. La question est : comment est-ce arrivé ?

À cet égard, on ne peut pas vraiment dire qu’il y a «deux théories reconnues». En fait, il n’y en a plus qu’une seule, essentiellement : la théorie de la «viande de brousse», qui veut que le «transfert» initial soit survenu parce que quelqu’un, quelque part dans l’Afrique centrale du début du XXe siècle, a apprêté une carcasse de chimpanzé infecté et s’est coupé ce faisant. Par la suite, une série de facteurs ont permis à l’épidémie naissante de persister et, éventuellement, d’essaimer mondialement — j’y reviens.

La théorie du vaccin de la polio, elle, est largement considérée comme «invalidée» par la communauté scientifique, même si son auteur, le journaliste anglais Edward Hooper, s’y accroche encore farouchement. M. Hooper a publié quelques articles sur son hypothèse dans les années 90, textes qui ont eu un grand écho médiatique d’ailleurs, ainsi qu’un livre sur le même sujet en 1999. Cela a amené des chercheurs à étudier ses thèses mais, loin de la valider, ils y ont surtout trouvé d’énormes trous. Ainsi, en avril 2001, trois savants ont analysé dans Science le contenu génétique de vieilles doses de vaccins oraux anti-polio de la fin des années 50. Les échantillons étaient fournis par l’Institut Wistar, qui était derrière la campagne de vaccination en Afrique centrale soupçonnée d’être à l’origine du VIH. Ils n’ont pas trouvé la plus petite trace d’ADN de chimpanzé [http://bit.ly/2KKnmdt], mais ont clairement identifié de l’ADN de macaque, ce qui montre que le VPO n’a pas été cultivé dans des cellules de chimpanzé, mais bien de macaque. Le macaque n’est pas porteur de souches de VIS qui auraient pu causer l’épidémie humaine actuelle.

Autre (gros) problème : comme on peut le lire dans le livre du chercheur de l’Université de Sherbrooke Jacques Pépin The Origins of AIDS (ouvrage splendide et à lire absolument, en passant), des analyses génétiques ont montré que le VIH est dû à un «saut» unique vers l’humain, survenu autour de… 1920, à une dizaine d’années près. Alors le vaccin oral antipolio, mis au point à la fin des années 1950, ne peut tout simplement pas être en cause.

En outre, M. Hooper a également identifié la région de Kisangani comme origine pour les chimpanzés dont les cellules auraient été utilisées pour le VOP, mais une étude parue dans Nature en 2004 a révélé que les souches de VIS qui circulent dans ce secteur sont trop différentes du VIH pour en être la source [http://bit.ly/2GpmyW4].

Ce qui semble s’être passé, lit-on dans l’ouvrage de M. Pépin et ailleurs [http://bit.ly/2Pjc7aB], c’est qu’après le passage initial à l’humain, le VIH a traversé une sorte de période de «latence» pendant quelques décennies. C’est Kinshasa (et non Kisangani) qui a été le ground zero de la pandémie, c’est là où le virus montre sa plus grande diversité génétique, c’est de là que viennent les plus anciens échantillons séropositifs — remontant à la fin des années 50, époque où le virus arborait d’ailleurs déjà une certaine diversité, signe qu’il était en circulation depuis un bon bout de temps. Tout indique que le virus est peu sorti de Kinshasa jusqu’à ce fameux tournant des années 60, et qu’à Kinshasa même, il restait confiné à une très petite partie de la population, possiblement des prostituées et leurs clients, imagine-t-on.

Que s’est-il passé pour que le VIH finisse par prendre son triste envol ? Eh bien, il est possible que ce soit une erreur médicale qui soit en cause après tout, du moins en partie, mais pas l’erreur que croit M. Hooper. Dans les années 50, les autorités coloniales des Congo belge et français ont entrepris des campagnes de vaccination massives qui étaient bien intentionnées, mais qui se sont souvent déroulées dans de mauvaises conditions d’hygiène. Les seringues n’étaient pas jetées après usage, mais réutilisées — et pas toujours après avoir été désinfectées. Ce n’est pas un hasard si ces campagnes ont coïncidé avec des sursauts d’hépatite C, une maladie qui ne se transmet presque que par le sang, indique M. Pépin dans ses travaux. Alors on peut penser que le VIH en a lui aussi «profité».

Ce ne fut probablement pas le seul facteur, remarquez bien. L’Afrique centrale a subi des changements politiques, économiques et sociaux profonds dans les années 50 et 60. Jusqu’au milieu du XXe siècle, la prostituée «type» à Kinshasa était une jeune femme «entretenue» par trois ou quatre clients, avec qui elle maintenait une relation sur plusieurs années. Par la suite, à cause de la pauvreté grandissante, la prostitution a pris une tournure plus désespérée, chaque femme pouvant voir jusqu’à 1000 clients par année. Il est fort possible que le VIH ait profité de cela aussi pour se répandre en Afrique centrale à partir des années 50 et 60, et éventuellement ailleurs dans le monde — mais c’est une autre histoire.

Science

Depuis quand sommes-nous riches?

SCIENCE AU QUOTIDIEN / «Mon professeur d’histoire attribue la différence majeure entre la pauvreté de l'Afrique et la richesse de l’Europe par le fait que nous sommes issus de la civilisation gréco-romaine. Comment expliquer cet énorme écart de richesse?» demande Robert Parthenais.

Aussi grand, brillant et puissant que fut l’empire romain, son héritage ne peut pas expliquer les écarts de richesse et de puissance dans le monde d’aujourd’hui, deux millénaires plus tard. Une preuve parmi d’autres : tout de suite après sa chute, au Ve siècle, l’Europe médiévale (qui était pourtant son héritière directe) a sombré dans une longue période parfois nommée âge des ténèbres. Pendant des siècles, elle ne fut ni riche, ni puissante. Au Moyen-Âge, c’est plus le monde arabe qu’elle qui a repris le «flambeau de la science» — les mots algèbre et algorithme nous viennent d’ailleurs de l’arabe. L’Europe de l’époque, loin de s’imposer au reste du monde comme elle le fera par la suite, était plutôt dans une position de faiblesse : une grande partie l’Espagne passera plusieurs siècles sous domination musulmane et de l’autre côté de la Méditerranée, à son apogée l’Empire ottoman (basé dans la Turquie actuelle) comprenait tout le sud-est de l’Europe.

Il est difficile d’évaluer la richesse des sociétés à plusieurs siècles de distance, mais les données qu’on a suggèrent que le reste du monde n’avait rien à envier à l’Occident, à l’époque. Autour de l’an 1000, on estime que le produit intérieur brut (PIB) de l’Europe de l’ouest (la partie la plus riche de ce continent à l’heure actuelle) équivalait à environ 775 $ per capita, en argent de 2019. C’était comparable, voire un peu moins que le Japon (820 $), le reste de l’Asie (870 $, la Chine et l’Inde étaient très prospères pour l’époque) et même l’Afrique (800 $), d’après les calculs de l’économiste anglais Angus Maddison.

Jusqu’à la Révolution industrielle, la croissance économique restera anémique pour tout le monde, mais elle explosera, littéralement, en Europe par la suite. Deux chercheurs de la London School of Economics ont examiné récemment la croissance dans six pays européens de la fin du Moyen Âge jusqu’à l’an 2000. Ils ont notamment compté le nombre de séquences de 4 années consécutives où un pays avait connu une croissance annuelle de son PIB d’au moins 1,5 %. Une telle croissance est considérée comme faible de nos jours mais, à la fin du Moyen-Âge, c’était exceptionnel. En 200 ans, (de 1300 à 1500), ces six pays ont connu un grand total de… deux «séquences heureuses» de la sorte. Par comparaison, juste au XXe siècle, ils en ont connu pas moins de 38. C’est vraiment la Révolution industrielle, et non l’héritage gréco-romain, qui a fait la différence.

Alors, pourquoi est-ce en Europe, et d’abord en Angleterre à partir du milieu du XVIIIe siècle, que la Révolution industrielle est survenue ? C’est en quelque sorte «la question-mère de toutes les sciences sociales», dit le politologue de l’Université Laval Louis Bélanger, qui donne des cours sur la montée et le déclin des grandes puissances : c’est en partie pour essayer d’expliquer les écarts de richesse entre les sociétés industrialisées et les autres que ces disciplines sont nées.

Il existe plusieurs thèses différentes à ce sujet, dit M. Bélanger, mais des travaux récemment pointent vers un mélange de contexte politique et de «hasard des contingences historiques». Il semble que, pour une série de raisons, l’Angleterre du XVIIIe siècle ait offert le parfait compromis entre la sécurité d’un État central fort, capable d’assurer la sécurité de ses citoyens et d’appliquer ses lois, et d’un État pluraliste où le pouvoir est minimalement partagé. Grosso modo, l’entrepreneurship tel qu’on le connaît depuis quelques siècles demande un État central assez fort pour fournir un environnement relativement prévisible et une société pas trop chaotique, mais pas assez dominateur pour s’accaparer arbitrairement le fruit de l’entreprenariat ou pour le diriger.

Et il s’est adonné que le moment où ces conditions ont prévalu en Angleterre a coïncidé avec l’arrivée d’innovations technologiques et avec la conquête de nouveaux continents. C’est la conjonction, due en partie au hasard, de tous ces facteurs qui aurait permis l’explosion économique qu’a été la Révolution industrielle.

Cela dit, il existe aussi d’autres pistes d’explication aux inégalités entre les nations, qui peuvent compléter celle de l’industrialisation. Certains insistent sur l’apport de la géographie. Dans son célèbre ouvrage Guns, Germs and Steel, l’auteur américain Jared Diamond fait par exemple remarquer que l’Eurasie est orientée sur un axe est-ouest, ce qui facilitait la dissémination des nouvelles cultures. Dans l’Antiquité, une nouvelle plante domestiquée pouvait se frayer un chemin de la Chine jusqu’en France sans avoir à passer par beaucoup de latitudes différentes. En Afrique et dans les Amériques, qui s’étalent du nord au sud, cela a pu limiter la diffusion de nouvelles cultures, et freiner le développement.

Aux hypothèses géographiques s’ajoutent des explications plus culturelles, comme l’idée (développée par un des pères de la sociologie, Max Weber, au début du XXe siècle) que le protestantisme sied mieux au capitalisme que le catholicisme. Et d’autres encore expliquent les inégalités par des facteurs plus politiques, que ce soit à cause de facteurs externes (l’impérialisme qui a maintenu des pays entiers dans la pauvreté, par exemple) ou internes (comme les conditions ayant mené à la Révolution industrielle).

Ce sont davantage ces dernières qui ont la cote en recherche depuis quelques années, dit M. Bélanger, mais encore une fois, ces thèses ne s’excluent pas forcément les unes les autres.

Autres sources :

- Angus Maddison, The World Economy. Volume 1 : A Millennial Perspective, OCDE, 2006, https://bit.ly/2miErNc

- Roger Fouquet et Stephen Broadberry, «Seven centuries of European economic growth and decline», Journal of Economic Perspectives, 2015, https://bit.ly/2VnqWew

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

Pitou et minou ont-ils une grosse empreinte carbone?

SCIENCE AU QUOTIDIEN / «La responsabilité des gaz à effets de serre est toujours mise sur le dos des individus qui conduisent une auto ou qui mangent de la viande. Mais on ne parle jamais du coût écologique des animaux domestiques. Il y a les déjections, à l’intérieur comme à l’extérieur, la fabrication de leur nourriture sous toutes sortes de formes, le transport, les médicaments, etc. Alors combien ça «coûte», un animal domestique, en termes de gaz à effet de serre ?», demande Louise Saintonge, de Québec.

Question bien difficile que voici, car très peu d’études ont été faites à ce sujet. Pour tout dire, en 2017, deux chercheurs en environnement, Seth Wynes (Université de Lund, en Suède) et Kimberly A. Nicholas (Université de Colombie-Britannique), ont tenté de comparer tous les gestes petits et grands que M. et Mme Tout-le-Monde peuvent faire pour réduire leur empreinte carbone, et ils croyaient initialement que se priver d’un chien ferait partie des gestes ayant le plus d’impact. Mais ils ont dû abandonner cette partie de leur travail car «nous n’avons pu trouver que deux études, avec des résultats contradictoires, sur l’empreinte écologique des chiens», ont-ils écrit dans un article publié récemment dans les Environmental Research Letters.

De ces deux études, qui datent de 2011 et de 2013, l’une a conclu qu’un chien de la taille d’un Labrador implique des émissions d’environ 60 kg de gaz à effet de serre par année — autrement dit, presque rien —, alors que l’autre évaluait l’empreinte carbone du même toutou à... 1,6 tonne ! Pour donner une idée de ce que cela représente, c’est l’équivalent d’un vol trans-Atlantique, et deux fois plus que le CO2 qu’une personne peut «sauver» en devenant végétarien pendant un an. Bref, c’est énorme.

Un peu après la parution de l’article de Wynes et Nicholas, une troisième étude sur le sujet est parue, cette fois dans la revue savante PLoS – One. Son auteur, le géographe de UCLA Gregory S. Okin, y fait un estimé du nombre de calories consommées chaque année par les quelque 163 millions de chats et chiens domestiques vivant aux États-Unis et la part de ces calories qui proviennent de sources animales, de même que la masse totale de leurs déjections. Il estime que cela représente environ 33 % de la consommation humaine de calories animales et 30 % des excréments humains, et comme on connaît les GES associés à chacun, M. Okin déduit que les chiens et chats américains sont responsables d’environ 64 millions de tonnes de CO2 chaque année, soit l’équivalent de 13,6 millions de voitures.

Cette étude-là ferait donc pencher la balance du côté de l’hypothèse voulant que les animaux de compagnie ont une grosse empreinte carbone. Cependant, dans ces exercices comptables-là comme dans bien d’autres choses, le diable se cache toujours dans les détails. Ainsi, les calculs de M. Okin partent du principe que si les Américains ne possédaient plus ni chats ni chiens demain matin, alors l’Oncle Sam pourrait réduire sensiblement ses cheptels de bœufs, porc, poulets, etc. Ce qui réduirait bien sûr de beaucoup l’impact environnemental des animaux de compagnie.

Or c’est une prémisse très contestable parce qu’il n’y a tout simplement pas, ou extrêmement peu, d’élevage qui est fait principalement pour fabriquer la nourriture pour animaux. Pratiquement tout le bétail est destiné à la consommation humaine et, c’est avec ce qu’il reste une fois qu’on a enlevé «nos» morceaux que l’on produit les fameuses «croquettes» pour pitou et minou, ainsi que la nourriture en canne. On parle ici, par exemple, de farine d’os, de sang, de pattes, de becs et d’organes, de même que de la «vraie» viande invendue en supermarché et passée date, des graisses de restaurant, de bétail malade ou mourant, etc [https://bit.ly/2FkeFAS].

Bref, même si on faisait disparaître tous les animaux de compagnie, il faudrait maintenir les cheptels aux mêmes niveaux pour répondre à la demande humaine. M. Okin lui-même le reconnaît dans son article, d’ailleurs, mais il maintient tout de même ses conclusions parce que, argue-t-il, la plupart de ces ingrédients pourraient devenir propre à la consommation humaine après transformation. La preuve en est, dit-il, que l’on connaît bien des cas où des gens très pauvres se sont nourris de nourriture pour chats ou chiens. En outre, «la tendance est à la nourriture de luxe qui inclut plus de produits animaux que les Américains considèrent comme comestibles», fait-il valoir.

Il est vrai que ce type de nourriture est plus populaire qu’avant, mais ce sont encore les «croquettes» qui dominent le marché, et de loin : 8,7 milliards $ en 2012 contre 2,3 milliards $ pour la nourriture «humide», d’après des chiffres cités par M. Okin. Et encore, cette dernière n’inclut pas que des parties «comestibles pour l’humain», loin s’en faut. Alors sans dire qu’il n’a aucune valeur, l’argument voulant que la nourriture pour chiens/chats «concurrence» l’alimentation humaine est encore très théorique.

Science

Le marais «miracle» de Beauport…

SCIENCE AU QUOTIDIEN / «J'habite dans le quartier Beauport et tout près de chez moi, il y a dans un petit boisé un marais d'environ 100 mètres carrés qui ne gèle jamais, alors que le courant y est très faible. On y voit d’ailleurs encore des plantes aquatiques toujours vertes, même si la température plonge sous les -20 °C pendant des semaines. Je me demande comment il se fait que de grosses rivières finissent par geler mais pas ce petit marais où l'eau est quasi stagnante », demande Daniel Ross.

Effectivement, comme le montrent des photos que nous a envoyées M. Ross, il y a bel et bien des plantes aquatiques qui semblent (de ce qu’on peut en juger sur les images) en parfaite santé, bien que les clichés aient été pris en plein mois de janvier ! Voyons voir ce qui se cache derrière ce petit «miracle»…

Ce milieu humide, précise M. Ross, est situé juste au nord de l’intersection des rues Blanche-Lamontagne et Pierre-Paul-Bertin. Or, signale l’hydrogéologue René Lefebvre, du Centre Eau, Terre et Environnement de l’INRS, c’est-là une zone connue de «résurgence» des eaux souterraines, c’est-à-dire un endroit où l’eau de la nappe phréatique ressort. Comme il n’a pas pu se déplacer sur le terrain pour tout valider, M. Lefebvre souligne que ce n’est qu’une hypothèse. Mais il admet aussi qu’il ne voit pas vraiment d’autres possibilités — et disons que celle-là expliquerait bien des choses. 

À mesure que l’on s’enfonce sous terre, les variations saisonnières de températures deviennent rapidement un lointain écho. Alors que l’air ambiant fluctue allègrement entre -30 °C et + 30 °C d’une saison à l’autre, à seulement 2 mètres de profondeur, la température du sol se maintient généralement dans une fourchette relativement étroite de 5 à 13 °C tout au long de l’année, d’après un document sur la température des sols de Ressources naturelles Canada. Et à partir de 5 à 6 mètres sous terre, elle est essentiellement stable hiver comme été, à 8 °C environ.

Si l’on a bien affaire ici à une résurgence de la nappe phréatique, alors c’est à peu près à cette température de 8 °C que l’eau du «marais miracle» de Beauport sort du sol, dit M. Lefebvre. Cela explique donc pourquoi l’endroit ne gèle jamais, puisque malgré le faible débit, l’eau est continuellement renouvelée. Il est évident qu’avec le temps, elle se refroidit et finit forcément par geler un peu plus en aval — la décharge du marais est un petit ruisseau qui se jette dans la rivière Beauport qui, elle, se couvre de glace en hiver —, mais dans ce marais, ce n’est pas le cas.

D’ailleurs sans être une preuve formelle, le fait qu’on y voit des plantes aquatiques est un autre signe que l’on a affaire à une zone d’émergence d’eau souterraine. «Cela va créer un microclimat très local avec des températures plutôt constantes au-dessus du point de congélation, ce qui permet à la végétation de survivre», dit M. Lefebvre.

Il est difficile d’identifier de quelle espèce de plante aquatique à partir des photos prises par M. Ross, me dit-on à l’Organisme des bassins versants de la capitale. Sous toutes réserves, ses biologistes disent qu’elles semblent être soit des lenticules mineures, soit des hydrocharides grenouillettes. Mais dans les deux cas, la règle générale est que les plantes aquatiques meurent en hiver — l’hydrocharide grenouillette, par exemple, fait normalement des sortes de bourgeons nommés turions, qui coulent au fond et entrent en dormance jusqu’au printemps (https://bit.ly/2TJIoNP).

Mais si l’eau se maintient autour de 8°C à l’année longue, c’est une autre histoire...

Autre source :

- G. P. Williams et  L. W. Gold, Ground Temperatures, Ressources naturelles Canada, 1976, https://bit.ly/2JhBdHD

Science

Des vents plus violents?

SCIENCE AU QUOTIDIEN / «Ça n’est peut-être qu’une impression, mais il me semble que nous avons de plus en plus d’épisodes de grands vents et qu’ils sont de plus en plus violents. Existe-t-il des statistiques à ce sujet? Et les changements climatiques seraient-ils en cause?» demande Jean-Guy Mercier, de Québec.

Oui, il existe des statistiques là-dessus, notamment sur le site d’Environnement Canada. Pour le simple plaisir d’avoir un exemple concret (et parce que j’ai beaucoup de misère à voir un ensemble de données sans potasser dedans), j’ai fait une petite compilation sur la force des vents au mois de février, telle qu’enregistrée à la station météorologique de l’Université Laval cours des 20 dernières années. Comme le montre le graphique, il est bien difficile d’y voir une tendance à la hausse.

Science

L'«écho» des pensionnats autochtones

SCIENCE AU QUOTIDIEN / «En lisant votre article sur l’épigénétique («Darwin contre Lamarck, round 2»), je me demandais si on pouvait faire un lien avec la situation des autochtones, chez qui le diabète fait des ravages. La pauvreté et les changements dans l’alimentation ont-ils pu avoir ce genre d’effets ?», demande Raoul Kanapé, d’Essipit.

La fonction des gènes, c’est de conserver de l’information servant à fabriquer des protéines. Or les gènes sont pratiquement inchangeables : nous ne faisons qu’en hériter, vivre avec tels quels pendant toute notre existence, et les passer à nos enfants. Cependant, tous les gènes ne doivent pas être exprimés également dans toutes nos cellules — les neurones et les cellules du cœur, par exemple, ne font pas du tout le même travail et n’ont donc pas besoin de produire les mêmes protéines. De même, nos gènes peuvent ne pas être bien adaptés à la situation dans laquelle nous naissons, si bien que l’évolution nous a doté de mécanismes collectivement nommés épigénétique, qui vont augmenter ou diminuer (voire réduire au silence complet) l’expression de tels ou tels gènes.

Dans cette chronique de décembre dernier [https://bit.ly/2Rx1SPn], j’abordais un débat qui fait rage actuellement en science : les «ajustements» épigénétiques peuvent-ils être transmis de génération en génération ? La théorie classique en biologie veut que non, les caractères acquis ne se transmettent pas, seuls les gènes sont passés aux enfants. Mais des expériences récentes sur des souris suggèrent que l’épigénétique pourrait «résonner» sur plus d’une génération, et des données historiques vont dans le même sens. On connaît en effet quelques cas documentés de disette, comme celle qui a sévit aux Pays-Bas à l’hiver 1944-45, où les femmes qui étaient enceintes à ce moment-là ou qui le sont devenues peu après ont donné naissance à des enfants qui ont, même à l’âge adulte, fait nettement plus de diabète et d’obésité que la moyenne. Comme si la famine les avait «programmés» pour avoir des métabolismes économes, et qui se sont avérés mal adaptés lorsque l’abondance est revenue.

Est-ce que cela peut expliquer la véritable «épidémie» de diabète qui sévit chez les autochtones, qui en souffrent de 3 à 5 fois plus que la moyenne (les taux dépassent même 25 % dans certaines communautés) ? Il est effectivement possible que ce soit-là un morceau du puzzle, répond Marie-Claude Tremblay, professeure de médecine familiale à l’Université Laval qui mène des recherches sur le diabète et la santé autochtone, notamment.

À cet égard, le mode de vie nomade qui était marqué par des famines occasionnelles est l’élément qui vient le plus spontanément à l’esprit. Mais, rappelle la chercheuse, il y a aussi (et surtout) un événement qui a exposé un grand nombre d’Autochtones à toutes sortes de privations dans un passé assez récent : les pensionnats.

«Il y en a beaucoup qui ont subi de la malnutrition chronique dans les pensionnats, c’est documenté dans les archives et beaucoup de témoignages à la Commission vérité et réconciliation l’ont mentionné. Ça a pu avoir un effet épigénétique», dit Mme Tremblay.

En outre, hormis la malnutrition, toute forme de traumatisme peut avoir des conséquences semblables. «Ces enfants-là étaient arrachés de leur milieu, et on sait à quel point l’attachement est important pour les enfants, illustre-t-elle. Ils n’avaient pas le droit de parler leur langue, on les rasait, on cherchait à effacer l’Indien en eux. Juste ça, c’est un traumatisme. Et on ajoute ça à la malnutrition et aux abus. (…) Ce qu’on sait, c’est que les traumatismes vont avoir un effet sur les niveaux de cortisol [ndlr : l’hormone du stress] et ça, ça va agir sur l’hormone de croissance ressemblant à l’insuline (igf1) et ça va faire en sorte que le métabolisme va changer» d’une manière qui favorise le diabète et l’obésité.»

De là, on peut penser que les mères exposées ont fait plus de diabètes et d’obésité, et que leurs enfants ont été ou sont également plus à risque. Certaines études ont aussi trouvé des gènes (et pas seulement de l’épigénétique) liés à l’obésité qui sont plus fréquents chez les autochtones.

Cependant, insiste Mme Tremblay, le diabète et l’obésité sont des problèmes de santé complexes et l’épigénétique n’est selon toute vraisemblance rien de plus qu’un petit bout du tableau d’ensemble. Au-delà des pensionnats, dit-elle, «le» gros changement que ces populations ont subi fut la colonisation, avec toutes les conséquences qu’elle a eues : sédentarité, diète traditionnelle remplacée par une alimentation de mauvaise qualité, etc. Le surpoids et le diabète ont clairement des racines sociales et économiques, souligne Mme Tremblay, étant plus fréquents chez les gens pauvres et peu instruits. Or ce sont justement là des facteurs de risque qui sont très présents dans bien des Premières Nations : d’après Statistique Canada, moins de la moitié (48 %) des autochtones de 15 ans et plus ont un diplôme d’études secondaires et leur revenu médian est d’environ 18 000 $, contre 28 000 $ pour les allochtones. Et encore, la situation est bien pire dans certaines communautés éloignées.

«Alors ce ne serait pas complet et pas éthique de parler du diabète chez les autochtones sans parler de tout cela», indique Mme Tremblay.

Autres sources :

- Stewart B. Harris et al., «Type 2 Diabetes in Aboriginal People», Canadian Journal of Diabetes, 2013, https://bit.ly/2D1hSnD  

- Kyle Millar et Heather J. Dean, «Developmental Origins of Type 2 Diabetes in Aboriginal Youth in Canada: It Is More Than Diet and Exercise», Journal of Nutrition and Metabolism, 2012, https://bit.ly/2SjvFja

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.