Archives pour la catégorie Actualités

L’ACFAS, une occasion exceptionnelle

Car il y a un moment pour chaque chose, et une idée ne vaut pas cher si on ne sait pas la communiquer, la comparer à celle des collègues ou la confronter à d’autres visions du monde. Les revues savantes, les colloques, séminaires ou symposiums, tout comme les congrès scientifiques, sont là pour cela. En particulier, le congrès de l’Association francophone pour le Savoir (ACFAS) qui est un événement annuel très couru, où des milliers de chercheurs de toutes les disciplines viennent échanger sur l’avancement de leurs travaux. De jeunes chercheurs s’y font les dents, de vieux routiers y retrouvent des collègues éminents. On s’échange des hypothèses audacieuses, des résultats percutants. Bref, c’est la fête de la science francophone.

J’ai présenté ma première communication au congrès de l’ACFAS en mai 1973 à l’École polytechnique de Montréal. Depuis, j’ai eu des dizaines de fois l’occasion de présenter des communications scientifiques sur mes travaux, et même une dizaine de fois d’y organiser des colloques. Inutile de dire que j’attendais avec impatience le retour du plus grand congrès scientifique de langue française au monde dans notre université.

Lors de son dernier passage, en 2005, nous avions innové en y appliquant un concept d’écoresponsabilité qui avait permis de tester notre nouveau système de gestion des matières résiduelles et le tout nouveau concept de la compensation carbonique par la plantation d’arbres sur des territoires naturellement dépourvus de couvert forestier en zone boréale.

La Chaire en éco-conseil était alors à ses débuts, et nous avions organisé un colloque de haute tenue « Le développement durable, quels progrès, quels outils, quelle formation ? », dont les résultats sont encore aujourd’hui consultés.

Le congrès de l’ACFAS vivra sa 86e édition du 7 au 11 mai, à Saguenay. La Chaire en éco-conseil, qui aura 15 ans cet automne, y participera de diverses façons. Tout d’abord, les 9 et 10 mai, nous avons organisé un colloque sur l’analyse systémique de la durabilité. Ce champ de compétence émergent prend de plus en plus d’importance à l’échelle internationale, et notre équipe fait figure de leader, en particulier avec nos outils qui comptent maintenant parmi la panoplie des outils recommandés par les Nations Unies pour la mise en œuvre du Programme de développement durable à l’horizon 2030. Plusieurs conférenciers internationaux nous feront l’honneur d’y prendre la parole. Dans le cadre de notre partenariat avec l’Institut de la Francophonie pour le développement durable, un livre sera publié à la fin de l’année avec les contributions des conférenciers.

L’UQAC présentera aussi la nouvelle infrastructure de recherche Carbone boréal, qui est née cet hiver à partir du projet du même nom que la Chaire a lancé avec ses partenaires il y a dix ans. Aujourd’hui, avec plus d’un million d’arbres plantés, l’UQAC s’engage à faire durer dans le temps cette initiative qui a permis à plus d’un millier de personnes et d’entreprises de compenser leurs émissions de gaz à effet de serre, tout en contribuant à la recherche sur le rôle de la forêt boréale dans la lutte aux changements climatiques. Enfin, le congrès de l’ACFAS sera un modèle d’écoresponsabilité. Je n’en dis pas plus…

J’ai un très clair souvenir de ma première participation au congrès de l’ACFAS il y a 45 ans et j’encourage tous les étudiants qui envisagent une carrière universitaire de s’y inscrire. Une semaine de bouillonnement intellectuel n’a jamais fait de mal à personne !

https://www.lequotidien.com/chroniques/claude-villeneuve/lacfas-une-occasion-exceptionnelle-018ae9c6b18d32899d12bb4dac4d859b

Compétences émergentes

Il y a trente ans, avec une équipe de professeurs de l’UQAC, je donnais un premier cours universitaire sur le développement durable (DD). Le livre de référence pour le cours à cette époque était le rapport de la Commission Brundtland, Notre avenir à tous, qui venait d’être publié. Le cours était en même temps un projet de recherche financé par l’UNESCO. Cette organisation des Nations Unies voulait qu’on crée un contenu pour l’enseignement de cette nouvelle forme de développement censée contribuer à régler les crises multiples qu’on voyait poindre dans l’avenir de l’humanité, en particulier la crise écologique, dont les premiers symptômes laissaient présager le pire. Un soir, un étudiant me pose la question « Monsieur, comment peut-on mesurer la durabilité du développement ? » J’étais bien embêté. L’idée est noble et généreuse, mais comment peut-on la mettre en œuvre, en apprécier les résultats et tirer des leçons de nos expériences ? Tout un chantier ! À l’époque, les compétences en ce domaine n’existaient pas.

Plutôt que de dire n’importe quoi, j’ai commencé à discuter de la question avec les étudiants. Avec ma déformation de scientifique, j’ai proposé qu’il faudrait un laboratoire pour expérimenter le DD et y tester des outils de mesure qui pourraient répondre à cette interrogation fondamentale. C’est la région du Saguenay-Lac-Saint-Jean qui allait devenir ce laboratoire en 1991.

Au fil des années de travail, avec la participation de centaines d’étudiants et de collègues, nous avons construit des outils comme la Grille d’analyse de développement durable qui a été homologuée l’an dernier aux Nations Unies. Aujourd’hui, nous intégrons ces outils, ces savoirs et ces savoir-faire dans l’ASD.

Quelles sont les bases conceptuelles de cette démarche ? Il faut d’abord comprendre que le DD est quelque chose de normatif, c’est-à-dire que c’est une projection construite par des humains dans un avenir plus ou moins lointain, des conditions d’existence qui nous permettront de vivre mieux entre nous et avec la nature. L’idée du DD est aussi holistique et englobe tous les systèmes et sous-systèmes qui encadrent la vie et les activités humaines sur la planète : cycles biogéochimiques, systèmes politiques, système économique, les cultures, les modes de gouvernance et les organisations sociales comme le système de santé. La troisième caractéristique du DD est sa démarche éthique qui vise une équité entre les générations, entre les peuples, une équité procédurale et une équité avec les autres espèces vivantes. Finalement, le DD est participatif en ce sens qu’il se fait avec les parties prenantes et intéressées. Ce cadrage montre toute la complexité de qualifier et de mesurer la durabilité. Aucune discipline ne permet de répondre à ces questions, d’où la nécessité de l’ASD.

Il faut comprendre les interactions synergiques et antagonistes entre les composantes des systèmes pour maximiser les unes et réduire les autres. Par exemple, en protégeant la nature, on peut favoriser l’augmentation du tourisme, mais il ne faut pas que l’affluence des touristes détruise la qualité du milieu. Le colloque nous permettra de faire le point et d’examiner de nouvelles perspectives dans le domaine.

L’ASD est un nouveau champ de compétences voué à un brillant avenir. Pour aller plus loin, nous avons créé en 2016 un programme court de deuxième cycle qui permet à l’UQAC de former des experts en ASD partout dans le monde.

https://www.lequotidien.com/chroniques/claude-villeneuve/competences-emergentes-da7e6be28dfc00405922c4c3371aea16

Une percée technologique

D’abord un petit rappel de chimie. L’aluminium est l’un des éléments les plus abondants dans la croûte terrestre, mais il n’existe pas à l’état métallique, comme l’or par exemple. L’aluminium est présent sous diverses formes dans les roches, les argiles ou des terres comme la bauxite. C’est dans les gisements de bauxite qu’on retrouve des concentrations économiquement exploitables d’alumine dont la formule est Al2O3, c’est-à-dire une molécule composée de deux atomes d’aluminium et de trois atomes d’oxygène. L’alumine est une molécule extrêmement stable, ce qui veut dire qu’il faut énormément d’énergie pour la briser. Dans les alumineries, c’est l’électricité qui fournit cette énergie dans un processus appelé électrolyse. L’électrolyse utilise depuis la fin du dix-neuvième siècle des cuves dans lesquelles des anodes composées de carbone servent à capter l’oxygène de manière à ce qu’il puisse être arraché à l’aluminium. Au terme de la réaction, on retrouve de l’aluminium métallique sous forme liquide dont on fait des alliages et des lingots. C’est ce qu’on appelle l’aluminium primaire. Il est ensuite envoyé sur le marché pour la transformation.

La réaction produit de nombreux polluants qui viennent de la combustion des anodes. Plusieurs parmi les plus nocifs sont captés par les systèmes d’épuration de l’air et les nouveaux procédés sont beaucoup plus propres que les anciennes cuves Söderberg qui ont aujourd’hui disparu de nos alumineries. Il n’en demeure pas moins que chaque tonne d’aluminium produite émet environ 2 tonnes de CO2, comme nous produisons au Québec 2,8 millions de tonnes d’aluminium primaire par année, cela signifie plus de 5 millions de tonnes de CO2 par année dans notre bilan. Le nouveau procédé d’Elysis n’utilisera plus d’anodes de carbone et permettra de séparer l’aluminium de l’oxygène dans les cuves d’électrolyse sans émissions de CO2. C’est une excellente nouvelle pour le climat et pour l’économie de la région et du Québec.

En effet, les alumineries du Québec font partie des grands émetteurs finaux règlementés par le Système de plafonnement et d’échange des émissions (SPEDE) qui permet un marché du carbone entre la Californie, le Québec et l’Ontario. À partir du moment où la nouvelle technologie remplacera les cuves existantes dans les usines, les alumineries auront réalisé des réductions d’émissions qui iront bien au-delà des exigences gouvernementales. Elles pourront donc recevoir des certificats chaque année qui pourront être mis en marché et vendus aux autres grands émetteurs qui n’ont pas réduit leurs émissions ou aux importateurs et distributeurs de carburant qui vous refileront la facture sur votre litre d’essence ou sur la bonbonne de propane. C’est le principe pollueur-payeur. Ainsi va la vie !

En revanche, les nouvelles usines ne disposeront pas de ces crédits. On peut donc penser que la première phase du déploiement de la technologie s’appliquera aux alumineries existantes et qu’il pourra augmenter leur durée de vie et leur rentabilité. Cela contribuera aussi à l’atteinte de la cible de réduction des émissions du Québec de -37,5 % en 2030, mais pas de façon déterminante. En effet, le déploiement de la technologie pour remplacer les cuves se fera au plus tôt à partir de 2025 et devrait prendre au moins dix ans. La semaine prochaine nous verrons comment cela peut être significatif à l’échelle mondiale.

https://www.lequotidien.com/chroniques/claude-villeneuve/une-percee-technologique-fae10eabbdf28c4ac03b05c3f4917ceb

Une percée technologique (2)

D’abord, voyons quelques chiffres. En 2016, il s’est produit dans le monde environ 65 millions de tonnes d’aluminium, dont la moitié en Chine. Au Québec, on en a produit 2,8 millions de tonnes sur les 3,6 millions de la production canadienne. Le nouveau procédé Elysis élimine les émissions liées à la réaction chimique qui permet de séparer l’aluminium métallique de l’oxygène décomposant ainsi l’alumine. Ainsi, au lieu de produire 1,2 tonne de CO2 pour chaque tonne d’aluminium, on ne produit que de l’oxygène. C’est naturellement la réaction théorique. Dans les faits, les alumineries du Québec émettent environ 2 tonnes de CO2 par tonne d’aluminium produite et à ce titre, elles figurent parmi les meilleures au monde. Le nouveau procédé n’émettra que 890 kilos d’oxygène par tonne d’aluminium. Cette avancée spectaculaire peut-elle contribuer significativement à réduire les émissions de gaz à effet de serre à l’échelle planétaire et renverser la hausse de la température globale prévue au 21e siècle ? Voyons un peu avec les derniers chiffres du Global carbon budget (http ://www.globalcarbonproject.org/carbonbudget/).

Selon cette évaluation scientifique, le secteur des carburants fossiles et de l’industrie a émis en 2017 un total de 36,8 milliards de tonnes de CO2éq. (en hausse de 2 %). Donc, si le procédé nouveau éliminait toutes les émissions liées à l’électrolyse de l’aluminium, même aux meilleurs standards, on aurait un potentiel de réduction mondial de 130 millions de tonnes, c’est-à-dire 0,35 % des émissions totales. Ainsi dire pas grand-chose. Et cela suppose qu’on ait transformé toutes les alumineries du monde pour l’adapter aux nouvelles cuves. Cela ne sera vraisemblablement pas possible avant 2050. Au Canada, les émissions en 2016 dépassaient 704 millions de tonnes de CO2éq, celles de l’industrie de l’aluminium ne comptant que pour 1 % de ce total. Leur élimination d’ici 2035 serait une contribution mineure à l’atteinte des cibles, surtout si le gouvernement canadien continue de vouloir augmenter l’exploitation des sables bitumineux et du gaz de schiste.

Malgré l’importance de la réduction d’émissions de procédé, il faut savoir que dans le reste du monde, les émissions du secteur aluminium sont surtout dues à la production d’électricité. Il faut plus ou moins 14 000 KWh pour produire une tonne d’aluminium. Selon le mode de production chaque KWh a une empreinte carbone qui peut aller de moins de 10 grammes au Québec et jusqu’à un kilo pour une centrale au charbon chinoise. En somme, il y a beaucoup plus d’émissions de l’industrie de l’aluminium par la production d’électricité que par la réduction de l’alumine.

La conclusion à tirer de tous ces chiffres est éloquente. Malgré la percée technologique formidable qui permettra de produire un aluminium à faible empreinte carbonique, c’est dans la réduction de l’usage des carburants fossiles qu’il faut accélérer l’action. Au Québec, les gains se feront essentiellement dans le transport, au Canada, il faudra arrêter l’extraction de pétrole des sables bitumineux et dans le monde il sera nécessaire d’éliminer rapidement la production d’électricité au charbon. C’est là que se situent les gains les plus importants. Les nouvelles technologies peuvent représenter un gain, mais si on ne s’attaque pas au cœur du problème, les conséquences seront catastrophiques.

https://www.lequotidien.com/chroniques/claude-villeneuve/une-percee-technologique-2-8cd0d72bde10ec6e52b12185e63a5533

Une histoire écrite dans la glace

On fait depuis longtemps l’histoire du climat en forant des carottes dans la glace du Groenland et de l’Antarctique. Ces carottes sont obtenues par des forages dans la glace qui peuvent atteindre plus de deux kilomètres de profondeur. On peut ainsi remonter plus de 100 000 ans dans le temps, puisque la glace est formée par les dépôts de neige qui tombe chaque année et qui ne fond pas. C’est la pression qui transforme la neige en glace. Mais la neige n’est pas seulement un moyen de connaître la température. Elle se charge aussi dans les nuages de polluants atmosphériques divers, comme le mercure ou le plomb.

L’étude, réalisée par une équipe de l’Université d’Oxford, a examiné une section de 425 mètres de long d’une carotte de glace datée entre -1235 à +1257 de notre ère. Sur cette période, les scientifiques ont analysé la concentration de plomb présente dans chaque section d’un mètre mise à fondre du bas vers le haut en continu. Avec un spectromètre de masse capable de détecter le plomb à des concentrations infinitésimales (0,01 picogramme ou un millionième de millionième de gramme). La courbe obtenue a ensuite été comparée avec celle obtenue par d’autres méthodes de datation utilisant les anneaux de croissance des arbres et les éruptions volcaniques pour corroborer les événements historiques. On a ainsi pu obtenir une courbe qui a permis de reconstruire les grandes lignes de l’histoire de l’Empire romain avec une très grande précision, puisqu’on pouvait isoler l’équivalent de 12 échantillons par année de la période à l’étude.

Le plomb était utilisé abondamment dans l’Empire romain. On l’extrayait des mines et le métal une fois fondu, on en faisait des tuyaux d’aqueduc ou des feuilles qui servaient à renforcer la proue des navires. Comme le plomb est souvent associé à l’argent dans les gisements, son abondance est aussi un indice de l’activité économique puisque la pièce d’un denier, couramment utilisée dans l’Empire romain était faite d’argent. Pour séparer l’argent du plomb, il fallait chauffer le minerai. La demande d’argent pour frapper la monnaie entraînait donc plus d’émissions de plomb. La signature historique des concentrations de plomb dans la glace du Groenland montre des fluctuations qui coïncident avec des périodes historiques bien documentées et permet ainsi de suivre un indicateur de l’économie de la civilisation dominante du bassin méditerranéen. Par exemple on peut détecter des événements aussi pointus que la décision de Néron de réduire la proportion d’argent à 80 % dans la pièce d’un denier à partir de l’an 64, ce qui a diminué la demande pour l’argent. La grande crise de l’Empire survenue entre 235 et 284, tout comme son effondrement en 476 sont aussi bien visibles.

De nombreux historiens ont tenté d’établir ce que pouvait être le produit national brut de l’Empire romain. Leurs méthodes comportaient toutefois beaucoup d’approximations et d’hypothèses difficiles à démontrer. Avec la signature du plomb dans les carottes glaciaires, on dispose d’un témoignage étonnamment précis de l’activité économique. Avec un peu d’imagination, c’est comme si vous y étiez.

Lavoisier disait que « Rien ne se perd, rien ne se crée ». Si nos aïeux pensaient qu’on peut oublier ses dettes en les écrivant sur la glace, la science nous montre que l’histoire laisse des traces indélébiles dans la glace par la pollution qui y est séquestrée. La glace a la mémoire plus longue qu’on pensait !

https://www.lequotidien.com/chroniques/claude-villeneuve/une-histoire-ecrite-dans-la-glace-36fea472d8552f2964fc2d7274d59eeb

Le poids des vivants

Première surprise, bien que les océans couvrent 70 % de la surface planétaire, ils n’abritent que 14 % de la biomasse totale, l’écrasante majorité (13 %) étant composée de bactéries des fonds marins. Donc 86 % du poids des êtres vivants se trouve sur les continents. Cela porte à réfléchir quand on considère que l’ensemble des pêcheries à l’échelle mondiale dépend de si peu.

Les plantes forment de façon moins surprenante 82 % de la masse des êtres vivants. Cette disproportion est explicable non seulement parce que les forêts stockent d’énormes quantités de biomasse, mais surtout parce que les plantes font la photosynthèse en captant l’énergie solaire et le CO2 atmosphérique. Elles sont donc à la base de tous les réseaux alimentaires. Les animaux s’en nourrissent et à chaque niveau trophique, des herbivores aux carnivores, il y a des pertes énergétiques, ce qui diminue proportionnellement la biomasse à chacun des niveaux.

Les sept milliards et demi d’humains qui vivent sur la planète ne pèsent que 0,01 % de la biomasse totale, mais si on compare leur poids à celui de tous les mammifères vivants sur terre et dans les mers, cette proportion passe à 36 %. Plus surprenant encore, le poids des animaux d’élevage qui sont destinés à notre alimentation représente 60 % de la biomasse des mammifères ne laissant aux mammifères sauvages que 4 % du total. Pour leur part, les volailles d’élevage, poulets, dindes, canards, autruches et autres pintades forment 70 % de la biomasse des oiseaux sur la planète, ne laissant que 30 % pour les oiseaux sauvages. Comment cela est-il possible ?

Dans l’histoire de l’humanité, nos ancêtres ont fait disparaître progressivement d’immenses populations d’animaux sauvages et de forêts pour développer l’agriculture. Dans l’est de l’Amérique du Nord, par exemple, les forêts qui existaient là où on cultive aujourd’hui des céréales sont disparues au 19e siècle. Les millions de bisons qui vivaient dans les plaines de l’Ouest ont été pratiquement exterminés pour faire place à des champs de céréales et à des troupeaux de vaches. Au Brésil et ailleurs, des superficies immenses de forêts tropicales ont cédé le pas à des champs de soja et à des troupeaux de bovins. Dans un élevage industriel de poulets, on retrouve beaucoup plus de biomasse que l’ensemble des perdrix qui vivent dans une zone de 100 kilomètres carrés autour du poulailler. En conséquence, il y a eu un remplacement des espèces sauvages par les humains et leurs animaux domestiques.

C’est ainsi que les auteurs de l’article concluent que depuis 10 000 ans, les humains ont fait disparaître massivement la vie sauvage. On aurait ainsi perdu en terme de biomasse 86 % des mammifères terrestres, 80 % des mammifères marins, 50 % des plantes et 15 % des poissons. Certaines espèces ont carrément disparu, d’autres se sont raréfiées au même rythme que se transformait leur habitat.

Tout cela fait réfléchir. En prenant conscience de ces chiffres, il devient impératif de repenser notre développement, notre alimentation et nos efforts de protection de la nature.

Belle discussion autour de votre prochain barbecue !

Un cadre de référence utile

La session où j’intervenais s’intitulait « Environnement et développement durable ; un impact réel sur la paix en Afrique ». Mon sujet portait sur le développement durable, et en particulier le Programme de développement durable à l’horizon 2030 (PDD H-2030) et comment les axes prioritaires du Rotary International et de sa Fondation cadraient avec les 17 objectifs (ODD) qui le composent. C’était un sujet relativement facile. Les six axes du mouvement interpellent directement les cibles de huit des 17 ODD et il serait facile pour eux d’en rejoindre cinq autres s’ils adoptaient ce cadre de référence pour planifier leurs activités. Ma présentation peut être téléchargée sur le site de la Chaire en éco-conseil (http ://ecoconseil.uqac.ca).

Il existe plusieurs mouvements qui œuvrent dans la même veine que le Rotary. Certains comme le Kiwanis, les Optimistes, les Lions sont très présents dans nos communautés et y font des projets concrets, contribuant aux mieux-être des jeunes, des personnes handicapées, et bien d’autres. Ces mouvements, réunissant des personnes de bonne volonté intéressées à s’entraider pour construire un monde meilleur font souvent du développement durable sans s’en rendre compte. En reliant leurs actions ou leurs campagnes de financement à des objectifs plus larges qui font le consensus à l’échelle internationale, ils pourraient eux aussi trouver un cadre de référence qui leur permettrait de mieux situer leurs actions dans cette mouvance mondiale.

Se situer dans la mise en œuvre du développement durable ne veut pas dire être militant écologiste. Beaucoup de gens l’ignorent. Il y a même des militants écologistes qui rejettent carrément le développement durable qui se disqualifie à leurs yeux parce qu’il n’est pas assez radical. Il faut dire que le spectre des positions dans ce domaine est large. Le modèle de développement durable de la Chaire en éco-conseil développé à partir des travaux originaux que j’ai initiés avec des collègues de la Région laboratoire du développement durable au tout début des années 1990 et poursuivi avec mes étudiants et de nombreux intervenants de terrain comporte six dimensions. La gouvernance, l’éthique, l’économique, l’écologique et le social s’y retrouvent déclinés en 40 thèmes qui interagissent de façon dynamique. Les outils que nous avons créés en partenariat avec l’Institut de la Francophonie pour le développement durable permettent d’encadrer les politiques, stratégies, plans, programmes et projets pour les bonifier avec l’aide des parties prenantes en respectant les objectifs de chacun. Ces outils sont gratuits et ils sont maintenant utilisés partout dans le monde.

« Tous les humains sont de ma race » disait Gilles Vigneault dans sa chanson Mon pays, c’est l’hiver. Le développement durable vise le bénéfice des humains d’aujourd’hui et de demain, partout sur la planète dans la paix et le respect des équilibres écologiques. Nous n’aurons jamais trop de bonnes volontés pour y arriver !

La fin des pompistes?

Des fabricants automobiles s’y mettent aussi, avec Volvo qui veut éliminer progressivement le moteur à explosion de ses modèles. Volkswagen et Toyota ont promis d’emboîter le pas en offrant la motorisation électrique sur tous leurs modèles d’ici 2030. Tesla, pour sa part, n’a jamais utilisé cette technologie. Après 150 ans de domination incontestée, l’invention de Gottlieb Daimler ne se retrouvera-t-elle plus qu’au musée ?

L’Institut de recherche en économie contemporaine (IREC) a publié la semaine dernière une note signée par Gilles L. Bourque, économiste au Fondaction de la CSN. La fiche technique intitulée Bannir les véhicules à combustion : pourquoi pas au Québec ? qu’on peut télécharger, montre de manière convaincante que pour atteindre ses objectifs de réduction des émissions de gaz à effet de serre, ce serait un moyen efficace qui comporterait un minimum de risques économiques. En effet, le Québec dispose d’importantes réserves d’hydroélectricité propre et ne dépend en rien de l’industrie automobile. En plus, le sous-sol québécois dispose d’importantes réserves de minerais stratégiques (lithium, cobalt, graphite et cuivre) que nous pouvons extraire dans des conditions enviables, surtout si les projets miniers font l’objet d’analyses de développement durable. Tout bénéfice ?

Bien sûr, comme le propose l’auteur, les bénéfices économiques, environnementaux et sociaux seraient tangibles. L’électricité est beaucoup moins chère et plus efficace que l’essence. Pour 10 kilowattheures présents dans un litre d’essence, on ne peut en utiliser qu’environ 1,4 pour mouvoir un véhicule à combustion interne, le reste est perdu en chaleur et en bruit. Pour sa part, le kWh d’électricité est transformé en mouvement à plus de 85 %. On fait donc 10 fois plus de kilométrage avec un dollar d’électricité qu’avec un dollar d’essence. Les avantages sociaux sont aussi de la partie, et évidemment l’environnement ne s’en porterait que mieux. La façon de faire cette transition serait aussi fort simple : il s’agirait de réviser la Loi sur les véhicules zéro émissions adoptée à l’unanimité par l’Assemblée nationale en 2016. Cette loi impose des seuils croissants de ventes de véhicules sans émission. En rehaussant la proportion des véhicules neufs sans émissions qui doivent être offerts chaque année par les concessionnaires, on pourrait arriver progressivement à interdire la vente de véhicules à combustion interne en 2030. Trop facile ?

L’idée est belle, mais la réalité est têtue. Même si ce plan est séduisant, il y a encore loin de la coupe aux lèvres. En revanche, il faut regarder la question dans sa globalité et avec une pensée systémique. Plus de véhicules électriques individuels, ça fait juste des embouteillages plus propres et moins bruyants (si on débranche les klaxons). L’enjeu du transport urbain demande une combinaison de moyens dont le transport actif et collectif électrifié. Il faut aussi penser aux bornes de recharge. Elles sont coûteuses et le temps de recharge est encore rédhibitoire pour bien du monde. L’autonomie des véhicules est aussi un enjeu, surtout dans des régions forestières où on doit souvent parcourir deux cents kilomètres entre deux points de service. Certes, le métier de pompiste a connu ses heures de gloire, mais il reste encore quelques décennies avant qu’il ne disparaisse tout à fait.

Protéger la haute mer?

Après plus de 10 ans d’alertes scientifiques, de controverses légales et de débats politiques, le 24 décembre dernier, l’Assemblée générale des Nations Unies adoptait la résolution 72/249 qui engageait les États à négocier une convention internationale « contraignante » pour la protection de la haute mer. Cette résolution, appuyée par 130 pays, appelle à la création d’un réseau mondial d’aires marines protégées dans les eaux internationales. Ces zones sont nécessaires pour préserver la biodiversité océanique malmenée par les changements rapides de l’environnement marin auxquels on assiste dans les dernières décennies. Pour n’en nommer que quelques-uns, la pression accrue des pêcheries hauturières sans contrôle, le réchauffement du climat, l’acidification océanique et l’accumulation de déchets plastiques rendent la vie dure aux poissons, aux oiseaux, aux tortues et aux invertébrés qui constituent une part encore méconnue de la biodiversité mondiale.

On ne peut pas dire que la protection du milieu marin soit très efficace. En effet, des tentatives de régulations marines internationales existent, mais elles sont généralement associées à une activité particulière. Il existe une Autorité internationale sur les fonds marins qui limite l’exploitation minière en haute mer, l’Organisation maritime internationale qui impose des règles à la navigation et même certains accords internationaux qui protègent des zones contre la pêche commerciale. Par exemple, quinze pays de l’Union européenne ont adhéré à la convention OSPAR (de Oslo et Paris, les deux premiers signataires) qui protège les eaux de l’Atlantique Nord-Est. Cependant, cette convention ne s’applique qu’aux pays signataires, les Russes peuvent donc s’en donner à cœur joie. Pourtant, les pays se sont engagés à une conservation de 10 % de la surface de haute mer dans les Cibles de la biodiversité de Aichi et dans l’Objectif de développement durable 14 du Programme de développement durable à l’horizon 2030. La plupart des scientifiques sont d’avis qu’il faudrait plutôt viser 30 %, mais c’est une autre histoire !

Un indicateur de surface, c’est bien, mais il faut savoir ce qu’on protège. En effet, 90 % de la haute mer constitue un presque désert biologique, en raison de sa faible productivité. Une aire marine protégée doit donc avoir certaines caractéristiques pour être efficace. Il faut une bathymétrie favorable à l’habitat des poissons et au brassage des nutriments, indispensable à la productivité végétale. Il faut aussi que les surfaces protégées soient assez grandes et de préférence organisées en réseaux interconnectés. Il faut enfin qu’elles soient respectées, donc surveillées, ce qui devient de plus en plus faisable par les satellites. Mais qui va faire la police ?

Des accords internationaux vertueux, mais inapplicables, basés sur l’action volontaire, on en compte des dizaines. Est-ce qu’on fera mieux pour protéger la haute mer ? C’est à voir.

«Parfum de sécheuse!»

Dans une étude parue dans la revue Science du 15 février dernier, Brian McDonald et ses collègues ont démontré que les COV provenant des pesticides, des peintures, des revêtements, des agents nettoyants et des produits de soin personnel détrônaient dorénavant les émissions provenant de l’essence et du diésel dans les villes.

À Los Angeles, par exemple, ces produits représentent 38 % des COV contre 32 % pour les polluants issus du transport, 15 % des sources industrielles et 14 % des raffineries. Mais encore ?

Les COV sont des produits organiques qui s’évaporent spontanément et qui tendent à former des aérosols, ces minuscules gouttelettes qui restent en suspension dans l’air. Lorsque vous faites le plein, vous reconnaissez l’odeur particulière de l’essence et du diésel par la signature olfactive de leurs COV respectifs. Les COV sont plus ou moins nocifs pour la santé, mais ils sont aussi des précurseurs du smog estival. Ce smog photochimique se traduit par la fabrication d’ozone troposphérique, un polluant très agressif qui cause d’importants problèmes de santé publique, particulièrement pour les gens qui souffrent de maladies cardio-respiratoires. Depuis les années 1970, les autorités environnementales des pays ont travaillé très fort pour limiter la pollution des automobiles et camions et ainsi réussi à réduire les émissions de COV de la filière transport. Mais pendant ce temps, les produits de consommation courante émettant des COV se sont multipliés sans entrave, ce qui explique la situation que les auteurs ont décrite. Incroyable ? Une analyse de ces divers COV montre qu’en termes de potentiel de formation d’aérosols précurseurs du smog, la part de ceux issus des produits de consommation s’élèverait à 42 %, contre 36 % pour les carburants.

Les odeurs synthétiques qui génèrent des COV ont aussi un effet sur la santé lorsqu’ils sont concentrés dans l’air intérieur. Les gens qui souffrent d’asthme ou d’autres maladies respiratoires peuvent en être affectés sérieusement. Mais on nous a fait croire que ces odeurs représentaient la propreté et la fraîcheur alors qu’ils ne servent qu’à masquer d’autres odeurs. Comme ces produits n’apportent rien, ni à la propreté, ni à l’hygiène, cela ne serait pas un gros sacrifice de les éviter.

Les auteurs de l’étude signalent que les gouvernements devraient règlementer ces substances, mais l’effort politique d’imposer à l’industrie des normes à cet effet serait semble-t-il rédhibitoire.

Les émissions de COV des produits à usage domestique illustrent bien l’effet du nombre sur la pollution. Une feuille d’antistatique parfumé pour chaque séchage de linge ne semble peut-être pas une grande charge polluante, mais quand chacun l’utilise, cela devient un problème environnemental.

Il y a deux façons de le régler à la source. Les consommateurs peuvent refuser d’en acheter ou n’acheter que le produit équivalent sans parfum chimique. Si l’industrie n’en vend pas, elle tentera dans un premier temps de faire de la publicité pour en mousser les prétendues vertus, ensuite, si les consommateurs persistent à ne pas les acheter, elle les retirera de la fabrication. Dans le deuxième cas, il faut que les gouvernements et les villes en règlementent ou en interdisent l’usage. C’est un processus beaucoup plus long, lourd et complexe. Il a fallu plus de 40 ans pour diminuer les COV de l’essence par la règlementation. Ça fait réfléchir.