Archives pour la catégorie Actualités

Transition énergétique en panne?

La transition énergétique se caractérise par deux grands principes. Il faut fournir des services énergétiques optimaux pour répondre aux besoins de la population de la manière la plus efficace possible et remplacer autant que faire se peut l’énergie fossile par des sources d’énergie renouvelables. Cela dit, il y a du chemin à parcourir et il faut travailler fort dans les coins, car les carburants fossiles représentent encore aujourd’hui plus de 80 % de toute l’énergie primaire consommée dans le monde.

Malheureusement, même si on produit aujourd’hui beaucoup plus d’énergie de sources renouvelables comme l’éolien, le solaire, la géothermie et la biomasse, cette augmentation de la production n’arrive même pas à couvrir la croissance de la demande. Pour sa part, l’efficacité énergétique voit ses progrès effacés par l’effet rebond. Plus les appareils sont efficaces, plus les consommateurs demandent de puissance et de confort. Dans le domaine des voitures par exemple, tous les gains d’efficacité du parc automobile depuis 1990 au Québec ont été largement effacés par la préférence des consommateurs pour des VUS et des camions, ce qui fait que les émissions de GES du transport n’ont cessé d’augmenter dans ce secteur. Une note de l’Institut de recherche en économie contemporaine parue le 31 mai montre que le déploiement des bornes pour les voitures électriques sera un frein pour le développement de cette filière sur laquelle le gouvernement compte pourtant dans sa stratégie de transition énergétique.

La croissance économique et les préférences des consommateurs sont-elles les seules responsables de cette faible performance ? Il semble que non. Les gouvernements n’arrivent pas à agir avec cohérence et continuent de subventionner les filières d’énergie fossile. L’achat du pipeline Trans Mountain par le gouvernement Trudeau la semaine dernière et le projet d’en tripler la capacité pour exporter toujours plus de pétrole des sables bitumineux vers l’Asie, est un bel exemple de la schizophrénie dont font preuve nos dirigeants dans le domaine de la transition énergétique.

Et nous sommes loin du compte ! Une autre étude, parue dans Environmental Research Letters, montre que pour atteindre la cible de l’Accord de Paris, il faudrait arrêter immédiatement 20 % des centrales thermiques de production d’électricité (ce qui représente une puissance de 1200 Gigawatts (32 fois la puissance installée d’Hydro-Québec). Début 2017, les producteurs d’électricité avaient des projets pour 3440 GWe supplémentaires de centrales au gaz et au charbon, de quoi doubler le bilan carbone du secteur électrique mondial.

Dans le domaine des technologies, l’Agence internationale de l’énergie a identifié 38 technologies prometteuses, mais seuls la voiture électrique, l’éclairage aux LED, les panneaux photovoltaïques et les centres de données à faible consommation énergétique connaissent une croissance satisfaisante. Les autres sont en retard ou très en retard faute d’investissements.

La transition énergétique est une idée séduisante. Mais au-delà des mots, il faut une véritable volonté et des stratégies cohérentes pour en faire une réalité.

Un combat inégal

Peu après son entrée en fonction l’an dernier, le président Trump a nommé à la tête de l’Agence pour la protection de l’environnement des États-Unis (EPA), un avocat, Scott Pruitt, dont les opinions climato-sceptiques et les clients dans l’industrie des carburants fossiles étaient de notoriété publique. À l’instar de son patron, M. Pruitt n’a pas tardé à affaiblir les exigences règlementaires visant à limiter la réduction des émissions de gaz à effet de serre et à prôner que les scientifiques ne s’entendent pas sur la responsabilité des humains dans le réchauffement du climat observé depuis le début de l’ère industrielle. Jusque-là, on est dans la politique et la communication d’opinions. Mais M. Pruitt a évoqué des « preuves scientifiques secrètes » à l’effet que le réchauffement était dû à des causes naturelles. Or, il n’existe pas de telle chose qu’une « science secrète », sauf peut-être dans le domaine de la Défense nationale. Et même là, il s’agit rarement de science fondamentale. Par exemple, dans le développement de la bombe atomique, il y a eu une période dans laquelle les architectes du projet Manhattan n’ont pas eu le droit de publier leurs résultats, mais les travaux fondamentaux sur le noyau atomique qui ont servi à Enrico Fermi et à son équipe avaient été publiés auparavant dans des revues spécialisées.

Un groupe nommé Public Employees for Environmental Responsibility a fait une demande d’accès à l’information pour que le directeur de l’EPA rende publiques les études auxquelles il réfère pour soutenir ses affirmations qui contredisent le consensus scientifique à l’effet que l’activité humaine est la principale explication au réchauffement climatique observé, basé sur des études publiées. Vendredi dernier, le juge Beryl Howell de la Cour fédérale du District de Columbia a ordonné à l’EPA de rendre publiques ces soi-disant études scientifiques. Si la décision n’est pas portée en appel, cela devrait être fait dans un délai maximum d’un an.

Depuis 30 ans que je m’intéresse aux changements climatiques, j’ai lu des centaines d’articles publiés dans toutes sortes de revues arbitrées par les pairs en plus de cinq séries de rapports du GIEC, sans compter les rapports divers publiés par toutes sortes d’académies scientifiques, la Banque mondiale, la FAO et bien d’autres. Bref des dizaines de milliers de pages signées par des milliers d’auteurs provenant de tous les horizons. Si tout va bien, je pourrai enfin lire la soi-disant science secrète sur laquelle s’appuient les climato-sceptiques et juger de sa qualité ! Nous pourrons en discuter entre experts, en critiquer les méthodes et les conclusions, comme nous offrons à la critique nos méthodes, résultats et conclusions depuis toujours.

Malheureusement, je n’y crois pas trop. Il n’y a pas de science secrète. Les appels en justice sont chose commune et Pruitt s’y connaît certainement mieux en la matière qu’en science du climat. Le combat est inégal.

La fonte des glaces s’accélère

Voyons d’abord la glace de mer. Dans l’océan Arctique, la banquise ne cesse de s’amincir et la surface d’eau libre s’agrandit chaque été. Le phénomène est bien compris et on le suit chaque mois par le site HTTP ://nsidc.org/arcticseaicenews/. On y apprend que la couverture de glace de mai 2018 est la deuxième plus faible après 2016 et que la tendance à la réduction de la surface de glace est de 36 000 kilomètres carrés par décennie depuis 1981, c’est-à-dire une réduction annuelle équivalant à 36 fois la surface du lac Saint-Jean. La réduction la plus spectaculaire est celle des glaces vieilles de 5 ans et plus qui ont virtuellement disparu au détriment de glaces plus jeunes et plus minces, qui fondent plus facilement en été, ce qui accélère le phénomène. Dans l’Antarctique, avec l’automne austral, la surface glacée augmente à grande vitesse, mais la surface couverte par la glace était en mai la troisième plus faible jamais enregistrée.

Les banquises sont formées par l’eau de l’océan. Leur fonte ne contribue donc pas à l’élévation du niveau de la mer. Il en va différemment de la glace des inlandsis. La fonte des glaciers continentaux se manifeste de deux façons : par le ruissellement de l’eau de fonte vers les océans et par le vêlage d’icebergs ou le détachement de plateformes alimenté par les langues des glaciers. Cette glace fondra lentement dans son périple et s’ajoutera au volume d’eau des océans. Un article paru dans Nature le 13 juin 2018 démontrait que la vitesse de perte de glace de l’Antarctique avait triplé depuis 2007. Cela correspond à 2720 ± 1390 milliards de tonnes de glace entre 1992 et 2017, ce qui représente une hausse du niveau de la mer de 7,6 ± 3,9 millimètres. L’incertitude sur les mesures est importante, mais les chiffres restent très significatifs. Cela représente l’hypothèse la plus pessimiste prévue par le GIEC dans sa modélisation de la contribution de l’Antarctique à la hausse du niveau de l’océan au 21e siècle. Mais l’Antarctique n’est pas la seule source d’eaux de fonte. On estime que le Groenland a perdu 1000 milliards de tonnes de glace entre 2011 et 2014. Les glaciers de montagne, même s’ils représentent une très faible proportion de la cryosphère, contribuent à la hausse du niveau de l’océan dans le même ordre de grandeur. Mais l’apport des eaux de fonte n’est pas la seule déterminante du rehaussement du niveau de la mer. L’eau, lorsqu’elle est plus chaude, se dilate et occupe plus d’espace.

À ce rythme d’accélération, le niveau de la mer pourrait avoir augmenté de 60 centimètres en 2050. C’est très inquiétant. Avec une augmentation du niveau de la mer de 15 centimètres, une zone qui est inondée une fois par année le sera 20 fois plus souvent. De plus, l’érosion des berges va s’accélérer, spécialement lors des tempêtes.

Ce phénomène est inéluctable. Le réchauffement du climat que nous observons aujourd’hui est lié à nos émissions passées de gaz à effet de serre. Or, nous continuons d’augmenter ces émissions et le climat continue de se réchauffer. Il est primordial, là où c’est possible, de protéger les côtes et les infrastructures existantes, d’éviter d’investir dans les zones riveraines et de se préparer à accueillir des réfugiés climatiques.

Quatre priorités pour les océans

Mais il y a plus. Mers et océans constituent le plus grand écosystème planétaire, car il n’y a pas, à proprement parler, de frontières infranchissables pour les êtres vivants dans l’eau, et les systèmes marins sont tous reliés entre eux. Plus encore, les océans jouent un rôle essentiel dans la régulation du climat planétaire. Ils stockent l’énergie thermique, et l’évaporation de l’eau fournit 40 % des précipitations qui tombent sur les continents. Dans les mers tropicales, les courants marins de surface, comme le Gulf Stream, transportent vers les latitudes plus froides des quantités énormes de chaleur. Enfin, les océans – et non les forêts – sont les véritables régulateurs de la quantité d’oxygène planétaire.

Mais les océans sont menacés par les impacts de l’activité humaine. Les principaux fléaux qui les affectent sont d’abord le réchauffement du climat et l’augmentation de la concentration du CO2 dans l’atmosphère, qui provoque une acidification de l’eau de surface. La combinaison des deux phénomènes crée un stress sur les communautés vivantes comme les récifs coralliens. Les apports de fertilisants provenant de l’agriculture par les rivières et les fleuves créent des conditions d’anoxie – absence d’oxygène – dans les zones peu profondes écologiquement productives des estuaires et du plateau continental. Cela fait dépérir les communautés de poissons et de crustacés. Les rivières et fleuves sont aussi les principaux transporteurs des huit millions de tonnes de plastique qui s’y retrouvent chaque année. Ces déchets s’ajoutent aux « continents de plastique » qui flottent déjà dans chaque océan et qui polluent les berges sur leur pourtour. Le dernier problème est lié à la surpêche. Les stocks de poissons sont de plus en plus précaires, et la flotte hauturière mondiale prélève souvent bien au-delà de la capacité de renouvellement des stocks. Au rythme actuel, il y aura plus de plastique que de poissons dans les océans en 2050. Quant à la biodiversité marine, elle est chaque jour plus menacée.

Quatre priorités sont évoquées pour renverser cette situation. D’abord, la lutte aux changements climatiques peut s’avérer très bénéfique pour ralentir l’acidification et la perte de biodiversité. Comme l’agriculture est l’un des principaux facteurs de réchauffement du climat par les émissions de méthane et de protoxyde d’azote, la lutte aux changements climatiques par le changement des pratiques agricoles peut aussi contribuer à réduire l’anoxie des fonds marins.

Pour la réduction des apports de plastique vers les océans, il faut réduire notre dépendance à ces matières polluantes et préconiser l’économie circulaire, c’est-à-dire augmenter le recyclage pour les plastiques dont on ne peut pas se passer. Il faut faire respecter les réglementations de pêche, à la fois dans les eaux nationales et imposer des codes de conduite dans les eaux internationales.

On doit aussi créer, au plus vite, de vastes aires protégées qui permettent aux poissons de se réfugier, de s’alimenter et de se reproduire. Très peu de ces espaces protégés existent. Les espèces marines migrent sous la pression du réchauffement climatique. On le constate dans le golfe du Saint-Laurent, mais c’est la même chose partout dans le monde. Il leur faut des refuges.

La protection des océans est un énorme défi pour les prochaines décennies. Si vous allez à la plage, cet été, pensez que les océans ont besoin de vous. Si vous consommez du poisson, choisissez un produit portant une certification de pêcherie durable. N’achetez plus de bouteilles d’eau, refusez les sacs de plastique. Ce sont quelques gestes qui pourront faire une différence.

La durabilité des bioproduits

CHRONIQUE ENVIRONNEMENT / La semaine dernière, je participais à un séminaire à l’Université de Maastricht en Hollande. La thématique portait sur l’évaluation, en termes de développement durable, de bioproduits, c’est-à-dire issus de la biomasse. En effet, dans un contexte de lutte aux changements climatiques et d’économie verte, il devient impératif de substituer aux carburants fossiles des produits moins nocifs pour l’environnement planétaire.

On peut remplacer des produits issus du gaz naturel ou du pétrole dans la fabrication des plastiques, mais aussi des carburants, ou encore des produits pharmaceutiques. En fait, il n’y a pas de barrière théorique à remplacer les produits pétroliers par de la biomasse dans tout ce qui a trait à la chimie du carbone. En revanche, il y a de nombreuses barrières techniques, économiques et même sociales. L’outil traditionnellement utilisé pour évaluer et comparer les options et leurs impacts potentiels sur l’environnement s’appelle l’analyse de cycle de vie (ACV). Encadrée par la série de normes ISO 14 040, l’ACV est une technique que nous utilisons régulièrement à la Chaire en éco-conseil.

En gros, l’ACV consiste à faire l’inventaire de tous les intrants qui peuvent être nécessaires pour fabriquer un produit ou offrir un service et toutes les émissions qui y sont associées du berceau au tombeau, c’est-à-dire de l’origine des matières premières jusqu’à la disposition des déchets en fin de vie utile. Pour une auto, il faut compter à partir de l’extraction des métaux et du pétrole, la consommation d’électricité des usines, le transport, l’essence et les lubrifiants qui seront consommés pendant sa vie utile, les pneus et les pièces de rechange ainsi que les déchets qui ne seront pas recyclés lors de son démantèlement. Cet inventaire doit être le plus exhaustif possible, mais il y a quand même des critères de coupure. On ne s’intéressera pas au petit sapin « sent-bon », par exemple. Une fois l’inventaire terminé, les données sont traitées avec un logiciel qui nous donne les impacts potentiels de chaque kilomètre parcouru et on peut faire des comparaisons déclinées en impacts sur le réchauffement climatique, la santé humaine, la santé des écosystèmes et l’appauvrissement des ressources non renouvelables.

Mais l’ACV est-elle suffisante pour qualifier quelque chose de durable ? Malheureusement, bien que les informations qu’on peut en tirer soient éclairantes, il faut faire des études économiques et sociales, s’interroger sur l’éthique, la gouvernance et même les aspects culturels si on veut réellement répondre à la question de la durabilité. Dans ma conférence, j’ai donné l’exemple des bioproduits issus de la forêt boréale du Québec en utilisant les outils d’analyse que nous avons développés et quelques analyses de cycle de vie que nous avons publiées dans les dernières années sur le sujet. Le diaporama de ma conférence est disponible sur le site de la chaire (http ://ecoconseil.uqac.ca).

Pour ce faire, nous avons d’abord utilisé la fiche de gouvernance du développement durable complétée par le Québec dans le cadre d’une initiative de l’Organisation internationale de la Francophonie. Nous avons aussi utilisé une analyse de la Stratégie d’aménagement durable des forêts, plus quelques indicateurs comme les aires protégées et les superficies récoltées dans des territoires soumis à une certification forestière et cinq ACV (une sur les plantations, une sur la production d’un livre, une sur la production de bois lamellé-collé, une sur le chauffage d’un hôpital avec de la biomasse forestière et une sur la perte de puits de carbone liée à l’inondation de territoires forestiers pour la production d’électricité).

Le résultat a beaucoup intéressé les participants. Même s’il reste encore du chemin à parcourir, la foresterie au Québec et ses bioproduits peuvent se targuer d’être bien orientés vers le développement durable.

https://www.lequotidien.com/chroniques/claude-villeneuve/la-durabilite-des-bioproduits-031805312ce71c7bb1e117901598277b

L’ACFAS, une occasion exceptionnelle

Car il y a un moment pour chaque chose, et une idée ne vaut pas cher si on ne sait pas la communiquer, la comparer à celle des collègues ou la confronter à d’autres visions du monde. Les revues savantes, les colloques, séminaires ou symposiums, tout comme les congrès scientifiques, sont là pour cela. En particulier, le congrès de l’Association francophone pour le Savoir (ACFAS) qui est un événement annuel très couru, où des milliers de chercheurs de toutes les disciplines viennent échanger sur l’avancement de leurs travaux. De jeunes chercheurs s’y font les dents, de vieux routiers y retrouvent des collègues éminents. On s’échange des hypothèses audacieuses, des résultats percutants. Bref, c’est la fête de la science francophone.

J’ai présenté ma première communication au congrès de l’ACFAS en mai 1973 à l’École polytechnique de Montréal. Depuis, j’ai eu des dizaines de fois l’occasion de présenter des communications scientifiques sur mes travaux, et même une dizaine de fois d’y organiser des colloques. Inutile de dire que j’attendais avec impatience le retour du plus grand congrès scientifique de langue française au monde dans notre université.

Lors de son dernier passage, en 2005, nous avions innové en y appliquant un concept d’écoresponsabilité qui avait permis de tester notre nouveau système de gestion des matières résiduelles et le tout nouveau concept de la compensation carbonique par la plantation d’arbres sur des territoires naturellement dépourvus de couvert forestier en zone boréale.

La Chaire en éco-conseil était alors à ses débuts, et nous avions organisé un colloque de haute tenue « Le développement durable, quels progrès, quels outils, quelle formation ? », dont les résultats sont encore aujourd’hui consultés.

Le congrès de l’ACFAS vivra sa 86e édition du 7 au 11 mai, à Saguenay. La Chaire en éco-conseil, qui aura 15 ans cet automne, y participera de diverses façons. Tout d’abord, les 9 et 10 mai, nous avons organisé un colloque sur l’analyse systémique de la durabilité. Ce champ de compétence émergent prend de plus en plus d’importance à l’échelle internationale, et notre équipe fait figure de leader, en particulier avec nos outils qui comptent maintenant parmi la panoplie des outils recommandés par les Nations Unies pour la mise en œuvre du Programme de développement durable à l’horizon 2030. Plusieurs conférenciers internationaux nous feront l’honneur d’y prendre la parole. Dans le cadre de notre partenariat avec l’Institut de la Francophonie pour le développement durable, un livre sera publié à la fin de l’année avec les contributions des conférenciers.

L’UQAC présentera aussi la nouvelle infrastructure de recherche Carbone boréal, qui est née cet hiver à partir du projet du même nom que la Chaire a lancé avec ses partenaires il y a dix ans. Aujourd’hui, avec plus d’un million d’arbres plantés, l’UQAC s’engage à faire durer dans le temps cette initiative qui a permis à plus d’un millier de personnes et d’entreprises de compenser leurs émissions de gaz à effet de serre, tout en contribuant à la recherche sur le rôle de la forêt boréale dans la lutte aux changements climatiques. Enfin, le congrès de l’ACFAS sera un modèle d’écoresponsabilité. Je n’en dis pas plus…

J’ai un très clair souvenir de ma première participation au congrès de l’ACFAS il y a 45 ans et j’encourage tous les étudiants qui envisagent une carrière universitaire de s’y inscrire. Une semaine de bouillonnement intellectuel n’a jamais fait de mal à personne !

https://www.lequotidien.com/chroniques/claude-villeneuve/lacfas-une-occasion-exceptionnelle-018ae9c6b18d32899d12bb4dac4d859b

Compétences émergentes

Il y a trente ans, avec une équipe de professeurs de l’UQAC, je donnais un premier cours universitaire sur le développement durable (DD). Le livre de référence pour le cours à cette époque était le rapport de la Commission Brundtland, Notre avenir à tous, qui venait d’être publié. Le cours était en même temps un projet de recherche financé par l’UNESCO. Cette organisation des Nations Unies voulait qu’on crée un contenu pour l’enseignement de cette nouvelle forme de développement censée contribuer à régler les crises multiples qu’on voyait poindre dans l’avenir de l’humanité, en particulier la crise écologique, dont les premiers symptômes laissaient présager le pire. Un soir, un étudiant me pose la question « Monsieur, comment peut-on mesurer la durabilité du développement ? » J’étais bien embêté. L’idée est noble et généreuse, mais comment peut-on la mettre en œuvre, en apprécier les résultats et tirer des leçons de nos expériences ? Tout un chantier ! À l’époque, les compétences en ce domaine n’existaient pas.

Plutôt que de dire n’importe quoi, j’ai commencé à discuter de la question avec les étudiants. Avec ma déformation de scientifique, j’ai proposé qu’il faudrait un laboratoire pour expérimenter le DD et y tester des outils de mesure qui pourraient répondre à cette interrogation fondamentale. C’est la région du Saguenay-Lac-Saint-Jean qui allait devenir ce laboratoire en 1991.

Au fil des années de travail, avec la participation de centaines d’étudiants et de collègues, nous avons construit des outils comme la Grille d’analyse de développement durable qui a été homologuée l’an dernier aux Nations Unies. Aujourd’hui, nous intégrons ces outils, ces savoirs et ces savoir-faire dans l’ASD.

Quelles sont les bases conceptuelles de cette démarche ? Il faut d’abord comprendre que le DD est quelque chose de normatif, c’est-à-dire que c’est une projection construite par des humains dans un avenir plus ou moins lointain, des conditions d’existence qui nous permettront de vivre mieux entre nous et avec la nature. L’idée du DD est aussi holistique et englobe tous les systèmes et sous-systèmes qui encadrent la vie et les activités humaines sur la planète : cycles biogéochimiques, systèmes politiques, système économique, les cultures, les modes de gouvernance et les organisations sociales comme le système de santé. La troisième caractéristique du DD est sa démarche éthique qui vise une équité entre les générations, entre les peuples, une équité procédurale et une équité avec les autres espèces vivantes. Finalement, le DD est participatif en ce sens qu’il se fait avec les parties prenantes et intéressées. Ce cadrage montre toute la complexité de qualifier et de mesurer la durabilité. Aucune discipline ne permet de répondre à ces questions, d’où la nécessité de l’ASD.

Il faut comprendre les interactions synergiques et antagonistes entre les composantes des systèmes pour maximiser les unes et réduire les autres. Par exemple, en protégeant la nature, on peut favoriser l’augmentation du tourisme, mais il ne faut pas que l’affluence des touristes détruise la qualité du milieu. Le colloque nous permettra de faire le point et d’examiner de nouvelles perspectives dans le domaine.

L’ASD est un nouveau champ de compétences voué à un brillant avenir. Pour aller plus loin, nous avons créé en 2016 un programme court de deuxième cycle qui permet à l’UQAC de former des experts en ASD partout dans le monde.

https://www.lequotidien.com/chroniques/claude-villeneuve/competences-emergentes-da7e6be28dfc00405922c4c3371aea16

Une percée technologique

D’abord un petit rappel de chimie. L’aluminium est l’un des éléments les plus abondants dans la croûte terrestre, mais il n’existe pas à l’état métallique, comme l’or par exemple. L’aluminium est présent sous diverses formes dans les roches, les argiles ou des terres comme la bauxite. C’est dans les gisements de bauxite qu’on retrouve des concentrations économiquement exploitables d’alumine dont la formule est Al2O3, c’est-à-dire une molécule composée de deux atomes d’aluminium et de trois atomes d’oxygène. L’alumine est une molécule extrêmement stable, ce qui veut dire qu’il faut énormément d’énergie pour la briser. Dans les alumineries, c’est l’électricité qui fournit cette énergie dans un processus appelé électrolyse. L’électrolyse utilise depuis la fin du dix-neuvième siècle des cuves dans lesquelles des anodes composées de carbone servent à capter l’oxygène de manière à ce qu’il puisse être arraché à l’aluminium. Au terme de la réaction, on retrouve de l’aluminium métallique sous forme liquide dont on fait des alliages et des lingots. C’est ce qu’on appelle l’aluminium primaire. Il est ensuite envoyé sur le marché pour la transformation.

La réaction produit de nombreux polluants qui viennent de la combustion des anodes. Plusieurs parmi les plus nocifs sont captés par les systèmes d’épuration de l’air et les nouveaux procédés sont beaucoup plus propres que les anciennes cuves Söderberg qui ont aujourd’hui disparu de nos alumineries. Il n’en demeure pas moins que chaque tonne d’aluminium produite émet environ 2 tonnes de CO2, comme nous produisons au Québec 2,8 millions de tonnes d’aluminium primaire par année, cela signifie plus de 5 millions de tonnes de CO2 par année dans notre bilan. Le nouveau procédé d’Elysis n’utilisera plus d’anodes de carbone et permettra de séparer l’aluminium de l’oxygène dans les cuves d’électrolyse sans émissions de CO2. C’est une excellente nouvelle pour le climat et pour l’économie de la région et du Québec.

En effet, les alumineries du Québec font partie des grands émetteurs finaux règlementés par le Système de plafonnement et d’échange des émissions (SPEDE) qui permet un marché du carbone entre la Californie, le Québec et l’Ontario. À partir du moment où la nouvelle technologie remplacera les cuves existantes dans les usines, les alumineries auront réalisé des réductions d’émissions qui iront bien au-delà des exigences gouvernementales. Elles pourront donc recevoir des certificats chaque année qui pourront être mis en marché et vendus aux autres grands émetteurs qui n’ont pas réduit leurs émissions ou aux importateurs et distributeurs de carburant qui vous refileront la facture sur votre litre d’essence ou sur la bonbonne de propane. C’est le principe pollueur-payeur. Ainsi va la vie !

En revanche, les nouvelles usines ne disposeront pas de ces crédits. On peut donc penser que la première phase du déploiement de la technologie s’appliquera aux alumineries existantes et qu’il pourra augmenter leur durée de vie et leur rentabilité. Cela contribuera aussi à l’atteinte de la cible de réduction des émissions du Québec de -37,5 % en 2030, mais pas de façon déterminante. En effet, le déploiement de la technologie pour remplacer les cuves se fera au plus tôt à partir de 2025 et devrait prendre au moins dix ans. La semaine prochaine nous verrons comment cela peut être significatif à l’échelle mondiale.

https://www.lequotidien.com/chroniques/claude-villeneuve/une-percee-technologique-fae10eabbdf28c4ac03b05c3f4917ceb

Une percée technologique (2)

D’abord, voyons quelques chiffres. En 2016, il s’est produit dans le monde environ 65 millions de tonnes d’aluminium, dont la moitié en Chine. Au Québec, on en a produit 2,8 millions de tonnes sur les 3,6 millions de la production canadienne. Le nouveau procédé Elysis élimine les émissions liées à la réaction chimique qui permet de séparer l’aluminium métallique de l’oxygène décomposant ainsi l’alumine. Ainsi, au lieu de produire 1,2 tonne de CO2 pour chaque tonne d’aluminium, on ne produit que de l’oxygène. C’est naturellement la réaction théorique. Dans les faits, les alumineries du Québec émettent environ 2 tonnes de CO2 par tonne d’aluminium produite et à ce titre, elles figurent parmi les meilleures au monde. Le nouveau procédé n’émettra que 890 kilos d’oxygène par tonne d’aluminium. Cette avancée spectaculaire peut-elle contribuer significativement à réduire les émissions de gaz à effet de serre à l’échelle planétaire et renverser la hausse de la température globale prévue au 21e siècle ? Voyons un peu avec les derniers chiffres du Global carbon budget (http ://www.globalcarbonproject.org/carbonbudget/).

Selon cette évaluation scientifique, le secteur des carburants fossiles et de l’industrie a émis en 2017 un total de 36,8 milliards de tonnes de CO2éq. (en hausse de 2 %). Donc, si le procédé nouveau éliminait toutes les émissions liées à l’électrolyse de l’aluminium, même aux meilleurs standards, on aurait un potentiel de réduction mondial de 130 millions de tonnes, c’est-à-dire 0,35 % des émissions totales. Ainsi dire pas grand-chose. Et cela suppose qu’on ait transformé toutes les alumineries du monde pour l’adapter aux nouvelles cuves. Cela ne sera vraisemblablement pas possible avant 2050. Au Canada, les émissions en 2016 dépassaient 704 millions de tonnes de CO2éq, celles de l’industrie de l’aluminium ne comptant que pour 1 % de ce total. Leur élimination d’ici 2035 serait une contribution mineure à l’atteinte des cibles, surtout si le gouvernement canadien continue de vouloir augmenter l’exploitation des sables bitumineux et du gaz de schiste.

Malgré l’importance de la réduction d’émissions de procédé, il faut savoir que dans le reste du monde, les émissions du secteur aluminium sont surtout dues à la production d’électricité. Il faut plus ou moins 14 000 KWh pour produire une tonne d’aluminium. Selon le mode de production chaque KWh a une empreinte carbone qui peut aller de moins de 10 grammes au Québec et jusqu’à un kilo pour une centrale au charbon chinoise. En somme, il y a beaucoup plus d’émissions de l’industrie de l’aluminium par la production d’électricité que par la réduction de l’alumine.

La conclusion à tirer de tous ces chiffres est éloquente. Malgré la percée technologique formidable qui permettra de produire un aluminium à faible empreinte carbonique, c’est dans la réduction de l’usage des carburants fossiles qu’il faut accélérer l’action. Au Québec, les gains se feront essentiellement dans le transport, au Canada, il faudra arrêter l’extraction de pétrole des sables bitumineux et dans le monde il sera nécessaire d’éliminer rapidement la production d’électricité au charbon. C’est là que se situent les gains les plus importants. Les nouvelles technologies peuvent représenter un gain, mais si on ne s’attaque pas au cœur du problème, les conséquences seront catastrophiques.

https://www.lequotidien.com/chroniques/claude-villeneuve/une-percee-technologique-2-8cd0d72bde10ec6e52b12185e63a5533

Une histoire écrite dans la glace

On fait depuis longtemps l’histoire du climat en forant des carottes dans la glace du Groenland et de l’Antarctique. Ces carottes sont obtenues par des forages dans la glace qui peuvent atteindre plus de deux kilomètres de profondeur. On peut ainsi remonter plus de 100 000 ans dans le temps, puisque la glace est formée par les dépôts de neige qui tombe chaque année et qui ne fond pas. C’est la pression qui transforme la neige en glace. Mais la neige n’est pas seulement un moyen de connaître la température. Elle se charge aussi dans les nuages de polluants atmosphériques divers, comme le mercure ou le plomb.

L’étude, réalisée par une équipe de l’Université d’Oxford, a examiné une section de 425 mètres de long d’une carotte de glace datée entre -1235 à +1257 de notre ère. Sur cette période, les scientifiques ont analysé la concentration de plomb présente dans chaque section d’un mètre mise à fondre du bas vers le haut en continu. Avec un spectromètre de masse capable de détecter le plomb à des concentrations infinitésimales (0,01 picogramme ou un millionième de millionième de gramme). La courbe obtenue a ensuite été comparée avec celle obtenue par d’autres méthodes de datation utilisant les anneaux de croissance des arbres et les éruptions volcaniques pour corroborer les événements historiques. On a ainsi pu obtenir une courbe qui a permis de reconstruire les grandes lignes de l’histoire de l’Empire romain avec une très grande précision, puisqu’on pouvait isoler l’équivalent de 12 échantillons par année de la période à l’étude.

Le plomb était utilisé abondamment dans l’Empire romain. On l’extrayait des mines et le métal une fois fondu, on en faisait des tuyaux d’aqueduc ou des feuilles qui servaient à renforcer la proue des navires. Comme le plomb est souvent associé à l’argent dans les gisements, son abondance est aussi un indice de l’activité économique puisque la pièce d’un denier, couramment utilisée dans l’Empire romain était faite d’argent. Pour séparer l’argent du plomb, il fallait chauffer le minerai. La demande d’argent pour frapper la monnaie entraînait donc plus d’émissions de plomb. La signature historique des concentrations de plomb dans la glace du Groenland montre des fluctuations qui coïncident avec des périodes historiques bien documentées et permet ainsi de suivre un indicateur de l’économie de la civilisation dominante du bassin méditerranéen. Par exemple on peut détecter des événements aussi pointus que la décision de Néron de réduire la proportion d’argent à 80 % dans la pièce d’un denier à partir de l’an 64, ce qui a diminué la demande pour l’argent. La grande crise de l’Empire survenue entre 235 et 284, tout comme son effondrement en 476 sont aussi bien visibles.

De nombreux historiens ont tenté d’établir ce que pouvait être le produit national brut de l’Empire romain. Leurs méthodes comportaient toutefois beaucoup d’approximations et d’hypothèses difficiles à démontrer. Avec la signature du plomb dans les carottes glaciaires, on dispose d’un témoignage étonnamment précis de l’activité économique. Avec un peu d’imagination, c’est comme si vous y étiez.

Lavoisier disait que « Rien ne se perd, rien ne se crée ». Si nos aïeux pensaient qu’on peut oublier ses dettes en les écrivant sur la glace, la science nous montre que l’histoire laisse des traces indélébiles dans la glace par la pollution qui y est séquestrée. La glace a la mémoire plus longue qu’on pensait !

https://www.lequotidien.com/chroniques/claude-villeneuve/une-histoire-ecrite-dans-la-glace-36fea472d8552f2964fc2d7274d59eeb