Archives pour la catégorie Actualités

Le dilemme de la croissance

L’intensité de cette demande pour chaque dollar du produit mondial brut (PMB) dépend de plusieurs facteurs, comme le type d’activités qui sont nécessaires pour soutenir le développement, le prix et la disponibilité des matériaux recherchés. Naturellement, les technologies utilisées pour l’extraction des ressources, la production des biens, leur utilisation et la disposition des déchets déterminent les impacts de la consommation. Mais d’abord, quelles sont les forces motrices qui vont déterminer cette croissance ?

L’augmentation de la population humaine et de la richesse individuelle sont les deux premières de ces forces. Il s’ajoutera deux milliards de personnes à la population planétaire, et la majorité vivra dans des villes de plus en plus grandes. L’OCDE prévoit que le PMB va quadrupler d’ici 2060, et que le produit national brut (PNB) moyen des pays émergents égalera celui des pays développés. Par comparaison, entre 1970 et 2005, le PMB a triplé.

Dans les pays émergents et dans les pays en développement, l’intensité de la demande en matériaux va donc augmenter. Dans les pays déjà industrialisés, en revanche, elle va diminuer. Mais au total, l’OCDE prévoit que si l’intensité de la demande en matériel et en énergie chute d’ici 2060, ce sera moins vite que la croissance économique. Cela signifie que nous produirons beaucoup plus de déchets, de polluants et de gaz à effet de serre (GES) qu’aujourd’hui au terme des courses si des mesures énergiques ne sont pas prises dès maintenant.

Par exemple, pour les projections d’émission de GES, elles culmineraient à près de 80 milliards de tonnes de CO2 équivalent par année, en 2060, contre environ 50 milliards aujourd’hui. Cela serait catastrophique pour le climat planétaire et nous amènerait à un réchauffement dépassant largement quatre degrés Celsius, avec une augmentation rapide du niveau de la mer et des conséquences catastrophiques bien avant la fin du siècle. Pour stabiliser le climat à 1,5 degré au-dessus de la moyenne préindustrielle, le dernier rapport spécial du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) signale qu’il faudrait absolument que les émissions nettes de GES soient à moins de zéro dès 2040. Jugez de l’ampleur du défi !

En revanche, le rapport signale qu’on fera plus de recyclage en raison du prix plus élevé et de la rareté relative des ressources primaires. Mince consolation ! Quant aux technologies, leur déploiement sera une affaire de marché. Si elles permettent de faire des économies, on les adoptera plus largement. C’est typiquement un raisonnement économique primaire.

Bien sûr, des prévisions économiques ne sont pas un chemin obligé. L’avenir n’est pas écrit. C’est là que les gouvernements de tout acabit entrent en scène.

Des municipalités jusqu’à l’ONU, les divers paliers de gouvernement ont un rôle incontournable à jouer dans la régulation de l’économie. C’est à eux d’établir les règles du jeu dans lesquelles les acteurs économiques pourront agir. Des mécanismes comme la fiscalité verte, par exemple, peuvent faire la différence en favorisant le déploiement de certaines technologies.

Les règlements encadrant le recyclage, la gestion des impacts environnementaux de l’extraction des ressources et l’interdiction pure et simple de certains produits sur le marché peuvent faire toute la différence. Mais pour cela, il faut que les gouvernements ne se contentent pas de stimuler la croissance économique et d’assister au pillage et à la destruction de l’environnement.

Sans courage politique, le scénario de l’OCDE est un cauchemar. Il faut agir tout de suite, notre avenir en dépend.

Une nouvelle révolution verte?

Les engrais azotés sont devenus nécessaires, selon un article paru le 15 août dans la revue Nature avec la Révolution verte qui a permis de doubler entre 1961 et 1985 la production de céréales de 741 millions de tonnes à 1,62 milliard de tonnes. La population mondiale s’accroissait de 50 % dans la même période. Cette performance, qui a contribué à réduire la faim dans le monde, s’est faite en développant de nouvelles variétés agronomiques et de nouvelles techniques de culture mettant en vedette la mécanisation, la fertilisation et la lutte chimique aux ravageurs des cultures. Mais l’augmentation de la demande en engrais azotés s’explique en partie parce que les variétés de plantes développées pendant cette période pour en augmenter le rendement ont perdu leur capacité naturelle à absorber l’azote. Selon les auteurs, cela est dû à une protéine synthétisée par les plantes qui les empêche d’assimiler efficacement les nitrates. Il faut donc en mettre beaucoup plus dans les champs, avec comme conséquence le lessivage vers les eaux de surface et le transport par l’érosion des sols qui se traduisent par un enrichissement catastrophique des eaux douces et des estuaires maritimes. Cet enrichissement, appelé eutrophisation, provoque des éclosions massives d’algues et une déplétion de l’oxygène dans l’eau qui rend précaire la survie des espèces de poissons les plus exigeantes.

En modifiant génétiquement les variétés de riz, de blé et autres céréales, on pourrait y introduire un gène capable de fabriquer une hormone naturelle qui permet de dégrader la protéine et restaurer la capacité des plantes issues de la Révolution verte à assimiler plus efficacement les nitrates. Cela permettrait d’utiliser moins d’engrais et ouvrirait ainsi potentiellement la voie pour une nouvelle Révolution verte.

L’intérêt scientifique de cette découverte est indéniable, mais il faut voir un peu plus loin. Les promesses d’amélioration des rendements des cultures par le génie génétique ont été nombreuses dans les dernières années, mais elles ont surtout enrichi les compagnies agrochimiques et on commence aujourd’hui à voir les limites des cultures transgéniques, en particulier la résistance au glyphosate qui s’installe dans les plantes adventices des cultures et crée des « super mauvaises herbes » contre lesquelles il est très difficile de lutter efficacement. Bien sûr, il ne s’agit pas ici de vendre un produit chimique supplémentaire, mais au contraire, cela réduirait le recours aux fertilisants. Il y a fort à parier que les nouvelles semences seront brevetées et vendues à fort prix. Cela en limitera l’accessibilité pour les agriculteurs les plus pauvres. Ceux-ci devront se contenter d’une moindre productivité ou abandonner leurs terres au profit des plus grands producteurs.

Les brevets sur le vivant sont quelque chose qui était impensable lors de la première Révolution verte. Aujourd’hui, ils font la fortune de quelques grandes entreprises et il est probable que cette mainmise perdure dans un avenir prévisible. Cela pose un important problème éthique auquel il faut réfléchir si on veut réaliser l’Objectif 2 de l’Agenda 2030 qui propose d’éliminer la faim d’ici 2030. Le développement durable interpelle la science, mais aussi le droit et le comportement des entreprises.

Claude Villeneuve

Adapter la forêt au nouveau climat

Le 18 août, une étude signée par des chercheurs québécois établissait qu’en l’absence de modifications dans le régime des perturbations, la productivité de la forêt boréale pourrait augmenter de 10 à 16 % si le climat se réchauffait jusqu’à 2 degrés Celsius, mais décliner rapidement si le réchauffement est plus élevé. Or, il est plus que probable qu’en l’absence d’un solide engagement des États et d’un déploiement rapide, massif et soutenu des moyens de réduction des émissions de gaz à effet de serre, le seuil de 2 degrés sera atteint dans moins de 30 ans. Les prévisions modérément pessimistes nous prédisent même un réchauffement de plus de 4 degrés d’ici la fin du siècle. Cela se traduirait par des conditions de croissance fort mal adaptées aux espèces typiques de la forêt boréale dans la majorité de leur aire actuelle de répartition. Comment devrions-nous réagir à cette situation, compte tenu de la forte dépendance de l’économie régionale à la ressource forestière ?

Dans les dernières années, après le film L’erreur boréale et la Commission Coulombe, le Québec a réformé son mode de gestion de la forêt. La nouvelle norme d’aménagement forestier vise une approche dite écosystémique qui préconise qu’on protège les vieilles forêts et les espèces qui y sont associées. Surtout, on s’oblige à aménager la forêt de telle sorte qu’à terme, on retrouve l’état idéal de la forêt préindustrielle. C’est la forêt telle qu’on l’imagine avoir été au dix-neuvième siècle, avant le début du réchauffement climatique et de l’exploitation commerciale. Dans le contexte décrit par l’étude de Loïc d’Orangeville et ses collègues, cette prétention devient presqu’illusoire. En effet, une forêt préindustrielle, issue du Petit âge glaciaire, serait soumise à un stress intenable si la température moyenne augmente de plus de 2 degrés. Comme les interventions d’aménagement forestier qui sont réalisées aujourd’hui porteront leurs fruits dans 60 ans et plus, ne faudrait-il pas y intégrer l’adaptation aux changements climatiques dans une approche préventive ?

À l’UQAC, depuis 2001, nous travaillons sur cette hypothèse et avec Carbone boréal, nous avons créé un laboratoire de plus d’un million d’arbres plantés pour tester des variations des pratiques d’aménagement forestier et suivre l’adaptation des arbres aux changements climatiques. Par exemple, nous avons planté des plants de la même espèce dont les graines proviennent de 600, 400 et 200 kilomètres plus au sud à côté des plants de provenance locale. Nous avons aussi planté des espèces provenant du sud du Québec sur des terres agricoles en friche pour suivre la performance de ces arbres dans le nouveau climat. Cette recherche sur l’adaptation aux changements climatiques se double d’un projet de lutte aux changements climatiques qui permet depuis 10 ans à chacun de compenser ses émissions de gaz à effet de serre en encourageant la recherche.

Devant le réchauffement inéluctable du climat, il faut agir de façon préventive et transformer nos interventions d’aménagement forestier. Vouloir reproduire le passé c’est bien, mais cette approche risque de présenter rapidement des limites et pourrait s’avérer contre-productive. La science est là pour nous aider à prendre de meilleures décisions.

Claude Villeneuve

Est-ce possible ?

La 24e conférence des Parties Convention cadre des Nations Unies sur les changements climatiques se tiendra à Katowice en Pologne début décembre. C’est là que les pays doivent entériner leurs engagements envers l’Accord de Paris qui rentrera en vigueur à la fin de 2020. Les représentants des pays signataires sont sortis cette semaine de la conférence préparatoire un peu perdus. D’abord, le retrait des États-Unis et les mesures prises par l’administration Trump pour affaiblir les pouvoirs de l’Agence de protection de l’environnement affaiblissent l’Accord. Le deuxième plus grand émetteur de la planète continuera vraisemblablement d’alourdir son bilan. Il faudra donc que les autres pays rehaussent leurs cibles de réduction. Sans cela, il n’y a aucune chance de maîtriser le réchauffement du climat d’ici 2100 à moins de 3 ou 4 degrés Celsius. Cela entraînera une augmentation du niveau de la mer qui dépassera 1 mètre et qui se continuera jusqu’à 6 ou 7 mètres dans les trois siècles à venir. Un article paru cette semaine dans Nature prévoit que les réserves d’eau douce qui alimentent Miami seraient contaminées par l’eau salée dans moins de 30 ans. Est-ce possible de l’éviter ?

Pourtant, les négociations piétinent toujours. On attend pour cet automne un rapport spécial du GIEC qui indique qu’on ne pourra pas atteindre la cible de limiter le réchauffement à moins de 1,5 degré sans un déploiement massif et immédiat de mesures de captation du CO2. Cela coûtera très cher. Après l’été dévastateur qui se termine, il est clair que des sommes colossales seront aussi nécessaires pour permettre l’adaptation des populations les plus vulnérables. Est-ce possible de trouver cet argent ?

Pour sa part, l’Institut de recherche sur l’économie contemporaine (www.irec.quebec) a publié une note qui démontre que la cible du gouvernement canadien pour l’Accord de Paris est déjà hors d’atteinte, malgré les propos vertueux de Justin Trudeau. La cible de -37,5 % du Québec est elle aussi hypothétique, tout comme la réduction de -20 % en 2020 sans un achat massif de crédits de carbone en Californie. Est-ce possible qu’on n’en parle pas dans la campagne électorale ?

Enfin, si vous avez mis des photos de votre chat sur Facebook, il y a de grosses chances que cela crée une demande d’électricité dans un « data center » quelque part en Amérique du Nord où on la produit avec des carburants fossiles. La croissance de la demande en électricité du parc informatique et des technologies de la communication (TIC) est telle, qu’un article publié dans Nature le 12 septembre prévoit qu’elle atteindra dans moins de 12 ans l’équivalent de 8 % (dans le meilleur des cas) à 21 % de toute l’électricité produite sur la planète. Actuellement, les « data centers » consomment 200 térawattheures, l’équivalent de toute l’électricité produite au Québec dans une année. Cela correspond au tiers de la consommation des TIC. Si la tendance se maintient, les TIC consommeront 60 fois plus en 2030. À ce moment, ce secteur produira plus de gaz à effet de serre que le transport aérien et maritime combiné. Est-ce possible ?

D’ailleurs, il est prévu que le nombre de passagers transportés en avion va doubler d’ici 2030 pour atteindre 8 milliards de voyageurs en raison principalement de la multiplication des liaisons « low cost ». Est-ce possible que tout cela se produise en même temps ?

Si on se contente de suivre les tendances, si les politiciens n’ont pas le courage d’aborder ces questions maintenant, la crise est inévitable. La croissance économique doit être questionnée à la lumière du développement durable sinon rien de tout cela ne sera possible.

Claude Villeneuve

Si c’est raté, on fait quoi ?

En effet, le calcul du chiffre magique de la quantité d’émissions nécessaires pour réchauffer le climat planétaire ne tient compte que des émissions humaines. Mais le réchauffement va provoquer la fonte de pergélisol. Cela cause d’importantes émissions de méthane et de CO2 par la décomposition de la matière organique qui y est stockée. Cet effet indirect est difficile à quantifier, mais les simulations réalisées par Thomas Gasser, chercheur à l’Institut international pour l’analyse des systèmes appliqués en Autriche et ses collègues ont permis de recalculer le budget carbone en tenant compte de cet effet pergélisol. Si cela devait nous surprendre, le résultat montre que la cible sera encore plus difficile à atteindre. Comme je le disais en 2013, il est déjà trop tard. Alors qu’est-ce qu’on fait ?

D’abord, il faut savoir que l’approche du budget carbone est un calcul très simplifié qui a été inventé pour faire comprendre aux décideurs la nécessité d’agir et que la limite de 2 degrés est une estimation d’un seuil à ne pas dépasser pour permettre l’adaptation. Leurs fondements scientifiques sont certes solides, mais dans les deux cas, il demeure d’énormes incertitudes pour prédire correctement l’évolution du système climatique. Il faut comprendre que la planète n’évolue pas de manière linéaire et que l’expérience que nous sommes en train de lui faire subir n’a aucun comparable historique. Donc pour être clair, il faudrait dire que les probabilités de ne pas dépasser un réchauffement de 2 degrés s’amenuisent à mesure que le temps passe et que les émissions anthropiques continuent de s’accumuler dans l’atmosphère. Mais si la cible est ratée, faut-il baisser les bras ? Surtout pas !

La lutte aux changements climatiques est le plus important défi que l’humanité aura à relever dans les prochaines décennies. Les conséquences seront moins graves si on limite le réchauffement à 2,5 ou à 3 degrés que si on laisse dégénérer les choses vers un réchauffement de 4 ou même de 6 à 7 degrés comme le prévoient les scénarios les plus pessimistes (voir le scénario Trump paru dans cette chronique le 11 juillet dernier). Nos politiciens ont tendance à se fixer des objectifs peu réalistes dans le domaine climatique parce que le résultat à atteindre dépasse leur mandat. On le voit bien avec les cibles du Canada et du Québec qui seront ratées, tant pour 2020 que pour 2030.

Depuis 1990, les gouvernements hésitent à prendre le taureau par les cornes et à engager la nécessaire transformation de l’économie qui nous permettra de sortir de l’ère des combustibles fossiles. Il s’agit d’une transition à la fois technique, comportementale et culturelle qui concerne tout le monde et son voisin, donc au premier chef vous et moi. S’entendre sur une cible n’est pas un résultat. C’est comme prendre une résolution du jour de l’An. Ça ne fait pas maigrir si on ne change pas ses habitudes. Les économistes sont de plus en plus d’accord, il en coûtera énormément plus cher de réparer les dégâts attribuables à un climat détraqué que d’agir maintenant pour les prévenir. Il est plus que temps de se retrousser les manches !

Claude Villeneuve

Déjà trois décennies

Avec la Stratégie mondiale de la conservation en 1980, l’idée de DD a fait son chemin à l’échelle internationale. En 1987, avec la publication du rapport Brundtland, le terme devenait incontournable, mais le concept demeurait immature. Toutefois, l’approche DD exigeait de travailler avec les pouvoirs établis et les parties prenantes pour faire changer le cours des choses. C’est en 1988, alors que je donnais un cours sur le rapport Brundtland qu’un étudiant m’a demandé comment on pouvait mesurer la durabilité. Depuis, je travaille à répondre à cette question. En créant à l’UQAC les programmes en écoconseil et la chaire en écoconseil, nous avons pu à la fois partager nos acquis en formant des professionnels du DD et continuer de faire avancer la question. Cette semaine, nous recevons nos partenaires de l’Institut de la Francophonie pour le développement durable (IFDD) pour faire le bilan d’un partenariat de recherche de 4 ans sur l’analyse systémique de durabilité (ASD). Les acquis de ce partenariat sont remarquables, mais ils n’auraient pas été possibles sans la profondeur de nos travaux depuis 1988.

Le partenariat est une association gagnant-gagnant. L’UQAC disposait déjà d’une expertise et d’outils, l’IFDD avait besoin de faire avancer au sein des pays membres de l’Organisation internationale de la francophonie le nouveau Programme de développement durable des Nations Unies à l’Horizon 2030 (PDD H-2030). Nous avions besoin de diffuser les savoirs et l’appétit des pays, particulièrement en Afrique, pour opérationnaliser le DD était plus que présent. Le partenariat a permis de créer un programme court de deuxième cycle qui a été expérimenté à l’UQAC et offert par la suite à des boursiers originaires de huit pays africains au Maroc en avril dernier. De nouveaux outils d’ASD adaptés au PDD H-2030 et de nouvelles applications des outils existants ont pu être développés. Ils sont maintenant utilisés dans une vingtaine de pays et reconnus par l’ONU.

Plus encore, nous avons pu faire avancer la notion d’ASD dans deux colloques internationaux. Trop souvent l’application du DD se présente comme une affaire sectorielle. Énergie, santé, infrastructures, institutions, industries ; chaque secteur aborde la durabilité à partir de prémisses qui lui sont propres. De même, la responsabilité du DD est confiée à un service ou à un ministère. Les ornières du travail en silos font le reste, ce qui explique de nombreux échecs d’initiatives pourtant motivées par de bonnes intentions. L’approche systémique permet de considérer globalement les multiples tenants et aboutissants du développement durable à diverses échelles et de confier à chacun ses responsabilités tout en recherchant les synergies et en évitant les antagonismes. Avec nos outils, on peut concevoir, planifier, mettre en œuvre et évaluer des politiques, stratégies, programmes et projets de DD en cohérence avec le PDD H-2030.

Certaines choses prennent du temps, beaucoup de temps pour arriver à maturité. Trente ans, ce n’est pas si long !

Un combat inégal

Peu après son entrée en fonction l’an dernier, le président Trump a nommé à la tête de l’Agence pour la protection de l’environnement des États-Unis (EPA), un avocat, Scott Pruitt, dont les opinions climato-sceptiques et les clients dans l’industrie des carburants fossiles étaient de notoriété publique. À l’instar de son patron, M. Pruitt n’a pas tardé à affaiblir les exigences règlementaires visant à limiter la réduction des émissions de gaz à effet de serre et à prôner que les scientifiques ne s’entendent pas sur la responsabilité des humains dans le réchauffement du climat observé depuis le début de l’ère industrielle. Jusque-là, on est dans la politique et la communication d’opinions. Mais M. Pruitt a évoqué des « preuves scientifiques secrètes » à l’effet que le réchauffement était dû à des causes naturelles. Or, il n’existe pas de telle chose qu’une « science secrète », sauf peut-être dans le domaine de la Défense nationale. Et même là, il s’agit rarement de science fondamentale. Par exemple, dans le développement de la bombe atomique, il y a eu une période dans laquelle les architectes du projet Manhattan n’ont pas eu le droit de publier leurs résultats, mais les travaux fondamentaux sur le noyau atomique qui ont servi à Enrico Fermi et à son équipe avaient été publiés auparavant dans des revues spécialisées.

Un groupe nommé Public Employees for Environmental Responsibility a fait une demande d’accès à l’information pour que le directeur de l’EPA rende publiques les études auxquelles il réfère pour soutenir ses affirmations qui contredisent le consensus scientifique à l’effet que l’activité humaine est la principale explication au réchauffement climatique observé, basé sur des études publiées. Vendredi dernier, le juge Beryl Howell de la Cour fédérale du District de Columbia a ordonné à l’EPA de rendre publiques ces soi-disant études scientifiques. Si la décision n’est pas portée en appel, cela devrait être fait dans un délai maximum d’un an.

Depuis 30 ans que je m’intéresse aux changements climatiques, j’ai lu des centaines d’articles publiés dans toutes sortes de revues arbitrées par les pairs en plus de cinq séries de rapports du GIEC, sans compter les rapports divers publiés par toutes sortes d’académies scientifiques, la Banque mondiale, la FAO et bien d’autres. Bref des dizaines de milliers de pages signées par des milliers d’auteurs provenant de tous les horizons. Si tout va bien, je pourrai enfin lire la soi-disant science secrète sur laquelle s’appuient les climato-sceptiques et juger de sa qualité ! Nous pourrons en discuter entre experts, en critiquer les méthodes et les conclusions, comme nous offrons à la critique nos méthodes, résultats et conclusions depuis toujours.

Malheureusement, je n’y crois pas trop. Il n’y a pas de science secrète. Les appels en justice sont chose commune et Pruitt s’y connaît certainement mieux en la matière qu’en science du climat. Le combat est inégal.

La fonte des glaces s’accélère

Voyons d’abord la glace de mer. Dans l’océan Arctique, la banquise ne cesse de s’amincir et la surface d’eau libre s’agrandit chaque été. Le phénomène est bien compris et on le suit chaque mois par le site HTTP ://nsidc.org/arcticseaicenews/. On y apprend que la couverture de glace de mai 2018 est la deuxième plus faible après 2016 et que la tendance à la réduction de la surface de glace est de 36 000 kilomètres carrés par décennie depuis 1981, c’est-à-dire une réduction annuelle équivalant à 36 fois la surface du lac Saint-Jean. La réduction la plus spectaculaire est celle des glaces vieilles de 5 ans et plus qui ont virtuellement disparu au détriment de glaces plus jeunes et plus minces, qui fondent plus facilement en été, ce qui accélère le phénomène. Dans l’Antarctique, avec l’automne austral, la surface glacée augmente à grande vitesse, mais la surface couverte par la glace était en mai la troisième plus faible jamais enregistrée.

Les banquises sont formées par l’eau de l’océan. Leur fonte ne contribue donc pas à l’élévation du niveau de la mer. Il en va différemment de la glace des inlandsis. La fonte des glaciers continentaux se manifeste de deux façons : par le ruissellement de l’eau de fonte vers les océans et par le vêlage d’icebergs ou le détachement de plateformes alimenté par les langues des glaciers. Cette glace fondra lentement dans son périple et s’ajoutera au volume d’eau des océans. Un article paru dans Nature le 13 juin 2018 démontrait que la vitesse de perte de glace de l’Antarctique avait triplé depuis 2007. Cela correspond à 2720 ± 1390 milliards de tonnes de glace entre 1992 et 2017, ce qui représente une hausse du niveau de la mer de 7,6 ± 3,9 millimètres. L’incertitude sur les mesures est importante, mais les chiffres restent très significatifs. Cela représente l’hypothèse la plus pessimiste prévue par le GIEC dans sa modélisation de la contribution de l’Antarctique à la hausse du niveau de l’océan au 21e siècle. Mais l’Antarctique n’est pas la seule source d’eaux de fonte. On estime que le Groenland a perdu 1000 milliards de tonnes de glace entre 2011 et 2014. Les glaciers de montagne, même s’ils représentent une très faible proportion de la cryosphère, contribuent à la hausse du niveau de l’océan dans le même ordre de grandeur. Mais l’apport des eaux de fonte n’est pas la seule déterminante du rehaussement du niveau de la mer. L’eau, lorsqu’elle est plus chaude, se dilate et occupe plus d’espace.

À ce rythme d’accélération, le niveau de la mer pourrait avoir augmenté de 60 centimètres en 2050. C’est très inquiétant. Avec une augmentation du niveau de la mer de 15 centimètres, une zone qui est inondée une fois par année le sera 20 fois plus souvent. De plus, l’érosion des berges va s’accélérer, spécialement lors des tempêtes.

Ce phénomène est inéluctable. Le réchauffement du climat que nous observons aujourd’hui est lié à nos émissions passées de gaz à effet de serre. Or, nous continuons d’augmenter ces émissions et le climat continue de se réchauffer. Il est primordial, là où c’est possible, de protéger les côtes et les infrastructures existantes, d’éviter d’investir dans les zones riveraines et de se préparer à accueillir des réfugiés climatiques.

Quatre priorités pour les océans

Mais il y a plus. Mers et océans constituent le plus grand écosystème planétaire, car il n’y a pas, à proprement parler, de frontières infranchissables pour les êtres vivants dans l’eau, et les systèmes marins sont tous reliés entre eux. Plus encore, les océans jouent un rôle essentiel dans la régulation du climat planétaire. Ils stockent l’énergie thermique, et l’évaporation de l’eau fournit 40 % des précipitations qui tombent sur les continents. Dans les mers tropicales, les courants marins de surface, comme le Gulf Stream, transportent vers les latitudes plus froides des quantités énormes de chaleur. Enfin, les océans – et non les forêts – sont les véritables régulateurs de la quantité d’oxygène planétaire.

Mais les océans sont menacés par les impacts de l’activité humaine. Les principaux fléaux qui les affectent sont d’abord le réchauffement du climat et l’augmentation de la concentration du CO2 dans l’atmosphère, qui provoque une acidification de l’eau de surface. La combinaison des deux phénomènes crée un stress sur les communautés vivantes comme les récifs coralliens. Les apports de fertilisants provenant de l’agriculture par les rivières et les fleuves créent des conditions d’anoxie – absence d’oxygène – dans les zones peu profondes écologiquement productives des estuaires et du plateau continental. Cela fait dépérir les communautés de poissons et de crustacés. Les rivières et fleuves sont aussi les principaux transporteurs des huit millions de tonnes de plastique qui s’y retrouvent chaque année. Ces déchets s’ajoutent aux « continents de plastique » qui flottent déjà dans chaque océan et qui polluent les berges sur leur pourtour. Le dernier problème est lié à la surpêche. Les stocks de poissons sont de plus en plus précaires, et la flotte hauturière mondiale prélève souvent bien au-delà de la capacité de renouvellement des stocks. Au rythme actuel, il y aura plus de plastique que de poissons dans les océans en 2050. Quant à la biodiversité marine, elle est chaque jour plus menacée.

Quatre priorités sont évoquées pour renverser cette situation. D’abord, la lutte aux changements climatiques peut s’avérer très bénéfique pour ralentir l’acidification et la perte de biodiversité. Comme l’agriculture est l’un des principaux facteurs de réchauffement du climat par les émissions de méthane et de protoxyde d’azote, la lutte aux changements climatiques par le changement des pratiques agricoles peut aussi contribuer à réduire l’anoxie des fonds marins.

Pour la réduction des apports de plastique vers les océans, il faut réduire notre dépendance à ces matières polluantes et préconiser l’économie circulaire, c’est-à-dire augmenter le recyclage pour les plastiques dont on ne peut pas se passer. Il faut faire respecter les réglementations de pêche, à la fois dans les eaux nationales et imposer des codes de conduite dans les eaux internationales.

On doit aussi créer, au plus vite, de vastes aires protégées qui permettent aux poissons de se réfugier, de s’alimenter et de se reproduire. Très peu de ces espaces protégés existent. Les espèces marines migrent sous la pression du réchauffement climatique. On le constate dans le golfe du Saint-Laurent, mais c’est la même chose partout dans le monde. Il leur faut des refuges.

La protection des océans est un énorme défi pour les prochaines décennies. Si vous allez à la plage, cet été, pensez que les océans ont besoin de vous. Si vous consommez du poisson, choisissez un produit portant une certification de pêcherie durable. N’achetez plus de bouteilles d’eau, refusez les sacs de plastique. Ce sont quelques gestes qui pourront faire une différence.

Les lunettes roses

Ensuite, des équipes multidisciplinaires essaient d’imaginer comment les choses vont se passer à l’avenir. On construit d’abord une histoire vraisemblable du futur qui fait consensus. C’est ce qu’on appelle un scénario socio-économique partagé (SSP). Bien sûr, ces constructions sont imparfaites et elles demandent à être vérifiées par l’évolution des faits. Les SSP représentent une base qu’on fait varier avec des projections quantifiées basées sur les informations scientifiques disponibles. On obtient une série de projections qui définit à terme l’état du système. Tout cela fait l’objet de révisions par les pairs pour s’assurer qu’il n’y ait pas d’incongruité. On fait ensuite rouler les ordinateurs. Et on interprète les résultats.

Le premier SSP dont nous allons traiter est appelé « la voie du développement durable » (SSP1). Il postule que le monde va changer graduellement, mais avec détermination vers le développement durable, en mettant l’emphase sur un développement plus inclusif qui respecte les limites de la planète en vertu du principe de précaution. La gestion des ressources communes (air, océans, biodiversité) s’améliorera progressivement, les investissements dans la santé et l’éducation vont accélérer la transition démographique et l’importance accordée à l’indicateur de la croissance économique va diminuer au profit du bien-être humain. C’est le chemin qui est balisé par l’atteinte des cibles de 17 objectifs de développement durable adoptés par l’Assemblée générale des Nations Unies en 2015. Les inégalités seront réduites entre les riches et les pauvres aussi bien dans les pays qu’entre les pays. La consommation sera caractérisée par moins de besoins matériels, une utilisation plus efficace des ressources et une intensité énergétique réduite. Que se passerait-il dans ce monde merveilleux ?

Première surprise, la population mondiale, qui dépasse aujourd’hui 7,4 milliards de personnes aura diminué à 6,9 milliards en 2100. Le niveau de scolarisation des femmes en est la première explication. Naturellement, la population planétaire sera plus en santé et son espérance de vie aura augmenté. La population sera urbanisée à 92 % et vivra dans des villes sûres, efficaces et conviviales. Le PIB moyen devrait atteindre 70 000 $ US (2005) et le niveau d’éducation moyen mondial dépasserait celui de l’Europe d’aujourd’hui dès 2050. En termes de consommation d’énergie, elle ne serait pas plus élevée que celle de maintenant, mais la part des carburants fossiles y deviendrait progressivement marginale.

Malgré tout, ce scénario ne permettrait pas d’atteindre la cible de l’Accord de Paris sans d’importantes mesures de mitigation. Les émissions de GES devraient être négatives peu après 2050, c’est-à-dire qu’on capterait plus de GES qu’on en émettrait. Cela ne peut se faire sans des politiques agressives de lutte aux changements climatiques, des innovations technologiques, une réduction des surfaces cultivées et un retour massif de la forêt par le reboisement. Avec le SSP1, le réchauffement du climat à la fin du siècle peut atteindre la cible de l’Accord de Paris, mais sera plus probablement situé entre 2,5 et 3 degrés.

C’est le scénario des lunettes roses. Il est possible d’y arriver, mais cela signifie un engagement immédiat, des politiques nationales et une coordination des politiques internationales cohérente et un énorme effort de réduction de la pauvreté. Bref, une révolution si on regarde la façon dont ces choses sont gérées aujourd’hui !

Mais qu’arriverait-il si on continuait comme maintenant ? Ce sera le sujet de la prochaine chronique.