Allez-vous mourir de chaud ?

Evaluation du risque d'hyperthermie pendant la vague de chaleur de juin 2021 aux Etats-Unis et au Canada

Nous n'en sommes qu'à la mi-juillet et les vagues de chaleur frappent déjà l'hémisphère nord comme un boxeur sourd à la 7e reprise : 50°C le 29 juin au Canada, 50°C le 10 juillet au Maroc, 55°C le même jour dans la vallée de la mort, 50°C le 20 juillet en Turquie... En comparaison les quelques 35°C attendus dans le sud de la France cette semaine semblent presque rafraichissants... A chacune de ces canicules, une question revient : les températures atteintes peuvent-elles être mortelles ?

Théoriquement, on peut évidemment mourir de chaud mais cela reste aujourd'hui très rare. Dans cet article, je vais essayer de vous expliquer pourquoi, à partir de quelles températures le risque devient significatif et ce à quoi on peut s'attendre pour les prochaines décennies.

Comment est régulée la température du corps humain ?


Il peut y avoir beaucoup de raisons de mourir pendant une vague de chaleur, en fait presque toutes les causes médicales de mortalités augmentent en période de canicule : maladies cardiovasculaires, respiratoires... mais aussi maladies infectieuses ou endocriniennes. On se noie aussi plus, à moins que l'on meure au contraire de deshydratation. Dans le passé, les périodes de chaleur étaient aussi propices à de grandes épidémies, notamment de dysentrie.

Mais imaginons que vous soyez en bonne santé, que vous ayez accès à de l'eau potable et que vous ne vous baigniez pas en armure, comment la chaleur pourrait-elle vous tuer ?

Victime de la chaleur pendant la canicule de 1911
Pour survivre, vous devez maintenir votre corps aux alentours de 37°C. Comme il fait rarement 37°C à l'extérieur, vous êtes fourni avec chauffage central intégré en série : votre métabolisme produit une puissance de l'ordre de 100W, à peu près autant qu'un petit sèche-serviette.

Ce luxe vient avec ses contraintes : une fois que votre température a atteint les 37°C désirés, vous devez trouver une façon de vous débarrassez de vos 100W. Sinon, première loi de la thermodynamique oblige, vous allez gagner en énergie et continuer à vous réchauffer.

Pour réguler sa température, votre corps s'y prend essentiellement de deux façons : par conduction et par évaporation.

La conduction est une affaire simple : vous vous trouvez en général dans de l'air plus froid que vous, vous allez le réchauffer et il va vous refroidir. L'équilibre se fait naturellement autour de 20°C. Si la température ambiante baisse, vous allez commencer à céder trop d'énergie. Il faudra vous isoler de l'air trop froid et mettre un pull...

Au contraire, si la température augmente le contact de l'air ne sera plus suffisant pour évacuer vos 100W. Vous pourrez un temps vous en sortir en exposant plus votre corps ou en accélérant la circulation de l'air (avec un ventilateur, par exemple). Si ce n'est pas suffisant, le deuxième mécanisme va se mettre en route : vous allez transpirer.

Ce n'est pas la transpiration qui vous rafraichit, c'est son évaporation : comme il faut une grande quantité d'énergie pour faire passer de l'eau de l'état liquide à l'état gazeux, une évaporation au contact de votre peau va absorber votre chaleur excédentaire. Cela marche que cette eau vienne de votre transpiration ou de l'extérieur, par exemple d'un brumisateur. Même si c'était votre seul mécanisme de régulation, il suffit de faire s'évaporer 2.6 millilitres par minute (soit un volume équivalent à un pot de yaourt par heure) pour évacuer vos 100W.

Pourquoi peut-on mourir de chaud ?

C'est ce mécanisme qui vous permet de survivre à des températures dépassant 35°C. Mais celui-ci aussi a sa limite : l'humidité relative.

L'humidité relative est le rapport, à une température donnée, entre la quantité d'eau-vapeur dans l'air et la quantité maximale que l'air peut contenir. Si l'humidité relative est élevée, l'air est presque saturé d'eau et l'évaporation devient plus difficile. Si au contraire elle est basse, l'air est très sec et l'eau s'évapore rapidement.

Imaginons que vous vous trouviez dans un environnement où la température est de 35°C et l'humidité relative de 100%. Que se passerait-il ?

La température de l'air ne vous permet pas de vous refroidir par conduction et, l'air étant déjà saturé d'eau, votre transpiration ne peut donc pas s'évaporer. Vous n'avez plus aucun moyen de vous débarraser de vos 100W. Si vous ne trouvez pas rapidement une solution pour vous rafraichir, cette énergie va s'accumuler et la température de votre corps augmentera d'un degré à peu près toutes les 45 minutes. Au bout de 4 heures environ, elle atteindra 42°C, seuil au-delà duquel le corps subit des dommages irreversibles.

Au programme : deshydradation, épuisement, crampes de chaleur, syncope et, finalement, hyperthermie (ou "coup de chaleur") et mort. Et ce n'est pas une exagération : dans des conditions réelles, où il est possible de rafraichir la victime et d'appeler des secours, un coup de chaleur est mortel dans 15 à 25% des cas.

Comment évaluer les risques liés à la chaleur ?

On le voit sur cet exemple, il ne suffit pas de regarder un thermomètre pour savoir si la chaleur peut être mortelle pour un individu en bonne santé. Le risque apparait lorsque la température de l'air approche de celle du corps, mais si l'humidité relative est basse il est possible de supporter des températures bien supérieures grâce à l'évaporation de la transpiration.

C'est ici qu'entre en scène un indicateur dont vous avez certainement entendu parler : la température de thermomètre mouillé, ou température humide. C'est une mesure qui combine température de l'air et humidité relative et permet de savoir facilement à quel point la combinaison des deux est dangereuse : si vous êtes exposé à une température humide proche de la température de votre corps (disons 35°C), vous allez mourir en quelques heures, même si vous êtes en bonne santé, au repos, à l'ombre et hydraté.

Tout ça est très bien, on sait enfin à partir de quand la chaleur devient mortelle mais, me direz-vous, comment mesurer la température de thermomètre mouillé ? Hé bien, comme son nom l'indique, cette température est celle qui serait mesurée par un thermomètre dont la base est enveloppée dans un coton humidifié avec de l'eau à température ambiante.

Thermomètre mouillé
Thermomètre mouillé datant des années 1930 (à droite) : l'ampoule dans laquelle trempe la mèche doit être remplie d'eau à température ambiante. A gauche se trouve un thermomètre ordinaire, le dispositif au centre permet d'évaluer l'humidité relative de l'air à partir des deux températures (Musée de l'histoire des sciences d'Oxford).
Evidemment, cette façon de mesurer n'est pas très pratique. De nos jours, la température de thermomètre mouillé est plutôt calculée à partir de la température ordinaire et de l'humidité relative. Mais autant le dire tout de suite : ce n'est pas un calcul que vous allez faire de tête...

Pour briller en société, voici la formule de Stull qui donne une approximation valable dans la plupart des conditions usuelles en fonction de la température ordinaire en degrès celsius (T) et de l'humidité relative en pourcents (φ) :

calcul de la température de thermomètre mouillé par la formule de Stull

A défaut d'apprendre cette formule par coeur, vous pouvez retenir que la température humide est toujours inférieure à la température ordinaire et décroit avec le taux d'humidité. A titre d'exemple, si la température est de 30°C, la température humide est d'environ :

  • 27.1°C à 80% d'humidité relative,
  • 24.0°C à 60%,
  • 20.5°C à 40%,
  • 15.9°C à 20%.

Notez que la température humide à de nombreuses autres applications dans l'agriculture ou l'industrie. Par exemple, elle va déterminer l'efficacité du refroidissement dans une tour aéroréfrigérante (comme celles utilisées par certaines centrales électriques).

Et demain ? Impact du changement climatique sur le risque d'hyperthermie

Où que l'on soit sur la planète, il est aujourd'hui rarissime que la température humide dépasse 35°C. Seules une poignées de stations météorologiques en Asie du Sud, au sud-ouest de l'Amérique du nord et sur les côtes moyen-orientales ont déjà relevé ces conditions, généralement pendant une période n'excédant pas une heure ou deux.

Les décès par hyperthermie existent mais ils font souvent intervenir d'autres facteurs qui augmentent la quantité de chaleur que le corps doit évacuer, par exemple une exposition prolongée au soleil ou une activité physique.

température de thermomètre mouillé la plus haute mesurée
Température humide maximale entre 1979 et 2017 (source)

Il est cependant impossible de ne pas se poser la question : avec le réchauffement du climat, comment va évoluer la température humide ? Est-il possible que des régions dépassent régulièrement 35°C, le seuil au-delà duquel même avec toutes les mesures de prévention possibles (bonne santé, ombre, hydratation, repos...) un être humain meurt en quelques heures, devenant en pratique inhabitables ?

Plusieurs études récentes se sont penchées sur cette question, et la réponse est probablement oui. Les modèles climatiques prévoient l'apparition de vagues de chaleur avec des températures humides supérieures à 35°C dans la seconde moitié du siècle, dans le Golfe Persique, en Asie du Sud et en Chine. Il est possible que la limite soit dépassée plus tôt localement, notamment sur les côtes.

Cependant ces évaluation mettent aussi en lumière un effet de seuil très marqué selon le scénario adopté pour la concentration en gaz à effet de serre. Dit autrement, nos émissions actuelles décident si, dans 50 ans, le monde connaitra ponctuellement et localement des vagues de chaleur mortelles ou si des régions entières deviendront inhabitables.

 Publié le 21 juillet 2021 par Thibault Laconde

Vague de chaleur en Amérique de l'Ouest : quels impacts matériels ?

Pendant la dernière semaine de juin, une canicule de proportions historiques s'est abattue sur le nord-ouest du continent américain. Dans cet article un peu particulier, je cherche à recencer les dommages physiques causés par cet épisode. Cette liste est forcément non-exhaustive, si vous constatez que des impacts manquent n'hésitez pas à me l'indiquer en commentaire.

Pourquoi lister les dommages causés par la canicule ?

La vague de chaleur américaine de juin 2021 s'inscrit dans une liste déjà longue d'épisodes de chaleur très improbables au regard des températures historiques - en Sibérie en 2020, en Europe en 2019, au Japon en 2018, pour ne citer que quelques exemples. Et il ne fait guère de doute qu'elle en annonce d'autres tout aussi extraordinaires : il existe beaucoup d'incertitudes sur les conséquences du changement climatique mais l'apparition de canicules de plus en plus intenses n'en fait pas partie.

Parmi les évenements climatiques extrêmes, les vagues de chaleur occupent une place un peu particulière : elles nous touchent tous directement, mais en même temps leurs conséquences sont difficilement perceptible. Au contraire, vous avez peu de chance d'être frappé directement par une innondation ou un ouragan et pourtant vous pouvez certainement visualiser sans problème les dommages causés par ces phénomènes.

En appartée, je pense que si tant de médias ont des difficultés à illustrer leurs articles sur les vagues de chaleur, s'obstinant à mettre des photos de familles à la plage ou d'enfants mangeant une glace pour évoquer un phénomène meurtrier, c'est en partie à cause de cette spécificité des canicules. La grande majorité de la population est touchée modérément, occultant les vraies victimes et des dégats déjà peu visibles.

Dans cet article je cherche à lister autant d'exemples que possible de dommages matériels causés par la vague de chaleur. L'objectif est de les rendre un peu plus visible et peut-être de contribuer à la compréhension des impacts de ces événements.

Impacts matériels de la vague de chaleur américaine de juin 2021

Pour l'instant, il s'agit un peu d'une liste à la Prévert mais j'essaierai de la complèter et de l'organiser progressivement.

Electricité et énergie

  • Des coupures d'électricité ont touché jusqu'à 15000 foyers dans l'état de Washington du 28 au 30 juin. Ces délestages ont apparemment été causés par une saturation du réseau de distribution, pas par un manque de production (1).
  • Dans la région de Portland jusqu'à 6000 foyers ont été coupés d'électricité (1), ces coupures sont probablement liées à des défautts causé par l'augmentation de la température et de la consommation (2).
  • Des coupures ponctuelles ont eu lieu ailleurs en raison de défauts causés par la chaleur (dont l'explosion d'un transformateur dans la région de Seattle) ou de contact entre les lignes et la végétation (1).
  • Quelques centaines de foyers ont été coupés en Colombie Britannique (1, 2).
  • L'augmentation de la consommation a entrainé une forte hausse du prix du gaz et de l'électricité : jusqu'à 334$/MWh pour cette dernière (1).

Routes et transports

  • De nombreuses routes ont été endommagées par la chaleur. Au moins 6 cas de soulèvement se sont produit à Seattle (1), certaines réparations nécessitent une quinzaine de jour de travaux (2). Plusieurs autoroutes ont été touchés : Interstate 5 (3), State Route 544 (4), Highway 195 (5)
  • A Portland, le trafic du métro a été totalement interrompu du 27 au 29 juin (1)
  • La dilation des pièces métalliques peut empecher les ponts mobiles de fonctionner. A Seattle et Tacoma, des ponts ont du être refroidis par aspersion (1, 2).
  • La chaleur à un impact sur la charge utile des avions et sur le personnel. La compagne Alaska Air a subi de nombreux retard et quelques annulations de vols (1, 2). La chaleur peut rendre certains petits aérodromes innacessibles (3).

Entreprises, activités économiques

  • De nombreuses pannes de réfrigération ont été signalées dans la restauration et la distribution alimentaire (1, 2). Ces pannes ont entrainé des pertes de marchandises et contraint certains restaurants et commerce à fermer (3), d'autres ont fait le choix de cesser leur activité pendant la vague de chaleur pour préserver matériel et salariés (4).
  • Dans au moins deux cas, des salariés ont cessé le travail pour protester contre la chaleur dans les locaux (1). Certains ont été licenciés (2).
  • Un entrepots Amazon de l'état de Washington a suspendu ses opérations le 28 en raison d'une température trop élevée et de défauts de ventilation (1).

Agriculture

  • La chaleur peut endommager les fruits et perturbe les récoltes (1).

Impacts indirects

  • La fonte accélérée de la neige a entrainé un risque d'inondation et des évacuations au Canada (1).
  • En Colombie Britannique, 106 incendies étaient actifs le 2 juillet dont celui qui a détruit le village Lytton (1). Des routes et des installations hydroélectriques ont été endommagées (2).
  • Les conditions météorologiques ont entrainé des pics de pollution (1, 2).

Elévation du niveau de la mer : comment s'adapter à un futur incertain ?

"L’Antarctique va-t-il atteindre un point de non-retour ?" s'interrogeait Le Monde il y a quelques jours. Citant une publication récente, l'article expliquait que la fonte des glaces du pôle sud pourrait s'accélérer autour de 2060 entrainant une élévation rapide du niveau de la mer. Il notait cependant de "fortes incertitudes" : "si l’accélération de la fonte des glaciers [...] ne fait aucun doute, les scientifiques débattent encore de son rythme [...] et surtout des conséquences pour la montée du niveau des mers".

Comme souvent lorsqu'on parle du changement climatique et de ses effets concrets, cet article peut donner l'impression qu'on ne sait en fait pas vraiment ce qui va arriver. Il m'a donné envie de faire un point sur le sujet : quelles sont projections d'élévation du niveau de la mer, leurs incertitudes et comment peut-on quand même les utiliser pour essayer de s’adapter ?

L'élévation du niveau de la mer pour les nuls

Le niveau moyen de la mer s'élève sous l'effet de deux phénomènes :

  1. La masse d'eau des océans augmente, parce que l'eau présente sur les continents rejoint l'océan, principalement en raison de la fonte d'eau stockée sous forme de glace.
  2. La masse volumique de l'eau baisse : il n'y a pas plus d'eau, elle prend juste plus de place parce qu'elle est plus chaude (dilatation thermique).

Si vous voulez gagner des points au scrabble : dans le premier cas, on parle de variations barystatiques, dans le second de variations thermostériques.

A ces deux phénomènes s'ajoutent tout un tas de subtilités régionales qui peuvent entrainer une élévation locale du niveau de la mer très différente de l'élévation moyenne. Par endroit, le niveau pourrait même baisser... Mais laissons ça pour un autre jour.

Origine des incertitudes

Les variations thermostériques ne sont pas trop difficiles à évaluer : à la louche, le volume de l'eau augmente de 0.026% par degré, donc dans une baignoire d'un kilomètre de profondeur, 1°C de plus fait augmenter le niveau moyen de 26 cm.

Pour les variations barystatiques, c'est plus compliqué : même en supposant qu'on connaisse la température, on ne sait pas trop comment et à quel rythme les inlandsis, c'est-à-dire les glaciers continentaux de l'Antarctique et du Groenland, vont fondre.

L'incertitude est particulièrement forte pour l'Antarctique. La raison : une partie du continent est en fait située en dessous le niveau de la mer et n'émerge que parce qu'elle est recouverte de centaine de mètres de glace :

Une partie du continent antarctique est située sous le niveau de la mer
Relief du continent Antarctique sans glace

Au lieu d'en éroder lentement les marges, l'eau relativement chaude des océans pourrait donc pénétrer sous la calotte glaciaire déclenchant une fonte beaucoup plus rapide.

En 2016, De Conto et son équipe (les auteurs de l'article cité par Le Monde) ont proposé une modélisation de ce phénomène. Ils évaluaient que l'Antarctique pourrait contribuer à l'élévation du niveau moyen de la mer jusqu'à 1m en 2100, 15m en 2500.

 Évidemment une telle contribution aurait un impact très fort sur le niveau moyen de la mer et sur le risque d'innondation côtière. Par exemple, si on compare les projections d'élévation du niveau de la mer à Dieppe avant et après la prise en compte d'une instabilité possible de l'Antarctique :

Elévation du niveau de la mer avec et sans instabilité de l'antarctique
Elévation du niveau de la mer à Dieppe comparé à 2000 (dérivé de Kopp & al.)

D'une manière générale, ce modèle indique une augmentation beaucoup plus rapide du niveau des océans à partir du milieu du XXIe siècle. De ce point de vue, la publication cité par Le Monde n'apporte rien de vraiment nouveau.

S'adapter dans un monde incertain

Le problème, c'est que ce modèle ne fait pas consensus. Toutes choses égales par ailleurs, la littérature scientifique propose donc deux trajectoires d'élévation du niveau de la mer très différentes sans être en mesure, à ce stade, de nous dire laquelle est la plus vraisemblable.

Alors qu'est-ce qu'on fait ?

Le premier instinct pourrait être de s'assoir par terre et d'attendre sagement que la communauté scientifique se décide.
Problème :
On perd un temps précieux. Déplacer des infrastructures, construire ou relever des centaines de kilomètres de digues, voire abandonner et reloger... tout ça ne se fait pas sur un claquement de doigt.
Par ailleurs,
s'il est possible qu'un consensus se dessine progressivement, il ne sera jamais complet : il y aura toujours des inceritudes.

Une stratégie alternative serait de jouer la sécurité d'abord et de se baser sur les projections les plus pessimistes.
Problème : la marche est très haute. A Dieppe, la projection médiane pour un scénario d'émissions raisonnablement optimiste (RCP4.5) et sans instabilité de l'Antarctique est de + 61 cm en 2100 comparé à 2000. En mettant tout au pire (émissions élevées, instabilité antarctique), la borne supérieure de l'intervalle de confiance à 90% est de +2.56 cm. Presque 4 fois plus !
Le scénario du pire peut se justifier dans certains cas (par exemple pour des infrastructures critiques), mais l'utiliser pour toutes villes côtières épuiserait rapidement et peut-être en vain nos maigres capacités d'adaptation. 

Une idée intermédiaire consisterait à chercher un point d'équilibre improbable, juste milieu des projections scientifiques et/ou de la volonté politique.
Problème : Il n'y a pas de prix de consolation. Soit votre digue est assez haute, soit elle ne l'est pas...

"Prediction first" vs. "decision first"

On voit bien qu'aucune de ces stratégies n'est vraiment satisfaisante. Il y a une bonne raison à cela. Même si les trois approches semblent radicalement différentes, elles partagent en fait un postulat très fort : il faut une hypothèse d'élévation du niveau de la mer avant de prendre des décisions.

Cette approche, dites "prediction first" ou "les prévisions d'abord", se recontre sur beaucoup d'autres sujets mais elle est toujours mal adaptée face à un phénomène qui est incertain. Dans cette situation, il est souvent plus facile de réfléchir dans l'autre sens, en "decision first" : commencer par se demander quelles sont les actions possibles, les organiser en scénarios d'adaptation cohérents à long-terme puis tester leurs résultats pour les différentes projections.

C'est l'idée notamment de la méthode DAPP ("dynamic adaptive policy pathways") adoptée pour faire face à l'élévation du niveau de la mer aux Pays-Bas, une région particulièrement vulénrable. Cette méthode aboutit à des "chemins" d'adaptation permettant de répondre aux différents avenirs possibles à mesure qu'ils se concrétisent avec à des embranchements et des points de bascule prédéfinis, souvent représentés sous forme de carte de métro :

Visualisation démarche d'adaptation climatique DAPP

En conclusion, les données climatiques sont nécessaires dans une démarche d'adaptation mais rarement suffisantes. La compréhension de leurs incertitudes et la diffusion de bonnes pratiques pour la gérer sont au moins aussi importantes.

Lorsque ces conditions sont réunies, les incertitudes des projections ne sont pas nécessairement un obstacle à une démarche d'adaptation efficace... 

 Publié le 12 mai 2021 par Thibault Laconde

Big data et adaptation au changement climatique : une étude de cas

La semaine dernière, Callendar a publié une étude de cas sur le risque d'inondation pour le réseau de distribution d'électricité. Je ne vais pas revenir sur les résultats et la méthodologie, tout ça est déjà détaillé ici mais j'aimerais vous expliquer pourquoi cette démonstration me tient particulièrement à cœur.

Comment rendre l'évaluation des risques climatiques accessible ?

Risque d'inondation sur le réseau de distribution électrique
Évaluer les risques climatiques à l'échelle locale, c'est très souvent répondre aux mêmes questions mais dans des endroits différents : quel est le risque de canicule à Paris, Royan ou Entraygues-sur-Truyère ? et le risque d'inondation ? de sécheresse ? de submersion marine ? etc.

Si vous concevez chacune de ces évaluations comme un projet indépendant, Paris pourra se payer votre expertise mais probablement pas Entraygues et ses 900 habitants. De la même façon, vous pourrez aussi faire des choses super intéressantes pour des entreprises du CAC40 mais jamais aider une petite PME à s'adapter. 

La solution c'est de concevoir d'emblée chaque évaluation des risques climatiques pour qu'elle soit généralisable. Evidemment, cela nécessite un investissement (un peu comme développer Excel quand on vous paie pour une addition) mais vous pourrez rendre votre travail beaucoup plus accessible. 

Cette vision est à l'origine de Callendar.

Le passage à l'échelle est-il réaliste ?

Si vous me suivez ici ou sur les réseaux sociaux, vous en connaissez sans doute déjà quelques concrétisations de ce projet. Par exemple ce test réalisé il y a un an à l'occasion des élections municipales. En 2 semaines, Callendar (ou plutôt notre appli) avait produit un peu plus de 200 rapports sur les risques climatique dans 178 communes.

Pas mal, mais encore beaucoup trop peu pour être accessible à tous quand on sait qu'il y a quelques 35.000 communes, 2.500.000 entreprises et 36.000.000 logements en France. Est-il vraiment possible de massifier notre approche, de fournir une information locale de qualité sur les risques climatiques non pas à des centaines mais à des milliers voire des millions d'utilisateurs ?

Cette étude de cas est importante pour moi parce qu'elle répond à cette question. Pour la réaliser, nous avons calculé la fréquence d'inondation pour presque un million de transformateurs répartis sur tout le territoire (927.753 exactement)

Poste de transformation inondé
 

Rêvons un peu...

Cette application reste relativement simple puisqu'elle porte sur un seul phénomène (l'inondation) alors que nous savons en quantifier au moins une vingtaine. Mais elle confirme qu'évaluer l'impact du climat sur près d'un millions de sites est réalisable.

Les perspectives pour l'adaptation au changement climatique sont immenses. Si le volume n'est pas un obstacle, il devient possible de quantifier et de réduire la vulnérabilité d'infrastructures étendues, de grands portefeuilles d'actifs, de chaine d'approvisionnement complexes...

Pourquoi pas, même, un "cadastre climat" avec l'évaluation des effets du changement climatique bâtiment par bâtiment sur l'ensemble du territoire ?

Le record dans ce domaine est apparemment détenu par une entreprise australienne qui a évalué les risque d'inondation, d'incendie et de sécheresse pour 15 millions de biens immobiliers. Après cette première expérience sur un million de sites, je suis certain que Callendar pourrait en faire autant voire plus en France.

 Publié le 26 mars 2021 par Thibault Laconde

Pourquoi un monde qui se réchauffe peut conduire à des vagues de froid plus extrêmes ?

Les Etats-Unis connaissent ces jours-ci une vague de froid historique avec de nombreux records battus dans le centre du pays et des conséquences dramatiques : coupures d'électricité, puits de pétrole et de gaz gelés, centrales électriques et raffineries à l'arrêt...

Si cette vague de froid est exceptionnelle par sa sévérité, l'épisode n'est pas isolé : en janvier 2019 aussi le centre des Etats-Unis avait connu une période glaciale, en janvier 2017 la température sur 5 jours en Europe centrale et dans les Balkans est descendue jusqu'à 15°C sous les normales et en 2013-2014 un hiver particulièrement rude avait fait presque intégralement geler les grands lacs.

A chacun de ces épisodes, une question revient : comment un climat qui, globalement, se réchauffe peut-il donner naissance à des vagues de froids aussi extrêmes ?

Un effet du réchauffement accéléré des pôles 

Le dérèglement du climat peut rendre les hivers plus extrêmes dans les région tempérées via plusieurs mécanismes, mais tous partagent une même origine : le réchauffement accéléré de l'Arctique.

Aussi contre-intuitif que puisse paraitre ce phénomène, il est en fait relativement simple de comprendre pourquoi le réchauffement des régions polaires peut entrainer des périodes de froid extrêmes dans les régions tempérées d'Amérique du Nord, d'Europe et d'Asie.

La densité de l'air est fonction de sa température : si vous chauffez l'air contenu dans un ballon, le volume du ballon augmente, c'est le principe de la montgolfière. C'est aussi vrai sur notre planète : la même masse d'air occupera moins de place au pôle, où il fait plus froid, qu'à l'équateur. Le résultat c'est que, à une altitude donnée, la pression atmosphérique est plus faible dans les régions polaires que dans une zone plus chaude. Ou pour le dire autrement "l'atmosphère est en pente" : Si vous vous déplaciez de l'équateur vers le pôle nord sur une surface de pression constante, vous seriez presque toujours en train de descendre. Par exemple la limite des 0.3 bars est en moyenne autour de 10 kilomètres d'altitude à l'équateur et 8.5 au pôle.

Concrètement, cette dépression a tendance à attirer et retenir l'air. La différence de température fait que les mouvements de l'atmosphère vont globalement de l'équateur vers les pôles (en tourbillonnant de l'ouest vers l'est en raison de la rotation de la terre).

Comme les pôles se réchauffent environ deux fois plus vite que le reste de la planète, le différentiel de température qui est à l'origine de ce mouvement se réduit. L'attraction exercée par les pôles devient plus faible et il est plus facile pour des masses d'air froid de s'en échapper pour venir congeler des régions tempérées.

Perturbation du vortex polaire

Voilà pour l'intuition générale. Si on veut entrer un peu plus dans les détails, il existe principalement deux phénomènes à connaitre.

Le premier est le fameux vortex polaire.

C'est un phénomène qui se produit uniquement en hiver. Pendant la nuit polaire, l'atmosphère située au-dessus du pôle se refroidit rapidement en particulier dans la stratosphère qui est normalement réchauffée par l'énergie des UV absorbés par le couche d'ozone. Ce refroidissement entraine l'apparition d'une zone de basse pression autour de laquelle se forme un immense tourbillon : le vortex polaire.

En temps normal, le vortex polaire empêche l'air froid de s'échapper vers les moyennes latitudes. Mais son fonctionnement peut être perturbé par des courants d'air venus des régions plus chaudes.

Ces perturbations peuvent avoir des effets spectaculaires : inversion du sens de rotation du vortex, augmentation de la température au-dessus du pôle de plusieurs dizaines de degrés en quelques jours, déplacement du vortex vers le sud voire dislocation en systèmes plus petits... Tout cela entrainant souvent des vagues de froid durables aux moyennes latitudes.

Vortex polaire pendant les vagues de froids de 2013-2014
A gauche : vortex polaire normal en novembre 2013 (une zone de basse pression centrée sur le pôle),
à droite : vortex perturbé en janvier 2014 à l'origine de vagues de froid en Asie et en Amérique

Les perturbations du vortex polaire ne sont pas en soi anormales mais elles semblent être devenues plus fréquentes au cours des dernières décennies, expliquant en partie les vagues de froids européennes et asiatiques. Ce phénomène pourrait être lié au recul de la banquise arctique. Cependant l'évolution future de ces perturbations du vortex polaire sous l'effet du dérèglement climatique n'est pas encore claire.

Affaiblissement du jet stream

Les jets streams ("courants de jet" en bon québécois) sont des couloirs de vent situés à une dizaine de kilomètres d'altitude, l'air y circule vers l'est à très grande vitesse. Chaque hémisphère a deux courants principaux : un situé autour de 30° de latitude (jet stream tropical), l'autre autour de 60° (jet stream polaire).

Même si la réalité est beaucoup plus compliquée que ça, ces courants matérialisent la limite entre des régions chaudes, tempérées et froides relativement isolées les unes des autres.

Mais ces limites ne sont ni fixes ni en ligne droite. Sous l'effet du relief et des différences de température au niveau de la surface, le jet stream forme des méandres se déplaçant lentement. C'est particulièrement le cas dans l'hémisphère nord où la disposition des terres émergées favorise ces variations. Il est donc possible pour une même région d'être parfois au sud et parfois au nord du jet stream ce qui va déterminer des conditions météorologiques très différentes.

Jet stream
Animation représentant l'évolution du jet stream polaire au-dessus du continent américain (NASA)

Comme les pôles se réchauffent plus vite que le reste de la planète, le différentiel de température qui met en mouvement les jets streams diminue. Cet affaiblissement a pour effet de rendre les courants plus sensibles aux phénomènes locaux. Pour le dire simplement : la frontière entre les zones froides et tempérée devient plus souple mais aussi moins mobile.

Résultat : il devient plus probable qu'une grande oscillation du jet stream polaire permette à de l'air froid de descendre loin en zone tempérée, ou à l'inverse entraine un épisode de chaleur anormal aux hautes latitudes. Ces périodes extrêmes ont aussi tendance à durer plus longtemps.

Quelle est la morale de l'histoire ?

Est-il possible d'imputer ou non une vague de froid au changement climatique ? Et peut-être s'attendre à des périodes de froids plus extrêmes en dépit d'une tendance au réchauffement ? Ces deux questions sont encore largement en débat : comme c'est souvent le cas au début, l'intensification de la recherche sur ces sujets a eu tendance à faire augmenter les incertitudes plutôt qu'à les réduire... 

Mais comme toujours lorsqu'on parle de gestion des risques, savoir ce qu'on ne sait pas est presque aussi important que savoir. La climatologue canadienne Katharine Hayhoe emploie à ce sujet une expression que je trouve intéressante : "global weirding" (bizarification ? climatique) plutôt que de "global warming" (réchauffement climatique).

En effet, lorsqu'on s'intéresse aux effets du changement climatique au-delà de raisonnements qualitatifs ou de grandes moyennes, on découvre des évolutions complexes et souvent équivoques. Pour ne citer qu'un exemple (sur lequel on reviendra) : saviez-vous que même si le changement climatique fait, globalement, augmenter le niveau de la mer, il existe des endroits où il devrait baisser au cours du XXIe siècle ?

De la même façon, il ne fait guère de doute que la température moyenne en hiver augmente et va continuer à augmenter au cours des prochaines décennies. Cependant la vague de froid qui frappe actuellement le centre des Etats-Unis doit être prise comme un avertissement par ceux qui voudraient en tirer des conclusions trop rapides.

Publié le 16 février 2020 par Thibault Laconde

Où construire de nouveaux réacteurs nucléaires en France ?


Dans une intervention au Creusot, le 8 décembre, Emmanuel Macron a relancé le débat sur la construction de nouveaux réacteurs nucléaires en France et promis une décision au lendemain des prochaines élections générales, en 2023.

Dans cet article, je vous propose de contribuer à cette discussion autour d'une question : compte-tenu des contraintes climatiques, où pourrait-on implanter de nouveaux réacteurs nucléaires en France ?

Problème et hypothèses

On peut reformuler la question de cette façon : on sait que le fonctionnement des centrales nucléaires françaises est d'ores-et-déjà perturbé par les fortes chaleurs et, surtout, les périodes de sécheresse. Avec le changement climatique, on peut s'attendre à ce que ces phénomènes deviennent progressivement plus fréquents et plus sévères. Or un réacteur nucléaire qui serait construit vers 2030 sera certainement en service jusqu'à 2080 voire 2100.

Comment s'assurer que les réacteurs que nous allons éventuellement construire puissent encore fonctionner à la fin du siècle dans un climat qui aura largement dérivé ?

Pour réfléchir à cette question, nous allons prendre les hypothèses suivantes :

  1. On suppose que les limites de température et de débit, fixées par décision de l'ASN et homologuées par arrêté ministériel pour chaque centrale, sont inchangées
  2. Les réacteurs à construire sont de type EPR, avec une puissance électrique de l'ordre de 1600MW
  3. Ils sont construits par paire : chaque site choisi doit pouvoir accueillir 2 réacteurs
  4. Les seules implantations possibles sont sur les où se trouve déjà une centrale nucléaire, c'est-à-dire un des 18 sites suivants : 

Les centrales nucléaires, comme les centrales à charbon, sont équipées de turbines à vapeur qui ont besoin d'une source de refroidissement fiable. Un point clé pour le bon fonctionnement de nos futurs réacteur est l'accès à l'eau. Cette question se présente bien sur différemment selon qu'on se trouve en bord de mer ou sur un fleuve. Aujourd'hui, les deux tiers des réacteurs français sont des réacteurs fluviaux, commençons donc par là.

EPR fluvial = refroidissement en circuit fermé

D'abord l'implantation de nos futurs réacteurs en bord de fleuve imposerait presque automatiquement un choix technologique : l'utilisation d'un refroidissement en circuit fermé.

Pour faire simple, il existe deux façons de refroidir une centrale nucléaire (ou plus généralement une centrale électrique équipée d'une turbine à vapeur) :

  • En circuit ouvert : de l'eau est prélevée dans le fleuve ou la mer, elle est mise en contact avec le circuit d'eau de la turbine dans un condenseur (à peu près l'équivalent d'un radiateur de voiture) puis rejetée. Ce système nécessite de grandes quantité d'eau mais il n'y a pas de consommation : toute l'eau prélevée est rapidement rejetée.
  • En circuit fermé : l'eau utilisée pour le refroidissement est elle-même refroidie au contact de l'air dans un aéroréfrigérant (ces grandes tours hyperboloïdes) puis réutilisée. Ce recyclage de l'eau permet, en gros, de diviser par 20 les prélèvements d'eau mais une partie de l'eau utilisée s'évapore lors du refroidissement, par conséquent la centrale contribue à faire baisser le niveau du fleuve.

La centrale nucléaire de St Alban, en haut, refroidie en circuit ouvert : pas de tour
La centrale de Golfech, en bas, refroidie en circuit fermé : tours

Le problème d'un circuit ouvert, c'est que l'ensemble de la chaleur excédentaire de la centrale est envoyée vers le fleuve. A la louche, la puissance thermique à évacuer est égale à 2 fois la puissance électrique. Pour 2 gros réacteurs, type EPR, cela représente de l'ordre de 6GW qui vont aller réchauffer le fleuve.

L'ampleur exact de ce réchauffement dépend du débit : plus le débit est élevé, plus le fleuve peut "diluer" la chaleur reçue. Pour un fleuve de débit moyen comme la Loire (~300m3/s en moyenne) , le refroidissement de 2 EPR en circuit ouvert entrainerait en moyenne en réchauffement de 5°C. C'est énorme, beaucoup plus que ce qui est actuellement autorisé (1.5°C max pour la Loire).

Parmi les fleuves français, il n'y a guère que le Rhône qui aurait un débit suffisant. Et encore, même à climat constant, des EPR refroidis en circuit ouvert implantés sur le Rhône seraient exposés à des arrêts à répétition comme en rencontrent désormais tous les ans les centrales St Alban ou Bugey, pourtant équipées de réacteurs moins puissants. St Alban, par exemple, a connu 22 épisodes d'indisponibilité cette année précisément parce que le débit du Rhône ne permettait pas de la refroidir dans le respect de ses limites d'échauffement.

Donc de façon réaliste : EPR fluvial = EPR avec un refroidissement en circuit fermé.

Ce n'est pas complètement anodin : pour l'instant, tous les EPR construits ou en construction sont équipés de refroidissement en circuit ouvert. Un circuit fermé représente un surcoût par rapport à ce système.

La problématique du débit 

On cherche donc sur quel(s) fleuve(s) installer une paire de réacteurs de 1600MW refroidis en circuit fermé.

Comme je l'ai dit plus haut, ce système de refroidissement a l'avantage de limiter les rejets thermiques (en général le réchauffement produit par un réacteur est compris entre 0 et 1°C) et les prélèvements d'eau (de l'ordre de 3m3/s). Par contre une partie de l'eau prélevée est évaporée, concrètement le débit du fleuve est plus faible après la centrale.

L'évaluation du débit futur d'un fleuve en fonction du changement climatique est un art compliqué. Mais quelques tendances se dégagent : une aridification liées à l'augmentation de la température donc de l'évaporation et des étiages plus précoces et plus sévères parce que les stocks d'eau solide (neige, glaciers...) se réduisent et fondent plus tôt dans l'année. Ajouté à une demande en eau probablement croissante, tout cela peut contribuer à rendre problématique la consommation d'eau de nos réacteurs.

Pour une paire d'EPR, la consommation d'eau serait probablement de l'ordre de 2m3/s. Ce n'est pas énorme : c'est le débit d'un gros ruisseau. A cela, il faut au moins au début la consommation des réacteurs existants, soit entre 1.3m3/s (Bugey, St Laurent) et 3m3/s (pour Cattenom).

On a donc une consommation de l'ordre de 2 à 5 m3/s. Même sans tenir compte de l'évolution du climat, il ne semble guère réaliste de demander ça à un fleuve dont le débit est régulièrement inférieur à 20-30m3/s. Le critère de débit permet déjà de rayer quelques noms de notre liste :

  • Cattenom : l'étiage (VCN3) de la Moselle pour la station de référence de la centrale est en moyenne de 22m3/s
  • Chooz : 26m3/s pour l'étiage de la Meuse
  • Civaux : 14m3/s pour l'étiage de la Vienne
  • Nogent : 27m3/s pour l'étiage de la Seine

Rhône et sous condition Loire, Garonne et Gironde

La Loire, dont les étiages sont compris entre 54 et 69m3/s, reste une destination envisageable pour nos nouveaux réacteurs. Cependant le débit descend régulièrement en dessous de cet étiage moyen annuel : à Gien, station de référence pour les centrales de Belleville et Dampierre, le débit passe sous les 40m3/s en moyenne tous les 4 ans et sous les 30m3/s en moyenne tous les 10 ans. Avec peu de marges, donc, et une aridification qui devrait être particulièrement marquée dans la région, la Loire semble peu propice à l'installation de nouveaux réacteurs... Mais à voir : une étude plus détaillée serait intéressante.

La Garonne au niveau de Golfech offre une marge un peu supérieure (étiage moyen de 71m3/s). Mais la Garonne a un autre problème : c'est le plus chaud des fleuves français et sa température dépasse déjà régulièrement les 28°C (théoriquement la température maximale autorisée pour les cours d'eau européens), entrainant l'arrêt de la centrale de Golfech. Un problème similaire se pose à Blayais malgré un débit largement suffisant.

Je sais bien que Golfech et Blayais sont aujourd'hui arrêtées pour respecter une limite réglementaire, limite qu'abhorrent les défenseurs de ces centrales, mais la température a aussi un coût technique : prolifération de pathogènes, perte de rendement, surdimensionnement des condenseurs... Ces deux sites ne sont donc probablement pas un excellent choix.

Reste le Rhône. Avec son étiage à 175m3/s à la hauteur de Bugey et 536 au niveau de Cruas, le Rhône est le seul fleuve français à offrir une marge de débit confortable pour l'installation d'une paire d'EPR (à condition qu'ils soient refroidis en circuit fermé). 

Évidemment, avant de commencer à couler le béton il faudra étudier en détail l'impact du changement climatique sur le régime du Rhône et l'évolution des autres besoins en eau, et probablement aussi mieux sécuriser l'approvisionnement auprès de nos voisins suisses.

L'option du bord de mer

Vous me direz peut-être : pourquoi on s'embête ? Si il faut de l'eau, on n'a qu'à construire nos futurs réacteurs là où il y en a toujours : en bord de mer.

Et vous aurez probablement raison. Les réacteurs de bord de mer sont par définition à l'abri de la sécheresse. Ils sont aussi moins exposés à l'aléa que représente la température de l'eau (quoique pas totalement immunisés).

Les réacteurs de bord de mer sont soumis à d'autres risques, en premier lieu l'aggravation du risque d'inondation avec l'élévation du niveau de la mer. Mais si ce phénomène est correctement étudié et anticipé, il existe des moyens relativement simples de protéger une installation peu étendue comme une centrale nucléaire.

En réalité, si on envisage l'installation de nouveaux réacteurs en bord de mer, l'incertitude me parait plus porter sur le réseau : peut-on vraiment alimenter l'ensemble du territoire à partir de 400 kilomètres de côte entre la Normandie et le Pas de Calais ? Je ne sais pas mais je n'ai pas l'impression que la réponse soit un "oui" évident. Pourrait-on s'en sortir en créant d'autres implantations ? Là aussi, beaucoup de points d'interrogation... 

En guise de conclusion 

Même si l'article est un peu long, il ne fait évidemment qu'effleurer la question de la prise en compte du changement climatique dans la conception et l'implantation de futurs réacteurs nucléaires.

Mon objectif était plutôt de montrer que le climat est une contrainte forte sur un futur programme nucléaire. Cette question devra être sérieusement étudiée et les résultats réellement pris en compte dans les décisions.

J'aimerais penser que c'est une évidence mais la discussion sur la politique énergétique est descendu à un tel niveau en France que je peux déjà presque entendre M. le député lambda chuchoter dans les couloirs des ministères qu'il faut absolument lui construire un EPR sur sa rivière à sec tous les deux ans.


Publié le 15 décembre 2020 par Thibault Laconde

Comment l'armée américaine gère ses risques climatiques ?

Dans le courant de l'été, l'armée de terre américaine a publié un document apparemment inattendu : intitulé "Army Climate Resilience Handbook", manuel de résilience climatique de l'armée, il s'agit d'un guide destiné aux planificateurs militaires américains pour les aider à réduire les risques climatiques actuels et futurs.

Dans cet article, je vous propose un survol de ce document de presque 250 pages qui pourrait inspirer les spécialistes de la défense de ce coté-ci de l'Atlantique, mais aussi beaucoup d'entreprises ou d'organismes publics.

 

Les risques climatiques, un sujet ni étrange ni nouveau pour les militaires américains

D'abord, il est peut-être utile de remettre ce guide dans son contexte. La gestion des aléas météorologiques fait évidemment partie intégrante des missions d'une armée mais on peut s'étonner de voir la question du changement climatique abordée aussi ouvertement dans le contexte américain.

En réalité, le changement climatique est clairement identifié comme une menace dans les spécialistes de la défense aux Etats-Unis. Pour ne citer que les jalons principaux :



En parallèle, toute une série d'événements ont illustré la vulnérabilité des installations et des opérations militaires américaines. Là aussi une liste exhaustive serait trop longue mais pour citer quelques cas marquants :

  • en août 2013, le centre d'entrainement de Fort Irving en Californie subit pour plusieurs millions de dollars de dégât suite à un épisode de pluie intense.
  • en juin 2016, 9 soldats meurent dans une inondation à Fort Hood (Texas).
  • en octobre 2018, la base aérienne de Tyndall en Floride est ravagée par l’ouragan Michael, près de 484 bâtiments sont détruits ou irréparables, 11000 personnes et tous les avions en état de voler sont évacués.
  • en mars 2019, un tiers de la base aérienne d'Offut est inondé, 130 bâtiments sont endommagés, le coût de reconstruction estimé à près d'un demi milliard de dollars.
  • en août 2020, la base aérienne de Travis est évacuée sous la menace d'un des incendies qui embrasent la Californie.

Ajoutez à cela, le nombre rapidement croissant des coups de chaleur à l'entrainement, et il n'est vraiment plus surprenant que les armées se préoccupent des risques climatiques actuels et futurs. La marine a d'ailleurs devancé l'armée de terre : la Navy a publié son propre manuel sur l'adaptation et la résilience des installations dès 2017.

Quatre étapes pour identifier et réduire les risques climatiques

Le manuel de l'US Army s'adresse aux planificateurs. L'objectif de leur fournir une demarche pour identifier et réduire les risques climatiques lors de la création ou de la révision de schémas directeurs immobilier, plan eau et énergie, plan de gestion des urgences, etc.

L'approche proposée passe par 4 étapes :

1. Définir le périmètre et les objectifs

Quelle est la situation actuelle ? L'emplacement des installations et leurs rôles ? Les cartographies et les informations topographique dont on dispose ? Les risques déjà connus et les mesures de mitigation existantes ?

Et qu'est-ce que l'on souhaite faire à l'horizon 20-50 ans ? Des extensions ou de nouvelles constructions sont-elles envisagées ? Certaines zones peuvent-elles être réaffectées ? Etc.

2. Identifier les risques climatiques observés et futurs

Cette étape est probablement la plus importante. Elle se décompose en deux sous-parties.

D'abord, on va recenser systématiquement les problèmes déjà observés et les événements climatiques extrêmes passés ainsi que les tendances connues. Ces observations sont synthétisées dans un tableau et des fiches assez brêves dont le manuel fournit plusieurs exemples.

La deuxième partie consiste à évaluer l'évolution des risques sous l'effet du changement climatique. Cette évaluation passe par un outil informatique, l'Army Climate Assessment Tool ou ACAT, qui est certainement l'aspect le plus innovant de la démarche.

Cet outil n'est pas accessible mais un guide utilisateur et quelques captures d'écran sont fournis dans le manuel et permettent de se faire une idée assez précise de son fonctionnement. L'ACAT s'appuie sur le 5e rapport du GIEC et le projet CMIP5 : il exploite des projections à l'horizon 2050 et 2085 réalisées par plusieurs dizaines de modèles américains et internationaux pour deux scénarios d'émissions (RCP8.5 et 4.5). Ces projections sont régionalisée avec une résolution spatiale qui descend à 8km et servent à calculer une trentaine d'indicateurs locaux : aridité, submersion, érosion côtière, cumul maximal de précipitations sur 1 jour et 5 jours, fréquence des épisode de chaleur supérieur à 95°F/35°C, etc. Les sources et les modes de calcul pour chaque indicateur sont détaillés en annexe.

A partir de ces indicateurs, 8 risques sont évalués : sécheresse, submersion marine, inondation, chaleur, consommation d'énergie, incendie, érosion des sols et événements extrêmes. Une valeur est affectée à chacun de ces risques par moyenne pondérée des indicateurs pertinents. Par exemple, le risques "événement extrême" est égal à 1.7 fois la fréquence des ouragans + 1.5 fois les précipitations maximales annuelles sur le bassin versant + 1.4 fois la fréquence des tornades + 1.4 fois la fréquence de vents supérieur à 50 noeuds (93km/h) , etc.

3. Identification des vulnérabilités

En croisant les informations collectées pendant les deux étapes suivantes, les installations et les infrastructures sont classées en fonction du niveau d'exposition (3 niveaux) et des capacités d'adaptation (2 niveaux).

Le manuel fournit des règles précises pour le classement de façon à réduire le degré de subjectivité. Par exemple un bâtiment ne peut être classé dans la catégorie "pas d'exposition" que s'il n'a jamais subi de dommage lors d'évènements climatiques passés et ne peut être considéré "exposition basse" que si les dommage ont été minimaux, dans tous les autres cas il doit être classé en "exposition élevée".

4. Identification des mesures de réduction des risques et de préparation

Un catalogue avec plus d'une soixantaine de mesures possibles est fourni ainsi que quelques "success stories" (le saviez-vous ? on peut économiser pas mal d'eau en lavant les tanks avec des eaux grises).


Qu'en penser ?

Ce qui est sans doute le plus marquant, c'est que ce manuel est finalement assez banal. A l'exception peut-être de la quatrième étape, il pourrait en grande partie être transposé à une activité civile : aucun des indicateurs et des risques évalués n'est propre au secteur de la défense et les outils décrits pourraient être parfaitement adaptés à une entreprise ou une collectivité.
L'effort de pédagogie est par ailleurs sensible avec des explications détaillées sur les différents impacts du changement climatique ou le fonctionnement et les incertitudes des modèles climatiques.
 
En conclusion, ce manuel n'invente rien mais se rattache à une tendance beaucoup plus générale : opérationnaliser la gestions des risques climat avec des méthodologies solides et des outils quantitatifs. Même si beaucoup d'éléments seraient discutables, je pense qu'il faut se réjouir de ce travail et qu'il peut contribuer à faire enfin émerger une approche systématique et rigoureuse de l'adaptation au changement climatique.


Publié le 6 octobre 2020 par Thibault Laconde