Retour sur les inondations thailandaises de 2011

Inondation de l'usine western digital en thailande en 2011

Il y a une dizaine d'années, je travaillais comme analyste au ministère de la défense, aujourd'hui je dirige une jeune entreprise qui cherche à démocratiser l'évaluation des risques climatiques. Comment passe-t-on de l'un à l'autre ? Avec une bonne dose de hasards, de rencontres fortuites et d'opportunités improbables, c'est sur... Pourtant je peux situer un moment d'inflexion dans ma trajectoire, un moment où ont commencé à naitre des interrogations qui, au fil des années, se sont muées en projets puis en réalités.

Et ce moment, c'est l'inondation de la Thaïlande en 2011.

Parmi les nombreux anniversaires qui ponctuent cette année, celui-ci est sans doute assez discret mais j'aimerais tout de même en profiter pour revenir sur cet événement. Et partagez les raisons pour lesquelles il m'a tant marqué.

 

Thaïlande, 2011 : plus de 5 mois d'inondations


En Thailande, 2010 est déjà une année humide, avec des inondation en octobre et novembre. Au début de l'année suivante, les sols sont encore détrempés et 2011 va être l'année la plus pluvieuse enregistrée depuis le début des mesures en 1951. Des précipitations anormalement élevées ont lieu en mars, puis arrive la mousson. A la fin de l'été, le système de retenues d'eau destiné à prévenir les inondations sature. Le déluge se poursuit avec des tempêtes tropicales qui viennent se dissiper dans le nord du pays, et les barrages n'ont d'autre choix que de laisser passer l'eau.

Celle-ci s'écoule vers le bassin du Chao Phraya, dans lequel se trouve la capitale, un tiers des habitants et l'essentiel de l'industrie. C'est une vaste plaine presque complètement plate : le denivelé n'y est en moyenne que de 1.5 mètres par 100 km. Le drainage est donc très mauvais et la situation est encore aggravée par le niveau élévé de la mer dans le Golfe de Thaïlande.

Les cours d'eau débordent et l'eau stagne dans la plaine. L'inondation va durer 158 jours.

Etendue des inondations thailandaises de 2011
Zone inondée mi-octobre 2011
(source : Reliefweb)

C'est cette durée qui est exceptionnelle. Car le temps de retour des débits enregistrés n'est finalement que de 10 à 20 ans et la surface inondée (97.000km²) est très inférieure à celles d'inondations précédentes (par exemple 444.000km² en 1995).

Les dommages directs sont estimés entre 30 et 50 milliards de dollars, soit au moins 10% du produit intérieur brut de l'époque.

Désastre local, conséquences mondiales

Cependant si les inondations thailandaises ont fait autant parler d'elles, c'est avant tout pour leur impact indirect en particulier sur le marché électronique : elles sont responsables d'une pénurie mondiales de disques durs qui a fait augmenter les prix mondiaux et destabilisé le marché informatique pendant près de deux ans.

Pourquoi ?

Entre le 4 et le 20 octobre 2011, 7 zones industrielles sont inondées. Au total ce sont près de 700 usines qui sont submergées ou contraintes de s'arrêter. Selon les endroits, l'eau met un à deux mois pour se retirer. Et, dans de nombreux cas, il faut encore attendre plusieurs mois après la décrue pour que la production reprenne.

Par exemple, dans la zone industrielle de Nava Nakorn qui acceuillait 190 entreprises et 227 usines, l'eau a achevé de se retirer le 8 décembre après 53 jours d'inondation. Cependant au 1er juin 2012, les opérations n'avaient complètement reprises que dans 55 usines, 57 étaient encore à l'arrêt et 8 avaient mis la clé sous la porte, les autres fonctionnaient partiellement. 

Résultat : la production industrielle Thailandaise s'effondre : en novembre 2011, elle est divisée par deux par rapport à l'année précédente. Pour la production de disques durs, la chute est de 77% mais le cas n'est pas isolé : la production de semi-conducteurs tombe à zéro, l'industrie automobile est aussi pratiquement à l'arrêt (-84%), etc.

Ce qui distingue les disques durs, c'est la concentration de la production : à l'époque, 43% de la production mondiale venait de Thailande. L'arrêt brutal de cette production se répercute à l'industrie informatique puis, via l'augmentation du prix des ordinateurs, serveurs, etc., à l'ensemble de l'économie mondiale.

"Incident géographique fortuit" ou impréparation ?

Si les principaux producteurs de disques durs sont tous présents en Thailande et ont tous été affectés, l'histoire n'est pas la même pour tout le monde. Prenez Western Digital, le plus gros producteur mondial avant les inondations : ses revenus baissent de 35% mais son rival, Seagate, voit au contraire ses profits augmenter de 36%...

Comment expliquer une telle différence ? Pas de mystère : la production de Western Digital est située juste au nord de Bangkok, dans la zone industrielle de Bang Pa-in qui a été inondée du 14 octobre au 17 novembre. Le niveau de l'eau dans les installations est monté jusqu'à près de 2 mètres et l'entreprise a du faire intervenir des plongeurs pour sauver les équipements qui pouvaient encore l'être.

Au contraire, la production de Seagate est située à Teparuk, sur les contreforts du plateau de Khorat. Le site n'a été affectée qu'indirectement, via l'inondation de fournisseurs, et la production est revenue à la normale dès la décrue. Les expéditions n'ont baissé que de 8% au quatrième trimestre ce qui a permis à Seagate de profiter de l'augmentation des prix causé par la pénurie.

Grâce à quelques mètres d'élévation supplémentaire, Seagate prend ainis à Western Digital la place de premier producteur mondial de disques durs... "un incident géographique fortuit" écrit à l'époque un expert.

Sauf qu'il n'y a rien de fortuit ici : le risque d'inondation dans le bassin du Chao Phraya n'est pas nouveau, il était facile de prévoir que le site choisi par Western Digital était exposé. Non seulement l'entreprise a mis tous ses oeufs dans un panier bien hasardeux, mais en plus les mesures les plus élementaires pour réduire la vulnérabilité, comme l'utilisation des étages supérieurs pour les activités nécessitant les équipements les plus couteux, n'ont été prises qu'après la catastrophe. La facture de cette imprevoyance est de l'ordre de la centaine de millions de dollars, sans compter les pertes de production.

Ce que les inondations thailandaises disent des risques climatiques

En sens inverse, n'est-ce que par chance que Seagate a choisi un site moins exposé ? Si c'est le cas, tant mieux pour eux. Mais, dans un monde où les catastrophes climatiques deviennent plus fréquentes et plus sévères, peut-on encore laisser de telles décisions au hasard ? 

Ce qu'ont démontré les inondations thaïlandaises de 2011, c'est d'abord un niveau d'impréparation à peine croyable. Même dans des entreprises parmi les plus prospères de la planète, dans un secteur extrêmement compétitif, des risques climatiques bien connus sont négligées, les mesures les plus simples de réduction de la vulnérabilité ne sont pas prises... et ces négligences grossières se paient en pertes de part de marché et en dommage à hauteur de dizaine voire de centaine de millions !

Après un tel événement, inutile d'être particulièrement visionnaire pour comprendre qu'un bon outil de gestion des risques climatiques va devenir un facteur de compétivité pour les entreprises. Non seulement pour éviter des dommages physiques et les coûts associés mais aussi, par exemple, pour accéder aux capitaux et convaincre des investisseurs. 

Mais tout le monde n'a pas d'usine dans une plaine inondable soumise à un climat de mousson. C'est vrai mais ça ne veut pas dire que vous êtes à l'abri. C'est le deuxième enseignement de la crise thaïlandaise : la concentration de la production et la mondialisation des chaines d'approvisionnement font que les risques peuvent se propager très au-delà des zones et des secteurs directement affectées

Mais le changement climatique dans tout ça ? Il est possible qu'il ait rendu plus probable les inondations de 2011 - ce point est débattu et au fond qu'importe : quand votre usine est inondée, savoir si la crue est attribuable ou non au changement climatique n'est pas une grande consolation... La maitrise des risques climatiques est avant tout une démarche pragmatique.

Publié le 12 octobre 2021 par Thibault Laconde

Comment une sécheresse en Amérique du Sud fait augmenter les factures de gaz européennes

Qui est responsable de l'explosion du prix du gaz ? Selon le bord de votre interlocuteur, ce sera la reprise économique, la libéralisation du marché de l'électricité, le recul du nucléaire, la Russie, la Chine... C'est le grand jeu du moment : trouver un coupable qui, surtout, vous confirme dans vos opinions préalables.

Comme ça ne risque pas de s'arrêter avec la menace d'une crise énergétique pendant l'hiver, prêtons-nous à l'exercice : Voyez-vous, le vrai responsable, c'est le climat.

Sécheresse et conséquences

L'Amérique du Sud traverse actuellement une longue sécheresse. Débutée au milieu de l'année 2018, elle a pris cette année des proportions historiques. Les conséquences du manque d'eau se font durement sentir, affectant la population, l'agriculture et l'industrie de la Terre de Feu jusqu'en Amérique Centrale.
Or la région très dépendante de l'hydroélectricité : selon l'Agence Internationale de l'Energie, 55% l’électricité sud-américaine est hydraulique. Au Brésil, première économie du continent, on monte à 63%, et 70% en Équateur, 75% en Colombie, presque 100% au Paraguay...


Humidité des sols en Amérique du Sud fin octobre 2020 (Source : NASA)


Avec la sécheresse qui déprime la production hydroélectrique et l'hiver austral qui booste la demande, la situation électrique en Amérique du Sud est très tendue depuis quelques mois. Certains pays rationnent l'électricité, d'autres remettent en service des centrales fossiles.

Résultat : pendant l'été (qui est l'hiver là-bas), l'Amérique du Sud est devenue un véritable aspirateur à gaz. En juillet, le Brésil et l'Argentine ont importé plus de gaz liquéfié que la Chine. Les méthaniers au départ du Golfe du Mexique, qui en temps normal seraient venus compléter les stocks européens, sont allés vendre leurs chargement à meilleurs prix chez des sud-américains au bord du black-out.

Déjà-vu

La crise que traverse l'Amérique du Sud rappelle la sécheresse des années 2000 en Afrique de l'Est. Là aussi des pays très dépendants de l'hydroélectricité avait été contraints de se tourner vers des productions fossiles, certains en payent encore le prix avec des contrats à long-terme négociés en urgence.

Les deux cas soulignent la vulnérabilité de l'hydroélectricité face à la variabilité pluriannuelle des précipitations. La différence, c'est le poids économique de la région et la mondialisation récente du marché du gaz qui donne à cette sécheresse régionale un impact mondial.

export de gaz naturel liquéfié depuis les Etats-Unis
Le développement des exportations de GNL, notamment depuis les Etats-Unis, a entrainé la mondialisation rapide du marché du gaz (source : EIA).

C'est peut-être la principale nouveauté dans cette histoire. Il y a peu, les flux de gaz étaient encore très majoritairement prisonniers d'infrastructures physiques : les gazoducs vont du point A au point B et c'est tout.

Avec le développement de la production de gaz non-conventionnels, les Etats-Unis se sont retrouvés avec un exédent à exporter. Comme il n'était pas vraiment possible de construire un gazoduc vers les acheteurs potentiels en Asie ou en Europe, ils ont encouragé le commerce du gaz liquéfié. En l'espace d'une dizaine d'années, le marché du gaz est devenu flexible et mondial : du moment qu'il existe un terminal pour l'acceuillir, un méthanier peut être redirigé vers un acheteur mieux-disant.

Qu'en retenir ?

Je ne prétends pas que la sécheresse sud-américaine est la seule explication à l'envolée du prix du gaz en Europe. Il faut évidemment attendre d'avoir des données plus précises pour faire la part des différents facteurs. Il n'empêche qu'il est déjà possible d'en tirer deux conclusions :

D'abord, évaluer l'évolution des précipitations en moyenne mensuelle ou annuelle, n'est pas suffisant pour saisir toutes les conséquences du changement climatique. L'évaluation des risques climatiques passe aussi par l'étude de la variabilité basse fréquence (sur plusieurs années voire décennies).

Ensuite, c'est une nouvelle fois la preuve qu'il n'est pas nécessaire d'être directement touché par un aléa climatique pour en ressentir les conséquences.
Le climat, c'est comme comme les pandémies : on n'est vraiment à l'abri que quand tout le monde est à l'abri.

Publié le 1er octobre 2021 par Thibault Laconde

Energie, climat & developpement : 10 ans !

Il y a précisément 10 ans, le 11 septembre 2011, je postais mon premier article sur ce blog.

A l'époque, j'avais été recruté par Action contre la Faim comme expert technique pour les questions d'énergie. Je m'étais vite aperçu qu'internet manquait de ressources francophones sur ce sujet. Pour ne prendre qu'un seul exemple, il y avait des opinions et des tribunes sur le solaire autant que s'il en pleuvait mais plus personne si vous cherchiez comment concevoir et mettre en place une installation photovoltaïque. Ca été la première vie de ce blog : des fiches pratiques et des didactiels destinés à de petits projets d'amélioration des conditions de vie. D'où son nom : Energie et Développement.

Depuis près de 400 autres articles ont suivis, au gré de mes propres évolutions : plus d'économie et de sensibilisation lorsque j'ai pris la responsabilité de la démarche de développement durable d'Action contre la Faim, un net tournant vers le climat au moment de la COP21, une plongée dans les discussions techniques sur le mix électrique français à l'occasion de la campagne de 2017 et de la PPE, et, depuis la création de Callendar, une quasi-obsession pour les risques climatiques... 

Malgré ces évolutions, j'ai essayé de garder l'esprit initial : offrir une information de qualité et accessible sur des sujets où elle n'existe pas encore. Et vous avez été nombreux à adhérer à cette démarche, même si le blog traite de sujets de niche, il a accumulé plus de 4 millions de visiteurs !

 Qui dit anniversaire dit retrospective...

J'ai hésité à vous proposer les posts les plus lus, les scoops, ou les articles qui ont eu une influence discernable sur les discussions énergétiques et climatiques...

Mais finalement ce ne sera rien de tout ça, je veux juste vous proposer 5 articles que je trouve intéressants sur le fond ou sur la forme et qui méritent, à mon avis, d'être relus :

J'espère que vous prendrez plaisir à découvrir ou redécouvrir ces articles, autant que j'ai pris plaisir à les écrire. Je vous remercie pour votre fidélité, vos commentaires et nos échange tout au long de ces années, je ne sais pas ce que l'avenir réserve mais j'espère que nous pourrons conserver ce lien !

Publié le 10 septembre 2021 par Thibault Laconde

Canicule, sécheresse... pourquoi le parc nucléaire espagnol est-il peu sensible aux aléas climatiques ?

A l'occasion de la canicule qui touche l'Espagne, j'aimerais aborder une question qui revient de temps en temps : Pourquoi les indisponibilités causées par la chaleur sont-elles moins fréquentes sur le parc nucléaire espagnol sur que son homologue français ?

Les réacteurs nucléaires espagnols sont-ils immunisés contre la chaleur ?

Bien que beaucoup plus réduit que le notre, l'Espagne a un parc nucléaire conséquent : 7 réacteurs qui assurent environ un cinquième de la production d'électricité.
Parmi ces 7 réacteurs, un seul (Vandellos 2) est situé en bord de mer :

Dépendant de fleuves (ou d'un lac dans le cas d'Almaraz) sous un climat plus chaud et plus aride que le notre, on pourrait s'attendre à ce que la production nucléaire espagnole soit régulièrement perturbée par la chaleur ou la sécheresse.
Ce n'est pas le cas : d'après les données de l'Agence Internationale de l'Energie Atomique, seuls 3 réacteurs espagnols actuellement en service ont connu des arrêts "pour causes externes liées à l'environnement" : Asco 1 et 2 (2 heures/an en moyenne) et Cofrentes (1h/an).
 
En comparaison, la centrale française de Golfech, 350km au nord, est environ 10 fois plus touchée : 22 et 13h/an en moyenne pour les réacteurs 1 et 2 respectivement.
 
Pourquoi une telle différence ? 
 

Réglementation thermique des fleuves espagnols

La différence de performance entre le parc nucléaire espagnol et son homologue français peut s'expliquer par deux facteurs : le premier réglementaire, le deuxième technique.
 
Coté réglementation, les centrales nucléaires espagnoles, comme les françaises, sont soumises à des limites de rejets thermiques. En cas de forte chaleur ou de débit insuffisant, ces limites peuvent obliger les centrales à réduire leurs production.
 
Les réglementations des rejets thermiques applicables des deux coté des Pyrénées sont cousines, elles dérivent toutes les deux d'un même texte : la directive européenne 78/659/CEE (version codifiée de 2006).
En principe, cette directive fixe la température maximum des grands fleuves de plaine à 28°C et limite l'échauffement causé par les utilisations industrielles de l'eau à 3°C. Cependant l'Espagne utilise une dérogation prévue par la directive : en cas de "conditions géographiques ou climatologiques particulières" la température des fleuves peut aller jusqu'à 30°C.
 
La température en aval des centrales nucléaires espagnoles est donc limitée à 30°C, contre 28°C par exemple pour Golfech.
Cette plus grande tolérance réduit mécaniquement la vulnérabilité des centrales nucléaires espagnoles face aux canicules. Mais la dérogation n'a pas d'effet sur le risque d'indisponibilité lié aux sécheresses, qui dépend lui de l'échauffement autorisé.
 
Or sur le parc nucléaire français, ce sont les périodes de faible débit qui expliquent la grande majorité des indisponibilités climatiques :
Indisponibilités climatique sur le parc nucléaire français
Etude des causes d'indisponibilités climatiques sur le parc nucléaire français, réalisée par Callendar pour RTE

Un parc nucléaire techniquement mieux adapté à l'aridité

 
L'explication réglementaire est donc au mieux partielle. Des facteurs techniques expliquent aussi que les centrales nucléaires espagnoles tiennent mieux les aléas climatiques que leurs homologues françaises : une taille plus petite et des systèmes de refroidissement adaptés.
 
Toute choses égales par ailleurs le besoin de refroidissement d'une centrale est proportionnel à sa puissance. Dans ce domaine il y a une grande différence entre les parc nucléaire français et espagnol : la plus grande centrale espagnole (Asco, 2000MW) est à peine plus puissante que la plus petite centrale française (St Laurent, 1800MW) !
La puissance des centrales nucléaires espagnoles est comprise entre 1100 et 2100MW, celle des centrales françaises entre 1800 et 5400MW. Rien de miraculeux, donc, à ce que les besoins de refroidissements soient plus faciles à gérer en Espagne...
 
Du côté des systèmes de refroidissement, sans revenir une nouvelle fois sur tous les détails, il existe deux grandes options :
  1. Refroidissement en circuit ouvert : je prends l'eau, je refroidis le réacteur, je rejette l'eau.
    Il faut beaucoup d'eau, l'eau rejetée est chaude mais tout ce qui est prélevé est remis dans le fleuve.
  2. Refroidissement en circuit fermé : je prends l'eau, je refroidis le réacteur, je refroidis l'eau dans une tour aéroréfrigérante, et je recommence jusqu'à ce que la concentration en minéraux et en impuretés m'oblige à purger le système.
    Il faut beaucoup moins d'eau, les rejets sont moins importants mais une partie de l'eau prélevée est évaporée, la centrale contribue donc à réduire le débit de la rivière utilisée.

Les centrales refroidies en circuit ouvert sont sensibles aux sécheresses en raison de leurs besoins élevés en eau et de leurs rejets thermiques (il faut un débit important pour les diluer efficacement). C'est la raison pour laquelle chez nous St Alban et Bugey sont souvent HS en fin d'été.
 
En Espagne, les deux seules centrales refroidies purement en circuits ouverts sont Vandellos et Almaraz. Elles ne sont pas vraiment menacées par la sécheresse : la première est située sur la Méditerranée, la seconde sur un lac artificiel de 35 millions de mètres cubes créé pour elle.
 
"Purement" en circuit ouvert ? Oui, parce qu'il y a aussi Asco...
 

Le cas unique de la centrale d'Asco

Asco est, pour autant que je sache, la seule centrale nucléaire au monde dont le système de refroidissement a été modifié après la mise en service pour réduire ses rejets thermiques. Cette modification lui donne un système hybride, entre le circuit ouvert et le circuit fermé.

La centrale d'Asco est conçue à l'origine avec un refroidissement en circuit ouvert. Lors de son inauguration en 1986, elle n'a pas de tour aéroréfrigérante :

Mais en dépit de trois retenues d'eau en amont (Mequinensa, Riba-roja et Flix) dont les lâchers d'eau permettent de réguler le cours de l'Ebre, l'échauffement du fleuve par la centrale se révèle vite trop élevé en période de faible débit. La Confederación Hidrográfica del Ebro, qui gère le bassin versant, demande donc la modification de l'installation.
Une tour aéroréfrigérante de 160 mètres est construite et entre en service en 1995. Mais cet ajout se fait sans modification de la centrale elle-même : la tour ne sert qu'à refroidir l'eau avant son rejet dans le fleuve, en sortie d'un système de refroidissement qui reste circuit ouvert.
 
construction de la tour aéroréfrigérante de la centrale nucléaire d'Asco
Construction de la tour aéroréfrigérante d'Asco entre 1993 et 1995
Cette solution permet de limiter les rejets thermiques - et montre le sérieux des espagnols à ce sujet. Cependant on garde les besoins en eau élevés du circuit ouvert en ajoutant les pertes normalement associées au circuit fermé.
La même modification a néanmoins été envisagée pour la centrale d'Almaraz après la canicule de 2003.
 

Une source d'inspiration pour l'industrie nucléaire française ?

Lorsqu'on discute de l'adaptation du système électrique français au changement climatique, deux noms reviennent presque toujours : Palo Verde, dans le désert Arizonien, et Barakah, sur les bords du Golfe Persique. Sans discuter des mérites de ces deux centrales, elles se situent dans des zones climatique sans rapport avec ce que l'on peut rencontrer en France. En réalité, ces exemples éludent la discussion plus qu'ils ne l'alimentent.
 
Les centrales espagnoles me paraissent bien plus intéressantes. Le climat de notre voisin du sud est probablement une bonne approximation de celui que connaitra notre pays d'ici quelques décennies. Il est possible que notre parc nucléaire doive un jour fonctionner dans des conditions de températures et d'aridité proches de celles de l'Espagne, alors autant essayer de profiter de cette expérience.
Voici quelques unes des idées que l'on pourrait éventuellement importer d'Espagne afin d'améliorer la résilience climatique de notre parc nucléaire actuel et futur :
  • Une certaine souplesse sur la réglementation des rejets thermiques : le régime français a déjà été largement flexibilisé par la révision des arrêtés de rejets depuis 2003, mais peut-être pourrait-on déjà se poser la question de l'utilisation du seuil dérogatoire de 30°C, par exemple pour Golfech. Est-ce que ce serait techniquement et écologiquement faisable ?
  • Une préférence pour de petites centrales : je pense qu'il y a une question inconfortable ici tant le gigantisme semble imprégner l'industrie nucléaire française. Mais, par exemple, est-ce qu'un petit réacteur, parce qu'il a des besoins de refroidissement modérés, ne serait pas plus adapté à un monde qui se réchauffe qu'un monstre comme l'EPR ?
  • La capacité et la volonté de faire évoluer les installations si les conditions hydrologiques ou climatiques l'exigent : il s'agit d'un point crucial pour assurer la pérénité d'une installation à longue durée de vie face à des évolutions climatiques que l'on ne peut pas entièrement prévoir. Cela ne s'improvie pas : a minima faire évoluer un projet nécessite des réserves financières et foncières.

Publié le 14 août 2021 par Thibault Laconde

Allez-vous mourir de chaud ?

Evaluation du risque d'hyperthermie pendant la vague de chaleur de juin 2021 aux Etats-Unis et au Canada

Nous n'en sommes qu'à la mi-juillet et les vagues de chaleur frappent déjà l'hémisphère nord comme un boxeur sourd à la 7e reprise : 50°C le 29 juin au Canada, 50°C le 10 juillet au Maroc, 55°C le même jour dans la vallée de la mort, 50°C le 20 juillet en Turquie... En comparaison les quelques 35°C attendus dans le sud de la France cette semaine semblent presque rafraichissants... A chacune de ces canicules, une question revient : les températures atteintes peuvent-elles être mortelles ?

Théoriquement, on peut évidemment mourir de chaud mais cela reste aujourd'hui très rare. Dans cet article, je vais essayer de vous expliquer pourquoi, à partir de quelles températures le risque devient significatif et ce à quoi on peut s'attendre pour les prochaines décennies.

Comment est régulée la température du corps humain ?


Il peut y avoir beaucoup de raisons de mourir pendant une vague de chaleur, en fait presque toutes les causes médicales de mortalités augmentent en période de canicule : maladies cardiovasculaires, respiratoires... mais aussi maladies infectieuses ou endocriniennes. On se noie aussi plus, à moins que l'on meure au contraire de deshydratation. Dans le passé, les périodes de chaleur étaient aussi propices à de grandes épidémies, notamment de dysentrie.

Mais imaginons que vous soyez en bonne santé, que vous ayez accès à de l'eau potable et que vous ne vous baigniez pas en armure, comment la chaleur pourrait-elle vous tuer ?

Victime de la chaleur pendant la canicule de 1911
Pour survivre, vous devez maintenir votre corps aux alentours de 37°C. Comme il fait rarement 37°C à l'extérieur, vous êtes fourni avec chauffage central intégré en série : votre métabolisme produit une puissance de l'ordre de 100W, à peu près autant qu'un petit sèche-serviette.

Ce luxe vient avec ses contraintes : une fois que votre température a atteint les 37°C désirés, vous devez trouver une façon de vous débarrassez de vos 100W. Sinon, première loi de la thermodynamique oblige, vous allez gagner en énergie et continuer à vous réchauffer.

Pour réguler sa température, votre corps s'y prend essentiellement de deux façons : par conduction et par évaporation.

La conduction est une affaire simple : vous vous trouvez en général dans de l'air plus froid que vous, vous allez le réchauffer et il va vous refroidir. L'équilibre se fait naturellement autour de 20°C. Si la température ambiante baisse, vous allez commencer à céder trop d'énergie. Il faudra vous isoler de l'air trop froid et mettre un pull...

Au contraire, si la température augmente le contact de l'air ne sera plus suffisant pour évacuer vos 100W. Vous pourrez un temps vous en sortir en exposant plus votre corps ou en accélérant la circulation de l'air (avec un ventilateur, par exemple). Si ce n'est pas suffisant, le deuxième mécanisme va se mettre en route : vous allez transpirer.

Ce n'est pas la transpiration qui vous rafraichit, c'est son évaporation : comme il faut une grande quantité d'énergie pour faire passer de l'eau de l'état liquide à l'état gazeux, une évaporation au contact de votre peau va absorber votre chaleur excédentaire. Cela marche que cette eau vienne de votre transpiration ou de l'extérieur, par exemple d'un brumisateur. Même si c'était votre seul mécanisme de régulation, il suffit de faire s'évaporer 2.6 millilitres par minute (soit un volume équivalent à un pot de yaourt par heure) pour évacuer vos 100W.

Pourquoi peut-on mourir de chaud ?

C'est ce mécanisme qui vous permet de survivre à des températures dépassant 35°C. Mais celui-ci aussi a sa limite : l'humidité relative.

L'humidité relative est le rapport, à une température donnée, entre la quantité d'eau-vapeur dans l'air et la quantité maximale que l'air peut contenir. Si l'humidité relative est élevée, l'air est presque saturé d'eau et l'évaporation devient plus difficile. Si au contraire elle est basse, l'air est très sec et l'eau s'évapore rapidement.

Imaginons que vous vous trouviez dans un environnement où la température est de 35°C et l'humidité relative de 100%. Que se passerait-il ?

La température de l'air ne vous permet pas de vous refroidir par conduction et, l'air étant déjà saturé d'eau, votre transpiration ne peut donc pas s'évaporer. Vous n'avez plus aucun moyen de vous débarraser de vos 100W. Si vous ne trouvez pas rapidement une solution pour vous rafraichir, cette énergie va s'accumuler et la température de votre corps augmentera d'un degré à peu près toutes les 45 minutes. Au bout de 4 heures environ, elle atteindra 42°C, seuil au-delà duquel le corps subit des dommages irreversibles.

Au programme : deshydradation, épuisement, crampes de chaleur, syncope et, finalement, hyperthermie (ou "coup de chaleur") et mort. Et ce n'est pas une exagération : dans des conditions réelles, où il est possible de rafraichir la victime et d'appeler des secours, un coup de chaleur est mortel dans 15 à 25% des cas.

Comment évaluer les risques liés à la chaleur ?

On le voit sur cet exemple, il ne suffit pas de regarder un thermomètre pour savoir si la chaleur peut être mortelle pour un individu en bonne santé. Le risque apparait lorsque la température de l'air approche de celle du corps, mais si l'humidité relative est basse il est possible de supporter des températures bien supérieures grâce à l'évaporation de la transpiration.

C'est ici qu'entre en scène un indicateur dont vous avez certainement entendu parler : la température de thermomètre mouillé, ou température humide. C'est une mesure qui combine température de l'air et humidité relative et permet de savoir facilement à quel point la combinaison des deux est dangereuse : si vous êtes exposé à une température humide proche de la température de votre corps (disons 35°C), vous allez mourir en quelques heures, même si vous êtes en bonne santé, au repos, à l'ombre et hydraté.

Tout ça est très bien, on sait enfin à partir de quand la chaleur devient mortelle mais, me direz-vous, comment mesurer la température de thermomètre mouillé ? Hé bien, comme son nom l'indique, cette température est celle qui serait mesurée par un thermomètre dont la base est enveloppée dans un coton humidifié avec de l'eau à température ambiante.

Thermomètre mouillé
Thermomètre mouillé datant des années 1930 (à droite) : l'ampoule dans laquelle trempe la mèche doit être remplie d'eau à température ambiante. A gauche se trouve un thermomètre ordinaire, le dispositif au centre permet d'évaluer l'humidité relative de l'air à partir des deux températures (Musée de l'histoire des sciences d'Oxford).
Evidemment, cette façon de mesurer n'est pas très pratique. De nos jours, la température de thermomètre mouillé est plutôt calculée à partir de la température ordinaire et de l'humidité relative. Mais autant le dire tout de suite : ce n'est pas un calcul que vous allez faire de tête...

Pour briller en société, voici la formule de Stull qui donne une approximation valable dans la plupart des conditions usuelles en fonction de la température ordinaire en degrès celsius (T) et de l'humidité relative en pourcents (φ) :

calcul de la température de thermomètre mouillé par la formule de Stull

A défaut d'apprendre cette formule par coeur, vous pouvez retenir que la température humide est toujours inférieure à la température ordinaire et décroit avec le taux d'humidité. A titre d'exemple, si la température est de 30°C, la température humide est d'environ :

  • 27.1°C à 80% d'humidité relative,
  • 24.0°C à 60%,
  • 20.5°C à 40%,
  • 15.9°C à 20%.

Notez que la température humide à de nombreuses autres applications dans l'agriculture ou l'industrie. Par exemple, elle va déterminer l'efficacité du refroidissement dans une tour aéroréfrigérante (comme celles utilisées par certaines centrales électriques).

Et demain ? Impact du changement climatique sur le risque d'hyperthermie

Où que l'on soit sur la planète, il est aujourd'hui rarissime que la température humide dépasse 35°C. Seules une poignées de stations météorologiques en Asie du Sud, au sud-ouest de l'Amérique du nord et sur les côtes moyen-orientales ont déjà relevé ces conditions, généralement pendant une période n'excédant pas une heure ou deux.

Les décès par hyperthermie existent mais ils font souvent intervenir d'autres facteurs qui augmentent la quantité de chaleur que le corps doit évacuer, par exemple une exposition prolongée au soleil ou une activité physique.

température de thermomètre mouillé la plus haute mesurée
Température humide maximale entre 1979 et 2017 (source)

Il est cependant impossible de ne pas se poser la question : avec le réchauffement du climat, comment va évoluer la température humide ? Est-il possible que des régions dépassent régulièrement 35°C, le seuil au-delà duquel même avec toutes les mesures de prévention possibles (bonne santé, ombre, hydratation, repos...) un être humain meurt en quelques heures, devenant en pratique inhabitables ?

Plusieurs études récentes se sont penchées sur cette question, et la réponse est probablement oui. Les modèles climatiques prévoient l'apparition de vagues de chaleur avec des températures humides supérieures à 35°C dans la seconde moitié du siècle, dans le Golfe Persique, en Asie du Sud et en Chine. Il est possible que la limite soit dépassée plus tôt localement, notamment sur les côtes.

Cependant ces évaluation mettent aussi en lumière un effet de seuil très marqué selon le scénario adopté pour la concentration en gaz à effet de serre. Dit autrement, nos émissions actuelles décident si, dans 50 ans, le monde connaitra ponctuellement et localement des vagues de chaleur mortelles ou si des régions entières deviendront inhabitables.

 Publié le 21 juillet 2021 par Thibault Laconde

Vague de chaleur en Amérique de l'Ouest : quels impacts matériels ?

Pendant la dernière semaine de juin, une canicule de proportions historiques s'est abattue sur le nord-ouest du continent américain. Dans cet article un peu particulier, je cherche à recencer les dommages physiques causés par cet épisode. Cette liste est forcément non-exhaustive, si vous constatez que des impacts manquent n'hésitez pas à me l'indiquer en commentaire.

Pourquoi lister les dommages causés par la canicule ?

La vague de chaleur américaine de juin 2021 s'inscrit dans une liste déjà longue d'épisodes de chaleur très improbables au regard des températures historiques - en Sibérie en 2020, en Europe en 2019, au Japon en 2018, pour ne citer que quelques exemples. Et il ne fait guère de doute qu'elle en annonce d'autres tout aussi extraordinaires : il existe beaucoup d'incertitudes sur les conséquences du changement climatique mais l'apparition de canicules de plus en plus intenses n'en fait pas partie.

Parmi les évenements climatiques extrêmes, les vagues de chaleur occupent une place un peu particulière : elles nous touchent tous directement, mais en même temps leurs conséquences sont difficilement perceptible. Au contraire, vous avez peu de chance d'être frappé directement par une innondation ou un ouragan et pourtant vous pouvez certainement visualiser sans problème les dommages causés par ces phénomènes.

En appartée, je pense que si tant de médias ont des difficultés à illustrer leurs articles sur les vagues de chaleur, s'obstinant à mettre des photos de familles à la plage ou d'enfants mangeant une glace pour évoquer un phénomène meurtrier, c'est en partie à cause de cette spécificité des canicules. La grande majorité de la population est touchée modérément, occultant les vraies victimes et des dégats déjà peu visibles.

Dans cet article je cherche à lister autant d'exemples que possible de dommages matériels causés par la vague de chaleur. L'objectif est de les rendre un peu plus visible et peut-être de contribuer à la compréhension des impacts de ces événements.

Impacts matériels de la vague de chaleur américaine de juin 2021

Pour l'instant, il s'agit un peu d'une liste à la Prévert mais j'essaierai de la complèter et de l'organiser progressivement.

Electricité et énergie

  • Des coupures d'électricité ont touché jusqu'à 15000 foyers dans l'état de Washington du 28 au 30 juin. Ces délestages ont apparemment été causés par une saturation du réseau de distribution, pas par un manque de production (1).
  • Dans la région de Portland jusqu'à 6000 foyers ont été coupés d'électricité (1), ces coupures sont probablement liées à des défautts causé par l'augmentation de la température et de la consommation (2).
  • Des coupures ponctuelles ont eu lieu ailleurs en raison de défauts causés par la chaleur (dont l'explosion d'un transformateur dans la région de Seattle) ou de contact entre les lignes et la végétation (1).
  • Quelques centaines de foyers ont été coupés en Colombie Britannique (1, 2).
  • L'augmentation de la consommation a entrainé une forte hausse du prix du gaz et de l'électricité : jusqu'à 334$/MWh pour cette dernière (1).

Routes et transports

  • De nombreuses routes ont été endommagées par la chaleur. Au moins 6 cas de soulèvement se sont produit à Seattle (1), certaines réparations nécessitent une quinzaine de jour de travaux (2). Plusieurs autoroutes ont été touchés : Interstate 5 (3), State Route 544 (4), Highway 195 (5)
  • A Portland, le trafic du métro a été totalement interrompu du 27 au 29 juin (1)
  • La dilation des pièces métalliques peut empecher les ponts mobiles de fonctionner. A Seattle et Tacoma, des ponts ont du être refroidis par aspersion (1, 2).
  • La chaleur à un impact sur la charge utile des avions et sur le personnel. La compagne Alaska Air a subi de nombreux retard et quelques annulations de vols (1, 2). La chaleur peut rendre certains petits aérodromes innacessibles (3).

Entreprises, activités économiques

  • De nombreuses pannes de réfrigération ont été signalées dans la restauration et la distribution alimentaire (1, 2). Ces pannes ont entrainé des pertes de marchandises et contraint certains restaurants et commerce à fermer (3), d'autres ont fait le choix de cesser leur activité pendant la vague de chaleur pour préserver matériel et salariés (4).
  • Dans au moins deux cas, des salariés ont cessé le travail pour protester contre la chaleur dans les locaux (1). Certains ont été licenciés (2).
  • Un entrepots Amazon de l'état de Washington a suspendu ses opérations le 28 en raison d'une température trop élevée et de défauts de ventilation (1).

Agriculture

  • La chaleur peut endommager les fruits et perturbe les récoltes (1).

Impacts indirects

  • La fonte accélérée de la neige a entrainé un risque d'inondation et des évacuations au Canada (1).
  • En Colombie Britannique, 106 incendies étaient actifs le 2 juillet dont celui qui a détruit le village Lytton (1). Des routes et des installations hydroélectriques ont été endommagées (2).
  • Les conditions météorologiques ont entrainé des pics de pollution (1, 2).

Elévation du niveau de la mer : comment s'adapter à un futur incertain ?

"L’Antarctique va-t-il atteindre un point de non-retour ?" s'interrogeait Le Monde il y a quelques jours. Citant une publication récente, l'article expliquait que la fonte des glaces du pôle sud pourrait s'accélérer autour de 2060 entrainant une élévation rapide du niveau de la mer. Il notait cependant de "fortes incertitudes" : "si l’accélération de la fonte des glaciers [...] ne fait aucun doute, les scientifiques débattent encore de son rythme [...] et surtout des conséquences pour la montée du niveau des mers".

Comme souvent lorsqu'on parle du changement climatique et de ses effets concrets, cet article peut donner l'impression qu'on ne sait en fait pas vraiment ce qui va arriver. Il m'a donné envie de faire un point sur le sujet : quelles sont projections d'élévation du niveau de la mer, leurs incertitudes et comment peut-on quand même les utiliser pour essayer de s’adapter ?

L'élévation du niveau de la mer pour les nuls

Le niveau moyen de la mer s'élève sous l'effet de deux phénomènes :

  1. La masse d'eau des océans augmente, parce que l'eau présente sur les continents rejoint l'océan, principalement en raison de la fonte d'eau stockée sous forme de glace.
  2. La masse volumique de l'eau baisse : il n'y a pas plus d'eau, elle prend juste plus de place parce qu'elle est plus chaude (dilatation thermique).

Si vous voulez gagner des points au scrabble : dans le premier cas, on parle de variations barystatiques, dans le second de variations thermostériques.

A ces deux phénomènes s'ajoutent tout un tas de subtilités régionales qui peuvent entrainer une élévation locale du niveau de la mer très différente de l'élévation moyenne. Par endroit, le niveau pourrait même baisser... Mais laissons ça pour un autre jour.

Origine des incertitudes

Les variations thermostériques ne sont pas trop difficiles à évaluer : à la louche, le volume de l'eau augmente de 0.026% par degré, donc dans une baignoire d'un kilomètre de profondeur, 1°C de plus fait augmenter le niveau moyen de 26 cm.

Pour les variations barystatiques, c'est plus compliqué : même en supposant qu'on connaisse la température, on ne sait pas trop comment et à quel rythme les inlandsis, c'est-à-dire les glaciers continentaux de l'Antarctique et du Groenland, vont fondre.

L'incertitude est particulièrement forte pour l'Antarctique. La raison : une partie du continent est en fait située en dessous le niveau de la mer et n'émerge que parce qu'elle est recouverte de centaine de mètres de glace :

Une partie du continent antarctique est située sous le niveau de la mer
Relief du continent Antarctique sans glace

Au lieu d'en éroder lentement les marges, l'eau relativement chaude des océans pourrait donc pénétrer sous la calotte glaciaire déclenchant une fonte beaucoup plus rapide.

En 2016, De Conto et son équipe (les auteurs de l'article cité par Le Monde) ont proposé une modélisation de ce phénomène. Ils évaluaient que l'Antarctique pourrait contribuer à l'élévation du niveau moyen de la mer jusqu'à 1m en 2100, 15m en 2500.

 Évidemment une telle contribution aurait un impact très fort sur le niveau moyen de la mer et sur le risque d'innondation côtière. Par exemple, si on compare les projections d'élévation du niveau de la mer à Dieppe avant et après la prise en compte d'une instabilité possible de l'Antarctique :

Elévation du niveau de la mer avec et sans instabilité de l'antarctique
Elévation du niveau de la mer à Dieppe comparé à 2000 (dérivé de Kopp & al.)

D'une manière générale, ce modèle indique une augmentation beaucoup plus rapide du niveau des océans à partir du milieu du XXIe siècle. De ce point de vue, la publication cité par Le Monde n'apporte rien de vraiment nouveau.

S'adapter dans un monde incertain

Le problème, c'est que ce modèle ne fait pas consensus. Toutes choses égales par ailleurs, la littérature scientifique propose donc deux trajectoires d'élévation du niveau de la mer très différentes sans être en mesure, à ce stade, de nous dire laquelle est la plus vraisemblable.

Alors qu'est-ce qu'on fait ?

Le premier instinct pourrait être de s'assoir par terre et d'attendre sagement que la communauté scientifique se décide.
Problème :
On perd un temps précieux. Déplacer des infrastructures, construire ou relever des centaines de kilomètres de digues, voire abandonner et reloger... tout ça ne se fait pas sur un claquement de doigt.
Par ailleurs,
s'il est possible qu'un consensus se dessine progressivement, il ne sera jamais complet : il y aura toujours des incertitudes.

Une stratégie alternative serait de jouer la sécurité d'abord et de se baser sur les projections les plus pessimistes.
Problème : la marche est très haute. A Dieppe, la projection médiane pour un scénario d'émissions raisonnablement optimiste (RCP4.5) et sans instabilité de l'Antarctique est de + 61 cm en 2100 comparé à 2000. En mettant tout au pire (émissions élevées, instabilité antarctique), la borne supérieure de l'intervalle de confiance à 95% est de +258 cm. Plus de 4 fois plus !
Le scénario du pire peut se justifier dans certains cas (par exemple pour des infrastructures critiques), mais l'utiliser pour toutes les villes côtières épuiserait rapidement et peut-être en vain nos maigres capacités d'adaptation. 

Une idée intermédiaire consisterait à chercher un point d'équilibre improbable, juste milieu des projections scientifiques et/ou de la volonté politique.
Problème : Il n'y a pas de prix de consolation. Soit votre digue est assez haute, soit elle ne l'est pas...

"Prediction first" vs. "decision first"

On voit bien qu'aucune de ces stratégies n'est vraiment satisfaisante. Il y a une bonne raison à cela. Même si les trois approches semblent radicalement différentes, elles partagent en fait un postulat très fort : il faut une hypothèse d'élévation du niveau de la mer avant de prendre des décisions.

Cette approche, dite "prediction first" ou "les prévisions d'abord", se recontre sur beaucoup d'autres sujets mais elle est toujours mal adaptée face à un phénomène qui est incertain. Dans cette situation, il est souvent plus facile de réfléchir dans l'autre sens, en "decision first" : commencer par se demander quelles sont les actions possibles, les organiser en scénarios d'adaptation cohérents à long-terme puis tester leurs résultats pour les différentes projections.

C'est l'idée notamment de la méthode DAPP ("dynamic adaptive policy pathways") adoptée pour faire face à l'élévation du niveau de la mer aux Pays-Bas, une région particulièrement vulnérable. Cette méthode aboutit à des "chemins" d'adaptation permettant de répondre aux différents avenirs possibles à mesure qu'ils se concrétisent avec à des embranchements et des points de bascule prédéfinis, souvent représentés sous forme de carte de métro :

Visualisation démarche d'adaptation climatique DAPP

En conclusion, les données climatiques sont nécessaires dans une démarche d'adaptation mais rarement suffisantes. La compréhension de leurs incertitudes et la diffusion de bonnes pratiques pour la gérer sont au moins aussi importantes.

Lorsque ces conditions sont réunies, les incertitudes des projections ne sont pas nécessairement un obstacle à une démarche d'adaptation efficace... 

 Publié le 12 mai 2021 par Thibault Laconde