Futurs énergétiques 2050 : comment RTE a évalué l'impact du climat sur le système électrique ?

Futurs énergétiques 2050, chapitre 8 "climat et système électrique"

Si vous vous intéressez à l'énergie et que vous ne vivez pas dans une grotte, vous savez que RTE a présenté lundi 25 octobre des scénarios pour l'évolution du mix électrique français à l'horizon 2050. Ces scénarios sont appuyés sur un impressionnant travail de concertation et de modélisation et une attention particulière a été apportée à un sujet qui m'est cher : l'impact du changement climatique sur la production et la consommation d'électricité.
Ce volet de prospective climatique est une des innovations majeures du rapport : je crois que c'est la première fois en France que ce sujet est porté à un tel niveau institutionnel avec une telle profondeur. On peut espérer qu'il établisse un précédent, et peut-être serve de modèle pour la conception de futures politiques industrielles adaptées au changement climatique. 

Cette nouveauté a suscité pas mal de commentaires et d'interrogations... et à juste titre : si on vous dit ce qu'il va se passer dans 30 ans, il est légitime de demander comment fonctionne la boule de cristal ! Dans cet article, je vous propose d'expliquer les grandes lignes de la méthodologie utilisée par RTE, je reviendrais ensuite plus précisément sur quelques unes des questions que j'ai vu passées.

 

Objectif et principe général

L'objectif des "Futurs énergétiques 2050" en général, et de l'étude des effets du changement climatique en particulier, est de tester des scénarios d'évolution du système électrique français et de vérifier qu'ils permettent d'assurer l'équilibre du réseau dans les mêmes conditions qu'aujourd'hui.

Dans les mêmes conditions qu'aujourd'hui, cela signifie notamment que la durée moyenne annuelle de délestage pour des raisons d'équilibre offre-demande est inférieure à deux heures

Comment évaluer la durée moyenne annuelle de défaillance ? Pour le passé, ça semble simple : on observe la durée des défaillances sur un nombre d'années assez grand, puis on fait la moyenne. Mais pour 2050 ? Hé bien, le principe est le même sauf que la simulation remplace l'observation : on simule le fonctionnement du système électrique sur un nombre d'années assez grand, on évalue pour chacune d'elles la durée des défaillainces, puis on fait la moyenne.

En bref, cette simulation fonctionne de la façon suivante : 

  1. On part d'une simulation de la météo tenant compte des effets du changement climatique,
  2. A partir de celles-ci, on détermine l'état de la production (production solaire et éolienne, productible hydroélectrique, disponibilité des production thermiques et nucléaires) et de la consommation (besoin de chauffage et de refroidissement, notamment),
  3. Avec ces données, un modèle du système électrique évalue l'équibre offre-demande.
Simulation du système électrique en fonction du climat
Source : rapport RTE, p. 332

Aux côtés des hypothèses sur la composition du parc de production et sur l'évolution des usages, les simulations météo sont donc l'une des 3 grandes données d'entrée de la modélisation. Mais d'où viennent-elles ? 


Sur quelles données climatiques s'est appuyé RTE ?

Pour que la moyenne des résultats soit représentative, il faut que la simulation porte sur un nombre d'années suffisamment grand. RTE a choisi d'en prendre 200, c'est-à-dire qu'il faut 200 versions possibles de la météo de l'année 2050.
 
Ces simulations météo ont été réalisées par le modèle ARPEGE-Climat de Météo France pour 3 climats différents :
  • un climat de référence correspondant aux conditions des années 2000
  • un climat 2050 dans un scénario d'émissions modérées (scénario RCP4.5 du GIEC)
  • un climat 2050 dans un scenario d'émissions très élevées (RCP8.5)
Le résultat est, pour chacun de ces climats, un jeu de données de 200 années de température, vent, nébulosité, débit, etc. avec un pas de temps horaire et une résolution spatiale de l'ordre de 20km, à l'échelle européenne. Prenez un moment pour contempler le volume de données que cela représente...
 
Le grand nombre de simulations est une originalité de l'étude : la plupart des travaux de prospective climatique s'appuient sur 30 années dans un climat évolutif centré sur l'horizon de temps souhaité. En français, cela signifie que pour étudier le climat de 2050, on va prendre une projection du climat pour le XXIe siècle et ne garder que les 30 années comprises entre 2036 et 2065. L'idée est que, même si les concentrations en gaz à effet de serre évoluent sur 30 ans, ces années restent représentatives de ce que pourrait être 2050.

Pour obtenir 200 années représentatives de 2050, il n'est évidemment pas possible de prendre toute la période entre 1951 et 2150... Il faut bloquer un modèle climatique sur le climat de l'année étudiée puis le faire tourner jusqu'à obtenir autant de versions possibles que souhaité. C'est ce qu'on appelle une simulation "à climat constant"
 

De la météo à la production

A ce stade, on a une simulation de la météo. C'est déjà bien pour dégrossir le problème, par exemple évaluer l'évolution de la ressource solaire ou éolienne à l'échelle régionale. Mais si on veut vraiment quantifier l'impact sur le système électrique, il faut calculer précisément la production et la consommation en fonction des paramètres météo. Dans son rapport RTE a appelé ces modèles "fonctions de transfert".

Ces fonctions de transfert sont évidemment propres à chaque filière : il a fallu les mettre au point pour l'éolien et le solaire, l'hydroélectricité (avec ou sans barrage) et la disponibilité du parc nucléaire et thermique.

Cette définition des relations entre la météo et la production a probablement représenté la majorité du travail effectué sur le climat au cours de l'étude. Il serait trop long de revenir en détail sur chaque filière mais, pour y avoir participé avec Callendar, je peux vous donner une idée du cheminement suivi pour le nucléaire.

 

L'élaboration de la fonction de transfert du nucléaire

Pour le nucléaire, il y a d'abord eu un important travail pour comprendre les indisponibilités actuelles du parc. Il a pris la forme d'une étude bibliographiques et surtout d'une collecte de données sur les indisponibilités causées par la météo au cours des dernières années d'une part, et sur les conditions de températures et de débit auxquelles les centrales ont été soumises dans le passé, d'autre part. Les connaissances acquises ont ensuite été croisées pour identifier les causes exactes de chacune des indisponibilités climatiques rapportées par EDF depuis 2015.

Si vous suivez régulièrement ce blog, vous êtes déjà familier avec le résultat : ce travail a montré que la grande majorité des indisponibilités climatiques sur le parc nucléaire surviennent lorsqu'une centrale fluviale ne peut plus respecter les limites de rejets thermiques qui lui sont fixées en raison d'un débit trop bas, d'une température de l'eau trop élevée ou de la conjonction des deux. 

La prévision des indisponibilités futures s'appuie donc sur un modèle capable de prévoir le dépassement de ces seuils reglementaires en fonction du débit et de la température de l'eau. Comme toutes ont des caractéristiques techniques propres et une réglementation unique, la modélisation est adaptée à chaque centrale. 

Ces modèles ont été validés sur les données historiques collectées au début du projet. Mais leur utilisation avec les simulations climatiques de Météo France a posé un problème : celles-ci ne contiennent que la température de l'air, pas la température de l'eau... Il a donc fallu d'abord créer une nouvelle couche de modélisation, liant la température de l'air à la température des fleuves au niveau des centrales.

Une fois cet obstacle levé, les deux modèles ont été assemblés et testés à nouveau sur la simulation du climat des années 2000 fournie par Météo France. Il s'agit bien d'une simulation du climat historique pas d'observations, on ne s'attend donc pas à retrouver exactement les indisponibilités du passé, mais si les modèles fonctionnent les indisponibilités simulées doivent être comparables, notamment en termes de fréquence, aux indisponibilités observées. Suite à ce test un dernier ajustement a été effectué : une correction de biais pour tenir compte des influences humaines sur le débit.

Ce rapide aperçu n'est qu'un simplification mais je pense qu'il illustre déjà la méticulosité et la rigueur du travail effectué. Il faut encore ajouter que, comme l'ensemble du processus, il a été soumis à la concertation et à une revue par les experts venues d'autres entreprises et d'ONG.


Questions-réponses

Après la publication du chapitre consacré au climat, plusieurs spécialistes de l'énergie se sont interrogés à haute voix sur les réseaux sociaux. Pour conclure cet article, je vous propose d'essayer de répondre à quelques unes de ces questions. Si vous en avez d'autres, n'hésitez pas à les poser en commentaire.
 
(Je précise que, comme le reste de l'article, ces réponses n'engagent que ma propre compréhension du rapport, elles n'ont absolument pas la prétention d'être représentatives de positions de RTE.)
 

Est-ce que la puissance maximale indisponible à un moment donné est évaluée ?

Lorsqu'on cherche à quantifier les indisponibilités climatiques, on parle souvent des pertes de productions annuelles. C'est, à mon avis, une mauvaise métrique surtout du point de vue de l'équilibre offre-demande : celui-ci est beaucoup plus sensible à la puissance maximale qui peut être indisponible à un instant donné.
 
Et, oui, heureusement, ça a été étudié. Le résultat suggère une augmentation assez marquée, et bien sur d'autant plus forte que le scénario de réchauffement est pessimiste et la part du nucléaire importante :
RTE en tire la conclusion que qu'il faut "trouver des leviers pour minimiser la sensibilité du  parc de réacteurs nucléaires au changement climatique, notamment  en  étudiant le positionnement des futurs réacteurs sur les fleuves peu contraints en matière de débits". Je n'aurais pas dit mieux...

Qu'en est-il des autres causes d'indisponibilités ?

Au-delà des dépassements de limites réglementaires, de nombreux phénomènes plus ou moins directement liés à la météo peuvent entrainer l'indisponibilité d'un réacteur nucléaire. Le colmatage des entrées d'eau en période de crue, par exemple, est un autre phénomène qui, selon certaines études, pourrait devenir plus fréquent avec le changement climatique. 
Cependant, l'étude bibliographique et les données disponibles ont montré qu'il s'agit de problèmes beaucoup moins courants : typiquement, ils se produisent une fois toutes les quelques années, contre plusieurs dizaines de fois par an pour les indisponibilités liées à la sécheresse ou à la chaleur. Ces sujets sont sans aucun doute importants pour l'exploitation et la sureté des installations mais probablement pas critiques pour l'équilibre offre/demande. Ils n'ont donc pas été pris en compte dans les simulations.
 

Quid de l'élévation du niveau de la mer ? des événements météorologiques extrêmes ? du refroidissement du reacteur et de l'enceinte ?

Il faut bien comprendre que l'étude de RTE porte sur l'équilibre du réseau. La méthodologie, les phénomènes à modéliser, les modèles et les métriques ont été choisis pour cet objectif et ils ne sont pas adaptés pour évaluer l'impact du changement climatique sur les installations nucléaires en général.
 
Par exemple, une simulation de Monte Carlo sur 200 années signifie que l'on a une probabilité assez élevée de ne pas détecter un évènement dont le temps de retour est supérieur à 100 ans. C'est très insuffisant pour une étude de sureté nucléaire, qui se base en général sur des temps de retour de 10.000 ans.
Il ne faut donc pas chercher à tirer des conclusions sur la sureté nucléaire de l'étude de RTE, ni dans un sens ni dans l'autre.
 

Est-ce que l'évolution des usages de l'eau ont été pris en compte ?

On en a encore eu des exemples récemment, l'accès à la ressource en eau est d'ores-et-déjà source de tensions. A l'horizon 2050, l'augmentation de la population et l'aridification de certaines parties du territoire pourraient rendre la consommation d'eau du parc nucléaire moins acceptable et, par exemple, entrainer des limites réglementaires de prélèvements et de rejets plus strictes pour les centrales fluviales.
Cette éventualité n'a pas été prise en compte. Les modèles sont construits sur l'hypothèse que la réglementation reste stable.

En sens inverse, il n'est pas impossible que la réglementation soit assouplie pour suivre l'évolution de la réalité climatique, par exemple en relevant la température maximale autorisée en aval des centrales. Ce cas n'a pas non plus été étudié.

Certains résultats semblent incohérents

Par exemple, l'étude conclut que les pertes de productions seront plus importantes à Golfech qu'à Civaux alors que le débit de la Vienne est très inférieur à celui de la Garonne. Ou elle n'identifie pas d'impact pour Chinon alors que les autres centrales de la Loire subissent des pertes.

Comme je l'ai expliqué plus haut, la simulation des indisponibilités est réalisée à l'échelle de chaque centrale en tenant compte de ses spécificités techniques, réglementaires et géographiques ce qui peut rendre les résultats difficilement comparables : Golfech bénéficie effectivement d'un débit beaucoup plus élevé que Civaux mais c'est la température de la Garonne qui cause ses arrêts. Chinon a une réglementation comparable aux autres centrales situées en amont de la Loire mais sa position en aval de la confluence du Cher lui offre des conditions hydrologiques plus favorables. Etc...
 
Publié le 12 novembre 2021 par Thibault Laconde

Retour sur les inondations thailandaises de 2011

Inondation de l'usine western digital en thailande en 2011

Il y a une dizaine d'années, je travaillais comme analyste au ministère de la défense, aujourd'hui je dirige une jeune entreprise qui cherche à démocratiser l'évaluation des risques climatiques. Comment passe-t-on de l'un à l'autre ? Avec une bonne dose de hasards, de rencontres fortuites et d'opportunités improbables, c'est sur... Pourtant je peux situer un moment d'inflexion dans ma trajectoire, un moment où ont commencé à naitre des interrogations qui, au fil des années, se sont muées en projets puis en réalités.

Et ce moment, c'est l'inondation de la Thaïlande en 2011.

Parmi les nombreux anniversaires qui ponctuent cette année, celui-ci est sans doute assez discret mais j'aimerais tout de même en profiter pour revenir sur cet événement. Et partagez les raisons pour lesquelles il m'a tant marqué.

 

Thaïlande, 2011 : plus de 5 mois d'inondations


En Thailande, 2010 est déjà une année humide, avec des inondation en octobre et novembre. Au début de l'année suivante, les sols sont encore détrempés et 2011 va être l'année la plus pluvieuse enregistrée depuis le début des mesures en 1951. Des précipitations anormalement élevées ont lieu en mars, puis arrive la mousson. A la fin de l'été, le système de retenues d'eau destiné à prévenir les inondations sature. Le déluge se poursuit avec des tempêtes tropicales qui viennent se dissiper dans le nord du pays, et les barrages n'ont d'autre choix que de laisser passer l'eau.

Celle-ci s'écoule vers le bassin du Chao Phraya, dans lequel se trouve la capitale, un tiers des habitants et l'essentiel de l'industrie. C'est une vaste plaine presque complètement plate : le denivelé n'y est en moyenne que de 1.5 mètres par 100 km. Le drainage est donc très mauvais et la situation est encore aggravée par le niveau élévé de la mer dans le Golfe de Thaïlande.

Les cours d'eau débordent et l'eau stagne dans la plaine. L'inondation va durer 158 jours.

Etendue des inondations thailandaises de 2011
Zone inondée mi-octobre 2011
(source : Reliefweb)

C'est cette durée qui est exceptionnelle. Car le temps de retour des débits enregistrés n'est finalement que de 10 à 20 ans et la surface inondée (97.000km²) est très inférieure à celles d'inondations précédentes (par exemple 444.000km² en 1995).

Les dommages directs sont estimés entre 30 et 50 milliards de dollars, soit au moins 10% du produit intérieur brut de l'époque.

Désastre local, conséquences mondiales

Cependant si les inondations thailandaises ont fait autant parler d'elles, c'est avant tout pour leur impact indirect en particulier sur le marché électronique : elles sont responsables d'une pénurie mondiales de disques durs qui a fait augmenter les prix mondiaux et destabilisé le marché informatique pendant près de deux ans.

Pourquoi ?

Entre le 4 et le 20 octobre 2011, 7 zones industrielles sont inondées. Au total ce sont près de 700 usines qui sont submergées ou contraintes de s'arrêter. Selon les endroits, l'eau met un à deux mois pour se retirer. Et, dans de nombreux cas, il faut encore attendre plusieurs mois après la décrue pour que la production reprenne.

Par exemple, dans la zone industrielle de Nava Nakorn qui acceuillait 190 entreprises et 227 usines, l'eau a achevé de se retirer le 8 décembre après 53 jours d'inondation. Cependant au 1er juin 2012, les opérations n'avaient complètement reprises que dans 55 usines, 57 étaient encore à l'arrêt et 8 avaient mis la clé sous la porte, les autres fonctionnaient partiellement. 

Résultat : la production industrielle Thailandaise s'effondre : en novembre 2011, elle est divisée par deux par rapport à l'année précédente. Pour la production de disques durs, la chute est de 77% mais le cas n'est pas isolé : la production de semi-conducteurs tombe à zéro, l'industrie automobile est aussi pratiquement à l'arrêt (-84%), etc.

Ce qui distingue les disques durs, c'est la concentration de la production : à l'époque, 43% de la production mondiale venait de Thailande. L'arrêt brutal de cette production se répercute à l'industrie informatique puis, via l'augmentation du prix des ordinateurs, serveurs, etc., à l'ensemble de l'économie mondiale.

"Incident géographique fortuit" ou impréparation ?

Si les principaux producteurs de disques durs sont tous présents en Thailande et ont tous été affectés, l'histoire n'est pas la même pour tout le monde. Prenez Western Digital, le plus gros producteur mondial avant les inondations : ses revenus baissent de 35% mais son rival, Seagate, voit au contraire ses profits augmenter de 36%...

Comment expliquer une telle différence ? Pas de mystère : la production de Western Digital est située juste au nord de Bangkok, dans la zone industrielle de Bang Pa-in qui a été inondée du 14 octobre au 17 novembre. Le niveau de l'eau dans les installations est monté jusqu'à près de 2 mètres et l'entreprise a du faire intervenir des plongeurs pour sauver les équipements qui pouvaient encore l'être.

Au contraire, la production de Seagate est située à Teparuk, sur les contreforts du plateau de Khorat. Le site n'a été affectée qu'indirectement, via l'inondation de fournisseurs, et la production est revenue à la normale dès la décrue. Les expéditions n'ont baissé que de 8% au quatrième trimestre ce qui a permis à Seagate de profiter de l'augmentation des prix causé par la pénurie.

Grâce à quelques mètres d'élévation supplémentaire, Seagate prend ainis à Western Digital la place de premier producteur mondial de disques durs... "un incident géographique fortuit" écrit à l'époque un expert.

Sauf qu'il n'y a rien de fortuit ici : le risque d'inondation dans le bassin du Chao Phraya n'est pas nouveau, il était facile de prévoir que le site choisi par Western Digital était exposé. Non seulement l'entreprise a mis tous ses oeufs dans un panier bien hasardeux, mais en plus les mesures les plus élementaires pour réduire la vulnérabilité, comme l'utilisation des étages supérieurs pour les activités nécessitant les équipements les plus couteux, n'ont été prises qu'après la catastrophe. La facture de cette imprevoyance est de l'ordre de la centaine de millions de dollars, sans compter les pertes de production.

Ce que les inondations thailandaises disent des risques climatiques

En sens inverse, n'est-ce que par chance que Seagate a choisi un site moins exposé ? Si c'est le cas, tant mieux pour eux. Mais, dans un monde où les catastrophes climatiques deviennent plus fréquentes et plus sévères, peut-on encore laisser de telles décisions au hasard ? 

Ce qu'ont démontré les inondations thaïlandaises de 2011, c'est d'abord un niveau d'impréparation à peine croyable. Même dans des entreprises parmi les plus prospères de la planète, dans un secteur extrêmement compétitif, des risques climatiques bien connus sont négligées, les mesures les plus simples de réduction de la vulnérabilité ne sont pas prises... et ces négligences grossières se paient en pertes de part de marché et en dommage à hauteur de dizaine voire de centaine de millions !

Après un tel événement, inutile d'être particulièrement visionnaire pour comprendre qu'un bon outil de gestion des risques climatiques va devenir un facteur de compétivité pour les entreprises. Non seulement pour éviter des dommages physiques et les coûts associés mais aussi, par exemple, pour accéder aux capitaux et convaincre des investisseurs. 

Mais tout le monde n'a pas d'usine dans une plaine inondable soumise à un climat de mousson. C'est vrai mais ça ne veut pas dire que vous êtes à l'abri. C'est le deuxième enseignement de la crise thaïlandaise : la concentration de la production et la mondialisation des chaines d'approvisionnement font que les risques peuvent se propager très au-delà des zones et des secteurs directement affectées

Mais le changement climatique dans tout ça ? Il est possible qu'il ait rendu plus probable les inondations de 2011 - ce point est débattu et au fond qu'importe : quand votre usine est inondée, savoir si la crue est attribuable ou non au changement climatique n'est pas une grande consolation... La maitrise des risques climatiques est avant tout une démarche pragmatique.

Publié le 12 octobre 2021 par Thibault Laconde

Comment une sécheresse en Amérique du Sud fait augmenter les factures de gaz européennes

Qui est responsable de l'explosion du prix du gaz ? Selon le bord de votre interlocuteur, ce sera la reprise économique, la libéralisation du marché de l'électricité, le recul du nucléaire, la Russie, la Chine... C'est le grand jeu du moment : trouver un coupable qui, surtout, vous confirme dans vos opinions préalables.

Comme ça ne risque pas de s'arrêter avec la menace d'une crise énergétique pendant l'hiver, prêtons-nous à l'exercice : Voyez-vous, le vrai responsable, c'est le climat.

Sécheresse et conséquences

L'Amérique du Sud traverse actuellement une longue sécheresse. Débutée au milieu de l'année 2018, elle a pris cette année des proportions historiques. Les conséquences du manque d'eau se font durement sentir, affectant la population, l'agriculture et l'industrie de la Terre de Feu jusqu'en Amérique Centrale.
Or la région très dépendante de l'hydroélectricité : selon l'Agence Internationale de l'Energie, 55% l’électricité sud-américaine est hydraulique. Au Brésil, première économie du continent, on monte à 63%, et 70% en Équateur, 75% en Colombie, presque 100% au Paraguay...


Humidité des sols en Amérique du Sud fin octobre 2020 (Source : NASA)


Avec la sécheresse qui déprime la production hydroélectrique et l'hiver austral qui booste la demande, la situation électrique en Amérique du Sud est très tendue depuis quelques mois. Certains pays rationnent l'électricité, d'autres remettent en service des centrales fossiles.

Résultat : pendant l'été (qui est l'hiver là-bas), l'Amérique du Sud est devenue un véritable aspirateur à gaz. En juillet, le Brésil et l'Argentine ont importé plus de gaz liquéfié que la Chine. Les méthaniers au départ du Golfe du Mexique, qui en temps normal seraient venus compléter les stocks européens, sont allés vendre leurs chargement à meilleurs prix chez des sud-américains au bord du black-out.

Déjà-vu

La crise que traverse l'Amérique du Sud rappelle la sécheresse des années 2000 en Afrique de l'Est. Là aussi des pays très dépendants de l'hydroélectricité avait été contraints de se tourner vers des productions fossiles, certains en payent encore le prix avec des contrats à long-terme négociés en urgence.

Les deux cas soulignent la vulnérabilité de l'hydroélectricité face à la variabilité pluriannuelle des précipitations. La différence, c'est le poids économique de la région et la mondialisation récente du marché du gaz qui donne à cette sécheresse régionale un impact mondial.

export de gaz naturel liquéfié depuis les Etats-Unis
Le développement des exportations de GNL, notamment depuis les Etats-Unis, a entrainé la mondialisation rapide du marché du gaz (source : EIA).

C'est peut-être la principale nouveauté dans cette histoire. Il y a peu, les flux de gaz étaient encore très majoritairement prisonniers d'infrastructures physiques : les gazoducs vont du point A au point B et c'est tout.

Avec le développement de la production de gaz non-conventionnels, les Etats-Unis se sont retrouvés avec un exédent à exporter. Comme il n'était pas vraiment possible de construire un gazoduc vers les acheteurs potentiels en Asie ou en Europe, ils ont encouragé le commerce du gaz liquéfié. En l'espace d'une dizaine d'années, le marché du gaz est devenu flexible et mondial : du moment qu'il existe un terminal pour l'acceuillir, un méthanier peut être redirigé vers un acheteur mieux-disant.

Qu'en retenir ?

Je ne prétends pas que la sécheresse sud-américaine est la seule explication à l'envolée du prix du gaz en Europe. Il faut évidemment attendre d'avoir des données plus précises pour faire la part des différents facteurs. Il n'empêche qu'il est déjà possible d'en tirer deux conclusions :

D'abord, évaluer l'évolution des précipitations en moyenne mensuelle ou annuelle, n'est pas suffisant pour saisir toutes les conséquences du changement climatique. L'évaluation des risques climatiques passe aussi par l'étude de la variabilité basse fréquence (sur plusieurs années voire décennies).

Ensuite, c'est une nouvelle fois la preuve qu'il n'est pas nécessaire d'être directement touché par un aléa climatique pour en ressentir les conséquences.
Le climat, c'est comme comme les pandémies : on n'est vraiment à l'abri que quand tout le monde est à l'abri.

Publié le 1er octobre 2021 par Thibault Laconde

Energie, climat & developpement : 10 ans !

Il y a précisément 10 ans, le 11 septembre 2011, je postais mon premier article sur ce blog.

A l'époque, j'avais été recruté par Action contre la Faim comme expert technique pour les questions d'énergie. Je m'étais vite aperçu qu'internet manquait de ressources francophones sur ce sujet. Pour ne prendre qu'un seul exemple, il y avait des opinions et des tribunes sur le solaire autant que s'il en pleuvait mais plus personne si vous cherchiez comment concevoir et mettre en place une installation photovoltaïque. Ca été la première vie de ce blog : des fiches pratiques et des didactiels destinés à de petits projets d'amélioration des conditions de vie. D'où son nom : Energie et Développement.

Depuis près de 400 autres articles ont suivis, au gré de mes propres évolutions : plus d'économie et de sensibilisation lorsque j'ai pris la responsabilité de la démarche de développement durable d'Action contre la Faim, un net tournant vers le climat au moment de la COP21, une plongée dans les discussions techniques sur le mix électrique français à l'occasion de la campagne de 2017 et de la PPE, et, depuis la création de Callendar, une quasi-obsession pour les risques climatiques... 

Malgré ces évolutions, j'ai essayé de garder l'esprit initial : offrir une information de qualité et accessible sur des sujets où elle n'existe pas encore. Et vous avez été nombreux à adhérer à cette démarche, même si le blog traite de sujets de niche, il a accumulé plus de 4 millions de visiteurs !

 Qui dit anniversaire dit retrospective...

J'ai hésité à vous proposer les posts les plus lus, les scoops, ou les articles qui ont eu une influence discernable sur les discussions énergétiques et climatiques...

Mais finalement ce ne sera rien de tout ça, je veux juste vous proposer 5 articles que je trouve intéressants sur le fond ou sur la forme et qui méritent, à mon avis, d'être relus :

J'espère que vous prendrez plaisir à découvrir ou redécouvrir ces articles, autant que j'ai pris plaisir à les écrire. Je vous remercie pour votre fidélité, vos commentaires et nos échange tout au long de ces années, je ne sais pas ce que l'avenir réserve mais j'espère que nous pourrons conserver ce lien !

Publié le 10 septembre 2021 par Thibault Laconde

Canicule, sécheresse... pourquoi le parc nucléaire espagnol est-il peu sensible aux aléas climatiques ?

A l'occasion de la canicule qui touche l'Espagne, j'aimerais aborder une question qui revient de temps en temps : Pourquoi les indisponibilités causées par la chaleur sont-elles moins fréquentes sur le parc nucléaire espagnol sur que son homologue français ?

Les réacteurs nucléaires espagnols sont-ils immunisés contre la chaleur ?

Bien que beaucoup plus réduit que le notre, l'Espagne a un parc nucléaire conséquent : 7 réacteurs qui assurent environ un cinquième de la production d'électricité.
Parmi ces 7 réacteurs, un seul (Vandellos 2) est situé en bord de mer :

Dépendant de fleuves (ou d'un lac dans le cas d'Almaraz) sous un climat plus chaud et plus aride que le notre, on pourrait s'attendre à ce que la production nucléaire espagnole soit régulièrement perturbée par la chaleur ou la sécheresse.
Ce n'est pas le cas : d'après les données de l'Agence Internationale de l'Energie Atomique, seuls 3 réacteurs espagnols actuellement en service ont connu des arrêts "pour causes externes liées à l'environnement" : Asco 1 et 2 (2 heures/an en moyenne) et Cofrentes (1h/an).
 
En comparaison, la centrale française de Golfech, 350km au nord, est environ 10 fois plus touchée : 22 et 13h/an en moyenne pour les réacteurs 1 et 2 respectivement.
 
Pourquoi une telle différence ? 
 

Réglementation thermique des fleuves espagnols

La différence de performance entre le parc nucléaire espagnol et son homologue français peut s'expliquer par deux facteurs : le premier réglementaire, le deuxième technique.
 
Coté réglementation, les centrales nucléaires espagnoles, comme les françaises, sont soumises à des limites de rejets thermiques. En cas de forte chaleur ou de débit insuffisant, ces limites peuvent obliger les centrales à réduire leurs production.
 
Les réglementations des rejets thermiques applicables des deux coté des Pyrénées sont cousines, elles dérivent toutes les deux d'un même texte : la directive européenne 78/659/CEE (version codifiée de 2006).
En principe, cette directive fixe la température maximum des grands fleuves de plaine à 28°C et limite l'échauffement causé par les utilisations industrielles de l'eau à 3°C. Cependant l'Espagne utilise une dérogation prévue par la directive : en cas de "conditions géographiques ou climatologiques particulières" la température des fleuves peut aller jusqu'à 30°C.
 
La température en aval des centrales nucléaires espagnoles est donc limitée à 30°C, contre 28°C par exemple pour Golfech.
Cette plus grande tolérance réduit mécaniquement la vulnérabilité des centrales nucléaires espagnoles face aux canicules. Mais la dérogation n'a pas d'effet sur le risque d'indisponibilité lié aux sécheresses, qui dépend lui de l'échauffement autorisé.
 
Or sur le parc nucléaire français, ce sont les périodes de faible débit qui expliquent la grande majorité des indisponibilités climatiques :
Indisponibilités climatique sur le parc nucléaire français
Etude des causes d'indisponibilités climatiques sur le parc nucléaire français, réalisée par Callendar pour RTE

Un parc nucléaire techniquement mieux adapté à l'aridité

 
L'explication réglementaire est donc au mieux partielle. Des facteurs techniques expliquent aussi que les centrales nucléaires espagnoles tiennent mieux les aléas climatiques que leurs homologues françaises : une taille plus petite et des systèmes de refroidissement adaptés.
 
Toute choses égales par ailleurs le besoin de refroidissement d'une centrale est proportionnel à sa puissance. Dans ce domaine il y a une grande différence entre les parc nucléaire français et espagnol : la plus grande centrale espagnole (Asco, 2000MW) est à peine plus puissante que la plus petite centrale française (St Laurent, 1800MW) !
La puissance des centrales nucléaires espagnoles est comprise entre 1100 et 2100MW, celle des centrales françaises entre 1800 et 5400MW. Rien de miraculeux, donc, à ce que les besoins de refroidissements soient plus faciles à gérer en Espagne...
 
Du côté des systèmes de refroidissement, sans revenir une nouvelle fois sur tous les détails, il existe deux grandes options :
  1. Refroidissement en circuit ouvert : je prends l'eau, je refroidis le réacteur, je rejette l'eau.
    Il faut beaucoup d'eau, l'eau rejetée est chaude mais tout ce qui est prélevé est remis dans le fleuve.
  2. Refroidissement en circuit fermé : je prends l'eau, je refroidis le réacteur, je refroidis l'eau dans une tour aéroréfrigérante, et je recommence jusqu'à ce que la concentration en minéraux et en impuretés m'oblige à purger le système.
    Il faut beaucoup moins d'eau, les rejets sont moins importants mais une partie de l'eau prélevée est évaporée, la centrale contribue donc à réduire le débit de la rivière utilisée.

Les centrales refroidies en circuit ouvert sont sensibles aux sécheresses en raison de leurs besoins élevés en eau et de leurs rejets thermiques (il faut un débit important pour les diluer efficacement). C'est la raison pour laquelle chez nous St Alban et Bugey sont souvent HS en fin d'été.
 
En Espagne, les deux seules centrales refroidies purement en circuits ouverts sont Vandellos et Almaraz. Elles ne sont pas vraiment menacées par la sécheresse : la première est située sur la Méditerranée, la seconde sur un lac artificiel de 35 millions de mètres cubes créé pour elle.
 
"Purement" en circuit ouvert ? Oui, parce qu'il y a aussi Asco...
 

Le cas unique de la centrale d'Asco

Asco est, pour autant que je sache, la seule centrale nucléaire au monde dont le système de refroidissement a été modifié après la mise en service pour réduire ses rejets thermiques. Cette modification lui donne un système hybride, entre le circuit ouvert et le circuit fermé.

La centrale d'Asco est conçue à l'origine avec un refroidissement en circuit ouvert. Lors de son inauguration en 1986, elle n'a pas de tour aéroréfrigérante :

Mais en dépit de trois retenues d'eau en amont (Mequinensa, Riba-roja et Flix) dont les lâchers d'eau permettent de réguler le cours de l'Ebre, l'échauffement du fleuve par la centrale se révèle vite trop élevé en période de faible débit. La Confederación Hidrográfica del Ebro, qui gère le bassin versant, demande donc la modification de l'installation.
Une tour aéroréfrigérante de 160 mètres est construite et entre en service en 1995. Mais cet ajout se fait sans modification de la centrale elle-même : la tour ne sert qu'à refroidir l'eau avant son rejet dans le fleuve, en sortie d'un système de refroidissement qui reste circuit ouvert.
 
construction de la tour aéroréfrigérante de la centrale nucléaire d'Asco
Construction de la tour aéroréfrigérante d'Asco entre 1993 et 1995
Cette solution permet de limiter les rejets thermiques - et montre le sérieux des espagnols à ce sujet. Cependant on garde les besoins en eau élevés du circuit ouvert en ajoutant les pertes normalement associées au circuit fermé.
La même modification a néanmoins été envisagée pour la centrale d'Almaraz après la canicule de 2003.
 

Une source d'inspiration pour l'industrie nucléaire française ?

Lorsqu'on discute de l'adaptation du système électrique français au changement climatique, deux noms reviennent presque toujours : Palo Verde, dans le désert Arizonien, et Barakah, sur les bords du Golfe Persique. Sans discuter des mérites de ces deux centrales, elles se situent dans des zones climatique sans rapport avec ce que l'on peut rencontrer en France. En réalité, ces exemples éludent la discussion plus qu'ils ne l'alimentent.
 
Les centrales espagnoles me paraissent bien plus intéressantes. Le climat de notre voisin du sud est probablement une bonne approximation de celui que connaitra notre pays d'ici quelques décennies. Il est possible que notre parc nucléaire doive un jour fonctionner dans des conditions de températures et d'aridité proches de celles de l'Espagne, alors autant essayer de profiter de cette expérience.
Voici quelques unes des idées que l'on pourrait éventuellement importer d'Espagne afin d'améliorer la résilience climatique de notre parc nucléaire actuel et futur :
  • Une certaine souplesse sur la réglementation des rejets thermiques : le régime français a déjà été largement flexibilisé par la révision des arrêtés de rejets depuis 2003, mais peut-être pourrait-on déjà se poser la question de l'utilisation du seuil dérogatoire de 30°C, par exemple pour Golfech. Est-ce que ce serait techniquement et écologiquement faisable ?
  • Une préférence pour de petites centrales : je pense qu'il y a une question inconfortable ici tant le gigantisme semble imprégner l'industrie nucléaire française. Mais, par exemple, est-ce qu'un petit réacteur, parce qu'il a des besoins de refroidissement modérés, ne serait pas plus adapté à un monde qui se réchauffe qu'un monstre comme l'EPR ?
  • La capacité et la volonté de faire évoluer les installations si les conditions hydrologiques ou climatiques l'exigent : il s'agit d'un point crucial pour assurer la pérénité d'une installation à longue durée de vie face à des évolutions climatiques que l'on ne peut pas entièrement prévoir. Cela ne s'improvie pas : a minima faire évoluer un projet nécessite des réserves financières et foncières.

Publié le 14 août 2021 par Thibault Laconde

Allez-vous mourir de chaud ?

Evaluation du risque d'hyperthermie pendant la vague de chaleur de juin 2021 aux Etats-Unis et au Canada

Nous n'en sommes qu'à la mi-juillet et les vagues de chaleur frappent déjà l'hémisphère nord comme un boxeur sourd à la 7e reprise : 50°C le 29 juin au Canada, 50°C le 10 juillet au Maroc, 55°C le même jour dans la vallée de la mort, 50°C le 20 juillet en Turquie... En comparaison les quelques 35°C attendus dans le sud de la France cette semaine semblent presque rafraichissants... A chacune de ces canicules, une question revient : les températures atteintes peuvent-elles être mortelles ?

Théoriquement, on peut évidemment mourir de chaud mais cela reste aujourd'hui très rare. Dans cet article, je vais essayer de vous expliquer pourquoi, à partir de quelles températures le risque devient significatif et ce à quoi on peut s'attendre pour les prochaines décennies.

Comment est régulée la température du corps humain ?


Il peut y avoir beaucoup de raisons de mourir pendant une vague de chaleur, en fait presque toutes les causes médicales de mortalités augmentent en période de canicule : maladies cardiovasculaires, respiratoires... mais aussi maladies infectieuses ou endocriniennes. On se noie aussi plus, à moins que l'on meure au contraire de deshydratation. Dans le passé, les périodes de chaleur étaient aussi propices à de grandes épidémies, notamment de dysentrie.

Mais imaginons que vous soyez en bonne santé, que vous ayez accès à de l'eau potable et que vous ne vous baigniez pas en armure, comment la chaleur pourrait-elle vous tuer ?

Victime de la chaleur pendant la canicule de 1911
Pour survivre, vous devez maintenir votre corps aux alentours de 37°C. Comme il fait rarement 37°C à l'extérieur, vous êtes fourni avec chauffage central intégré en série : votre métabolisme produit une puissance de l'ordre de 100W, à peu près autant qu'un petit sèche-serviette.

Ce luxe vient avec ses contraintes : une fois que votre température a atteint les 37°C désirés, vous devez trouver une façon de vous débarrassez de vos 100W. Sinon, première loi de la thermodynamique oblige, vous allez gagner en énergie et continuer à vous réchauffer.

Pour réguler sa température, votre corps s'y prend essentiellement de deux façons : par conduction et par évaporation.

La conduction est une affaire simple : vous vous trouvez en général dans de l'air plus froid que vous, vous allez le réchauffer et il va vous refroidir. L'équilibre se fait naturellement autour de 20°C. Si la température ambiante baisse, vous allez commencer à céder trop d'énergie. Il faudra vous isoler de l'air trop froid et mettre un pull...

Au contraire, si la température augmente le contact de l'air ne sera plus suffisant pour évacuer vos 100W. Vous pourrez un temps vous en sortir en exposant plus votre corps ou en accélérant la circulation de l'air (avec un ventilateur, par exemple). Si ce n'est pas suffisant, le deuxième mécanisme va se mettre en route : vous allez transpirer.

Ce n'est pas la transpiration qui vous rafraichit, c'est son évaporation : comme il faut une grande quantité d'énergie pour faire passer de l'eau de l'état liquide à l'état gazeux, une évaporation au contact de votre peau va absorber votre chaleur excédentaire. Cela marche que cette eau vienne de votre transpiration ou de l'extérieur, par exemple d'un brumisateur. Même si c'était votre seul mécanisme de régulation, il suffit de faire s'évaporer 2.6 millilitres par minute (soit un volume équivalent à un pot de yaourt par heure) pour évacuer vos 100W.

Pourquoi peut-on mourir de chaud ?

C'est ce mécanisme qui vous permet de survivre à des températures dépassant 35°C. Mais celui-ci aussi a sa limite : l'humidité relative.

L'humidité relative est le rapport, à une température donnée, entre la quantité d'eau-vapeur dans l'air et la quantité maximale que l'air peut contenir. Si l'humidité relative est élevée, l'air est presque saturé d'eau et l'évaporation devient plus difficile. Si au contraire elle est basse, l'air est très sec et l'eau s'évapore rapidement.

Imaginons que vous vous trouviez dans un environnement où la température est de 35°C et l'humidité relative de 100%. Que se passerait-il ?

La température de l'air ne vous permet pas de vous refroidir par conduction et, l'air étant déjà saturé d'eau, votre transpiration ne peut donc pas s'évaporer. Vous n'avez plus aucun moyen de vous débarraser de vos 100W. Si vous ne trouvez pas rapidement une solution pour vous rafraichir, cette énergie va s'accumuler et la température de votre corps augmentera d'un degré à peu près toutes les 45 minutes. Au bout de 4 heures environ, elle atteindra 42°C, seuil au-delà duquel le corps subit des dommages irreversibles.

Au programme : deshydradation, épuisement, crampes de chaleur, syncope et, finalement, hyperthermie (ou "coup de chaleur") et mort. Et ce n'est pas une exagération : dans des conditions réelles, où il est possible de rafraichir la victime et d'appeler des secours, un coup de chaleur est mortel dans 15 à 25% des cas.

Comment évaluer les risques liés à la chaleur ?

On le voit sur cet exemple, il ne suffit pas de regarder un thermomètre pour savoir si la chaleur peut être mortelle pour un individu en bonne santé. Le risque apparait lorsque la température de l'air approche de celle du corps, mais si l'humidité relative est basse il est possible de supporter des températures bien supérieures grâce à l'évaporation de la transpiration.

C'est ici qu'entre en scène un indicateur dont vous avez certainement entendu parler : la température de thermomètre mouillé, ou température humide. C'est une mesure qui combine température de l'air et humidité relative et permet de savoir facilement à quel point la combinaison des deux est dangereuse : si vous êtes exposé à une température humide proche de la température de votre corps (disons 35°C), vous allez mourir en quelques heures, même si vous êtes en bonne santé, au repos, à l'ombre et hydraté.

Tout ça est très bien, on sait enfin à partir de quand la chaleur devient mortelle mais, me direz-vous, comment mesurer la température de thermomètre mouillé ? Hé bien, comme son nom l'indique, cette température est celle qui serait mesurée par un thermomètre dont la base est enveloppée dans un coton humidifié avec de l'eau à température ambiante.

Thermomètre mouillé
Thermomètre mouillé datant des années 1930 (à droite) : l'ampoule dans laquelle trempe la mèche doit être remplie d'eau à température ambiante. A gauche se trouve un thermomètre ordinaire, le dispositif au centre permet d'évaluer l'humidité relative de l'air à partir des deux températures (Musée de l'histoire des sciences d'Oxford).
Evidemment, cette façon de mesurer n'est pas très pratique. De nos jours, la température de thermomètre mouillé est plutôt calculée à partir de la température ordinaire et de l'humidité relative. Mais autant le dire tout de suite : ce n'est pas un calcul que vous allez faire de tête...

Pour briller en société, voici la formule de Stull qui donne une approximation valable dans la plupart des conditions usuelles en fonction de la température ordinaire en degrès celsius (T) et de l'humidité relative en pourcents (φ) :

calcul de la température de thermomètre mouillé par la formule de Stull

A défaut d'apprendre cette formule par coeur, vous pouvez retenir que la température humide est toujours inférieure à la température ordinaire et décroit avec le taux d'humidité. A titre d'exemple, si la température est de 30°C, la température humide est d'environ :

  • 27.1°C à 80% d'humidité relative,
  • 24.0°C à 60%,
  • 20.5°C à 40%,
  • 15.9°C à 20%.

Notez que la température humide à de nombreuses autres applications dans l'agriculture ou l'industrie. Par exemple, elle va déterminer l'efficacité du refroidissement dans une tour aéroréfrigérante (comme celles utilisées par certaines centrales électriques).

Et demain ? Impact du changement climatique sur le risque d'hyperthermie

Où que l'on soit sur la planète, il est aujourd'hui rarissime que la température humide dépasse 35°C. Seules une poignées de stations météorologiques en Asie du Sud, au sud-ouest de l'Amérique du nord et sur les côtes moyen-orientales ont déjà relevé ces conditions, généralement pendant une période n'excédant pas une heure ou deux.

Les décès par hyperthermie existent mais ils font souvent intervenir d'autres facteurs qui augmentent la quantité de chaleur que le corps doit évacuer, par exemple une exposition prolongée au soleil ou une activité physique.

température de thermomètre mouillé la plus haute mesurée
Température humide maximale entre 1979 et 2017 (source)

Il est cependant impossible de ne pas se poser la question : avec le réchauffement du climat, comment va évoluer la température humide ? Est-il possible que des régions dépassent régulièrement 35°C, le seuil au-delà duquel même avec toutes les mesures de prévention possibles (bonne santé, ombre, hydratation, repos...) un être humain meurt en quelques heures, devenant en pratique inhabitables ?

Plusieurs études récentes se sont penchées sur cette question, et la réponse est probablement oui. Les modèles climatiques prévoient l'apparition de vagues de chaleur avec des températures humides supérieures à 35°C dans la seconde moitié du siècle, dans le Golfe Persique, en Asie du Sud et en Chine. Il est possible que la limite soit dépassée plus tôt localement, notamment sur les côtes.

Cependant ces évaluation mettent aussi en lumière un effet de seuil très marqué selon le scénario adopté pour la concentration en gaz à effet de serre. Dit autrement, nos émissions actuelles décident si, dans 50 ans, le monde connaitra ponctuellement et localement des vagues de chaleur mortelles ou si des régions entières deviendront inhabitables.

 Publié le 21 juillet 2021 par Thibault Laconde

Vague de chaleur en Amérique de l'Ouest : quels impacts matériels ?

Pendant la dernière semaine de juin, une canicule de proportions historiques s'est abattue sur le nord-ouest du continent américain. Dans cet article un peu particulier, je cherche à recencer les dommages physiques causés par cet épisode. Cette liste est forcément non-exhaustive, si vous constatez que des impacts manquent n'hésitez pas à me l'indiquer en commentaire.

Pourquoi lister les dommages causés par la canicule ?

La vague de chaleur américaine de juin 2021 s'inscrit dans une liste déjà longue d'épisodes de chaleur très improbables au regard des températures historiques - en Sibérie en 2020, en Europe en 2019, au Japon en 2018, pour ne citer que quelques exemples. Et il ne fait guère de doute qu'elle en annonce d'autres tout aussi extraordinaires : il existe beaucoup d'incertitudes sur les conséquences du changement climatique mais l'apparition de canicules de plus en plus intenses n'en fait pas partie.

Parmi les évenements climatiques extrêmes, les vagues de chaleur occupent une place un peu particulière : elles nous touchent tous directement, mais en même temps leurs conséquences sont difficilement perceptible. Au contraire, vous avez peu de chance d'être frappé directement par une innondation ou un ouragan et pourtant vous pouvez certainement visualiser sans problème les dommages causés par ces phénomènes.

En appartée, je pense que si tant de médias ont des difficultés à illustrer leurs articles sur les vagues de chaleur, s'obstinant à mettre des photos de familles à la plage ou d'enfants mangeant une glace pour évoquer un phénomène meurtrier, c'est en partie à cause de cette spécificité des canicules. La grande majorité de la population est touchée modérément, occultant les vraies victimes et des dégats déjà peu visibles.

Dans cet article je cherche à lister autant d'exemples que possible de dommages matériels causés par la vague de chaleur. L'objectif est de les rendre un peu plus visible et peut-être de contribuer à la compréhension des impacts de ces événements.

Impacts matériels de la vague de chaleur américaine de juin 2021

Pour l'instant, il s'agit un peu d'une liste à la Prévert mais j'essaierai de la complèter et de l'organiser progressivement.

Electricité et énergie

  • Des coupures d'électricité ont touché jusqu'à 15000 foyers dans l'état de Washington du 28 au 30 juin. Ces délestages ont apparemment été causés par une saturation du réseau de distribution, pas par un manque de production (1).
  • Dans la région de Portland jusqu'à 6000 foyers ont été coupés d'électricité (1), ces coupures sont probablement liées à des défautts causé par l'augmentation de la température et de la consommation (2).
  • Des coupures ponctuelles ont eu lieu ailleurs en raison de défauts causés par la chaleur (dont l'explosion d'un transformateur dans la région de Seattle) ou de contact entre les lignes et la végétation (1).
  • Quelques centaines de foyers ont été coupés en Colombie Britannique (1, 2).
  • L'augmentation de la consommation a entrainé une forte hausse du prix du gaz et de l'électricité : jusqu'à 334$/MWh pour cette dernière (1).

Routes et transports

  • De nombreuses routes ont été endommagées par la chaleur. Au moins 6 cas de soulèvement se sont produit à Seattle (1), certaines réparations nécessitent une quinzaine de jour de travaux (2). Plusieurs autoroutes ont été touchés : Interstate 5 (3), State Route 544 (4), Highway 195 (5)
  • A Portland, le trafic du métro a été totalement interrompu du 27 au 29 juin (1)
  • La dilation des pièces métalliques peut empecher les ponts mobiles de fonctionner. A Seattle et Tacoma, des ponts ont du être refroidis par aspersion (1, 2).
  • La chaleur à un impact sur la charge utile des avions et sur le personnel. La compagne Alaska Air a subi de nombreux retard et quelques annulations de vols (1, 2). La chaleur peut rendre certains petits aérodromes innacessibles (3).

Entreprises, activités économiques

  • De nombreuses pannes de réfrigération ont été signalées dans la restauration et la distribution alimentaire (1, 2). Ces pannes ont entrainé des pertes de marchandises et contraint certains restaurants et commerce à fermer (3), d'autres ont fait le choix de cesser leur activité pendant la vague de chaleur pour préserver matériel et salariés (4).
  • Dans au moins deux cas, des salariés ont cessé le travail pour protester contre la chaleur dans les locaux (1). Certains ont été licenciés (2).
  • Un entrepots Amazon de l'état de Washington a suspendu ses opérations le 28 en raison d'une température trop élevée et de défauts de ventilation (1).

Agriculture

  • La chaleur peut endommager les fruits et perturbe les récoltes (1).

Impacts indirects

  • La fonte accélérée de la neige a entrainé un risque d'inondation et des évacuations au Canada (1).
  • En Colombie Britannique, 106 incendies étaient actifs le 2 juillet dont celui qui a détruit le village Lytton (1). Des routes et des installations hydroélectriques ont été endommagées (2).
  • Les conditions météorologiques ont entrainé des pics de pollution (1, 2).