Big data et adaptation au changement climatique : une étude de cas

La semaine dernière, Callendar a publié une étude de cas sur le risque d'inondation pour le réseau de distribution d'électricité. Je ne vais pas revenir sur les résultats et la méthodologie, tout ça est déjà détaillé ici mais j'aimerais vous expliquer pourquoi cette démonstration me tient particulièrement à cœur.

Comment rendre l'évaluation des risques climatiques accessible ?

Risque d'inondation sur le réseau de distribution électrique
Évaluer les risques climatiques à l'échelle locale, c'est très souvent répondre aux mêmes questions mais dans des endroits différents : quel est le risque de canicule à Paris, Royan ou Entraygues-sur-Truyère ? et le risque d'inondation ? de sécheresse ? de submersion marine ? etc.

Si vous concevez chacune de ces évaluations comme un projet indépendant, Paris pourra se payer votre expertise mais probablement pas Entraygues et ses 900 habitants. De la même façon, vous pourrez aussi faire des choses super intéressantes pour des entreprises du CAC40 mais jamais aider une petite PME à s'adapter. 

La solution c'est de concevoir d'emblée chaque évaluation des risques climatiques pour qu'elle soit généralisable. Evidemment, cela nécessite un investissement (un peu comme développer Excel quand on vous paie pour une addition) mais vous pourrez rendre votre travail beaucoup plus accessible. 

Cette vision est à l'origine de Callendar.

Le passage à l'échelle est-il réaliste ?

Si vous me suivez ici ou sur les réseaux sociaux, vous en connaissez sans doute déjà quelques concrétisations de ce projet. Par exemple ce test réalisé il y a un an à l'occasion des élections municipales. En 2 semaines, Callendar (ou plutôt notre appli) avait produit un peu plus de 200 rapports sur les risques climatique dans 178 communes.

Pas mal, mais encore beaucoup trop peu pour être accessible à tous quand on sait qu'il y a quelques 35.000 communes, 2.500.000 entreprises et 36.000.000 logements en France. Est-il vraiment possible de massifier notre approche, de fournir une information locale de qualité sur les risques climatiques non pas à des centaines mais à des milliers voire des millions d'utilisateurs ?

Cette étude de cas est importante pour moi parce qu'elle répond à cette question. Pour la réaliser, nous avons calculé la fréquence d'inondation pour presque un million de transformateurs répartis sur tout le territoire (927.753 exactement)

Poste de transformation inondé
 

Rêvons un peu...

Cette application reste relativement simple puisqu'elle porte sur un seul phénomène (l'inondation) alors que nous savons en quantifier au moins une vingtaine. Mais elle confirme qu'évaluer l'impact du climat sur près d'un millions de sites est réalisable.

Les perspectives pour l'adaptation au changement climatique sont immenses. Si le volume n'est pas un obstacle, il devient possible de quantifier et de réduire la vulnérabilité d'infrastructures étendues, de grands portefeuilles d'actifs, de chaine d'approvisionnement complexes...

Pourquoi pas, même, un "cadastre climat" avec l'évaluation des effets du changement climatique bâtiment par bâtiment sur l'ensemble du territoire ?

Le record dans ce domaine est apparemment détenu par une entreprise australienne qui a évalué les risque d'inondation, d'incendie et de sécheresse pour 15 millions de biens immobiliers. Après cette première expérience sur un million de sites, je suis certain que Callendar pourrait en faire autant voire plus en France.

 Publié le 26 mars 2021 par Thibault Laconde

Pourquoi un monde qui se réchauffe peut conduire à des vagues de froid plus extrêmes ?

Les Etats-Unis connaissent ces jours-ci une vague de froid historique avec de nombreux records battus dans le centre du pays et des conséquences dramatiques : coupures d'électricité, puits de pétrole et de gaz gelés, centrales électriques et raffineries à l'arrêt...

Si cette vague de froid est exceptionnelle par sa sévérité, l'épisode n'est pas isolé : en janvier 2019 aussi le centre des Etats-Unis avait connu une période glaciale, en janvier 2017 la température sur 5 jours en Europe centrale et dans les Balkans est descendue jusqu'à 15°C sous les normales et en 2013-2014 un hiver particulièrement rude avait fait presque intégralement geler les grands lacs.

A chacun de ces épisodes, une question revient : comment un climat qui, globalement, se réchauffe peut-il donner naissance à des vagues de froids aussi extrêmes ?

Un effet du réchauffement accéléré des pôles 

Le dérèglement du climat peut rendre les hivers plus extrêmes dans les région tempérées via plusieurs mécanismes, mais tous partagent une même origine : le réchauffement accéléré de l'Arctique.

Aussi contre-intuitif que puisse paraitre ce phénomène, il est en fait relativement simple de comprendre pourquoi le réchauffement des régions polaires peut entrainer des périodes de froid extrêmes dans les régions tempérées d'Amérique du Nord, d'Europe et d'Asie.

La densité de l'air est fonction de sa température : si vous chauffez l'air contenu dans un ballon, le volume du ballon augmente, c'est le principe de la montgolfière. C'est aussi vrai sur notre planète : la même masse d'air occupera moins de place au pôle, où il fait plus froid, qu'à l'équateur. Le résultat c'est que, à une altitude donnée, la pression atmosphérique est plus faible dans les régions polaires que dans une zone plus chaude. Ou pour le dire autrement "l'atmosphère est en pente" : Si vous vous déplaciez de l'équateur vers le pôle nord sur une surface de pression constante, vous seriez presque toujours en train de descendre. Par exemple la limite des 0.3 bars est en moyenne autour de 10 kilomètres d'altitude à l'équateur et 8.5 au pôle.

Concrètement, cette dépression a tendance à attirer et retenir l'air. La différence de température fait que les mouvements de l'atmosphère vont globalement de l'équateur vers les pôles (en tourbillonnant de l'ouest vers l'est en raison de la rotation de la terre).

Comme les pôles se réchauffent environ deux fois plus vite que le reste de la planète, le différentiel de température qui est à l'origine de ce mouvement se réduit. L'attraction exercée par les pôles devient plus faible et il est plus facile pour des masses d'air froid de s'en échapper pour venir congeler des régions tempérées.

Perturbation du vortex polaire

Voilà pour l'intuition générale. Si on veut entrer un peu plus dans les détails, il existe principalement deux phénomènes à connaitre.

Le premier est le fameux vortex polaire.

C'est un phénomène qui se produit uniquement en hiver. Pendant la nuit polaire, l'atmosphère située au-dessus du pôle se refroidit rapidement en particulier dans la stratosphère qui est normalement réchauffée par l'énergie des UV absorbés par le couche d'ozone. Ce refroidissement entraine l'apparition d'une zone de basse pression autour de laquelle se forme un immense tourbillon : le vortex polaire.

En temps normal, le vortex polaire empêche l'air froid de s'échapper vers les moyennes latitudes. Mais son fonctionnement peut être perturbé par des courants d'air venus des régions plus chaudes.

Ces perturbations peuvent avoir des effets spectaculaires : inversion du sens de rotation du vortex, augmentation de la température au-dessus du pôle de plusieurs dizaines de degrés en quelques jours, déplacement du vortex vers le sud voire dislocation en systèmes plus petits... Tout cela entrainant souvent des vagues de froid durables aux moyennes latitudes.

Vortex polaire pendant les vagues de froids de 2013-2014
A gauche : vortex polaire normal en novembre 2013 (une zone de basse pression centrée sur le pôle),
à droite : vortex perturbé en janvier 2014 à l'origine de vagues de froid en Asie et en Amérique

Les perturbations du vortex polaire ne sont pas en soi anormales mais elles semblent être devenues plus fréquentes au cours des dernières décennies, expliquant en partie les vagues de froids européennes et asiatiques. Ce phénomène pourrait être lié au recul de la banquise arctique. Cependant l'évolution future de ces perturbations du vortex polaire sous l'effet du dérèglement climatique n'est pas encore claire.

Affaiblissement du jet stream

Les jets streams ("courants de jet" en bon québécois) sont des couloirs de vent situés à une dizaine de kilomètres d'altitude, l'air y circule vers l'est à très grande vitesse. Chaque hémisphère a deux courants principaux : un situé autour de 30° de latitude (jet stream tropical), l'autre autour de 60° (jet stream polaire).

Même si la réalité est beaucoup plus compliquée que ça, ces courants matérialisent la limite entre des régions chaudes, tempérées et froides relativement isolées les unes des autres.

Mais ces limites ne sont ni fixes ni en ligne droite. Sous l'effet du relief et des différences de température au niveau de la surface, le jet stream forme des méandres se déplaçant lentement. C'est particulièrement le cas dans l'hémisphère nord où la disposition des terres émergées favorise ces variations. Il est donc possible pour une même région d'être parfois au sud et parfois au nord du jet stream ce qui va déterminer des conditions météorologiques très différentes.

Jet stream
Animation représentant l'évolution du jet stream polaire au-dessus du continent américain (NASA)

Comme les pôles se réchauffent plus vite que le reste de la planète, le différentiel de température qui met en mouvement les jets streams diminue. Cet affaiblissement a pour effet de rendre les courants plus sensibles aux phénomènes locaux. Pour le dire simplement : la frontière entre les zones froides et tempérée devient plus souple mais aussi moins mobile.

Résultat : il devient plus probable qu'une grande oscillation du jet stream polaire permette à de l'air froid de descendre loin en zone tempérée, ou à l'inverse entraine un épisode de chaleur anormal aux hautes latitudes. Ces périodes extrêmes ont aussi tendance à durer plus longtemps.

Quelle est la morale de l'histoire ?

Est-il possible d'imputer ou non une vague de froid au changement climatique ? Et peut-être s'attendre à des périodes de froids plus extrêmes en dépit d'une tendance au réchauffement ? Ces deux questions sont encore largement en débat : comme c'est souvent le cas au début, l'intensification de la recherche sur ces sujets a eu tendance à faire augmenter les incertitudes plutôt qu'à les réduire... 

Mais comme toujours lorsqu'on parle de gestion des risques, savoir ce qu'on ne sait pas est presque aussi important que savoir. La climatologue canadienne Katharine Hayhoe emploie à ce sujet une expression que je trouve intéressante : "global weirding" (bizarification ? climatique) plutôt que de "global warming" (réchauffement climatique).

En effet, lorsqu'on s'intéresse aux effets du changement climatique au-delà de raisonnements qualitatifs ou de grandes moyennes, on découvre des évolutions complexes et souvent équivoques. Pour ne citer qu'un exemple (sur lequel on reviendra) : saviez-vous que même si le changement climatique fait, globalement, augmenter le niveau de la mer, il existe des endroits où il devrait baisser au cours du XXIe siècle ?

De la même façon, il ne fait guère de doute que la température moyenne en hiver augmente et va continuer à augmenter au cours des prochaines décennies. Cependant la vague de froid qui frappe actuellement le centre des Etats-Unis doit être prise comme un avertissement par ceux qui voudraient en tirer des conclusions trop rapides.

Publié le 16 février 2020 par Thibault Laconde

Où construire de nouveaux réacteurs nucléaires en France ?


Dans une intervention au Creusot, le 8 décembre, Emmanuel Macron a relancé le débat sur la construction de nouveaux réacteurs nucléaires en France et promis une décision au lendemain des prochaines élections générales, en 2023.

Dans cet article, je vous propose de contribuer à cette discussion autour d'une question : compte-tenu des contraintes climatiques, où pourrait-on implanter de nouveaux réacteurs nucléaires en France ?

Problème et hypothèses

On peut reformuler la question de cette façon : on sait que le fonctionnement des centrales nucléaires françaises est d'ores-et-déjà perturbé par les fortes chaleurs et, surtout, les périodes de sécheresse. Avec le changement climatique, on peut s'attendre à ce que ces phénomènes deviennent progressivement plus fréquents et plus sévères. Or un réacteur nucléaire qui serait construit vers 2030 sera certainement en service jusqu'à 2080 voire 2100.

Comment s'assurer que les réacteurs que nous allons éventuellement construire puissent encore fonctionner à la fin du siècle dans un climat qui aura largement dérivé ?

Pour réfléchir à cette question, nous allons prendre les hypothèses suivantes :

  1. On suppose que les limites de température et de débit, fixées par décision de l'ASN et homologuées par arrêté ministériel pour chaque centrale, sont inchangées
  2. Les réacteurs à construire sont de type EPR, avec une puissance électrique de l'ordre de 1600MW
  3. Ils sont construits par paire : chaque site choisi doit pouvoir accueillir 2 réacteurs
  4. Les seules implantations possibles sont sur les où se trouve déjà une centrale nucléaire, c'est-à-dire un des 18 sites suivants : 

Les centrales nucléaires, comme les centrales à charbon, sont équipées de turbines à vapeur qui ont besoin d'une source de refroidissement fiable. Un point clé pour le bon fonctionnement de nos futurs réacteur est l'accès à l'eau. Cette question se présente bien sur différemment selon qu'on se trouve en bord de mer ou sur un fleuve. Aujourd'hui, les deux tiers des réacteurs français sont des réacteurs fluviaux, commençons donc par là.

EPR fluvial = refroidissement en circuit fermé

D'abord l'implantation de nos futurs réacteurs en bord de fleuve imposerait presque automatiquement un choix technologique : l'utilisation d'un refroidissement en circuit fermé.

Pour faire simple, il existe deux façons de refroidir une centrale nucléaire (ou plus généralement une centrale électrique équipée d'une turbine à vapeur) :

  • En circuit ouvert : de l'eau est prélevée dans le fleuve ou la mer, elle est mise en contact avec le circuit d'eau de la turbine dans un condenseur (à peu près l'équivalent d'un radiateur de voiture) puis rejetée. Ce système nécessite de grandes quantité d'eau mais il n'y a pas de consommation : toute l'eau prélevée est rapidement rejetée.
  • En circuit fermé : l'eau utilisée pour le refroidissement est elle-même refroidie au contact de l'air dans un aéroréfrigérant (ces grandes tours hyperboloïdes) puis réutilisée. Ce recyclage de l'eau permet, en gros, de diviser par 20 les prélèvements d'eau mais une partie de l'eau utilisée s'évapore lors du refroidissement, par conséquent la centrale contribue à faire baisser le niveau du fleuve.

La centrale nucléaire de St Alban, en haut, refroidie en circuit ouvert : pas de tour
La centrale de Golfech, en bas, refroidie en circuit fermé : tours

Le problème d'un circuit ouvert, c'est que l'ensemble de la chaleur excédentaire de la centrale est envoyée vers le fleuve. A la louche, la puissance thermique à évacuer est égale à 2 fois la puissance électrique. Pour 2 gros réacteurs, type EPR, cela représente de l'ordre de 6GW qui vont aller réchauffer le fleuve.

L'ampleur exact de ce réchauffement dépend du débit : plus le débit est élevé, plus le fleuve peut "diluer" la chaleur reçue. Pour un fleuve de débit moyen comme la Loire (~300m3/s en moyenne) , le refroidissement de 2 EPR en circuit ouvert entrainerait en moyenne en réchauffement de 5°C. C'est énorme, beaucoup plus que ce qui est actuellement autorisé (1.5°C max pour la Loire).

Parmi les fleuves français, il n'y a guère que le Rhône qui aurait un débit suffisant. Et encore, même à climat constant, des EPR refroidis en circuit ouvert implantés sur le Rhône seraient exposés à des arrêts à répétition comme en rencontrent désormais tous les ans les centrales St Alban ou Bugey, pourtant équipées de réacteurs moins puissants. St Alban, par exemple, a connu 22 épisodes d'indisponibilité cette année précisément parce que le débit du Rhône ne permettait pas de la refroidir dans le respect de ses limites d'échauffement.

Donc de façon réaliste : EPR fluvial = EPR avec un refroidissement en circuit fermé.

Ce n'est pas complètement anodin : pour l'instant, tous les EPR construits ou en construction sont équipés de refroidissement en circuit ouvert. Un circuit fermé représente un surcoût par rapport à ce système.

La problématique du débit 

On cherche donc sur quel(s) fleuve(s) installer une paire de réacteurs de 1600MW refroidis en circuit fermé.

Comme je l'ai dit plus haut, ce système de refroidissement a l'avantage de limiter les rejets thermiques (en général le réchauffement produit par un réacteur est compris entre 0 et 1°C) et les prélèvements d'eau (de l'ordre de 3m3/s). Par contre une partie de l'eau prélevée est évaporée, concrètement le débit du fleuve est plus faible après la centrale.

L'évaluation du débit futur d'un fleuve en fonction du changement climatique est un art compliqué. Mais quelques tendances se dégagent : une aridification liées à l'augmentation de la température donc de l'évaporation et des étiages plus précoces et plus sévères parce que les stocks d'eau solide (neige, glaciers...) se réduisent et fondent plus tôt dans l'année. Ajouté à une demande en eau probablement croissante, tout cela peut contribuer à rendre problématique la consommation d'eau de nos réacteurs.

Pour une paire d'EPR, la consommation d'eau serait probablement de l'ordre de 2m3/s. Ce n'est pas énorme : c'est le débit d'un gros ruisseau. A cela, il faut au moins au début la consommation des réacteurs existants, soit entre 1.3m3/s (Bugey, St Laurent) et 3m3/s (pour Cattenom).

On a donc une consommation de l'ordre de 2 à 5 m3/s. Même sans tenir compte de l'évolution du climat, il ne semble guère réaliste de demander ça à un fleuve dont le débit est régulièrement inférieur à 20-30m3/s. Le critère de débit permet déjà de rayer quelques noms de notre liste :

  • Cattenom : l'étiage (VCN3) de la Moselle pour la station de référence de la centrale est en moyenne de 22m3/s
  • Chooz : 26m3/s pour l'étiage de la Meuse
  • Civaux : 14m3/s pour l'étiage de la Vienne
  • Nogent : 27m3/s pour l'étiage de la Seine

Rhône et sous condition Loire, Garonne et Gironde

La Loire, dont les étiages sont compris entre 54 et 69m3/s, reste une destination envisageable pour nos nouveaux réacteurs. Cependant le débit descend régulièrement en dessous de cet étiage moyen annuel : à Gien, station de référence pour les centrales de Belleville et Dampierre, le débit passe sous les 40m3/s en moyenne tous les 4 ans et sous les 30m3/s en moyenne tous les 10 ans. Avec peu de marges, donc, et une aridification qui devrait être particulièrement marquée dans la région, la Loire semble peu propice à l'installation de nouveaux réacteurs... Mais à voir : une étude plus détaillée serait intéressante.

La Garonne au niveau de Golfech offre une marge un peu supérieure (étiage moyen de 71m3/s). Mais la Garonne a un autre problème : c'est le plus chaud des fleuves français et sa température dépasse déjà régulièrement les 28°C (théoriquement la température maximale autorisée pour les cours d'eau européens), entrainant l'arrêt de la centrale de Golfech. Un problème similaire se pose à Blayais malgré un débit largement suffisant.

Je sais bien que Golfech et Blayais sont aujourd'hui arrêtées pour respecter une limite réglementaire, limite qu'abhorrent les défenseurs de ces centrales, mais la température a aussi un coût technique : prolifération de pathogènes, perte de rendement, surdimensionnement des condenseurs... Ces deux sites ne sont donc probablement pas un excellent choix.

Reste le Rhône. Avec son étiage à 175m3/s à la hauteur de Bugey et 536 au niveau de Cruas, le Rhône est le seul fleuve français à offrir une marge de débit confortable pour l'installation d'une paire d'EPR (à condition qu'ils soient refroidis en circuit fermé). 

Évidemment, avant de commencer à couler le béton il faudra étudier en détail l'impact du changement climatique sur le régime du Rhône et l'évolution des autres besoins en eau, et probablement aussi mieux sécuriser l'approvisionnement auprès de nos voisins suisses.

L'option du bord de mer

Vous me direz peut-être : pourquoi on s'embête ? Si il faut de l'eau, on n'a qu'à construire nos futurs réacteurs là où il y en a toujours : en bord de mer.

Et vous aurez probablement raison. Les réacteurs de bord de mer sont par définition à l'abri de la sécheresse. Ils sont aussi moins exposés à l'aléa que représente la température de l'eau (quoique pas totalement immunisés).

Les réacteurs de bord de mer sont soumis à d'autres risques, en premier lieu l'aggravation du risque d'inondation avec l'élévation du niveau de la mer. Mais si ce phénomène est correctement étudié et anticipé, il existe des moyens relativement simples de protéger une installation peu étendue comme une centrale nucléaire.

En réalité, si on envisage l'installation de nouveaux réacteurs en bord de mer, l'incertitude me parait plus porter sur le réseau : peut-on vraiment alimenter l'ensemble du territoire à partir de 400 kilomètres de côte entre la Normandie et le Pas de Calais ? Je ne sais pas mais je n'ai pas l'impression que la réponse soit un "oui" évident. Pourrait-on s'en sortir en créant d'autres implantations ? Là aussi, beaucoup de points d'interrogation... 

En guise de conclusion 

Même si l'article est un peu long, il ne fait évidemment qu'effleurer la question de la prise en compte du changement climatique dans la conception et l'implantation de futurs réacteurs nucléaires.

Mon objectif était plutôt de montrer que le climat est une contrainte forte sur un futur programme nucléaire. Cette question devra être sérieusement étudiée et les résultats réellement pris en compte dans les décisions.

J'aimerais penser que c'est une évidence mais la discussion sur la politique énergétique est descendu à un tel niveau en France que je peux déjà presque entendre M. le député lambda chuchoter dans les couloirs des ministères qu'il faut absolument lui construire un EPR sur sa rivière à sec tous les deux ans.


Publié le 15 décembre 2020 par Thibault Laconde

Comment l'armée américaine gère ses risques climatiques ?

Dans le courant de l'été, l'armée de terre américaine a publié un document apparemment inattendu : intitulé "Army Climate Resilience Handbook", manuel de résilience climatique de l'armée, il s'agit d'un guide destiné aux planificateurs militaires américains pour les aider à réduire les risques climatiques actuels et futurs.

Dans cet article, je vous propose un survol de ce document de presque 250 pages qui pourrait inspirer les spécialistes de la défense de ce coté-ci de l'Atlantique, mais aussi beaucoup d'entreprises ou d'organismes publics.

 

Les risques climatiques, un sujet ni étrange ni nouveau pour les militaires américains

D'abord, il est peut-être utile de remettre ce guide dans son contexte. La gestion des aléas météorologiques fait évidemment partie intégrante des missions d'une armée mais on peut s'étonner de voir la question du changement climatique abordée aussi ouvertement dans le contexte américain.

En réalité, le changement climatique est clairement identifié comme une menace dans les spécialistes de la défense aux Etats-Unis. Pour ne citer que les jalons principaux :



En parallèle, toute une série d'événements ont illustré la vulnérabilité des installations et des opérations militaires américaines. Là aussi une liste exhaustive serait trop longue mais pour citer quelques cas marquants :

  • en août 2013, le centre d'entrainement de Fort Irving en Californie subit pour plusieurs millions de dollars de dégât suite à un épisode de pluie intense.
  • en juin 2016, 9 soldats meurent dans une inondation à Fort Hood (Texas).
  • en octobre 2018, la base aérienne de Tyndall en Floride est ravagée par l’ouragan Michael, près de 484 bâtiments sont détruits ou irréparables, 11000 personnes et tous les avions en état de voler sont évacués.
  • en mars 2019, un tiers de la base aérienne d'Offut est inondé, 130 bâtiments sont endommagés, le coût de reconstruction estimé à près d'un demi milliard de dollars.
  • en août 2020, la base aérienne de Travis est évacuée sous la menace d'un des incendies qui embrasent la Californie.

Ajoutez à cela, le nombre rapidement croissant des coups de chaleur à l'entrainement, et il n'est vraiment plus surprenant que les armées se préoccupent des risques climatiques actuels et futurs. La marine a d'ailleurs devancé l'armée de terre : la Navy a publié son propre manuel sur l'adaptation et la résilience des installations dès 2017.

Quatre étapes pour identifier et réduire les risques climatiques

Le manuel de l'US Army s'adresse aux planificateurs. L'objectif de leur fournir une demarche pour identifier et réduire les risques climatiques lors de la création ou de la révision de schémas directeurs immobilier, plan eau et énergie, plan de gestion des urgences, etc.

L'approche proposée passe par 4 étapes :

1. Définir le périmètre et les objectifs

Quelle est la situation actuelle ? L'emplacement des installations et leurs rôles ? Les cartographies et les informations topographique dont on dispose ? Les risques déjà connus et les mesures de mitigation existantes ?

Et qu'est-ce que l'on souhaite faire à l'horizon 20-50 ans ? Des extensions ou de nouvelles constructions sont-elles envisagées ? Certaines zones peuvent-elles être réaffectées ? Etc.

2. Identifier les risques climatiques observés et futurs

Cette étape est probablement la plus importante. Elle se décompose en deux sous-parties.

D'abord, on va recenser systématiquement les problèmes déjà observés et les événements climatiques extrêmes passés ainsi que les tendances connues. Ces observations sont synthétisées dans un tableau et des fiches assez brêves dont le manuel fournit plusieurs exemples.

La deuxième partie consiste à évaluer l'évolution des risques sous l'effet du changement climatique. Cette évaluation passe par un outil informatique, l'Army Climate Assessment Tool ou ACAT, qui est certainement l'aspect le plus innovant de la démarche.

Cet outil n'est pas accessible mais un guide utilisateur et quelques captures d'écran sont fournis dans le manuel et permettent de se faire une idée assez précise de son fonctionnement. L'ACAT s'appuie sur le 5e rapport du GIEC et le projet CMIP5 : il exploite des projections à l'horizon 2050 et 2085 réalisées par plusieurs dizaines de modèles américains et internationaux pour deux scénarios d'émissions (RCP8.5 et 4.5). Ces projections sont régionalisée avec une résolution spatiale qui descend à 8km et servent à calculer une trentaine d'indicateurs locaux : aridité, submersion, érosion côtière, cumul maximal de précipitations sur 1 jour et 5 jours, fréquence des épisode de chaleur supérieur à 95°F/35°C, etc. Les sources et les modes de calcul pour chaque indicateur sont détaillés en annexe.

A partir de ces indicateurs, 8 risques sont évalués : sécheresse, submersion marine, inondation, chaleur, consommation d'énergie, incendie, érosion des sols et événements extrêmes. Une valeur est affectée à chacun de ces risques par moyenne pondérée des indicateurs pertinents. Par exemple, le risques "événement extrême" est égal à 1.7 fois la fréquence des ouragans + 1.5 fois les précipitations maximales annuelles sur le bassin versant + 1.4 fois la fréquence des tornades + 1.4 fois la fréquence de vents supérieur à 50 noeuds (93km/h) , etc.

3. Identification des vulnérabilités

En croisant les informations collectées pendant les deux étapes suivantes, les installations et les infrastructures sont classées en fonction du niveau d'exposition (3 niveaux) et des capacités d'adaptation (2 niveaux).

Le manuel fournit des règles précises pour le classement de façon à réduire le degré de subjectivité. Par exemple un bâtiment ne peut être classé dans la catégorie "pas d'exposition" que s'il n'a jamais subi de dommage lors d'évènements climatiques passés et ne peut être considéré "exposition basse" que si les dommage ont été minimaux, dans tous les autres cas il doit être classé en "exposition élevée".

4. Identification des mesures de réduction des risques et de préparation

Un catalogue avec plus d'une soixantaine de mesures possibles est fourni ainsi que quelques "success stories" (le saviez-vous ? on peut économiser pas mal d'eau en lavant les tanks avec des eaux grises).


Qu'en penser ?

Ce qui est sans doute le plus marquant, c'est que ce manuel est finalement assez banal. A l'exception peut-être de la quatrième étape, il pourrait en grande partie être transposé à une activité civile : aucun des indicateurs et des risques évalués n'est propre au secteur de la défense et les outils décrits pourraient être parfaitement adaptés à une entreprise ou une collectivité.
L'effort de pédagogie est par ailleurs sensible avec des explications détaillées sur les différents impacts du changement climatique ou le fonctionnement et les incertitudes des modèles climatiques.
 
En conclusion, ce manuel n'invente rien mais se rattache à une tendance beaucoup plus générale : opérationnaliser la gestions des risques climat avec des méthodologies solides et des outils quantitatifs. Même si beaucoup d'éléments seraient discutables, je pense qu'il faut se réjouir de ce travail et qu'il peut contribuer à faire enfin émerger une approche systématique et rigoureuse de l'adaptation au changement climatique.


Publié le 6 octobre 2020 par Thibault Laconde

Blowups : comment le réchauffement climatique casse les routes

Mi-juin 2016, une vague de chaleur précoce touche le centre des Etats-Unis. Dans le Minnesota, la température dépasse le seuil symbolique de 90 degrés fahrenheit (32°C), un niveau peu fréquent pour cet état du nord, frontalier du Canada. Sur l'autoroute qui relie Minneapolis à l'état voisin du Wisconsin, une caméra de surveillance enregistre une scène surprenante... 

Un dos d'âne semble avoir été installé subrepticement sur la voie du milieu et les gros pick-ups qui l'empruntent à vive allure sont catapultés sur plusieurs mètres :

 

 Ce que vous voyez à l'oeuvre, c'est un soulèvement, ou blowup en anglais. Une dégradation soudaine d'une route à chaussée rigide typique des vagues de chaleur de début d'été.

Qu'est-ce qu'un blowup ?

Pendant la vague de chaleur de juin 2016, plusieurs dizaines d'incidents du même genre ont été signalés dans au moins une demi-douzaine d'états américains : Iowa, Nebraska, Colorado, Missouri, etc.

Ce phénomène touche les routes à chaussées rigides, en particulier celles construites avec des dalles de béton. Sous l'effet de la chaleur, le volume de ces dalles augmente. Cette dilatation thermique est faible : de l'ordre de 1mm par tranche de 10°C pour une dalle de 10 mètres. C'est peu mais cela peut suffire à faire exploser les joints de chaussée, comme ici sur l'A10 allemande en 2018 :

"blow-up" sur une autoroute allemande pendant une canicule

Dans d'autres cas, les dalles peuvent se chevaucher ou se soulever. C'est ce qui se passe dans la vidéo du début et que l'on voit mieux sur cette photo d'un autre incident dans la Dakota du Sud :

Soulèvement de dalles en béton sous l'effet de la chaleur

Pas de béton en vue ? Le risque peut exister quand même...

Complexes à réparer, plus glissantes et plus bruyantes que leurs homologues en asphalte, les routes en béton sont devenues moins populaires à partir des années 80. En France, l'autoroute en béton la plus récente est l'A71 dont le dernier segment a été ouvert en 1989.

Les routes déjà construites, quant à elles, ont souvent été recouvertes d'une couche d'asphalte pour réduire le bruit et améliorer le confort de conduite. Mais elles continuent à exister et l'ajout d'un revêtement sombre peut même augmenter le risque de blowup en favorisant l'absorption du rayonnement solaire. Des soulèvements continuent donc à se produire sur des routes en béton même lorsqu'elles ont été rénovées.

Exemple avec l'E314 en Belgique, une autoroute construite en béton armé continu (une technique moins exposée au blowup que les dalles de béton), réparée et asphaltée en 2010, endommagée en juin 2017 :

Soulèvement d'une route en béton armé continu recouvert d'asphalte


Un phénomène accéléré par le réchauffement mais difficile à anticiper

Le risque de blowup n'est pas nouveau, il existe des exemples dès les années 70. Mais il est accentué par le changement climatique qui place les routes dans des conditions de température différentes de celles dans lesquelles elles ont été conçues.

Les blowups apparaissent lors de périodes de chaleur longues, qui laissent le temps au béton de se réchauffer. Une chaleur soutenue n'est cependant pas le seul facteur de risque : l'ensoleillement contribue à réchauffer le béton et l'humidité a faire augmenter son volume. Celà explique que les blowups se produisent plutôt en début d'été lorsque les journées sont les plus longues et que le sol n'a pas encore eu le temps de sécher complètement.

Des paramètres non-climatiques jouent aussi un rôle dans l'apparition de blowups : défauts de construction, problème d'entretien et même la température lorsque le béton a été coulé... un béton coulé un jour chaud est moins exposé.

Les soulèvements ne sont pas les seuls dommages que le changement climatique peut causer aux routes. On peut citer par exemple les glissements de terrain (liés à des précipitations plus intenses) ou les retraits-gonflements d'argile (causés par la succession de sécheresses). Mais ils sont particulièrement difficiles à anticiper et surtout ce sont des phénomènes soudains, sans signe avant coureur - ce qui en fait un casse-tête pour les exploitants et un danger pour les usagers.

Ce genre de risque complexes est typiquement un domaine d'application pour une approche des risques climatiques par le big data : en combinant un grand nombre de données (par exemple incidents passés, projection et historiques de température, constructeur, date voire heure de mise en oeuvre, entretien, etc.), on pourrait identifier les sections vulnérables parmi les 20 000km d'autoroutes et de routes nationales françaises. Il serait alors possible de choisir où affecter des moyens de prévention pour une efficacité maximale.

 

Publié le 30 septembre 2020 par Thibault Laconde

Réglementation des rejets thermiques dans l'industrie : le nucléaire et au-delà

risque d'indisponibilité industrielles en cas de canicule ou de sécheresse
Depuis presque un mois, la centrale nucléaire de Saint Alban connait une série d'indisponibilités partielles. Pourquoi ? Parce qu'avec un débit réduit et une température élevée de fin d'été, le Rhône ne peut plus refroidir les réacteurs sans se réchauffer au-delà de la limite autorisée en aval de la centrale.
C'est souvent ce phénomène qui est à l'origine des arrêts de réacteurs pendant les canicules ou les sécheresses. Leurs turbines électriques ont besoin d'eau et, en fonctionnant, réchauffent la mer ou le fleuve dont elles dépendent, mais elles ne peuvent pas le faire indéfiniment : la température de l'eau après mélange doit rester dans les limites définies par un texte réglementaire. Ces arrêtés de rejets, propres à chaque installation nucléaire, peuvent se révèler contraignants pour les centrales fluviales et donner l'impression qu'elles subissent des contraintes disproportionnées, ou en tous cas uniques. 
 
En réalité, les autres industries qui utilisent les fleuves comme source de refroidissement - centrales fossiles, papeteries, raffineries, etc. - sont aussi soumises à des limites de température. Quelles sont ces limites ? D'où viennent-elles ? Sont-elles plus souples que celles des installations nucléaires ? C'est ce que je vous propose de discuter dans cet article.

 

Les limites de température imposées aux centrales nucléaires

Chaque centrale nucléaire française fait l'objet d'un arrêté de rejets qui lui est propre (Callendar les a compilé ici). Les seuils et les règles de calcul varient donc d'une installation à l'autre mais si voulez retenir un chiffre, retenez 28°C. En règle générale, c'est la la température maximale autorisée en aval d'une centrale nucléaire pendant la période estivale. 

Encore une fois, c'est loin d'être une règle absolue. Pour Bugey, le seuil est de 26°C - nous verrons pourquoi plus bas. Pour Blayais, qui est située sur l'estuaire de la Gironde à un endroit où il n'y a presque plus d'aval, la limite est de 36.5°C... Quant aux centrales situées autour de la Loire (Civaux, Chinon, St Laurent, Dampierre et Belleville) elle n'ont que des limites d'échauffement : ce n'est pas la température en aval qui est limitée mais la différence de température entre l'aval et l'amont. Il y a des exception, donc... mais retenons ce chiffre de 28°C et voyons d'où il vient.

Historiquement, le besoin d'une réglementation des rejets thermiques apparait très vite après la Seconde Guerre Mondiale. Avec le développement de grande installations industrielles et de centrales électriques beaucoup plus puissantes, les systèmes de refroidissement commencent à modifier significativemet la température des fleuves. Un encadrement devient nécessaire, ne serait-ce que pour éviter que le réchauffement de l'eau par les centrales amonts perturbe le fonctionnement de celles situées en aval.

La limite est initialement fixée à 30°C pour la température de l'eau rejetée. Pendant la décennie de 1970, EDF conduit de nombreuses études sur les cours d'eau accueillant des centrales nucléaires ou fossiles (Montereau, Porcherville, etc.) et ces évaluations montrent que l'échauffement de l'eau a des impacts écologiques significatifs avant 30°C. A la fin des années 70, une série d'arrêtés de rejets est prise et introduit une nouvelle limite : 28°C pour l'eau du fleuve après mélange (ce qui dans de nombreux cas en fait moins contraignant que 30°C au rejet).

 

Le droit commun des rejets thermiques

Cette limite de 28°C ne sort pas de nulle part. Elle vient en fait d'une directive européenne de 1978 "relative à la qualité des eaux douces aptes à la vie des poissons". Ce texte distingue deux cas en fonction de la population du cours d'eau : 

  • les eaux salmonicoles dans lesquelles on peut trouver des saumons, truites, ombres, etc. : ce sont des cours d'eau rapides et froids, en général assez bien préservés, la directive leur attribue une température maximale de 21.5°C.
  • les eaux cyprinicoles dans lesquelles on trouve des carpes, silures ou brochets : il s'agit en général de grandes rivières ou de fleuves en plaine, leur température doit être au maximum de 28°C.

Ces règles, comme toutes les directives européennes, ne s'appliquent qu'aux Etats-membres. Elles vont cependant être largement reprises dans la réglementation française, applicable elle aux utilisateurs des fleuves.

Peu de temps auparavant, la loi du 19 juillet 1976 a créé le système des installations classées pour la protection de l'environnement et de nombreuses catégories d'ICPE vont se voir fixer des limites de rejets thermiques reprenant les définitions et les seuils de la directive de 1978.
C'est le cas notamment des catégories 2910 et 3110, c'est-à-dire des installations de combustion dont la puissance thermique est supérieure à 20MW y compris toutes les centrales électriques fossiles un peu importantes, mais aussi des catégories 2930 (ateliers automobiles), 2564 (nettoyage, dégraissage, décapage), 2565 (revêtements métalliques), 2730 (traitement de produits animaux), etc.

Là aussi le détail varie mais, schématiquement, les prescriptions générales applicables à ces installations prévoient, d'une part, que la température des effluents rejetés ne peut pas excéder 30°C et, d'autre part, que ces effluent de doivent pas conduire :

  • pour les eaux salmonicoles : à une élévation de la température supérieure à 1.5°C ou à une température avale supérieure à 21.5°C,
  • pour les eaux cyprinicoles : à une élévation de la température supérieure à 3°C ou à une température avale supérieure à 28°C,
  • pour les eaux destinées à la production d'eau potable : à une température avale supérieure à 25°C.

 

Une préoccupation aussi sanitaire et technique

Peut-être vous demandez-vous d'où sort ce dernier seuil qui ne figure pas dans la directive de 1978. C'est qu'en France métropolitaine, une ressource en eau dont la température dépasse 25°C ne peut pas être utilisée pour produire de l'eau destinée à la consommation humaine. L'origine de cette limite est à la fois biologique et chimique :

  1. Une température élevée favorise la prolifération de pathogènes, notamment legionelles et amibes, un effet qui avait déjà été identifié dans les études des années 70 conduites par EDF.
  2. Le chlore libre, qui est la principale méthode de potabilisation en France, n'est plus stable après 25°C, si l'eau dépasse cette température il n'est donc pas possible de garantir sa qualité dans le temps. Et il n'existe pas d'alternative simple au chlore.

Il me parait donc important de comprendre que, si la réglementation des rejets thermiques emprunte encore une bonne partie de son vocabulaire à la protection de la biodiversité, ces règles servent aussi des objectifs techniques et sanitaires. 

Un exemple ? La centrale nucléaire de Nogent utilise la Seine pour son refroidissement. Une centaine de kilomètres en aval, le captage d'Orly assure un quart de l'approvisionnement en eau potable de la capitale. Ce n'est évidemment pas seulement pour le bien-être des poissons que les rejets de cette installation sont strictement encadrés et controlés. Comme ceux, bien sur, des autres industries qui utilisent le fleuve.

 

Puisque la réglementation est comparable, pourquoi parle-t-on autant du nucléaire et si peu des autres industries ?

Si on compare maintenant les règles applicables au nucléaire et celles en vigueur pour les autres secteurs industriels, il est clair qu'il n'y a pas de traitement de faveur pour ces derniers. Les arrêtés de rejets des centrales nucléaires fixent des limites qui sont en général conformes aux règles de droit commun et parfois sensiblement plus favorables : Bugey, par exemple, se trouve sur une section du Rhône qui est salmonicole mais bénéficie d'une autorisation de rejet à 24°C en hiver et 26°C en été.

Mais alors, vous demandez-vous peut-être, comment se fait-il que l'on voie régulièrement des réacteurs à l'arrêt mais qu'on n'entende jamais parler de raffineries ou d'usines métallurgiques stopées à cause de la chaleur ?

Si on cherche bien, on peut s'apercevoir que des problèmes existent. Cela se devine par exemple à l'activité des entreprises qui louent des capacités de refroidissement industrielles : elles sont, au moins de temps en temps, sollicitées pour éviter des arrêts de productions pendant des période de fortes chaleur. Ca a été le cas par exemple dans la pétrochimie en Italie ou dans la métallurgie en Belgique.

Je crois que la raison pour laquelle ces problèmes sont très peu connus est tout simplement que ces industries ne sont pas soumises aux mêmes obligations de transparence que le secteur électrique. Quand la centrale nucléaire de St Alban se déclare indisponible en raison de la température du Rhône, il est difficile d'imaginer, par exemple, que l'usine chimique de Salaise sur Sanne, 6 kilomètres en aval, ou la papeterie de Laveyron, 15 kilomètres plus loin, puissent fonctionner normalement. Mais nous n'en saurons rien...

Je comprend que ça puisse être frustrant mais, à mon avis, c'est une raison supplémentaire pour s'intéresser aux indisponibilités climatiques des centrales françaises. Avec le réchauffement du climat, on peut s'attendre à ce que la chaleur perturbe de plus en plus régulièrement le fonctionnement des activités industrielles et le nucléaire est le canari dans la mine : un indice bien visible d'un risque beaucoup plus général.


Publié le 21 septembre 2020 par Thibault Laconde

Nucléaire, IA et climat, édition 2020 : la canicule aura-t-elle raison de la centrale de Golfech ?

Le bref pic de chaleur qui a touché la France à la fin du mois du juillet a obligé la centrale de Golfech a réduire sa production. Cet épisode illustre une nouvelle fois la vulnérabilité des centrales nucléaires face aux aléas climatiques.
Il montre aussi qu'il n'est pas toujours facile d'anticiper correctement les indisponibilités causées par la chaleur : EDF a indiqué, le mercredi 29, qu'une réduction de la production pourrait être nécessaire à partir du 1er août, puis a changé d'avis le lendemain, jeudi 30, avant finalement d'annoncer l'arrêt du vendredi 31, le jour même avec moins de 4h de préavis.

Alors qu'une nouvelle vague de chaleur s'amorce,  je vous propose néanmoins de tenter l'exercice de notre coté. Dans cet article, nous allons essayer de déterminer si la centrale de Golfech (ou plus exactement son réacteur 2, le seul en service en ce moment) va, à nouveau, devoir réduire sa production dans les prochains jours.

Cet article est long et assez technique, si vous n'êtes intéressé que par le résultat, vous pouvez cliquer ici. L'article a été actualisé de façon à comparer ces résultats à ce qui s'est vraiment passé, cette actualisation est accessible directement ici.

Le principe en bref


On s'intéresse ici aux indisponibilités causées par la chaleur et plus particulièrement par le dépassement de la température maximale autorisée en aval de la centrale : 28°C dans le cas de Golfech.

Nous n'allons pas faire modélisation hydrologique ou thermique. Cela prendrait beaucoup de temps et demanderait une expertise pointue - des choses qui sont peut-être accessibles pour EDF mais pas pour la plupart des utilisateurs des fleuves qui sont soumis aux mêmes contraintes. L'objectif est de créer une solution facilement réplicable.

Notre approche est la suivante : nous allons chercher des données passées pour la température de l'air et le débit, d'une part, et la température de l'eau, d'autre part. Nous allons ensuite laisser un système d'intelligence artificielle apprendre le lien entre les deux, après quoi nous l'utiliserons pour prédire la température de l'eau à Golfech dans les prochains jours à partir d'hypothèses sur la température de l'air et de le débit.

Voilà pour l'idée. Passons à la réalisation...

Accès aux données (avec une pointe de sel)


La première étape de notre travail consiste  à trouver des données sur les température et débits passés à Golfech.

Pour la température de l'air, ça ne présente pas de difficulté. Des données très exhaustives sont accessibles sur près de 40 ans grâce à Copernicus, le programme européen d'observation de la terre.

En général, il est plus difficile de trouver des données de débit et de température de l'eau.Heureusement, dans le cas de Golfech, on est raisonnablement bien pourvu : une station de mesure située un jet de pierre en aval de la centrale, à Lamagistère, enregistre les débits depuis 1966. Elle a aussi mesuré la température de l'eau à partir de 2008, ces mesures ont cessé en 2017, c'est dommage mais 10 années de données permettent déjà de travailler.

Dans un projet comme celui-ci il est important de jeter un coup d'oeil critique aux données, surtout à celles qui vont être la cible que nos algorithmes vont apprendre à viser - ici la température de l'eau.
Il existe une seconde source sur laquelle on peut valider les mesures de Lamagistère : c'est EDF. L'entreprise ne publie pas systématiquement les données dont elle dispose mais une partie se retrouve dans les rapports annuels de surveillance de l'environnement.
La comparaison des deux permet de constater un décalage entre les mesures de Lamagistère et celle d'EDF. En 2017, par exemple, le rapport nous dit p.20 que la température maximale atteinte par la Garonne en aval est de 27.79°C le 22 juin. Les mesures de la station de Lamagistère donnent bien la maximale annuelle ce jour-là mais à 26.06°C. La comparaison du graphique de température fournit par EDF et de celui créé avec les mesures de Lamagistère montre que ce n'est pas un cas à part et suggère que les secondes ont un biais négatif par rapport aux premières.

La comparaison des valeurs maximales fournies par EDF sur plusieurs années à celle obtenues avec notre série permet d'évaluer cet écart entre 1.7 et 2.9°C.
Difficile de dire quel est l'origine de biais. Quoi qu'il en soit, ce qui nous intéresse, c'est de prédire les températures mesurées par EDF, celles qui sont utilisées pour décider de l'arrêt ou non de la centrale. Afin de s'en rapprocher, on va, faute de mieux, rajouter 2.3°C aux mesures de Lamagistère.

C:\ start Skynet.exe


Nous avons les données, il est temps de les confier à un système d'intelligence artificielle. Et plus précisément d'apprentissage machine.
 
L'apprentissage machine (machine learning en anglais) est un sous-domaine de l'intelligence artificielle. Là où des outils informatiques classiques vont s'appuyer sur des règles contenues dans leurs codes pour prendre telle ou telle décision, les algorithmes d'apprentissage machine sont capables de créer eux-même des règles.
Ils ont besoin pour celà d'un entrainement : on leur soumet des données d'entrée (appelées caractéristiques ou features en anglais) associées à un résultat connu (étiquette ou label), l'algorithme essaie de deviner le résultat à partir des données d'entrée, calcule son erreur, modifie légèrement ses règles en fonction puis recommence jusqu'à ce qu'il ne parvienne plus à améliorer son score.

Dans notre cas, on va prendre 6 caractéristiques : la température de l'air en moyenne journalière entre J et J-4, soit 5 valeurs, et le débit moyen entre J et J-4. L'étiquette que l'on cherche à deviner est la température moyenne journalière de l'eau à J.
Nous avons ces données sur près de 10 ans en 2008 et 2017. Afin de simplifier la tache de notre algorithme nous allons ne garder que les mois d'été (juin, juillet, août) soit 828 points de données. Nous allons entrainer notre algorithme sur les années 2008 à 2016 et garder l'année 2017 de coté. Cette dernière année, que l'algorithme n'aura jamais vu pendant son entrainement, nous permettra de le tester.

Une des difficultés de l'apprentissage machine est qu'il existe une grande variété d'algorithmes dont certains demande une configuration précise. Le choix n'est donc pas toujours évident.
N'ayant pas d'a priori sur le plus adapté, j'ai décidé de tester quelques algorithmes classiques. Sans rentrer dans les détails, il s'agit : d'une forêt aléatoire, d'une machine à vecteurs de support, des k plus proches voisins, d'un réseau de neurones, d'une bonne vieille régression linéaire et d'une régression polynomiale d'ordre 3.

Après entrainement, voici comment ces 6 modèles prédisent la température de l'eau à Golfech pendant l'été 2017 (que rappelons-le, ils ne connaissent pas encore) :
Le réseau de neurones est le plus performant : en moyenne il se trompe de 0.58°C. Viennent ensuite quasiment ex-aequo la forêt aléatoire et les deux régressions, avec 0.72 et 0.74°C d'erreur absolue moyenne.

Je vais garder le réseau de neurone mais aussi la régression linéaire. Pour la plupart des gens, les réseaux de neurones sont des boites noires un peu magiques, c'est souvent une bonne chose d'avoir un modèle facilement compréhensible à coté pour contrebalancer.

Utime test


Ces deux algorithmes étant choisis, on les réentraine en prenant cette fois l'ensemble du jeu de données. 
 
Avant de passer à la prévision des prochains jours, il me semble intéressant les soumettre à un dernier test.
Nous avons des données sur le débit et la température de l'air pour 2018 et 2019 mais pas de données sur la température de l'eau puisque la station a cessé de fonctionner fin 2017. Par contre on sait que la centrale nucléaire de Golfech a subi des indisponibilités climatiques du 6 au 9 août 2018 et du 23 au 29 juillet 2019.
C'est donc certainement que la température de la Garonne a dépassée la limite de 28°C au début de chacune de ces deux périodes. Cela est confirmé par les rapports de surveillance de l'environnement pour 2018 et 2019.

Voyons si nos modèles parviennent à prédire ces dépassements et donc l'indisponibilité qui en a résulté.

Voici la température de la Garonne en aval de Golfech pour l'été 2018, telle que prédite par notre réseau de neurones et notre modèle linéaire :
On voit que les modèles identifient bien le réchauffement de la première semaine d'août mais échouent juste sur la ligne avec une température maximale de 27.8°C environ. Contre 28.25°C mesuré par EDF le 6 août.

En 2019, le dépassement est plus franc : jusqu'à 29.2°C. Cette fois nos deux modèles situent bien la Garonne au dessus du seuil autorisé de 28°C. La prédiction du modèle linéaire est presque parfaite (29.12°C), celle du réseau de neurone encore un peu en dessous de la réalité (28.82°C) :
Ces deux tests sont plutôt encourageants mais  nos modèles semblent légèrement optimistes. Peut-être parce qu'on ne s'est pas tout à fait débarrassé de l'écart entre les mesures de la station de Lamagistère et celles d'EDF ? C'est quelque chose que l'on peut garder en tête pour la suite.

Alors Golfech, on l'arrête ou pas ?


Nous avons collectés des données, nous les avons corrigés par comparaison à celles publiés par EDF, nous avons entrainé et testé 6 algorithmes d'apprentissage machine, nous en avons retenu deux que nous avons retesté avec un certain succès sur les période d'indisponibilité de 2018 et 2019.

Tournons nous maintenant vers les prévisions les plus difficiles : celles qui concernent l'avenir. Qu'est-ce que ces modèles nous disent sur la vague de chaleur des prochains jours ?

Pour cette prédiction, je me suis appuyé sur une hypothèse de débit moyen constant de 90m3/s (approximativement ce qu'on observe depuis le 1er août). Les prévisions de températures sont issues du modèle ARPEGE de Météo France et vont jusqu'au 10 août. Elles donnent par exemple 30.8°C en moyenne journalière demain, 7 août.

Avec ces hypothèses, nos modèles donnent la température suivante pour la Garonne :
On devrait avoir un net réchauffement de l'eau à la hauteur de Golfech au cours des deux prochains jours avec un maximum ce week-end autour de 27.2°C. Donc encore assez confortablement sous la limite autorisés des 28°C.

Si toutefois la vague de chaleur venait à se prolonger quelques jours après le 9, la température de la Garonne se rapprocherait de sa limite en début de semaine prochaine : avec 28°C le 10 (au lieu des 24.6 actuellement prévus par Météo France) et le 11, le seuil serait atteint le 11.

Finalement que s'est-il passé ? (mise à jour du 18/8)

 
Avec le recul, le résultats sont plutôt bons sinon pour anticiper les indisponibilités de Golfech, du moins pour anticiper la façon dont EDF anticipe ces indisponibilités.

Les premiers résultats, publiés dans cet article le 6 août, suggéraient un risque d'indisponibilité à partir du 11. Ce risque a été confirmé par EDF dans un message daté du 7 août dans l'après-midi
Le lendemain, 8 août, j'ai fait tourner à nouveau mes modèles sur la base des dernières prévisions de températures. Le résultat montrait qu'un arrêt le 11 était peu probable :
 


Là encore cette prévision a été confirmée par EDF le lendemain. Un nouveau message, daté du 9 août, affirme que "au regard des dernières prévisions de température pour la Garonne, il n'est plus envisagé de restrictions de production pour le CNPE de Golfech dans les sept jours à venir."

Je n'ai pas refait d'actualisation par la suite et mal m'en a pris car finalement le réacteur 2 de la centrale de Golfech, le seul encore en fonctionnement, a finalement été mis à l'arrêt le 12 août en milieu de journée. La centrale s'est donc retrouvé complétement indisponible dans les dernières heures de la canicule.

Faute d'une dernière actualisation qui aurait peut-être (ou peut-être pas) prévu cet arrêt, le test ne peut pas être considéré comme entièrement concluant. En tous cas, les modèles parviennent apparemment à anticiper le diagnostic de l'exploitant environ 24 heures avant qu'il le communique. Je crois que c'est en soi un résultat assez remarquable compte-tenu de l'asymétrie d'information et de moyens.


Conclusion


Si vous suivez régulièrement ce blog, vous vous souvenez peut-être que je m'étais prêté au même exercice l'année dernière pour la centrale nucléaire de Saint Alban. J'espère que vous appréciez le chemin parcouru depuis...

La prévision à court-terme de la disponibilité d'une centrale nucléaire est un enjeu technique et économique important, y compris pour des acteurs qui n'ont pas accès à l'expertise et aux données d'EDF : la semaine dernière, l'annonce de l'arrêt possible des 2 réacteurs de Golfech a apparemment entrainé un bond de 10% du prix du gros de l'électricité.

Mais ce n'est pas vraiment le sujet qui m'occupe. Je suis plus intéressé par les effets à moyen-terme du réchauffement climatique.

La plupart des installations industrielles qui utilisent l'eau d'un fleuve pour se refroidir sont soumises, comme la centrale nucléaire de Golfech, à une température limite des rejets de 28°C. Ce seuil devient plus difficile à respecter avec le réchauffement et l'aridification du climat.
Beaucoup de ces installations ont aussi des durées de vie de plusieurs décennies, c'est-à-dire qu'un projet lancé maintenant devra pouvoir fonctionner au milieu du siècle. Etre capable d'évaluer rapidement les risques climatiques, non pas la semaine prochaine, mais à l'horizon 2040 ou 2050 est crucial pour adapter l'emplacement et la conception de ces projets, assurer leur viabilité et, in fine, construire une économie plus résiliente face au changement climatique.

Les centrales nucléaires sont un cas d'étude passionant, parce que nous dépendons tous directement de leurs productions et parce qu'elles s'inscrivent dans un système électrique beaucoup plus vaste et complexe, potentiellement sujet aux effets dominos. Mais elles ne sont qu'un exemple d'une vulnérabilité beaucoup plus générale.


Publié le 6 août 2020 par Thibault Laconde, mis à jour le 18 août 2020