COP23 : les 5 enjeux de la conférence sur le climat de Bonn

La 23e conférence internationale sur le climat, alias COP23, se tiendra du 6 au 17 novembre à Bonn. Il y a deux ans la COP21 avait été marquée par l'adoption historique de l'Accord de Paris, l'année dernière l'entrée en vigueur de l'Accord avait précédé de peu la COP22 de Marrakech mais l'enthousiasme avait été douché en pleine conférence par l'élection d'un climatosceptique à la Maison Blanche...

Cette nouvelle conférence sera-t-elle aussi mouvementée ? Que peut-on en attendre ?

Sur le même sujet :

Vous êtes une entreprise, une ONG ou un organisme public et vous avez besoin d'un accompagnement (veille, plaidoyer, rédaction...) pendant la COP23 ?  C'est par ici !



1. Préparer la COP24 et l'entrée en vigueur de l'Accord de Paris


A priori, la COP23 s'annonçait comme une conférence technique dont le principal enjeu est de préparer la suivante.

Résumé des épisode précédents : L'Accord de Paris, le premier accord universel sur le climat, a été adopté en décembre 2015, il est entré en vigueur 11 mois plus tard. Ce délai très court est sans précédent pour la diplomatie environnementale moderne : le protocole de Kyoto par exemple avait mis 74 mois pour passer de l'adoption à l'entrée en vigueur.
Cette rapidité a pris tout le monde au dépourvu. En réalité, l'Accord de Paris n'est pas pret à être appliqué : c'est un texte resserré qui défini seulement les grands principes, il faut maintenant négocier les détails pratiques. L'année dernière, la COP22 a fixé la date à laquelle ces règles du jeu (ou "rulebook" en version originale) devront être finalisées : ce sera lors de la COP24 de Katowice en 2018.

Ce que l'on attendait donc surtout de la COP23, c'est de faire avancer les négociations sur la mise en oeuvre de l'Accord de Paris afin qu'il puisse être appliqué comme prévu dès l'année prochaine. Le succès ou l'échec de cette COP se jugerait donc sur des signaux faibles : pas de grands textes à adopter en plénière, très peu de chefs d'Etat, des négociations de boutiquiers et des bruits de couloirs...


2. Gérer l'administration Trump


Mais ça c'était avant... Depuis un événement est venu tout bouleverser : Donald Trump a annoncé que les Etats-Unis allaient sortir de l'Accord de Paris. La conférence de Bonn est la première depuis cette annonce et s'ouvre donc sur beaucoup d'incertitudes.

L'annonce de Donald Trump ne peut pas prendre effet avant 2019 et d'ici-là les Etats-Unis restent parties à l'Accord de Paris. On observera donc avec beaucoup d'attention et un peu d'inquiétude l'attitude des délégués américains : Vont-ils se mettre sagement en retrait ? Vont-ils tenter d'infléchir les négociations en leur faveur ? Ou vont-il essayer de tout bloquer ?

Cette dernière option serait évidemment catastrophique. Les décisions se prenant à l'unanimité, les Etats-Unis ont la possibilité de neutraliser les trois prochaines conférences, et de retarder dramatiquement la mise en oeuvre de l'Accord de Paris. Dans ce cas, l'action climatique internationale serait probablement obligée de se déplacer vers d'autres forum pour éviter d'être paralysée. C'est peut-être ce qu'Emmanuel Macron avait en tête lorsqu'il a proposé un sommet sur le climat a Paris juste après la COP23.


3. Endiguer les Etats-Unis et éviter une contagion


Selon les optimistes, la position de Trump n'a pas eu d'impact en dehors des États-Unis. Au contraire, elle aurait même resserré les rangs et incité les autres pays et les acteurs non-étatiques à aller plus vite et plus loin.
La réalité n'est pas aussi rose : plusieurs pays sont arrivés à la COP21 en traînant les pieds et d'autres ne sont plus très enthousiastes à l'idée d'honorer leurs engagements. Ils pourraient être tentés de suivre les États-Unis dans leurs défection ou d'en profiter pour revoir les ambitions à la baisse. La COP23 sera l'occasion de savoir un peu plus précisément ce qu'il en est.

On surveillera notamment l'Australie, où les climatosceptiques dirigés par l'ancien premier-ministre Tony Abbott ont repris l'offensive après deux ans en retrait et semblent sur le point de l'emporter.
Il faudra aussi faire attention à la Russie qui n'a toujours pas ratifié l'Accord de Paris - avec la Turquie, c'est le seul pays du G20 dans cette situation. Au début des années 2000, Vladimir Poutine avait utilisé l'élection de Georges W. Bush et sa décision de ne pas ratifier le Protocole de Kyoto pour monnayer au mieux la ratification russe et obtenir de nombreuses concessions. Il pourrait être tenter d'utiliser à nouveau cette stratégie aujourd'hui...
Même en Europe, la situation n'est pas tout-à-fait rassurante. En Allemagne, pays-hôte de la conférence, des négociations compliquées sont en cours pour former une nouvelle coalition et l'ambition climatique est au coeur des discussions. Dans ce domaine comme dans d'autres, la Grande Bretagne pourrait être tentée par le moins-disant afin de retenir des entreprises effrayées par l'incertitude politique et réglementaire endémique depuis le 23 juin 2016. La France, elle, est à l'aube d'une révision de sa politique énergétique dont les conséquences pour les émissions de gaz à effet de serre sont encore incertaines.

En sens inverse, la Chine qui est, rappelons-le le premier émetteur de gaz à effet de serre de la planète, a fait un nouveau pas vers le leadership climatique avec  le discours de Xi Jinping le 18 octobre.

Bref, c'est toute la carte de la lutte contre le changement climatique qui est en train d'être redessinée et on y verra sûrement un peu plus clair à la fin de la COP23.


4. Confirmer la mobilisation des acteurs non-étatiques


De la même façon on suivra avec attention les interventions des collectivités et des entreprises. Le rôle de ces acteurs non-étatiquesa rapidement gagné en importance depuis quelques années et ils s'imposent comme une voie de recours aux Etats-Unis.
Les conférences précédentes ont vu un foisonnement d'initiatives, lesquels ont résisté à l'épreuve du temps ? La société civile sera-t-elle aussi mobilisée pour cette conférence a priori peu spectaculaire que pour les COP21 ou 22 ? Et, au-delà de leurs prises de position, quels progrès concrets les acteurs non-étatiques peuvent-ils démontrer ?


5. Apporter des réponses aux Etats insulaires et aux pays les plus vulnérables


C'est Frank Bainimarama, le premier ministre des Iles Fidji, qui présidera la COP23. C'est la première fois qu'un État insulaire a un tel rôle dans une conférence sur le climat.
Il aura certainement à coeur de faire entendre ces petits pays menacés de submersion et plus largement de donner la parole aux premières victimes du changement climatique. L'AOSIS, la coalition des Etats cotiers et insulaires, sera probablement très active notamment pour rappeler l'objectif de limiter le réchauffement de la planète à 1,5°C et les engagements financiers des pays développés.


Publié le 20 octobre 2017 par Thibault Laconde


Vous avez aimé cet article ? N'en ratez aucun en vous inscrivant à la newsletter mensuelle.


Le nucléaire est-il flexible ?

La production électrique d'une centrale nucléaire est-elle flexible ?
A votre avis, un réacteur nucléaire c'est comme une bonne vieille ampoule à filament : soit allumé soit éteint ? Ou est-ce que ça ressemble plutôt à ces lampadaires halogènes dont on peut régler l'intensité lumineuse ?
La question vous parait farfelue ? Et pourtant : ces temps-ci, la flexibilité du nucléaire est un des sujets de débats favoris des pro- et des anti-nucléaires.

Tout semble être parti d'un petit film diffusé par EDF pendant la COP21 et mettant en scène des centrales nucléaires "manœuvrantes", c'est-à-dire capables d'adapter rapidement leur production électrique. Cette vidéo d'une minute à peine est régulièrement réutilisées par EDF. Ce qui ne manque pas de susciter la fureur des opposants à l'atome, ceux-ci contestant de façon véhémente l'idée que le nucléaire puisse faire preuve de la moindre flexibilité.

Alors qu'en est-il vraiment ?

(Attention : cet article est long et un peu technique. Si seule la réponse vous intéresse, cliquez ici pour la découvrir tout de suite).


Pourquoi s'intéresser à la flexibilité du nucléaire ?


Comme pour toute bonne dissertation de philosophie, commençons par nous interroger sur le sujet : pourquoi s'intéresser à la flexibilité des centrales nucléaires ?

Comme souvent, il faut revenir à cette règle fondamentale du réseau électrique : la production d'électricité doit toujours être égale à la consommation.

C'est le rôle du gestionnaire du réseau d'assurer en permanence un équilibre entre les deux membres de cette égalité, sachant que l'un et l'autre varient de façon prévisible (si la météo annonce une baisse de température, par exemple, la consommation va augmenter) ou non (ex : l'arrêt inopiné d'une centrale entraîne une baisse de la production). Ce qui lui simplifierait beaucoup le travail, ce serait des centrales électriques capables de démarrer instantanément et d'ajuster leurs productions à la hausse comme à la baisse à la moindre demande.
Malheureusement, cette centrale parfaitement manœuvrable n'existe pas. Mais les turbines à gaz (en particulier à cycle ouvert) et les barrages hydroélectriques se rapprochent de cet idéal. Le solaire photovoltaïque et l'éolien en sont eux à l'exact opposé puisque la production dépend de facteurs extérieurs sur lesquels nous n'avons aucune prise. Entre les deux c'est une affaire de gradation.

Avec l'impératif de réduction des émissions de gaz à effet de serre, la manœuvrabilité devient une contrainte majeure. L'énergie nucléaire et les renouvelables sont les deux seules options dont nous disposons pour produire de l'électricité sans dioxyde de carbone. On pourrait donc imaginer un mix électrique basé sur ces deux énergies, sauf que...
Sauf que si le nucléaire n'est pas assez flexible, il ne peut pas fonctionner en couple avec les renouvelables qui elles ne le sont pas du tout. Au moins aussi longtemps qu'on ne dispose pas de capacités de stockage massives et/ou d'un système bien plus efficace pour maîtriser la demande.

Les partisans de l'atome placent beaucoup d'espoir dans la lutte contre le changement climatique. Il est donc vital pour eux de lever ce doute : si il ne peut pas travailler avec les renouvelables, le nucléaire, qui est plus cher, plus complexe à construire et moins populaire, risque fort de rester sur le bas-coté de la transition climatique.
En sens inverse, les opposants veulent montrer que le nucléaire empêche le développement des renouvelables dans l'espoir de prouver que, paradoxalement, cette énergie décarbonnée retarde la baisse des émissions dans le secteur électrique.


Techniquement : délicat mais pas impossible


Moduler la puissance d'un réacteur nucléaire n'est clairement pas une chose aisée. Tout l'enjeu de la conception d'un réacteur est de parvenir à équilibrer la réaction de fission, en évitant qu'elle s'éteigne si les atomes en se brisant ne créent pas assez de neutron pour causer la prochaine fission ou pire qu'elle s'emballe s'ils en produisent trop. Modifier ce point d'équilibre est donc délicat.
Délicat mais pas impossible : on peut ralentir la réaction en introduisant dans le coeur du réacteur un neutrophage, c'est-à-dire un matériaux qui a la capacité d'absorber des neutrons et donc de les retirer de la réaction nucléaire. En général, il s'agit de bore que l'on met dans le réacteur soit sous forme d'acide borique dans l'eau du circuit primaire, soit grâce à des barres de bore que l'on peut plonger ou retirer du réacteur.

Ces manoeuvres ont cependant des effets secondaires désagréables, par exemple :
  • Usure plus rapide des mécanismes sollicités comme le système de contrôle des barres de bore (qui est vital pour la sécurité puisque les barres de bore servent avant tout de frein d'urgence : en cas de problème, on les laisse tomber dans le coeur du réacteur ce qui a pour effet d'arrêter instantanément la réaction),
  • Forte variation de la température dans le réacteur, ce qui entraîne des contraintes mécaniques importantes, pouvant par exemple conduire à des fissures dans les pastilles combustibles,
  • Apparition de produits de fissions indésirables (comme le xénon).
Pour plus de détails à ce sujet voyait cette étude (chp 3 à partir de la page 27).

L'un dans l'autre, ces effets limitent la possibilité de moduler la puissance du réacteur, cela devient plus difficile par exemple quand le combustible est usé. Ils ont aussi des conséquences sur la disponibilité (de l'ordre de 1.2% ?), le coût d'exploitation et la durée de vie du réacteur... Ces effets  ne sont pas encore entièrement connus et quantifiés, si vous êtes intéressé EDF cherchait récemment un stagiaire pour travailler là-dessus.


Économiquement, c'est une autre affaire


Il existe une bonne raison pour que la flexibilité du nucléaire ait été peu étudiée : ce n'est pas la façon dont l'atome a été utilisé jusqu'à présent, un réacteur apparaissant au contraire comme l'archétype d'une centrale "de base" destinée à fonctionner presque en permanence et à charge quasi-constante.

Pourquoi ? Parce que même si techniquement, un réacteur nucléaire peut faire varier sa production de façon à suivre la demande, économiquement ça n'a pas de sens. En effet, l'énergie nucléaire se caractérise par des coûts fixes massifs et des coûts variables faibles. Pour rentabiliser les investissements initiaux, il faut produire le plus possible, idéalement tout le temps et à pleine charge.
En particulier, les exploitants des centrales ont intérêt à limiter l'installation d'énergies renouvelables qui bénéficient en général d'une priorité d'accès au réseau si cela risque de les obliger à réduire leurs production.

Ce n'est pas le cas pour les centrales thermiques dont les coûts initiaux sont plus faibles mais qui ont des coûts variables importants en raison du combustible brûlé. Contrairement aux réacteurs nucléaires, leur survie n'est donc pas forcément suspendue à une production importante.


Qu'en est-il en pratique ?


Puisqu'il existe peu de certitudes sur la flexibilité du nucléaire. Pourquoi ne pas regarder ce qui se passe dans ce grand laboratoire de l'atome qu'est la France ?

Les chiffres de RTE prouvent sans ambiguïté que les réacteurs français modulent quotidiennement leur production dans une marge de l'ordre de 10% en dessous de leurs puissance nominale. Certains d'entre eux la font, en plus, varier de façon beaucoup plus importante mais c'est un peu moins fréquent.
C'est ce que montre le graphique ci-dessous qui représente la production des réacteurs français pendant 2 semaines de 2017 :

La production des réacteurs nucléaires français montre qu'ils sont relativement manoeuvrables

On voit notamment que la production nucléaire a été réduite les dimanches 12 et 19 mars pour s'adapter à une demande plus faible. On observe aussi des baisses sur certaines périodes où la production éolienne a été bonne, comme le 18.

Cela ne fait quand même pas des réacteurs nucléaires les champions de la manoeuvrabilité, loin de là... La comparaison avec une centrale à gaz est éclairante :

La production d'électricité nucléaire est peu flexible comparée à celle d'une turbine à gaz

Sans surprise, la production du réacteur nucléaire et de la turbine à gaz sont varient de façon assez similaire, mais le gaz permet de descendre et de monter beaucoup plus souvent et beaucoup plus rapidement.

Si on se réfère à la pratique actuelle, les réacteurs nucléaires français peuvent donc ajuster leurs production à la baisse mais cette flexibilité est limitée ou peu exploitée.



En conclusion


La réponse est donc mitigée... Oui, le nucléaire dispose d'une certaine flexibilité. Mais son utilisation systématique poserait des problèmes techniques et économiques, donc oui aussi, un parc nucléaire disproportionné peut limiter l'intégration des énergies renouvelables intermittentes.
Dans le cas de la France, une étude de 2009 (citée par ce rapport mais que je n'ai malheureusement pas pu retrouver) estime que le parc nucléaire actuel peut s'accommoder sans problème de 25GW d'éolien mais qu'ensuite des problèmes techniques et économiques pourraient se poser... Comme Emmanuel Macron a promis un doublement des capacité éoliennes, on devrait s'approcher de ce seuil à la fin du quinquennat. Le problème est donc bien d'actualité.

Deux remarques en guise de conclusion de cette conclusion, et après promis je vous lâche :
  1. Je ne crois pas que la manœuvrabilité limitée puisse en soi disqualifier le nucléaire. En fait, pris seul, cet argument me semble souvent tautologique : il faut baisser le nucléaire pour développer les renouvelables, et développer les renouvelables pour pouvoir baisser le nucléaire... CQFD.
    Ce sujet ne devient sérieux que si il existe une raison indépendante que les renouvelables se développent au détriment du nucléaire (ce qui est le cas à mon avis puisque le parc nucléaire français vieilli et va devoir être remplacé).
  2. Une autre façon de formuler ce problème pourrait être : à puissance installée équivalente, on pourra intégrer plus de capacités renouvelables dans un mix électrique dominé par le gaz, et dans une moindre mesure par le charbon, que dans un mix électrique basé sur le nucléaire.
    La discussion est donc en réalité très franco-française puisque nous sommes (avec une poignée d'ex-républiques soviétiques) le seul pays dont la production d'électricité dépend majoritairement du nucléaire. Il serait par exemple complètement faux de dire que la fermeture des centrales nucléaires a facilité l'intégration des renouvelables sur le réseau électrique allemand.


Publié le 12 octobre 2017 par Thibault Laconde



Vous avez aimé cet article ? N'en ratez aucun en vous inscrivant à la newsletter mensuelle.


L'énergie du futur n'est plus ce qu'elle était

J'ai regardé récemment la bande annonce de Blade Runner 2049. Et on ne se refait pas : j'ai été frappé par la façon dont le film représente la production d'énergie dans ce futur proche.

Comment, un mois après, l'ouragan Harvey n'a pas fini de faire des dégâts

Dans les médias, les cyclones ne durent pas : ils se forment, se déplacent pendant quelques jours puis frappent. Les journaux se remplissent alors de photos de toits arrachés et de maisons innondées, les politiques vont sur place, on déplore les victimes et puis les envoyés spéciaux font leurs valises et on passe à autre chose.

Et c'est ainsi qu'est entretenue l'illusion qu'on peut se remettre facilement d'une telle catastrophe. C'est complétement faux.
La crise dure bien après qu'elle ait cessé de faire les gros titres : même dans un pays développé, il faut des semaines pour revenir à une situation à peu près normale et la reconstruction peut prendre des années.

L'ouragan Harvey, qui a touché le sud du Texas il y a exactement un mois, en offre un exemple : malgré toute la puissance des Etats-Unis, les plaies sont loins d'être pansées. Voici 6 raisons pour lesquelles Harvey continue, et va continuer, à affecter Houston.

> Pour les sources ou plus de détails : cliquez ici.



1. De nombreux habitants pourront difficilement reconstruire leurs maisons

Le cyclone Harvey au-dessus des côtes du Texas en août 2017Tenez-vous bien : 185.000 maisons ont été endommagées dont 9000 sont entièrement détruites. Des pans entiers de la ville sont à reconstruire.
Le problème c'est que, aux Etats-Unis, les risques d'innondation ne sont pas couverts par les contrats d'assurance habitation. Il est possible de souscrire un assurance spécifique mais très peu de propriétaires s'en donnent la peine : à Houston seuls 15% étaient assurés contre les innondations. Même dans les zones considérées à haut risque, où cette assurance est en théorie obligatoire, moins d'un batiment sur 3 était couvert...

Par ailleurs Houston est une "ville sanctuaire", refusant d'appliquer la politique du gouvernement Trump en matière d'immigration. Elle héberge une des plus importante population d'immigrés clandestins aux Etats-Unis : 10% de la population environ est sans-papier. Ces habitants n'ont en général pas accès à des aides. Le contexte politique risque de toute façon de les dissuader de chercher de l'assistance : le Texas a mis récemment hors-la-loi les villes sanctuaires.


2. Le système d'assurance contre les innondations est en faillite

Les assurances contre les innondations, parlons-en...
Aux Etats-Unis, presque aucun assureur privé ne se risque sur ce marché. La très grandes majorité des assurances contre les innondations passent par un système public mis en place en 1968 : le National Flood Insurance Program. Même la propriété de Donald Trump à Mar-a-Lago s'est assurée auprès du NFIP !

Sauf que le NFIP est moribond. Il ne s'est jamais remis des ouragans qui ont touché la Nouvelle Orléans en 2005 et New-York en 2012, lui laissant une dette de 25 milliards de dollars. Le programme devait expirer le 30 septembre et semblait bien parti pour être réformé à la hache.
Mais avec 3 ouragans de catégorie 3 ou plus qui ont touché coup sur coup le Texas (Harvey), la Floride (Irma) et Puerto-Rico (Maria), il était difficile de laisser mourir l'assurance innondation de centaines de milliers d'américain. Donald Trump s'est donc entendu avec les représentants démocrates au Sénat le 8 septembre pour prolonger le NFIP... de 3 mois !

Cela promet d'intéressantes discussions en décembre, quand la dette du NFIP se sera encore creusée de quelques dizaines de milliards.


3. Le prix de l'essence n'est toujours pas redescenu

Houston est le coeur de l'industrie pétrolière américaine. Sans surprise, l'arrivée de l'ouragan a fait monter en flèche les cours de l'essence : le prix de gros est passé d'environ 1.6 dollar le gallon à 2.17 à son point le plus haut. Il est ensuite très vite redescendu.

Mais ce n'est pas le cas pour les prix à la pompe : ils ont augmenté dans tout le pays et commencent à peine à baisser. Le 21 août, l'automobiliste américain payait en moyenne 2.33$/gallon pour son carburant, le 31 août 2.45$ et 2.65$ le 5 septembre alors que les prix de gros étaient déjà retombés à leur niveau normal.
Un mois après le passage de Harvey, le prix à la pompe est toujours de 2.57$ par gallon en moyenne. Le retour à la normal devrait prendre des semaines... Pour les automobilistes américains, qui consomment 12 milliards de gallons de carburant par mois, la facture va se compter en milliards de dollars.


4. Le trafic est durablement perturbé autour du 2e port des Etats-Unis

Le port de Houston est le deuxième port américain en tonnage et le premier pour le trafic international. Il a été fermé pendant 5 jours ce qui a entrainé le déroutement d'une soixantaine de navires.
Les ports de Corpus Christi et Beaumont (qui font partis des 10 plus importants aux Etats-Unis) ont aussi été fermés, comme ceux un peu moins importants de Port Arthur et Texas City.

Les ports ont été relativement épargnés mais ce n'est pas le cas des canaux qui relient Houston au Golfe du Mexique : la pluie y a amené tellement de débris et de sédiments qu'ils ont perdu environ un mètre de profondeur. Résultat : le tirant d'eau des bateaux rejoignant Houston doit être réduit jusqu'à ce que les canaux soient dragués.
Les canaux de l'intracoastal reliant Houston à Corpus Christi plus au sud ont aussi été obstrués. Pour l'instant seules les péniches vides peuvent les emprunter et ils ne devraient pas redevenir opérationnel avant 2 mois.


5. L'activité industrielle est toujours perturbée

Ces voies naviguables sont normalement très utilisées pour les échanges entre raffineries et usines pétrochimiques, qui font la richesse de Houston. Mais la logistique n'est pas le seul problème pour faire rédémarrer l'économie locale.
Les activités industrielles ont été presque totalement interrompues pendant le cyclone : 80% des capacités de raffinage ont été mises à l'arrêt, ce qui représente quand même presque un quart des raffineries américaines...

Et la remise en service s'est avérée plus difficile que prévu. Seules 2 raffineries sur 19 ont réussi à revenir à pleine capacité en moins de 2 semaines. Aujourd'hui, la raffinerie Total de Port Arthur est encore à l'arret et 8 autres tournent toujours au ralenti.


6. Personne ne connait réellement les conséquences environnementales

Arkema, ça vous dit quelque chose ? Non ? Les habitants de Houston, eux, connaissent...
Arkema, c'est le premier groupe de chimie français, une ancienne filiale de Total. Pendant l'ouragan une usine du groupe située un peu à l'ouest de Houston a perdu son alimentation électrique principale puis son alimentation de secours. Or l'usine stockait des produits chimiques très instables qui devaient impérativement être maintenus à basse température... Pas d'électricité, pas de réfrigération. Le 31 août deux chargements ont explosé. Le lendemain l'exploitant a décidé de mettre le feu aux 8 chargements restants plutôt que d'attendre qu'ils explosent.
D'après Arkema, les explosions et les incendies ont rejeté un peu plus de 40 tonnes de polluants atmosphériques. Des pompiers et policiers présents sur place sont tombés malades peu après et ont porté plainte contre l'entreprise française, des riverains et les autoritées locales se sont joints à la plainte.

Si les industries ont tellement de mal à repartir c'est que beaucoup ont été innondées ou ont subi d'autres dommages pendant l'ouragan. Ces dégats ont aussi eu pour conséquence un pic de pollution.
Selon les déclarations initiales des exploitants, les rejets non-autorisés ont atteint 2500T pendant l'ouragan et les deux semaines qui ont suivi. C'est presque autant que pour toute l'année 2016... Ajoutons que ces premières déclarations sont probablement très sous-estimées et que l'Agence américaine de protection de l'environnement ne semble pas faire preuve de zèle.


En guise de conclusion

Cet inventaire n'est certainement pas exhaustif. Même si on n'en parle plus guère, il faudra probablement beaucoup de temps à Houston pour se remettre du passage de Harvey. Et ce n'est pas un cas à part. Pour ne citer qu'un exemple : plus de 10 ans après Katrina, la Nouvelle Orléans n'a toujours pas retrouvé sa population de 2005 !
En France, les dégats causés par Irma dans Antilles ont provoqué une petite polémique. Le gouvernement a été accusé... de quoi au juste ? La réalité c'est que ces phénomènes climatiques sont catastrophiques même pour un pays développé et qu'il faut des années et des milliards pour s'en remettre.

Alors que les projections nous disent que ces évenements violents vont devenir plus fréquents avec le changement climatique, nous sommes bien plus vulnérable que nous voulons l'admettre.


(Cet article est inspiré d'un retour d'expérience sur l'ouragan Harvey que j'ai publié récemment. Vous pouvez lire la note complète ici)


Publié le 29 septembre 2017 par Thibault Laconde



Vous avez aimé cet article ? N'en ratez aucun en vous inscrivant à la newsletter mensuelle.


Budget 2018: Coup d'accélérateur pour la taxe carbone

Le projet de loi de finance pour 2018 a été dévoilé aujourd'hui. Au milieu de ces quelques centaines de pages un peu aride, on note une hausse sensible de la fiscalité sur le carbone. Les prix des énergies fossiles, essence, fioul et gaz en tête, vont donc augmenter dès l'année prochaine (cf. article 9 du PLF2018, p.42).

Augmentation de 50% du prix du carbone en 2018


La taxe carbone à la française est en réalité un prélèvement sur les consommations d'énergie proportionnel à leur émissions de gaz à effet de serre. Elle est intégrée dans les taxes intérieures de consommation sur les produits énergétiques (ou TICPE).

Actuellement, cette taxe est de 30.5€ par tonne de dioxyde de carbone. Elle va augmenter l'année prochaine de presque 50% et atteindre 44.6€/TCO2e.
Une hausse de la taxe carbone était déjà prévue par la loi de transition énergétique adoptée en 2015 mais elle devait se limiter à 39€ en 2018. L'ambition est donc revue sérieusement à la hausse.

Le budget 2018 confirme par ailleurs la trajectoire annoncée par Nicolas Hulot avant l'été : le prix du carbone passera à 55€ par tonne en 2019, 65.40 € en 2020, 75.80 € en 2021 et 86,20 € en 2022. On arrive donc presque à une multiplication par 3 en 5 ans...

A noter cependant : les industriels qui sont déjà soumis au système européen de marché du carbone sont exemptés. De même que les taxis, les transporteurs routiers et les agriculteurs.

Concrètement : quelle hausse des prix de l'énergie ?


En pratique, la hausse de la taxe carbone va avoir un effet sensible sur le prix de toutes les énergies sauf l'électricité. Toutes choses égales par ailleurs, l'essence (Super sans plomb 95 E5), par exemple, va augmenter de 3.22 centimes par litre dès 2018 et de 12.73 centimes à l'horizon 2022.
BUdget 2018 : Hausse du prix de l'essence entre 2017 et 2022

Le gaz et le fioul verront aussi leurs prix augmenter. Le prix du gaz devrait augmenter d'environ 3 centimes par mètre cube en 2018 et la hausse devrait atteindre 11.2 centimes en 2022. Pour le fioul, l'augmentation sera de 3.8 centimes par litres l'année prochaine et 14.9 en 2022.
Evidemment d'autres facteurs, comme le prix du pétrole, entrent en jeu et pourront compenser en partie cette hausse de la fiscalité. Ou, au contraire, rendre les énergies fossiles encore plus chères...

Dans le cas du gazole, la hausse sera encore plus rapide puisque le gouvernement prévoit de supprimer son avantage fiscal progressivement d'ici à 2022, ce qui correspond à une augmentation supplémentaire de 2.6 centimes par an.


Publié le 27 septembre 2017 par Thibault Laconde



Vous avez aimé cet article ? N'en ratez aucun en vous inscrivant à la newsletter mensuelle.


Dernières tendances chinoises

J'ai passé une bonne partie de mon été en Chine, plus particulièrement dans la région de Shanghai et dans le Jiangsu, où j'ai pu discuter avec de nombreux professionnels de l'énergie et du développement durable ainsi qu'avec des fonctionnaires locaux. Je vous en ramène quelques unes des tendances actuelles dans les domaines de l'énergie et du développement durable chinois. Si vous pensez que les innovations de l'Empire du milieu peuvent donner le la au reste du monde, cet article est fait pour vous !


Le Vélib', en vraiment libre (peut-être trop ?)


L'affaire semblait entendue : en s'enrichissant, les chinois passeraient du vélo au deux roues motorisés puis à la voiture - avec tous ses inconvénients : embouteillages, pollution... Et pourtant ! Depuis quelques mois, les vélos font un retour spectaculaire dans les rues des villes chinoises.
Que s'est-il passé ? Après quelques essais moyennement fructueux de types vélib', un nouveau système de vélopartage envahit rapidement le pays. Plus de stations : les vélos peuvent être pris et déposés n'importe où, il suffit de trouver un vélo et de scanner son QR code avec un téléphone portable pour obtenir le code de l'antivol. Lorsqu'on n'en a plus besoin, on referme l'antivol et le tour est joué.

Mobike, Ofo ou Youon : les startups chinoises qui révolutionnent le vélopartage
Une dizaine de start-up se sont lancées sur ce marché avec des vélos classiques ou à assistance électrique, parfois localisés par GPS. Leurs noms : Mobike, Ofo, Xiaoming ou encore Youon qui est en train d'être introduit en bourse. Les méthodes de tarification sont variables mais le prix est toujours dérisoires : moins d'un renminbi par heure, soit quelques centimes d'euros.
Ce système repose sur la mise à disposition massive de vélos : plus d'une dizaine de millions au total. Ces nouvelles bicyclettes aux couleurs vives envahissent les trottoirs et, dans certains endroits, s'entassent littéralement. Point positif : cette demande semble avoir, au moins temporairement, relancé l'industrie cycliste chinoise qui semblait condamnée. Points négatifs : les autorités municipales s'agacent et le taux de perte, de dégradation et de vol est très haut, un des principaux obstacles à la pérennité de ce système.


L'éolien prend la mer


Depuis longtemps un acteur majeur de l'éolien terrestre, la Chine semble être en train de prendre le parti de l'off-shore.
Il y a bien sur une évidence géographique : la Chine possède une façade maritime orientale de 15.000km sur laquelle se concentre presque tous ses centres urbains et industriels. La volonté de préserver des surfaces libres dans une des régions les plus densément peuplées de la planète joue aussi un rôle important. Ainsi que - croyez-le ou non - les pressions sociales : dans le Jiangsu des éleveurs de crevettes et des fermes d'algues se sont plaints d'une baisse de leurs productions après l'implantation d'éoliennes à proximité et ont obtenu une indemnisation du gouvernement...

Ce virage vers l'off-shore ne se voit pas encore dans les statistiques : en 2016, la Chine produisait 181TWh d'électricité éolienne... dont seulement 1TWh en mer. Mais malgré quelques tâtonnements (au large de l'estuaire du Yangtse, on a vu apparaître une paire d'éoliennes bipales "pour économiser des matériaux"), il semble bien engagé. Certaines communes côtières jusque là très actives dans l'éolien terrestre ont, officiellement ou de fait, décrété un moratoire au profit de l'off-shore. Cette dynamique pourrait aussi profiter aux autres énergie marines, jusque là inexistantes en Chine : des études en vue de l'installation de systèmes houlomoteurs ou hydroliens sont en cours.


Le solaire entre dans les foyers


Je vous en ai déjà parlé : historiquement, la Chine a fait le choix de solaire thermique domestique, filière qu'elle domine aujourd'hui de la tête et des épaules. Plus récemment, elle s'est ouvert au solaire photovoltaique et s'est dotée en un temps record du premier parc mondial. Mais la fête est peut-être déjà finie : ce développement spectaculaire était encouragé par un tarif de rachat garanti (ou feed-in tariff) que le gouvernement chinois a rendu moins généreux mi-2017. Cette baisse programmée a entraîne un formidable pic des raccordements au second trimestre : 18GW, soit l'équivalent de trois fois l'ensemble du parc français ! Logiquement, le rythme devrait se ralentir dans les mois qui viennent, d'autant que le photovoltaique est, comme l'éolien, victime de la volonté de laisser les sols libres : des projets de fermes solaires ont été annulés parce qu'ils réclamaient des surfaces jugées trop importantes.

Peut-être par contrecoup, l'industrie solaire photovoltaique chinoise se tourne désormais vers les systèmes résidentiels. Dans les zones rurales, seules à disposer d'habitations individuelles permettant ce type d'installations, il n'est plus rare de voir l'incontournable chauffe-eau solaire voisiner avec une dizaine de panneaux photovoltaiques.
Cependant ces installations sont coûteuses : de l'ordre de 50.000RMB dans des zones où 200.000RMB par an est un excellent salaire. Leur développement est donc très dépendant de la publicité et surtout du crédit.

Ce nouvel élan semble donc fragile. Quoiqu'il en soit, passant du solaire thermique au grand photovoltaique puis au photolvatique individuel, le développement du solaire chinois s'est fait par ordre d'EROEI décroissant. Un démarche plus logique, donc, que celle adoptée par la plupart des pays occidentaux.


La ville durable : tout le monde en parle, peu l'ont vu


Depuis les années 80, la surface habitable par habitant a doublé en Chine. Ce chiffre, auquel il faut ajouter un exode rural partiellement contrôlé et une spéculation importante, explique l'explosion de l'immobilier et le développement tentaculaire des villes chinoises. Ce phénomène touche bien sur les grandes métropoles comme Shanghai et Pékin mais la poussée est aussi très forte dans des agglomérations beaucoup plus petites.

La "ville durable", "green city" ou "生态城市" est un enjeu pour la Chine
Projets de ville durable au musée d'urbanisme de Shanghai
Contrairement aux idées reçues, la Chine s'est dotée de plans d'urbanisme assez tôt : dès les années 50 pour les villes principales et dans les années 70-80 pour des villes plus modestes. Cette planification a souvent conduit à des agglomérations multipolaires assez exotiques pour nous qui somme habitués à des centres villes bien définis. Ils ont aussi parfois permis de conserver des quartiers historiques et des zones naturelles. Mais les plans ont souvent été dépassé par la croissance de la population.
Aujourd'hui la circulation semble un problème insoluble dans les grandes métropoles où, malgré d'immenses autoroutes urbaines et un réseau dense de transports publics (à Shanghai, il y a environ 16.000 bus et 50.000 minibus), les embouteillages atteignent des proportions bibliques. La pollution comme l'augmentation de la température rendent épisodiquement les rues invivables. A plus long-terme toute la bande côtière est menacée par la montée des eaux, un problème dont l'artificialisations des sols et un régime de précipitation violent donnent déjà régulièrement un avant-goût.

Les autorités locales sont bien conscientes de ces problèmes. Existe-t-il des solutions ? On voudrait le croire mais en Chine comme ailleurs la "ville durable", "green city" ou "生态城市", reste un slogan populaire auquel on peine à donner une substance.


Publié le 5 septembre 2017 par Thibault Laconde




Vous avez aimé cet article ? N'en ratez aucun en vous inscrivant à la newsletter mensuelle.


Callendar : les premiers signes du réchauffement

Fourrier et Pouillet ont mis en place les bases théoriques pour comprendre l'effet de serre, Tyndall leur a donné raison grâce à ses mesures, Arrhenius a mis ces connaissances en équation et prévu le réchauffement climatique... A la fin du XIXe siècle, les scientifiques se doutaient que la terre allait devenir le théâtre d'une expérience de physique-chime aux dimensions planétaire mais personne ne pouvait encore en observer les effets, ou même dire si elle avait commencé ou non.

Personne, jusqu'à Guy Callendar en 1938...


Un ingénieur entre deux guerres mondiales


Guy Sterwart Callendar nait en 1897 à Montréal. Ses parents sont anglais mais son père, physicien de renom, occupe alors un poste à l'université McGill. Dès 1898, la famille qui compte 3 enfants rentre en Grande Bretagne.
En 1914, Callendar a 17 ans et la chance d'avoir été éborgné par son frère pendant son enfance. Il échappe ainsi aux massacres de la Première Guerre Mondiale. Au lieu de rejoindre le front, il aide au laboratoire de son père qui voit défiler les problèmes techniques nouveaux posés par la guerre industrielle, depuis la construction d'avions jusqu'à la détection des sous-marins.

En 1938, la compilation des température par Callendar montre que le réchauffement climatique a commencéAprès la guerre, Callendar termine des études de mécanique et de mathématique à l'Imperial College avant de retrouver le laboratoire de son père où il se spécialise, comme lui, dans les systèmes de vapeur. A sa mort en 1930, son père lui lègue d'ailleurs les droits sur ses brevets et ses publications dans ce domaine.
La même année, Callendar se marie. Deux jumelles et une vie familiale heureuse naîtront de cette alliance.

Lorsque la Seconde Guerre Mondiale éclate, Callendar est affecté à un centre de recherche du Petroleum Warfare Department dans le Sussex. Il y travaille notamment sur un système répondant au petit nom de FIDO destiné à disperser le brouillard pour permettre aux avions d'atterrir en sécurité.

Après la guerre, il reste au service du ministère de l'approvisionnement, dont il prend sa retraite en 1958. Il meurt peu après, en 1964.


L'homme qui a vu le réchauffement climatique


Tout cela est très intéressant, me direz-vous, et ce M. Callendar semble avoir été un homme tout-à-fait plaisant et un ingénieur de première force, mais quel est le rapport avec le climat ?

Hé bien, Callendar se passionne très tôt pour la météorologie. Ce sera toute sa vie un de ses principaux hobbys, au point qu'il finira par devenir membre de la Royal Meteorological Society.
C'est dans ce cadre qu'il découvre les travaux d'Arrhenius. La perspective d'un réchauffement de la planète sous l'effet des émissions de dioxyde de carbone humaines pique sa curiosité et il entreprend de déterminer si cette prévision est ou non en train de se réaliser.

La difficulté à l'époque est évidemment d'accéder à des données fiables, le réseau d'observation météo est encore limité et ce n'est qu'avec la Seconde Guerre Mondiale que les relévés se généraliseront.
Pour les températures, Callendar s'adresse au Smithsonian qui collecte des données sur près de 150 stations depuis 1880. Pour la concentration en dioxyde de carbone, il fait ses propres mesures en s'éloignant des villes et des centres industriels pour éviter qu'elles soient faussées.
Il calcule ainsi que la température moyenne a augmenté régulièrement depuis 1880, il évalue cette hausse à 0.3°C au milieu des années 30. Il attribut 60% de cette augmentation aux émissions de gaz à effet serre : d'après ses mesures la concentration en CO2 dans l'atmosphère a crû d'environ 6% depuis 1900. Lorsqu'il se tourne vers l'avenir, Callendar estime que la planète pourrait se réchauffer de 2°C.

Callendar met en évidence la hausse de la température et de la concentration en CO2
Graphique de température avec la contribution du CO2 publié en 1938 par Guy Callendar

Il publie ces premiers résultats en 1938. Ils ont un certain écho, mais la communauté scientifique les accueille avec beaucoup d'incrédulité.
C'est surtout l'augmentation de la quantité de CO2 dans l'atmosphère qui est mise en doute : à l'époque le cycle du carbone est encore mal connu et les mesures sont peu fiables. Par ailleurs, la vieille idée d'une "saturation de l'effet de serre", objection formulée par d'Angström dès 1901, reste puissante. En 1941, le bureau météorologique américain rend un avis définitif : aucune augmentation du CO2 atmosphérique ne peut affecter significativement le bilan radiatif de la terre.

Pourtant Callendar ne renonce pas. Il publie 35 articles sur le sujet, plus d'un par an y compris pendant les années de guerre et à sa mort il est en train de travailler sur un livre qui aurait du s'intituler Climat et dioxyde de carbone. A l'image de ce livre, le travail de persuasion de l'ingénieur britannique est inachevé. En 1961, il note avec perspicacité que "l'idée que les actions humaines puissent influencer un système aussi vaste et complexe [que le climat] répugne à certain." 
Mais à défaut de convaincre, Callendar informe, et probablement inspire, la génération suivante qui parviendra, elle, à se faire entendre : il entretient une correspondance régulière avec Charles Keeling, Gilbert Plass, J. Murray Mitchell, etc. Autant de grands noms de la climatologie qui, à partir des années 50 alertent sur les émissions de gaz à effet de serre et leurs conséquences...

C'est avec eux que les politiques et le grand public vont entendre parler du changement climatique, ainsi naîtra l'idée fausse que l'on a découvert le réchauffement de la planète que récemment.
Reste qu'une nouvelle ère commence : avec l'apparition de l'informatique, les mois de calculs qui ont été nécessaires à Arrhenius ou Milankovitch ne sont plus qu'un souvenir, la multiplication des stations météos pendant la guerre apportent des données infiniment plus précises, le radar puis les satellites ouvrent des possibilités inédites... Lorsque débute la seconde moitié du XXe siècle, la climatologie n'est déjà plus une marotte que l'on peut exercer, comme Callendar, depuis son pavillon du Sussex ou, comme Arrhenius, pour se distraire de recherches plus sérieuses, elle s'affirme comme un domaine scientifique à part entière, et elle va gagner rapidement en importance. Mais, en dépit de ces habits neufs, il serait injuste et mal avisé d'oublier qu'elle hérite aussi de 200 ans d'histoire.

--
Aventuriers, rêveurs, révolutionnaires... du XVIIIe siècle au début du XXe, l'histoire scientifique du climat a été écrite par des personnalités hautes en couleur. Retrouvez ici l'histoire des autres pionniers de la discipline :
  1. Montesquieu : l'Esprit des lois et la théorie des climats
  2. Buffon : refroidissement climatique et géoingénierie avant l'heure
  3. Saussure : l'aube de la paléoclimatologie
  4. Fourier : l'invention de l'effet de serre
  5. Foote : la démonstration de l'effet de serre à la portée de tous
  6. Tyndall : la première spectroscopie des gaz à effet de serre
  7. Arrhenius, Hogböm et Ekholm : le clan des suédois
  8. Milankovitch : la solution à l'égnime de l'âge de glace
  9. Callendar : l'homme qui a vu le réchauffement


Publié le 29 aout 2017 par Thibault Laconde


Vous avez aimé cet article ? N'en ratez aucun en vous inscrivant à la newsletter mensuelle.


Milankovitch : l'homme qui a résolu l'égnime de l'âge de glace

La discussion sur l'origine des variations passées du climat ne s'arrête pas avec Arrhenius. Et après ce long article consacré à ceux qui tentent de les expliquer par la concentration en dioxyde de carbone dans l'atmosphère, il est temps de laisser la parole à la partie adverse : les tenants de la théorie astronomique des climats. S'il ne l'a pas inventé, un homme a particulièrement laissé sa marque dans ce domaine : l'ingénieur serbe Milutin Milanković.


Un scientifique dans la tourmente des Balkans


Milankovitch naît en 1879 dans un village situé sur la frontière actuelle entre la Croatie (qui bénéficie alors d'une demi-autonomie dans l'empire austro-hongrois) et la Serbie. Dans la mozaïque ethnique que sont les balkans, Milankovitch est serbe mais voit le jour du coté croate de la frontière, le détail va avoir son importance...
Issu d'une famille relativement aisée mais de santé fragile, Milankovitch passe sa scolarité partiellement à domicile. A 17 ans, il s'installe à Vienne pour poursuivre des études d'ingénieur. Après son service militaire, il s'endette le temps d'obtenir son doctorat. En 1904, il soutient une thèse de génie civil.

L'ingénieur serbe Milutin Milankovitch a expliqué les périodes glaciaires par la variation des paramètre astronomiques de la terre
Milankovitch entame une belle carrière dans la construction. Il réalise ponts et barrages partout dans l'empire austro-hongrois, publie abondamment et dépose 6 brevets. Mais, peut-être par élan nationaliste, il abandonne cette profession et Vienne en 1909 pour la chaire de mathématique de l'Université de Belgrade. Il y restera 46 ans.
C'est là qu'il commence à s'intéresser au climat et plus particulièrement, comme pour presque tous ces prédécesseurs, à l'explication des périodes glaciaires. Reprenant les travaux existants, il constate qu'il s'agit le plus souvent de raisonnements qualitatifs laissant peu de place à l'analyse mathématique. Le jeune ingénieur entreprend alors de donner une base rigoureuse à l'étude du climat.
Son but est de parvenir à un modèle mathématique liant le climat terrestre à l'ensoleillement et donc à la position de la terre par rapport au soleil. Objectif extrêmement ambitieux, qui, il l'espère, "permettra la reconstruction des climats passés de la terre, et aussi la prévision des climats futurs et nous fournira les première données fiables sur le climat des autres planètes". Il publie son premier article sur le sujet, intitulé Contribution à la théorie mathématique du climat, en 1912.

C'est ici que, comme des millions d'hommes et de femmes, le jeune scientifique est rattrapé par l'histoire. Le 14 juin 1914, Milankovitch se marie et part pour sa lune de miel dans son village natal. Mais le 28 juin, l'archiduc François-Ferdinand est assassiné à Sarajevo par un nationaliste serbe, déclenchant la crise de juillet et précipitant l'Europe vers la Grande Guerre.
Milankovitch qui se trouve en territoire austro-hongrois est aussitôt arrêté et emprisonné à la forteresse d'Osijek. Dans les quelques affaires qu'il a pu emporter : son travail sur le climat, du papier et un stylo... Et voici comment une des découvertes les plus importantes de l'histoire de la climatologie a mûri dans un cachot.

Pendant ce temps, sa femme se rend à Vienne pour plaider la cause du jeune savant. Elle obtient sa libération, à condition qu'ils s'exilent à Budapest. Milankovitch y trouve encore l'occasion de poursuivre ses travaux : en 1916, il publie une étude du climat de Mars. Il calcule aussi la température de Vénus, Mercure et de la lune.

En 1919, Milankovitch revient à Belgrade et reprend sa carrière universitaire. L'année suivante, il publie en français un livre récapitulant ses recherches sur le climat : Théorie mathématique des phénomènes thermiques produits par la radiation solaire.
Comme dans le cas d'Arrhenius, il faut souligner les dimensions herculéennes de ce travail à une époque où l'informatique n'existe pas encore : en 1923, il faut 100 jours de calculs à Milankovitch pour dessiner la courbe d'insolation sur les 650.000 dernière années ! Mais au terme de ces efforts l'objectif est atteint : les courbes font apparaître une nette corrélation entre l'insolation aux moyennes latitudes de l'hémisphère nord et les périodes glaciaires.

Une des courbes d'insolation publiées par Milankovitch en 1924

Dans les années 1930, Milankovitch abandonne un temps le climat pour s'intéresser à la dérive des continents et au paléomagnétisme. Il y revient en 1939 lorsqu'il entreprend de rassembler son travail. Celui-ci parait dans un livre publié en 1941.
Pendant la Seconde Guerre Mondiale et l'occupation de la Serbie, Milankovitch se fait discret et travaille sur une biographie, qui parait en 1952. Il consacre les dernières années de sa vie à la vulgarisation et à l'histoire de science.

Milankovitch meurt d'une attaque en 1958.


La théorie astronomique du climat


Parmi les nombreux facteurs qui déterminent le climat terrestre, les paramètres astronomiques sont probablement les mieux maîtrisés et on le doit en grande partie à l'obstination de Milankovitch.
L'orbite de la terre n'est pas tout à fait régulière car elle subit, outre l'attraction du soleil, celle des autres planètes du système solaire et de la Lune. En se déformant, l'orbite terrestre modifie la façon dont le rayonnement solaire reçu par la terre est réparti dans l'espace et dans le temps, ce qui a une influence sur le climat.

Les paramètres de l'orbite terrestre, aussi appelés paramètres de Milankovitch, sont :
  • L'obliquité : l'obliquité de la Terre est l'inclinaison de la Terre par rapport au plan de l'ellipse. Cet angle entre son axe de rotation et un axe perpendiculaire au plan de son orbite est noté ε. Il est actuellement de 23°27 et varie de 22° à 24°30 environ avec une période de 41.000 ans. Ce paramètre détermine la position des tropiques (leur latitude est égale à l'obliquité) et les contrastes saisonniers (avec une obliquité nulle, il n'y aurait pas de saisons).
  • L'excentricité : l'orbite terrestre décrit une ellipse dont le soleil est un des foyer, selon les périodes cette ellipse peut être très proche d'un cercle (l'excentricité notée e, s'approche alors de zéro) ou légèrement plus aplatie (jusqu'à e=0.058). L'excentricité terrestre varie selon plusieurs cycles dont la période se chiffre en centaine de milliers d'année, actuellement elle est de 0.017. Si l'excentricité est nulle, toutes les saisons ont la même durée, lorsque l'excentricité est élevée certaines saisons sont plus longues.
  • La précession : l'axe de rotation de la Terre ne reste pas parallèle à lui-même, il décrit un cône dans le sens des aiguilles d'une montre et effectue un tour complet en 26.000 ans. La précession détermine la position de la terre lors des équinoxes, lorsque l'excentricité est importante, c'est la précession qui détermine quelles saisons vont durer plus longtemps.

A partir de ces trois paramètres, Milankovitch calcule que les moyennes latitudes de l'hémisphère nord ont connu des minimums d'insolation il y a 23.000, 72.000 et 116.000 ans. Ceux-ci ont pu permettre à la neige accumulée pendant l'hiver de ne pas fondre en été, enclenchant une baisse de l'albédo terrestre et un refroidissement. Dans les années 70, les progrès de la paléoclimatologie ont permis de confirmer que les paramètres orbitaux et les paramètres climatiques présentent les mêmes périodicités.
Le modèle de Milankovitch permet de situer l'apparition d'âges glaciaires dans le passé comme dans le futur. On peut ainsi prévoir un nouveau maximum glaciaire dans 23.000 ans - si bien entendu les conditions restaient inchangées.

En effet, il est important de comprendre que, si les paramètres astronomiques semblent avoir été le facteur déterminant pour le déclenchement des périodes glaciaires à l'ère quaternaire, ils ne déterminent pas seuls le climat terrestre. Si c'était le cas, les périodes glaciaires devraient alterner entre l'hémisphère nord et l'hémisphère sud, or elles ont lieu simultanément dans les deux hémisphères. Pour une raison qui n'est pas encore totalement expliquée, l'hémisphère nord est capable "d'imposer" ses périodes glaciaires au sud.
De la même façon les paramètres astronomique ne peuvent pas expliquer des fluctuations rapides du climat comme les cycles de Dansgaard-Oeschger (dont je vous ai parlé dans une précédente série d'été).

Bref, les travaux de Milankovitch ne doivent pas faire oublier les mises en garde d'Arrhenius. D'autant que, à peu près à la même époque, l'ingénieur britannique Guy Callendar met pour la première fois en évidence une augmentation de la température terrestre depuis le début de l'ère industrielle.

--
Aventuriers, rêveurs, révolutionnaires... du XVIIIe siècle au début du XXe, l'histoire scientifique du climat a été écrite par des personnalités hautes en couleur. Retrouvez ici l'histoire des autres pionniers de la discipline :
  1. Montesquieu : l'Esprit des lois et la théorie des climats
  2. Buffon : refroidissement climatique et géoingénierie avant l'heure
  3. Saussure : l'aube de la paléoclimatologie
  4. Fourier : l'invention de l'effet de serre
  5. Foote : la démonstration de l'effet de serre à la portée de tous
  6. Tyndall : la première spectroscopie des gaz à effet de serre
  7. Arrhenius, Hogböm et Ekholm : le clan des suédois
  8. Milankovitch : la solution à l'égnime de l'âge de glace
  9. Callendar : l'homme qui a vu le réchauffement


Publié le 22 août 2017 par Thibault Laconde


Vous avez aimé cet article ? N'en ratez aucun en vous inscrivant à la newsletter mensuelle.


Arrhenius, Högbom et Ekholm : le clan des suédois

Si vous vous intéressez au climat, le nom de Svante Arrhenius ne vous est probablement pas inconnu : il est souvent cité comme le découvreur du réchauffement climatique pour avoir établi le premier modèle permettant d'évaluer l'effet de la concentration en dioxyde de carbone dans l'atmosphère sur la température. En réalité cette découverte n'aurait pas été possible sans l'inspiration d'un autre suédois, le géologue Arvid Högbom. Le météorologue Nils Gustaf Ekholm mérite aussi une mention dans cette histoire.
A eux trois, Arrhenius, Högbom et Ekholm ont jeté les bases de la climatologie telle que nous la concevons aujourd'hui : une science tournée non seulement vers la compréhension du climat passé et présent mais aussi vers la prévision de ses évolutions futures.


Modélisation climatique et problèmes de couple


Svante Arrhenius a mis au point le premier modèle climatique en 1896
Physicien de formation, Svante Arrhenius (1859-1927) fait sa thèse en 1884 sur la conductivité électrique des solutions salines. Il obtient une note médiocre qui met temporairement un terme à l'espoir d'une carrière académique dans son pays natal. Après deux années à vivoter chez ses parents, il se décide à s'expatrier et part occuper divers postes dans des laboratoires en Allemagne, en Autriche et aux Pays Bas. C'est au cours de cette période qu'il formule sa théorie de la dissociation, qui lui vaudra, en 1903, le troisième Prix Nobel de Chimie.
En 1891, il rentre en Suède après avoir obtenu un poste d'enseignant à la Stockholms Högskola, la future université de Stockholm qui n'est encore qu'une institution privée ne délivrant pas de diplôme. Là, il se désintéresse assez vite de la chimie physique pour se tourner vers la géophysique et l'astronomie.

En 1895, Arrhenius commence à griffonner sur des pages et des pages ce qui va devenir le premier modèle climatique de l'histoire. A l'époque, il n'y a évidemment pas d'ordinateur et il faut faire à la main plusieurs dizaines de milliers de lignes de calculs.
La petite histoire raconte qu'Arrhenius aurait entrepris cette tache si fastidieuse et éloignée de ses autres recherches pour s'occuper l'esprit dans une période difficile de sa vie personnelle. Je n'ai rien trouvé qui permette de le confirmer mais les dates concordent à peu près : en 1894, Svante Arrhenius a épousé une de ses étudiantes, Sofia Rudbeck, mais le mariage tourne rapidement au vinaigre. Sofia quitte le domicile conjugal à l'automne 1895 et accouche seule d'un fils. Mi-1896, le divorce est prononcé.

Quoiqu'il en soit, voici Arrhenius en train d'évaluer avec un niveau de détail jamais atteint auparavant l'influence du dioxyde de carbone sur la température terrestre.
Bien que simpliste comparé aux modèles que nous utilisons aujourd'hui, le calcul d'Arrhenius partage avec ses lointains descendants deux caractéristiques qui sont à l'époque révolutionnaires. D'abord, il est le premier à prendre en compte une rétroaction : un air plus froid contient moins de vapeur d'eau, celle-ci étant également un gaz à effet de serre le refroidissement s'en trouve accentué (et vice-versa). Arrhenius a aussi compris que l'albédo terrestre peut être une source de rétroaction mais n'est pas parvenu à l'intégrer dans ses équations. Autre progrès remarquable : le calcul se fait par période de trois mois sur un globe divisé en cases de 10° en latitude et 20° en longitude, l'évaluation de la température est donc saisonnière et régionale et plus seulement globale.
Comme Fourrier, Foote ou Tyndall avant lui, Arrhenius cherche avant tout à comprendre les périodes froides qui ont précédé le développement de l'humanité. Il arrive à la conclusion qu'une variation de la concentration en dioxyde de carbone de l'ordre de 40% peut expliquer les fluctuations de température entre périodes glaciaires et inter-glaciaires.


Des refroidissements passés aux réchauffements futurs


Mais est-il envisageable que la concentration en dioxyde de carbone dans l'atmosphère ait été deux fois moins importante qu'aujourd'hui dans le passé ? C'est ici que notre deuxième personnage entre en scène.

Le géologue Arvid Hogbom a compris que les émission de CO2 humaines étaient significatives par rapport aux variations naturelles
Arvid Högbom (1857-1940) est un géologue qui, de fil en aiguille, est passé progressivement de l'étude des roches calcaires à celle du cycle du carbone. A la suite de ses travaux, il a probablement été le premier à comprendre que les activités industrielles, qui se développent avec la Révolution Industrielles, rejettent du CO2 en quantités significatives comparées aux variations naturelles. Dans les années 1890, Hogböm estime ainsi que la combustion de charbon émet chaque année 500 millions de tonnes de dioxyde de carbone.
C'est pourquoi, lorsque Arrhenius vient le voir pour lui demander si il est possible que la quantité de dioxyde de carbone dans l'atmosphère ait varié suffisamment pour expliquer les glaciations, Högbom lui suggère de retourner la question : une augmentation de la concentration en CO2 pourrait-elle réchauffer la planète ?

Arrhenius reprend ses calculs et, en 1896, il présente son travail dans une conférence à la Högskola. Il estime qu'un doublement de la concentration en dioxyde de carbone dans l'atmosphère entraînerait une hausse de la température de 4 à 6°C selon la latitude à laquelle on se situe. Compte-tenu de l’absorption du dioxyde de carbone par les océans et du rythme auquel, à l'époque, le charbon est brûlé, il prévoit que ce niveau pourrait être atteint au bout d'environ 500 ans. Il ne voit cependant aucune raison de s'inquiéter de ce changement de climat qui "permettra à nos descendants, même si ce n'est que dans un lointain futur, de vivre sous un ciel plus chaud et dans un environnement moins hostile que celui qui nous a été donné". Rappelons-le : Arrhenius est suédois...

Les études actuelles estiment qu'un doublement de la concentration en dioxyde de carbone dans l'atmosphère ferait augmenter la température moyenne entre 2 et 4.5°C. L'ordre de grandeur obtenu par Arrhenius était donc correct même si cela ne doit pas faire oublier les failles de son modèle. L’intérêt de son travail n'est de toute façon pas dans ces chiffres, il est d'avoir montrer qu'une variation de la quantité de dioxyde de carbone pouvait entraîner une modification significative de la température terrestre. Et d'avoir attiré l'attention sur cette possibilité.


La saturation de l'effet de serre : première controverse climatique


A l'époque la cause de périodes glaciaires est un sujet débattu avec passion non seulement en Suède mais dans toutes les grandes académies scientifiques. Arrhenius va s'efforcer de faire connaître ses résultats, notamment en les publiant en anglais et en allemand, et il n'est pas surprenant qu'ils aient donné lieu à controverses.
L'une des plus violentes oppose Arrhenius à son compatriote Knut Ångström (le fils de Anders Jonas Ångström) autour d'une argument qui un siècle plus tard est toujours un classique de la littérature climatosceptique : le dioxyde de carbone ne peut pas causer un réchauffement de la planète parce que l'effet de serre est saturé.

Ångström a fait mesurer par un de ses assistants l'absorption du dioxyde de carbone pour des concentration proches de celle de l'atmosphère. Il constate alors que la quantité de rayonnement infrarouge absorbée varie peu avec la concentration. Dans deux articles publiés en 1900 et 1901, il en tire la conclusion que la concentration actuelle en CO2 est déjà suffisante pour rendre l'atmosphère complètement opaque au rayonnement infrarouge dans ses bandes d’absorption. Par conséquent, affirme-t-il, une hausse de la concentration n'aurait aucun effet et une baisse devrait être très importante pour entraîner une chute de la température.
L'observation d'Ångström est correcte. Elle n'est d'ailleurs pas nouvelle : Tyndall avait déjà noté qu'une simple trace de gaz à effet de serre suffisait à bloquer presque entièrement le rayonnement infrarouge. Alors est-ce déjà la fin de l'effet de serre et du réchauffement climatique anthropique ?

Le météorologue Nils Gustaf Ekholm explique pourquoi l'effet de serre n'est pas saturéNon. Comme l'explique dès 1901 le météorologue Nils Gustaf Ekholm (1848-1923), le raisonnement d'Ångström est faux parce qu'il oublie que les gaz à effet de serre réémettent l'énergie qu'ils absorbent.
Ce qui compte ce n'est donc pas de savoir si le rayonnement infrarouge émis par la surface est absorbé par l'atmosphère - en réalité, il l'est presque intégralement. Ce qui compte c'est l’altitude à laquelle le rayonnement absorbé et réémis par les couches inférieures de l'atmosphère peut enfin s'échapper vers l'espace.  Comme nous l'avons déjà vu, pour que la Terre retrouve son équilibre thermique il faut que cette dernière couche de l'atmosphère atteigne une température qui équilibre le rayonnement reçu du soleil. En attendant, la planète gagne en énergie et se réchauffe. Ou pour reprendre les mots d'Ekholm : "le rayonnement de la Terre vers l'espace ne provient pas directement du sol mais en moyenne d'une couche de l'atmosphère qui se trouve considérablement au-dessus du niveau de la mer. [...] Plus l'air aura la capacité à absorber le rayonnement émis par la surface, plus cette couche se trouvera à une altitude élevée. Mais plus cette couche se trouvera à une altitude élevée, plus sa température sera basse comparée à celle de la surface, et comme le rayonnement de cette couche vers l'espace diminue avec sa température, il est inévitable que la surface soit d'autant plus chaude que la couche rayonnante est éloignée."

Malheureusement la clarification du travail d'Arrhenius par Ekholm a peu d'écho et pendant les première décennies du XXe siècle, la possibilité d'un réchauffement de la planète sous l'effet du dioxyde de carbone reste contestée au sein de la communauté scientifique. Cela n’empêche cependant pas cette thèse d'être largement diffusée et on en retrouve même la trace dans la presse généraliste de l'époque : c'est l'origine du fameux article de 1912 qui sert de prétexte à cette série.
L'impulsion des savants suédois a une autre limite : ceux qui, comme Arrhenius ou Ekholm, croient à la possibilité d'un réchauffement climatique n'y voient pas d'inconvénient. Ils savent pourtant bien que quelques degrés de moins suffisent à déclencher une ère glaciaire mais ils échouent à comprendre la portée cataclysmique de quelques degrés de plus. A l'époque, le chimiste allemand Walther Nernst propose même de brûler les réserves de charbon inutiles pour accélérer le réchauffement de la planète. En un siècle, les connaissances ont beaucoup progressé mais l'état d'esprit est toujours celui de Buffon

Pour aller plus loin, la communauté scientifique doit désormais acquérir une compréhension beaucoup plus fine du fonctionnement du système climatique et de ses variations passées. C'est dans ce domaine que va s'illustrer Milutin Milanković.

--
Aventuriers, rêveurs, révolutionnaires... du XVIIIe siècle au début du XXe, l'histoire scientifique du climat a été écrite par des personnalités hautes en couleur. Retrouvez ici l'histoire des autres pionniers de la discipline :
  1. Montesquieu : l'Esprit des lois et la théorie des climats
  2. Buffon : refroidissement climatique et géoingénierie avant l'heure
  3. Saussure : l'aube de la paléoclimatologie
  4. Fourier : l'invention de l'effet de serre
  5. Foote : la démonstration de l'effet de serre à la portée de tous
  6. Tyndall : la première spectroscopie des gaz à effet de serre
  7. Arrhenius, Hogböm et Ekholm : le clan des suédois
  8. Milankovitch : la solution à l'égnime de l'âge de glace
  9. Callendar : l'homme qui a vu le réchauffement


Publié le 15 août 2017 par Thibault Laconde


Vous avez aimé cet article ? N'en ratez aucun en vous inscrivant à la newsletter mensuelle.