Baseload, mythe ou réalité (1) : de quoi parle-t-on ?

Le 29 septembre 2016, le gouvernement Britannique a signé avec EDF et le chinois CGN un contrat pour la construction de deux EPR à Hinkley Point. C'est la première fois depuis 1987 qu'un réacteur nucléaire va être construit en Grande Bretagne et il a fallu presque 20 ans de tergiversations pour en arriver là.

Lors de ce débat, un argument est revenu régulièrement chez les partisans du projet : pour fonctionner un réseau électrique aurait besoin d'une base de très grosses centrales et le nucléaire est la seule technologie permettant de l'assurer sans émissions de gaz à effet de serre. Pour reprendre les termes employés par Amber Rudd, qui était à l'époque ministre de l'énergie : la centrale d'Hinkley Point C se justifiait malgré son coût et les difficultés techniques parce qu'il faut impérativement "sécuriser la baseload".
Ce raisonnement se retrouve fréquemment dans les discours pro-nucléaires, mais est-il réellement fondé ?

La question m'a été posée le cadre de mon activité de consultant. Ce travail a notamment abouti à la publication d'un long article en anglais dans Petroleum Economist.
Comme ce sujet se retrouve aussi fréquemment dans les débats sur l'énergie en France, il me parait intéressant de reprendre ici les principales conclusions de mon étude. A priori en 3 ou 4 épisodes.


Charge de base : de quoi parle-t-on ?


La baseload (en bon français, on parle de charge de base ou de capacité de base), c'est cette électricité dont vous avez toujours besoin : sur un réseau électrique, la demande varie dans le temps mais elle ne tombe jamais à zéro, il existe donc une puissance en dessous de laquelle elle ne descend pratiquement jamais. En Allemagne, la charge de bases est d'environ 45GW, en France 32GW, en Grande Bretagne autour de 20GW.

Schéma : qu'est-ce que la baseload (ou charge de base) d'un système électrique ?
La charge de base en vert et les périodes de pic en orange
(Profil de charge basé sur la consommation électrique britannique)


La gestion d'un réseau électrique est un problème complexe puisque la production doit être égale à chaque instant à la consommation alors que celle-ci varie dans le temps sous l'influence de facteurs en partie aléatoires : habitudes des consommateurs, jour travaillé ou non, ensoleillement, température... mais quelles que soient les circonstances le réseau devra toujours disposer d'au moins sa baseload.


Baseload, nucléaire et charbon : un vieux ménage à trois


Traditionnellement cette charge de base était assurée par de très grosses unités de production, souvent charbon ou nucléaire, pendant que d'autres sources plus flexibles, notamment gaz et hydroélectricité, répondaient aux pics de demande.
Ce fonctionnement est tellement ancré dans les esprits que le terme baseload est en réalité utilisé indifféremment pour designer la charge de base et le parc de centrales utilisé pour y répondre.

Dans cette équivalence entre baseload et grandes centrales électriques, il n'existe aucune place pour les renouvelables intermittentes et les méga-projets comme Hinkley Point sont nécessaires. Il n'est donc pas surprenant que beaucoup d'acteurs opposés à ces orientations y voient un "mythe" entretenu par les industries fossiles et nucléaires pour entraver la transition énergétique.

Qu'en est-il réellement ? C'est le sujet de l'article suivant.


Publié le 12 décembre 2016 par Thibault Laconde


Vous avez aimé cet article ? N'en ratez aucun en vous inscrivant à la newsletter mensuelle.


4 commentaires :

  1. ça commence bien.
    *J'attends la suite avec impatience

    RépondreSupprimer
  2. Ce que j'écris ci-dessous va être long, mais j'espère que cela en vaut la peine.

    Il y a aussi une vision économique du phénomène, entre les centrales de base (baseload) peu chères, auxquelles on demande de produire tout le temps, et des centrales de pointe (peakload) dont la production est plus coûteuses, auxquelles on ne fait appel qu'occasionnellement, lorsque la production des autres ne suffit plus et qu'on accepte de payer plus cher puisque le besoin n'est qu’occasionnel.

    Historiquement la tendance était progressivement à la construction de centrales plus récentes, plus efficaces avec un meilleur rendement, et donc capable de produire à un coût plus faible.
    Les centrales plus anciennes alors n'étaient plus utilisées qu'en pointe, avec un double impact sur le coût, d'un côté marginalement plus élevé, de l'autre le besoin de rembourser les coûts fixes sur un nombre d'heures plus faible.

    Sur ce facteur s'en ajoute un autre, celui d'une opposition ente des centrales dont le coût marginal est faible (charbon/nucléaire), mais les coûts d'investissement et/ou fixes sont élevés, et d'autre dont le coût marginal est plus élevé (gaz/fioul), mais les coûts d'investissement/fixes plus faibles.

    Ici de manière naturelle, le premier type de centrales est capables d'être moins cher à condition d'être utilisé constamment pour la base, car les frais fixes sont réduits par le nombre d’heure d’utilisation. Mais en dessous d'un nombre minimal d'heures, la part de plus en plus importante des coûts fixes fait que c'est le deuxième type de centrale qui reviendra moins cher.

    Voilà qui conduit à ce que les centrales nucléaire/charbon soient naturellement des centrales de bases et les centrales gaz/fioul naturellement des centrales de pointes, et qu'il n'y a pas de sens économiquement d'utiliser en pointe une centrale du premier type.

    Mais la situation réelle peut-être un peu plus complexe que cela. En fait, l'écart sur les coûts fixes n'est pas forcément si élevé. Par exemple, une centrale au gaz a des contrats de raccordement très couteux pour être alimenté en gaz à un débit suffisant. C'est donc surtout le coût d'investissement qui fait la différence. Cela signifie qu’une centrale de base déjà construite depuis longtemps et déjà amorti peut parfois concurrencer les centrales censées être naturellement dédiées à la pointe.
    C’est le phénomène qu’on a constaté ces dernières années en Allemagne, et qui explique comment les centrales gaz se sont retrouvées de plus en plus concurrencées par celles charbon sur leur marché « naturel »avec un phénomène de glissement de la production de pointe du gaz vers le charbon et la fermeture ou mise sous cocon de nombreuse centrales gaz, que les producteurs venaient pourtant tout juste de construire en se basant sur une prédiction de leur besoin.

    Cette substitution a tout de même des conséquences, les coûts fixes sont toujours répartis sur un nombre d’heure plus faible, l’utilisation variable va accélérer l’usure des matériaux, donc le coût de production augmente par rapport à celui de l’utilisation en vrai base.
    [A suivre partie 2]

    RépondreSupprimer
    Réponses
    1. Mais dira-t-on c’est pas du tout ce qu’on voit en Allemagne avec une baisse des prix. Une baisse des prix oui, mais pas forcément des coûts. La particularité allemande, c’est une forte augmentation de la production renouvelable, avec une stagnation de la demande donc de moins en moins de marché pour les autres centrales qui se retrouvent en surcapacité sur un marché de plus en plus réduit, qui ne conserve que ceux prêts à proposer le prix le plus faible pour au moins vendre quelque chose. Et ce prix le plus faible spontanément, c’est le prix marginal, parfois en prenant même en compte le coût induit par le fait d’arrêter si on ne vend rien. Et c’est à la fin de l’année qu’on fait les comptes, pour se rendre compte qu’on n’a pas réussi à couvrir les frais fixes, et proposer alors d’arrêter la centrale. Sauf que le régulateur refuse ces arrêts puisque ces centrales qui sont devenus non rentables économiquement restent régulièrement électriquement indispensables pour équilibrer le réseau. D’où ces centrales qui continuent à casser les prix, avec pourtant des opérateurs dans une situation économique infernale, opérant à perte. Mais ceci est artificiel, et ne peut pas durer, donc conduira nécessairement à terme à ce que les prix s’alignent sur les coûts.

      Bref, une fois posé tout ceci on peut commencer à parler de ce qu’il se passe quand on ajoute les renouvelables là-dessus avec des éléments rigoureux d’analyse, et non plus l’affirmation péremptoire de « mythes » d’un côté ou de l’autre.

      Si on part du postulat qu’il va y avoir à côté des renouvelables suffisamment de centrales commandables pour compléter leur production par une production de pointe, alors oui on n’aura pas besoin de production de base. La vraie question n’est pas là. La question c’est qu’elles en seront les conséquences d’un côté en terme de coût, et de l’autre en terme de bilan carbone. On aura éliminé entièrement la production la moins couteuse pour la remplacer par celle la plus couteuse, et dont le coût aura encore été augmenté. Et quoi qu’on dise sur les renouvelables de moins en moins chers, cela ne se vérifie guère en Europe. L’éolien se stabilise depuis de nombreuses années à peu près au même prix aux alentours de 80€ (aujourd’hui la CRE verse en moyenne légèrement plus de 90€ pour chaque MWh éolien produit en France), bien supérieur à celui historique de la production. Le solaire lui aussi est en train de se stabiliser depuis 2 ans. L’influence du prix des cellules dans le prix final devient de plus en plus faible, donc les progrès sont mécaniquement nettement plus difficiles.
      [A suivre partie 3]

      Supprimer
    2. Enfin quel est le bilan carbone de ce mix sans production de base où les moyens thermiques sont constamment sollicités pour compléter ? Il est facile de voir que production solaire plus éolienne sont régulièrement à un total inférieur à 5% de leur capacité, donc les fossiles vont à ces moments être sollicités pour apporter 95% de la demande. De plus la production solaire est en très grande partie en été, l’hiver l’éolien est pour ainsi dire tout seul. A ceci s’ajoute que les centrales fossiles ne peuvent généralement pas tourner même les meilleurs d’entre elles en dessous d’un seuil de 15 à 25% de leur capacité, et si on les arrête ont besoin de plusieurs heures pour redémarrer. Du coup avoir uniquement des renouvelables présents sur le réseau n’est pas atteignable. Qui plus est, la prévision de production a à l’échelle d’une heure ou deux, une erreur de prédiction d’un écart facilement de 5% min/max (souvent décrite comme juste 2,5%, soit en plus, soit en moins). Mais si l’éolien produit 90% de l’électricité, cet écart que les fossiles doivent compenser au plus vite peut représenter un écart de 50% de ce que l’on leur demande de produire, trop pour être faisable sur le peu de temps disponible. Encore une raison pour leur faire produire plus que ce qui semble théoriquement possible, et réduire l’avantage théorique de ce mix. On constate d’ailleurs aujourd’hui en Allemagne qu’à chaque fois que les renouvelables ont l’occasion de dépasser un seuil de 80% du mix, la production fossile est finalement maintenu à un niveau qui fait que ce seuil n’est jamais dépassé.
      Bref oui on aura éliminé la production de base, mais très certainement aux dépens à la fois du coût économique final, et du bilan carbone résultant.
      D’ailleurs l’Allemagne où l’on voit assez régulièrement solaire et éolien couvrir 100% de la demande prévue (puis réajustée a posteriori pour indiquer qu’ils n’ont pas dépassé 80%), n’est-t-elle pas en fait déjà dans cette situation ? Or le bilan en intensité carbone est aujourd’hui encore extrêmement peu flatteur.
      Et essayer d’améliorer cela en ajoutant plus de solaire et d’éolien, c’est se retrouver incapable d’utiliser une partie de leur production, et donc augmenter proportionnellement le coût par MWh de la partie qu’on peut utiliser.

      Supprimer