Feuilleton EPR

Parce que le gouvernement met plus d’ardeur à imposer le réacteur nucléaire connu sous le sigle « EPR » qu’à sortir des limbes le projets de loi sur la transparence nucléaire, parce que son implantation à Flamanville dans la Manche doit faire l’objet de deux consultations, nous vous proposons, sous forme de feuilleton, des informations sur ce projet. De plus, la réglementation française imposant que toute nouvelle pratique induisant une exposition aux rayonnements ionisants soit justifiée par son intérêt économique et social, nous allons tenter de rechercher l’utilité de l’EPR.

  1. Ensemble Pour le Réacteur
  2. Encore Plus Rassurant
  3. Electeurs Parfaitement Représentés
  4. Emplois Pour la Région
  5. Evitons le Péril du Réchauffement
  6. Exportons la Production du Réacteur
  7. Erigeons des Pylônes Remarquables
  8. Epilogue : notre Position sur le Réacteur


Ensemble Pour le Réacteur

ACROnique du nucléaire n°68, mars 2005

AU NOM DE L’E.P.R., DU FRIC ET DE L’ESPRIT SAIN ?

Tombé du ciel
Le choix de Flamanville qui a finalement été retenu pour l’implantation de l’E.P.R. (European Pressurized Reactor) a fait déborder d’enthousiasme et de frénésie une marmite d’élus en effervescence depuis quelques temps. L’unité artificielle des élus de tous bords, excepté des Verts (cf. « la Manche Libre et la tête de J-F. Legrand » du 01/10/04) a été déterminante pour faire pencher le fléau de la balance vers la pointe de la Hague sud. C’est un argument de façade et nous découvrirons peut-être plus tard d’autres raisons qui ne sont pas présentables actuellement.

En tout état de cause, le choix s’est fait sans débat autour d’un argumentaire solide et contradictoire. Il n’y a pas eu de consultation publique à l’échelle nationale. La Ministre de l’Industrie de l’époque, Nicole Fontaine annonce le choix de l’E.P.R. en plein débat sur l’avenir énergétique, ce qui décrédibilise ce dernier ainsi que ceux qui l’ont initié. La dissimulation aux parlementaires d’un rapport de la DGSNR (Direction Générale de la Sûreté Nucléaire et de la Radioprotection) sur l’E.P.R. (cf. journal « le Monde » du 21/10/01) est encore un acte de cette comédie dont le vrai scénario s’écrit et se joue en dehors de la scène publique.

Au niveau local, tout le monde politique en appelle à l’E.P.R. sans présenter le moindre argument technique. Ce n’est absolument pas cela qui est avancé, on ne s’embarrasse pas du dossier. Les consultations locales se résument à quelques micro trottoirs : « c’est bien pour les jeunes » dit le boucher sur le marché. « C’est positif pour la région, par les temps qui courent… » ajoute un maire d’une commune limitrophe (cf. « la Presse de la Manche » du 21/10/04). Les avis donnés ne concernent que l’emploi.

En effet, la nouvelle arrive comme un ballon d’oxygène dans un climat social assez plombé. De nombreuses entreprises ont fermé leurs grilles ou sont parties sous d’autres cieux. On en est là vingt ans seulement après les grands chantiers porteurs pareillement de tous les espoirs. Il y a depuis, une avancée du désert industriel dans la région (cf. le film documentaire de T. Dunand et D. Guillemois : « Cotentin 1960-2000, une histoire industrielle »). L’E.P.R., à n’en pas douter, n’est qu’un point d’eau dans ce désert, point qui se tarira vite selon des sources prenant naissance à la Cogéma. Les responsables des offices de tourisme vont devoir encore faire appel à toute leur imagination et « ramer dur » pour donner une bonne image de la région. La photo va être de plus en plus difficile à prendre si l’on veut éviter de cadrer les sites nucléaires.

L’image d’une région et d’une population très hospitalières avec les installations nucléaires sous toutes ses formes n’est pas bien assumée quoiqu’en montrent les reportages de la presse locale. La violence avec laquelle on brise les miroirs qui renvoient les images lorsqu’elles pointent les risques potentiels liés à ces activités sont là pour nous le rappeler. Que ce soit Greenpeace et le tuyau des Moulinets, le Pr. Viel et ses hypothèses sur la santé, F. Zonabend et ses études sur la presqu’île qu’elle attribue au nucléaire … entre autres exemples. Il reste donc à prouver que les habitants du Nord-Cotentin, dans leur conviction silencieuse, soient très fiers de cette couche que l’on rajoute à l’aire nucléaire locale.

(Re)Tombées du ciel !
Ah, les retombées financières !!! On va gagner des millions … Il va y avoir de quoi générer du rêve, comme au loto. Mais « tout c’qui vyint d’fllot, s’en r’va d’marée » (tout ce qui vient avec le flot, repart avec la marée – expression normande). Là aussi, il y aura du désappointement. Il y a, en effet, fort à parier que l’argent ira à l’argent. Des communes riches qui ne savent pas quoi faire de leurs rentes (mais qui rechignent à la partager) vont être encore plus riches. D’autres nouveaux riches ont dépensé sans compter, comme des enfants gâtés et les retombées seront alors bienvenues et tomberont pile dans les trous creusés ou à venir.

Socialement, les conséquences seront aussi incertaines et l’espoir créé autour de ces emplois risque de n’être qu’illusion. Les entreprises chargées de la construction, avec l’ouverture des marchés européens seront, pour une bonne part, étrangères à la région. Une partie de l’EPR finlandais est construite au Japon. Qu’en sera-t-il pour le réacteur normand ? L’emploi technique spécifique au domaine nucléaire sera, lui, fourni par AREVA et Siemens en régulant en interne ces emplois. Au delà des dividendes escomptées, il y a déjà les 55 millions envolés pour le Conseil Général qui en a fait don par l’exonération de la taxe professionnelle. Faire ce geste gracieux pour que l’on installe des lignes et des pylônes à travers la campagne du département, merci du cadeau. « EDF vous doit plus que la lumière », il y a aussi les fils et les poteaux !

Tombés sur la tête
Si l’on aborde le sujet de l’environnement et de sa préservation, il est intéressant d’introduire les éoliennes dans le débat. Les paradoxes et les contrastes que l’on observe alors dans les discours nous laissent pantois et cois ! On constate, d’une part, un engouement frénétique des élus pour l’EPR et sa lignée à haute tension, un silence de la grande majorité de la population sur ce sujet et par ailleurs une levée de boucliers de ces mêmes élus bien souvent et d’une partie importante des riverains contre l’implantation de parcs éoliens en mer ou sur la côte. Les nuisances sont mises en avant pour refuser les moulins à vent. Une éolienne ça fait du bruit et ça gâche la vue. Une usine nucléaire, les pylônes et les câbles sur des centaines de kilomètres, ça ne se voit pas, ça ne s’entend pas … dans les discours. Lorsque l’on fait part de cet oubli, il est parfois répondu « ah oui, mais ça, c’est utile. Il en faut ».

Le parc éolien en mer, les pêcheurs n’en veulent pas. Une délégation d’élus et de professionnels monte au ministère pour protester et des dizaines de manifestants à chaque réunion font part de leur refus. Soit. Mais les rejets en mer de la canalisation de la Hague, les rejets aériens que l’on retrouve dans les ruisseaux et sur la côte, le tritium renvoyé devant Flamanville ? ? ? Ni vu, ni connu. Silence sur les V.H.F. ! Le milieu maritime fait le dos rond et les dauphins se réchauffent dans les eaux du cap, dans le meilleur des mondes.

Il est difficile de comprendre ce refus. L’acceptation des installations nucléaires est assez bien cernée. Lorsque l’on pose le problème du danger, la réponse est toujours décalée. On entend emploi, argent, économie. B. Cazeneuve, maire de Cherbourg dit dans le film « Silence sur l’atome » de S. Tézé : « les gens acceptent et n’ont pas peur car ils savent ce que c’est … ils vivent tous les jours avec ». Les visites jusqu’en 2001 de l’usine Cogéma par les familles a certes ouvert un univers qui leur était inconnu. Lorsqu’ils racontent cette découverte, les visiteurs sont éblouis par cette vitrine qui en met plein la vue. Mais trop de lumière aveugle et les connaissances réelles sont réduites. La réalité du travail et des relations sociales est méconnue. J. Aubert, dans le même film souligne que les personnels de l’usine de la Hague ont deux vies distinctes : le travail et la vie domestique et qu’il y a très peu d’interférences. Hors usine, ils ne parlent pas du travail.

Je pense qu’il y a donc plutôt un déni du risque et un refoulé nécessaire pour vivre près des installations, comme le montre un paysan voisin des sites de la Hague interrogé par le réalisateur de « Silence sur l’atome » … « on n’y pense pas tous les jours au danger, sinon on s’en irait ». Le rejet des éoliennes est difficile à saisir car il est sous-tendu certainement par plusieurs motivations. Il y a bien sûr le refus classique des riverains. Mais il trouve là une amplification qui les dépasse. Le terrain se prête à ce refus. Les éoliennes, production énergétique alternative, sont peut-être ressenties comme l’illustration d’une menace qui pèse sur le programme nucléaire, en particulier le retraitement. Cela trouve une résonance spécifique pour bon nombre du personnel de la Cogéma. Il n’y avait qu’à voir, lors d’un débat à l’IUT de Cherbourg en 2004, quelle virulence – voire plus –  déployaient les représentants syndicaux de la Cogéma à l’encontre des programmes éoliens et solaires. Les éoliennes, à leur vue, symbolisent « l’écolo » et sont alors perçues comme une provocation sur les hauteurs d’une presqu’île qui doit être vouée au nucléaire exclusivement.

Ces manifestations de refus sont aussi relayées par les élus, trop heureux d’enfourcher ce cheval de bataille anti-écologiste. A la tête de l’escadrille, on trouve le plus zélé d’entre tous : C. Gatignol, député de Valognes. L’E.P.R. sous le bras, il pourfend, jusque dans les ministères, les commissions à l’assemblée et les manifestations locales, ces éoliennes sources de tous les maux et inutiles (cf. Ouest-France du 27/12/04). Selon lui, l’ADEME (Agence de Maîtrise de l’énergie) « trompe les gens, propage de fausses informations ». Il conclut « la France a-t-elle besoin d’énergie éolienne ? sans conteste non ! ». M. Gatignol en fait beaucoup. Ses revers électoraux successifs ne semblent pas le faire douter… alors laissons-le en faire trop.
Ces prises de position contradictoires, de bonne et surtout de mauvaise foi, sont l’illustration de ce qui se joue dans le Nord-Cotentin. Il serait peut-être utile que des chercheurs étrangers à ce champ de bataille viennent lucidement l’observer et essayer de comprendre car, sur place, nous sommes comme (des) hagards, déboussolés, à la recherche du Nord.

Pierre PARIS
Antenne ACRO Nord-Cotentin

Sommaire


Encore Plus Rassurant

ACROnique du nucléaire N°69 de juin 2005

Les ministres successifs nous l’ont assuré, l’EPR est dix fois plus sûr que les réacteurs actuels. Est-ce à dire que les réacteurs actuels ne sont pas si sûrs ? « Même si la sûreté des réacteurs aujourd’hui en exploitation en France est jugée satisfaisante, l’ASN considère que tout projet de nouvelle génération de réacteur électronucléaire doit atteindre un niveau de sûreté supérieur ». Pourquoi ? Dans sa fiche de présentation du projet, dont est tirée cette citation, l’Autorité de Sûreté Nucléaire (ASN) ne l’explique pas. Son Directeur, dans une lettre du 28 septembre 2004 adressée au PDG d’EdF, exige que « le risque de fusion du cœur [soit] réduit de manière significative ». Pas simplement « amélioré ». Pourquoi une telle exigence si les réacteurs actuels sont satisfaisants ? Ces documents, disponibles sur le site Internet de l’ASN, ne contiennent pas la réponse.

L’explication vient de calculs faits dans les années 90 par l’IPSN (Institut de Protection et de Sûreté Nucléaire, l’ancêtre de l’IRSN) sur la probabilité de l’occurrence d’un accident grave comme à Tchernobyl ou Three Miles Island. Ces études ont abouti à l’évaluation qu’il y a une chance sur 100.000 environ qu’un accident de fusion du cœur dû à des défaillances internes ait lieu. Ce chiffre est par réacteur et par an. Si on multiplie par 50 réacteurs fonctionnant pendant 40 ans, on arrive à quelques pourcents de chance, ce qui n’est pas anodin. Evidemment, ce chiffre évolue avec l’âge du réacteur et l’on ne peut pas multiplier par le nombre d’années aussi simplement. Mais, les corrections apportées par EdF pour réduire cette probabilité n’ont pas réussi à contrecarrer la prise en compte d’autres scénarios d’accident et le vieillissement des installations. Ainsi, la probabilité d’occurrence d’une fusion du cœur n’aurait pas baissé autant que l’on aurait pu l’espérer, selon la confidence d’un expert de l’IRSN. Mais impossible d’avoir des chiffres plus précis, l’ASN ne souhaitant pas communiquer sur un sujet pouvant « effrayer » les populations. Ainsi, la règle fondamentale de sûreté impose les calculs probabilistes sans donner de chiffres !

L’EPR 10 fois plus sûr signifie que la probabilité de l’occurrence d’une fusion du cœur ne doit pas dépasser une chance sur 1.000.000 par réacteur et par an. Il est louable de vouloir faire beaucoup mieux, mais la sûreté des populations nécessite de considérer le parc nucléaire dans son ensemble. Pour que la construction de l’EPR, complètement inutile d’un point de vue énergétique car EdF est en surcapacité de production, contribue à une amélioration de la sûreté des populations, il faudrait qu’elle s’accompagne de l’arrêt des réacteurs les plus dangereux.

Il est regrettable de réduire à un simple slogan la sûreté des réacteurs. Si les promoteurs de l’EPR veulent convaincre de l’intérêt de leur réacteur comme l’impose le principe de justification*, il faut qu’ils nous proposent des scénarios globaux avec la publication de tous les chiffres concernant la sûreté. C’est seulement dans ces conditions qu’un débat pourra avoir lieu.

De même, le fait que l’EPR ait un rendement supérieur au parc actuel et donc produise relativement moins de déchets nucléaires n’a un intérêt que si les réacteurs les plus anciens sont arrêtés. Dans la configuration actuellement prévue, l’EPR ne fera qu’augmenter la production totale de ces déchets pour lesquels aucune solution satisfaisante n’existe.

* Le principe de justification : La réglementation française impose que toute nouvelle pratique induisant une exposition aux rayonnements ionisants soit justifiée par son intérêt économique et social. Dit autrement, toute nouvelle exposition n’est acceptable que si elle procure un bénéfice aux personnes exposée ou à la société.

Sommaire


Electeurs Parfaitement Représentés

ACROnique du nucléaire N°69 de juin 2005

Pour justifier la construction de l’EPR, comme l’impose la réglementation, le gouvernement a organisé un Débat National sur les énergies. Mais, contrairement aux attentes, les trois sages chargés de piloter le Débat avaient conclu : « qu’il est difficile, […] de se faire une opinion claire sur son degré de nécessité et d’urgence. […] Il a semblé que si le constructeur potentiel de l’EPR milite pour sa réalisation immédiate, c’est avant tout pour des raisons économiques et de stratégie industrielle. » Depuis, il n’y a pas eu de débat sur la politique industrielle de la France. Et l’EPR est devenu officiellement un « démonstrateur » pour pouvoir maintenir un savoir faire et « l’option nucléaire ouverte » quand les centrales actuelles seront arrivées en bout de course. Deuxième manque de chance pour la stratégie de communication des autorités, la Finlande a commandé en décembre 2003 un réacteur EPR prétendument fiable qui va précéder le « démonstrateur ». Bien qu’aucun argument justificatif supplémentaire n’ait été apporté, les Députés ont voté, en première lecture en juin 2004, la loi sur l’énergie préconisant la construction du réacteur.

De plus, selon Le Monde du 21 octobre 2004, « Alain Schmitt, directeur adjoint à la DGSNR (direction générale de la sûreté nucléaire et de la radioprotection, le service du ministère de l’industrie qui joue le rôle de gendarme du nucléaire), l’indique clairement : “Le gouvernement voulait que l’examen de la loi au Parlement ait lieu avant que nous publiions notre prise de position.” Ainsi, la position prise par la DGSNR sur la sûreté d’un nouveau réacteur EPR a été cachée aux députés qui examinaient, au printemps [2004], le projet de loi sur l’énergie. Un des principaux sujets de cette loi était le lancement du réacteur EPR. » Et d’ajouter que « la discussion parlementaire s’est déroulée en mai sans que les députés aient d’autres éléments techniques sur le réacteur que des éléments généraux et tous favorables. Le “débat sur l’énergie”, qu’avait lancé en 2003 la ministre de l’industrie d’alors, Nicole Fontaine, avait été mené sans dossier précis sur l’EPR. Or le document que publie la DGSRN avait été établi en octobre 2000 lors de l’assemblée plénière du groupe permanent d’experts sur les réacteurs. »

C’est en octobre 2004 qu’EdF annonce avoir choisi la Normandie d’en Bas contre la Normandie d’en Haut pour l’implantation du réacteur. Elle a par ailleurs, saisi la Commission Nationale de Débat Public (CNDP) qui a, dans son avis du 1er décembre 2004, décidé qu’elle organisera un débat, « considérant que le débat national sur les énergies organisé par le Gouvernement au 1er semestre 2003 et les avis du Comités des Sages qui l’ont conclu ont fait apparaître une controverse sur le projet de réacteur de type EPR ; que le débat public a précisément pour but, non de trancher une controverse, mais d’approfondir et d’en éclairer les termes, après avoir assuré l’information et l’expression du public ». (Voir http://www.debatpublic.fr/) Elle a de plus considéré « certes que la loi d’orientation sur l’énergie, votée en première lecture en juin 2004 arrête les principes fondamentaux en la matière ; que cependant elle renvoie pour leur mise en œuvre à une programmation pluriannuelle des investissements dont la date d’approbation est à la discrétion du Gouvernement ; qu’ainsi le débat public est en mesure d’éclairer préalablement la décision d’investissement. »

Dans la nuit du 29 au 30 mars, les députés ont voté en deuxième lecture le projet de loi sur l’énergie qui, selon l’AFP, « donne le feu vert au lancement du réacteur nucléaire de 3e génération, EPR ». L’article 1er ter stipule que « le deuxième axe de la politique énergétique est de diversifier le futur bouquet énergétique de la France. […] L’Etat se fixe donc trois priorités. La première est de maintenir l’option nucléaire ouverte à l’horizon 2020. […] L’Etat appuie donc les démarches d’Electricité de France visant à construire un réacteur européen à eau pressurisée : l’EPR. » Les députés n’ont donc pas besoin d’être « éclairés » par le débat supposé avoir assuré « l’expression du public ». Leur dévotion au projet va jusqu’au soutien public. En effet, l’article 1er quater stipule que « la politique de recherche doit permettre à la France d’ici 2015, d’une part, de conserver sa position de premier plan dans le domaine de l’énergie nucléaire et du pétrole et, d’autre part, d’en acquérir une dans de nouveaux domaines en poursuivant les objectifs suivants : […]
–    le soutien à l’industrie nucléaire nationale pour la mise au point et le perfectionnement du démonstrateur EPR, en particulier dans le domaine des combustibles nucléaires innovants. »

Ce texte a été remanié depuis par le Sénat, sans rien changé sur le fond pour l’EPR. Pendant ce temps, le projet de loi sur la transparence nucléaire s’est perdu dans les méandres du pouvoir.

Sommaire


Emplois Pour la Région

ACROnique du nucléaire N°69 de juin 2005

Dans « Reflets » n°51 daté de mars-avril 2005, le magazine de la région Basse-Normandie, il est écrit sous le titre évocateur« Méga chantier » : « EDF choisit le site de Flamanville pour la construction, à partir de 2007, du premier EPR (European Pressurized water reactor), réacteur nucléaire de 3ième génération destiné à remplacer les 58 autres actuellement en production en France. D’une durée de 6 ans et d’un coût de 3 milliards d’euros, ce chantier devrait générer près de 2000 emplois sur la période ». Notre épisode sur la sûreté aurait fait mouche et EDF s’apprêterait-elle à fermer ses 58 réacteurs ? Non ! C’est plutôt que les élus locaux rêvent déjà d’autres tranches dans l’avenir, en remplacement des réacteurs actuels, avec l’emploi comme dernier argument. Mais, en service, ce prototype nucléaire n’emploierait plus que près de 400 personnes.

Ce qui se passe en Finlande est instructif car l’on a en quelque sorte un « démonstrateur de démonstrateur » ! Or, le conglomérat japonais, Mitsubishi Heavy Industries, a annoncé le 18 mars 2004 qu’il fournirait la cuve du réacteur (Genshiryoku Sangyou Shimbun, 25 mars 2004). Les travaux ont commencé à Kobé au Japon et la cuve devrait être livrée fin 2006. Quant aux générateurs de vapeur, ils sont aussi en cours de construction… au Japon par Japan Steel Works ! (Nucleonics Week, 18.11.2004) Ainsi les éléments clés du fleuron de la technologie française seront fabriqués au Japon car il n’y a plus la capacité industrielle en France. Dommage qu’un débat sur la politique industrielle n’ait pas eu lieu ! En sera-t-il de même pour l’EPR normand s’il est onfirmé ? Selon l’usine nouvelle (26 mai 2005), il faudra plusieurs années de recherche pour mettre au point les capacités de production en France, car les concepteurs du projet EPR ne se sont pas attardés sur les questions de faisabilité industrielle. Un tel investissement ne peut être rentable que si le carnet de commande était plein, ce qui n’est pas le cas, même si les industriels rèvent tout haut de s’équiper pour contruire 50 réacteurs de par le monde avec le soutien de l’Etat.

Ce n’est donc pas très glorieux en termes d’emplois. Comme 2000 personnes à 2000€/mois pendant six ans coûtent (en multipliant par 2 pour tenir compte des charges) environ 500 millions d’euros, soit moins de 20% de que ce devrait coûter la construction de l’EPR, il doit sûrement y avoir une meilleure façon de créer des emplois avec 3 milliards d’euros. A titre de comparaison, le dossier de candidature de Paris au JO fait apparaître 43000 emplois pérennes créés pour 4,2 millions d’euros d’investissement supplémentaires à ceux déjà prévus de toutes façons par la mairie ! (Capital, avril 2005) Dans l’étude commandée par Greenpeace, « Eole ou pluton », le cabinet d’étude « Détente » étudie le cas d’école où cette somme était investie entièrement dans l’éolien et montre que cela produirait beaucoup plus d’emplois et d’énergie ! Bien entendu, un scénario plus intéressant serait d’investir cette somme dans des actions variées incluant les économies d’énergie pour lesquelles il y a un potentiel immense. En Allemagne, c’est l’emploi qui a été l’argument décisif pour ne pas renouveler le parc nucléaire…

Sommaire


Evitons le Péril du Réchauffement

ACROnique du nucléaire N°70 de septembre 2005

C’est une ritournelle classique : nous n’aurions le choix qu’entre les risques associés au nucléaire et le péril du réchauffement climatique. C’est en tout cas la conclusion que Nicole Fontaine, alors Ministre de l’Industrie, a tirée du débat sur l’énergie qu’elle a organisé en 2003 : « c’est bien entre [ces] deux inconvénients qu’il nous faudra choisir ».

Les chiffres donnés par Benjamin Dessus et Hélène Gassin dans leur livre « So Watt ? » paru cette année aux éditions de l’Aube permettent de se sortir de cette « alternative infernale » : « Le secteur de la production mondiale d’électricité repose aujourd’hui à 65% sur les énergies fossiles (en particulier le charbon), 17% sur le nucléaire et 18% sur les énergies renouvelables. Il contribue à 40% des émissions de gaz carbonique (CO2) du système énergétique et autour de 20% des émissions totales de gaz à effet de serre mondiales ». Le « recours systématique au nucléaire pour toute installation nouvelle ou pour le renouvellement des centrales à charbon ou au gaz en fin de vie conduirait, compte tenu des prévisions d’augmentation des besoins d’électricité (un doublement d’ici 2030 selon l’Agence internationale de l’énergie), à construire chaque année l’équivalent du parc nucléaire mondial actuel, 400 centrales environ, plus d’une par jour. » Il apparaît donc que le développement du nucléaire ne permet pas d’échapper à une politique volontariste de réduction des gaz à effet de serre. Serions-nous donc condamnés au nucléaire et à l’effet de serre ?

Un débat sur l’énergie ne peut pas être limité aux moyens de production. En effet, avant de choisir entre deux « inconvénients », une réflexion s’impose sur l’utilisation de cette énergie. Et là, un consensus apparaît sur la nécessité de limiter notre consommation. Le premier des trois axes principaux de la politique énergétique présentée dans le livre blanc sur les énergies du Ministère de l’Industrie (7 novembre 2003) précise que « la politique de l’énergie doit d’abord s’appuyer sur la relance d’une véritable politique de maîtrise et d’efficacité énergétiques ». Mais, cette politique se limite actuellement à des incitations fiscales totalement insuffisantes devant l’enjeu. Le scénario Négawatt pour un avenir énergétique sobre, efficace et renouvelable  (http://www.negawatt.org/) montre, sur la base des technologies actuelles, qu’il serait possible de diviser par 2 environ la demande d’ici 2050 par rapport à un scénario qui prolonge la tendance actuelle. Cela revient à stabiliser la consommation au niveau de 1994. En Europe, d’autres études similaires sont arrivées à des conclusions proches. Mais il y a urgence à agir de façon énergique ! Certains choix structurels, comme l’EPR, pourraient tuer cette volonté de réduire notre consommation d’énergie en servant d’alibi.

L’argument « EPR=Evitons la Pénurie des Ressources » d’hydrocarbure n’a jamais été évoqué par les promoteurs du réacteur. C’est symptomatique d’une volonté de donner une image d’abondance et d’énergie « propre » au nucléaire, à l’encontre d’une politique efficace d’économie d’énergie. Rassurés, les consommateurs peuvent continuer à consommer sans vergogne pour soutenir la croissance. Combien de fois avons-nous entendu que grâce à ses 80% d’électricité d’origine nucléaire, la France était « vertueuse » ? La construction de l’EPR constitue donc un frein à une véritable politique énergétique. De plus, l’investissement colossal qu’il représente pourrait faire économiser beaucoup plus d’énergie que sa production, si cet argent était investi dans des mesures d’économie, qui, elles, créeraient des emplois…

Le réchauffement climatique est une aubaine pour l’industrie nucléaire qui a trouvé là un moyen de « verdir » l’image d’une activité à risque. Dans le cahier collectif d’acteurs du débat public, les administrations expliquent que « grâce à la part prédominante du nucléaire, filière non émettrice en CO2, le contenu en CO2 de l’électricité produite en France est d’environ 20 g de carbone émis par kWh, à comparer à 134 g pour l’Allemagne, 115 g pour l’Espagne ou 82 g pour la Belgique ». Soit, mais l’électricité nucléaire ne représente que 17% de l’énergie finale, comme le rappelle Global Chance dans ce même cahier. Ce sont les transports qui y contribuent le plus. Il est donc réducteur, voire malhonnête de la part des administrations, de ne considérer que l’électricité. D’un point de vue éthique, ce sont les émissions de CO2 par habitant qui sont à comparer entre pays. Le protocole de Kyoto sur les changements climatiques, impose que les émissions globales ne dépassent pas un niveau donné. On attend donc d’une administration qu’elle présente des chiffres globaux avec un scénario avec EPR et un sans EPR et en prenant en compte la pénurie de pétrole bon marché.

Sommaire


Exportons la Production du Réacteur

ACROnique du nucléaire N°70 de septembre 2005
Toutes les citations et les chiffres de cet épisode sont tirés du cahier collectif d’acteurs publié pour le débat sur l’EPR. Et disponible sur son site Internet.

Selon les chiffres officiels de l’administration, en 2004, 78% de l’électricité produite en France était d’origine nucléaire. 11,3% de cette électricité a été exportée. D’un point de vue énergétique, il est inutile de construire un nouveau réacteur dont la production sera exportée, mais pas les déchets. D’autant plus que la France s’est engagée à produire 21% de son électricité à partir d’énergies renouvelables d’ici 2010 et à promouvoir les économies d’énergie. Et, dans un contexte de libéralisation du marché de l’électricité, la part produite par EdF pour le marché national ne peut que diminuer.

L’enjeu est plutôt d’ordre industriel, car dans une logique purement énergétique, il serait plus économique de construire un réacteur éprouvé du « palier N4 », comme il en existe déjà 4 en France, donnant officiellement « satisfaction ». L’EPR à Flamanville a donc pour but officiel de tester ses capacités pour pouvoir, en 2015, décider du renouvellement du parc actuel et aussi offrir une vitrine à l’exportation. Pour faire ses calculs de coûts, l’administration se base sur une série de 10 réacteurs EPR, d’où le terme « tête de série » donné au réacteur et certains promoteurs rêvent tout haut dans la presse d’en exporter 50… Notons qu’historiquement les exportations françaises de réacteurs sont inférieures à 10 unités car les pays hôtes préfèrent développer une compétence nationale. Si le contexte était si favorable, comment expliquer que BNFL, le concurrent britannique d’AREVA veuille vendre sa filiale Westinghouse ? Pour la SFEN (Société Française d’Energie Nucléaire), « cela renforcera les chances de la France de nouer des partenariats commerciaux sur ce marché concurrentiel et confortera sa position de leader dans un des rares secteurs de haute technologie où elle fait la course en tête ». Cocorico. Aller chercher le nationalisme, c’est bien la preuve que l’EPR manque d’arguments convaincants.

Le ministère de l’industrie admet que le nucléaire est « le plus compétitif pour une production en base, c’est-à-dire une production constante tout au long de l’année ». Soit de l’ordre de 50% de la consommation d’électricité, et donc moins que les 78% actuels. Selon Global Chance, « l’analyse d’une large fourchette de scénarios d’évolution des besoins d’électricité en France montre que l’échéance raisonnable d’introduction de moyens de production de base ou de semi-base dans le parc de production électrique se situe dans la période 2026-2033 et non pas 2015-2020 comme l’affirment les partisans de l’EPR. » Et donc, il n’y a aucune urgence à construire l’EPR. C’est confirmé par l’association « Sauvons le Climat », animée par des physiciens nucléaires, pour qui « la réalisation de l’EPR permettrait d’arrêter, avec un peu d’avance, un ou deux des plus anciens réacteurs français ou, plus probablement, de ne les faire produire qu’en hiver ». Etant donné le coût d’une telle hypothèse, il est peu probable qu’EdF la retienne. La production électrique de l’EPR est donc pour l’exportation.

L’EPR servirait de « vitrine à l’exportation », mais il n’y a pas eu besoin de vitrine pour en vendre un à la Finlande. Face au coût exorbitant du « prototype » et aux risques encourus, il devrait être possible de monter une collaboration poussée avec la Finlande pour profiter de son retour d’expérience. Pour AREVA, « en l’absence de nouvelles commandes, l’ingénierie française serait privée de la taille critique, des moyens et des motivations nécessaires pour maintenir notre supériorité technologique ». Alors pourquoi sous-traiter au Japon la construction des éléments les plus techniques du réacteur finlandais, si « les équipes se dispersent, les savoir-faire s’estompent, les expériences acquises se diluent » comme le proclame la SFEN ? Les arguments avancés sont peu convaincants. Ce qui est sûr, c’est que l’EPR à Flamanville va renforcer la dépendance d’une région à une quasi mono-industrie et va à l’encontre de la volonté affichée par les autorités de diversifier les moyens de production de l’électricité.

Sommaire


Erigeons des Pylônes Remarquables

ACROnique du nucléaire N°70 de septembre 2005

« Accepteriez-vous de vivre dans une maison sous une ligne Très Haute Tension ? » Voilà la question de confiance posée à Jean Bizet, sénateur de la Manche, par un participant au colloque « Quels impacts des lignes électriques Très Haute Tension ? » organisé à St-Lô le 28 mai dernier par la Confédération Paysanne. « Oui, si ma maison est survolée » a répondu le sénateur. On aura compris que la maison de Jean Bizet doit actuellement être épargnée par les couloirs de lignes et c’est tant mieux pour la famille Bizet et éventuellement ses animaux. En Effet,  même dévoué à la cause nucléaire, comment nier plus longtemps les effets des lignes Très Haute Tension (THT) et, plus largement, des champs électromagnétiques ?

Construire un EPR à Flamanville, soit, mais comme la consommation d’électricité n’est pas locale, il faut bien évacuer le courant produit. C’est la tâche du Réseau de Transport d’Electricité (RTE). Pour cela, il sera nécessaire de construire un couloir de lignes THT sur une longueur de 150 à 200 kilomètres. Un pylône tous les 500 m environ, 80 m d’emprise au sol [1]. Quand on sait qu’à 500 m d’une THT des effets peuvent être induits, c’est entre 15 000 et 20 000 hectares qui peuvent être touchés par ce couloir de ligne supplémentaire. D’un coût estimé entre 180 et 220 millions d’euros (estimation basse car on évoque déjà une majoration de 20 à 30 %), ce projet doit faire l’objet d’un débat public… ultérieur à la décision gouvernementale. Oublions un instant ces curiosités chronologiques et l’impact de 300 ou 400 pylônes dans le paysage pour s’intéresser à la partie la moins visible, à savoir les champs électromagnétiques.

Tant qu’on reste faiblement exposé à des champs électromagnétiques, il est assez aisé d’en parler avec distance, voire même un certain détachement. Les choses se gâtent lorsqu’une ligne THT bien réelle survole votre ferme et vos animaux.
1989 – St-Laurent de Terregatte, sud Manche : Serge Provost [2] et son fils sont producteurs de lait avec 70 vaches laitières. Leur exploitation est survolée par une ligne THT (2 x 400 000 volts depuis 1992) qui transporte le courant produit à la centrale de Flamanville (120 kilomètres au nord) vers les départements voisins. 4 mois après la mise sous tension de la ligne, M. Provost rencontre des problèmes avec ses animaux : induration des mamelles, taux de leucocytes élevés, 12 avortements spontanés, sans cause apparentes survenus entre 4 et 6 mois de gestation. Les analyses sanguines des animaux révèlent un excès d’urée ou de phosphore et un manque de cuivre. Débute alors un marathon judiciaire qui durera plus de 10 ans pour aboutir à ce que M. Provost et son fils abandonnent leur métier et leur troupeau. Dans l’entre-fait, Serge Provost aura beaucoup appris sur les champs électromagnétiques et sur les méthodes d’EDF qui n’hésita pas à couper le courant dans la ligne le jour d’une expertise judiciaire !

Le cas des Provost n’est hélas pas un cas isolé. Les géobiologues qui interviennent sur des exploitations agricoles d’élevage en savent quelque chose [3]. Les animaux sont beaucoup plus sensibles que les êtres humains à l’exposition aux champs électrique et magnétique (voir encadré en fin d’article).
Le développement de l’électricité a engendré un quadrillage du territoire. Outre les pertes du réseau, la mise à la terre des différentes installations (lignes MT, THT, transformateurs, antenne de téléphonie mobile…) peut générer des courants vagabonds. Suivant la configuration du terrain qu’ils traversent (fissures ou failles géologiques, cours d’eau souterrains…), ces courants vont être potentialisés. Si une habitation ou des bâtiments d’élevage se trouvent sur leur parcours, des répercussions peuvent avoir lieu. La mise à la terre des installations agricoles chère au Sénateur Bizet ne règle pas tous les problèmes. Des études géobiologiques au cas par cas sont nécessaires. A proximité d’une THT (jusqu’à 500 m), des courants peuvent être induits [4] dans les tubulures d’une salle de traite par exemple. A partir de 6 milliampères, des baisses de production et des pathologies apparaissent chez les bovins et ovins [5]. Les effets des champs électromagnétiques ne sont pas réservés aux seuls animaux d’élevage mais peuvent affecter les êtres humains agriculteurs ou pas (maux de tête à répétition, perte de sommeil, dépression,  cancer du sein, leucémie…).

« Toutes les choses sont dites ». Pour Pierre Le Ruz, docteur en physiologie, directeur de recherches et expert européen des champs électromagnétiques, et son confrère Roger Santini, les effets des champs électromagnétiques sont connus et ne peuvent être tus plus longtemps. Ces chercheurs alertent, avec d’autres scientifiques depuis 1992 [6], sur la dangerosité des champs électromagnétiques d’Extrêmement Basse Fréquence (EBF [7]), en particulier sur l’augmentation du risque de leucémie chez l’enfant exposé à ces champs. Mais… tout le monde n’est pas de cet avis.

Le lecteur un peu familier des sujets traitant du nucléaire et de la santé des populations aura sans doute noté la ressemblance des termes « champs d’Extrêmement Basse Fréquence » et les « faibles doses des rayonnements ionisants ». Nous allons le voir, la ressemblance ne s’arrête pas là. Dans le milieu nucléaire, si les effets des faibles doses et le principe de linéarité sans seuil [8] sont admis par la plupart des instances internationales, ils demeurent des sujets controversés. Quelques professeurs de haut vol, membres des académies de Médecine ou des Sciences de surcroît, remettent en cause ce principe de linéarité sans seuil. Georges Charpak, Maurice Tubiana, André Aurengo sont de ceux-là. Si seulement nous pouvions admettre que les faibles doses radioactives sont absolument sans effet, l’avenir serait radieux à l’ombre des installations nucléaires ! Pour les exploitants tout d’abord. Mais ce n’est pas le cas.  Président de la commission qui porte son nom, chargée de faire la lumière sur les conséquences des retombées du nuage de Tchernobyl en France, André Aurengo fait également partie d’un groupe d’experts [9] rattaché au Conseil Supérieur d’Hygiène de Publique de France qui a remis le 8 novembre 2004 à la Direction Générale de la Santé (DGS) un rapport sur les extrêmement basses fréquences (EBF).

Dans leur rapport à la DGS, le groupe d’experts indique que l’implication des champs électriques EBF dans le risque de cancer a été écartée car, selon eux : «  les champs électriques EBF sont atténués par les parois des habitations et par la peau. Ils ont été peu étudiés. La quasi totalité des études les concernant sont négatives ». Pierre Le Ruz et Roger Santini [10] n’ont pas manqué de réagir en soulignant « l’existence d’incohérences, d’insuffisances et d’omissions » du rapport remis à la DGS. Outre le fait, omis par les auteurs du rapport, que les enfants sont exposés à des champs présents dans leur environnement (électroménagers, appareils électriques…), des études scientifiques montrent  que dès 10 V/m, le champ électrique EBF augmente significativement le risque de leucémie chez l’enfant. Chez l’adulte, le champ électrique EBF augmente aussi de façon significative le risque de leucémie, dès une moyenne annuelle, de 345 V/m et le risque de tumeur du cerveau chez les travailleurs d’EDF dès une moyenne annuelle de 387 V/m. De plus, dans les études citées par R. Santini et P. Le Ruz, l’existence d’une relation de type dose-effet [11], établie ou probable, est rapportée pour le champ électrique EBF. Il serait trop long ici de détailler le manque de rigueur du rapport à la DGS. On peut toutefois préciser que, contrairement à ce que le rapport affirme, des études présentent les mécanismes permettant d’expliquer les effets cancérogènes des extrêmement basses fréquences. Forts du résultat de ces études, Santini et Le Ruz affirment qu’il n’est plus acceptable que des enfants et des adultes continuent d’être exposés à des champs électriques d’Extrêmement Basse Fréquence supérieurs à 10V/m et ou à des champs d’induction magnétique EBF supérieurs à 0,2 microTesla.

Qu’en est-il des normes actuelles ? En l’absence de la preuve de l’innocuité des champs électromagnétiques, on pourrait imaginer que le principe de précaution s’applique et que le parlementaire légifère en ce sens en prenant en compte les effets à long terme. Imaginons…
La recommandation du Conseil de l’Europe indique une valeur de 100 microTeslas [12] pour le public afin d’éviter tout effet nocif pour le système nerveux central [13]. C’est celle retenue par les parlementaires français. Les normes européennes et françaises sont plus sévères pour la protection des matériels (de l’ordre de 0,5 microTesla pour un ordinateur). Sans doute davantage pétris de précaution, les parlementaires européens avaient décidé d’une limite à 0,25 microTesla pour le public. En juillet 2001, l’OMS a classé les champs magnétiques 50/60Hz dans le groupe 2b « cancérogènes possible pour l’homme » en raison du risque statistique de leucémie pour l’enfant exposé à un champ supérieur à 0,4 microTesla.

On aimerait volontiers afficher l’absence d’hésitation du sénateur Bizet à la question de vivre ou non sous une ligne très haute tension. Cependant, trop d’éléments invitent à relativiser les propos les plus optimistes. Du côté des experts et des académies, les errements du passé (amiante, dioxines) ou les approximations du présent (OGM) invitent là encore à prendre leur avis et leur indépendance avec précaution. Pour imposer l’EPR, il aura d’abord fallu enterrer les conclusions du Débat National sur les énergies sensé donner de la pluralité et de l’ouverture à un sujet qui en manque. Le corollaire de l’EPR – le couloir de lignes THT- présente lui aussi des risques qui ne peuvent rester cantonnés éternellement hors du champ des préoccupations de santé publique.

Grégory Grisel
Antenne Nord-Cotentin

(1)    …et 2874 euros par pylône et par an de taxe versée aux communes. Quant aux postes électriques (zone de séparation ou de regroupement des lignes), c’est environ 250 000 euros que se partageront la commune, la communauté de communes, le département et la région qui les « supportent ». De quoi aiguiser les appétits.
(2)    Serge Provost est par ailleurs cofondateur de l’association « Animaux sous tension » (Animaux sous tension,  Kerangoarec, 29300 ARZANO).
(3)    Voir en particulier le chapitre « Géobiologie et élevages » rédigé par Luc Leroy, géobiologue, dans l’ouvrage collectif « la géobiologie et vous  – guide pratique – Apprendre à gérer l’harmonie ! », Editions Mosaïque.
(4)    La fréquence des courants dont il est fait état ici est de 50Hz. Les champs électriques et magnétiques à de fréquence plus élevée (ordinateurs, téléphones portables…) sont également à considérer avec attention en ce qui concerne leurs effets sur la santé.
(5)    Certains pays (Québec, Canada) imposent des zones d’exclusion d’exploitation agricoles sous les couloirs de lignes.
(6)    La  connaissance des effets des champs électromagnétiques n’est pas nouvelle. Dès 1965, J-P. Maschi lance l’alerte d’un lien possible entre sclérose en plaques et contrainte électromagnétique. Il fût radié de l’Ordre des Médecins.
(7)    Les EBF sont des fréquences inférieures à 1kiloHz (kHz) soit 1000 Hz. Le courant électrique 50Hz entre dans cette catégorie.
(8)    Le principe de linéarité sans seuil signifie que pour toute dose absorbée, aussi petite soit-elle, il y a un effet biologique. Quoique décriée, cette hypothèse pourrait être sous-estimée comme l’indiquent de récents travaux portant sur l’effet « bystander ou non-cible ». Voir le dossier « l’impact des faibles doses de radioactivité sur l’organisme humain » ACROnique du Nucléaire n°69, juin 2005.
(9)    Rapport à la DGS : A. Aurengo, J. Clavel, R. de Sèze, P. Guénel, J. Joussot-Dubien, B. Veyret – « champs magnétiques d’extrêmement basse fréquence et santé » – 8 novembre 2004, 61 pages.
(10)    Extrêmement Basses Fréquences : commentaires sur le rapport à la DGS d’un groupe d’experts rattachés au Conseil Supérieur d’Hygiène Publique de France par Roger Santini et Pierre Le Ruz, 21 mai 2005.
(11)    Relation dose-effet : plus l’exposition (la dose, les champs électromagnétiques dans le cas présent) augmente, plus les effets augmentent (risque de cancer pas exemple). Cette relation peut être linéaire ou pas, avec ou sans seuil.
(12)    Recommandation du Conseil de l’Europe 12 juillet 1999 cité par P. Le Ruz.
(13)    Guère mieux loti, le monde du travail voit s’appliquer des valeurs de 10 kV/m pour le champ électrique et 500 microTeslas pour le champ magnétique.

Le champ électrique : il est lié à la tension, c’est-à-dire aux charges électriques. Il se mesure en volt par mètre (V/m). Il diminue avec la distance. Toutes sortes d’obstacles (arbres, cloisons…) peuvent le réduire, voire l’arrêter. Sous une ligne THT, le champ électrique peut atteindre 3000 V/m.

Le champ magnétique : il est lié au mouvement des charges électriques, c’est-à-dire au passage d’un courant. Lui aussi diminue rapidement en fonction de la distance, mais aucun écran efficace et peu coûteux ne peut agir comme protection. Il se mesure en Tesla (T) et généralement en microTesla (µT). Une autre unité, le Gauss (G) est également employée ; 1 milliGauss (mG) = 0.1 µT

La combinaison de ces deux champs conduit à parler de champ « électromagnétique ». Tous les champs se caractérisent également par une fréquence, c’est-à-dire un nombre d’oscillations dans un temps donné. Cette fréquence se mesure en Hertz (Hz). Le réseau électrique fonctionne à la fréquence de 50Hz.

Source : colloque « Quels impacts des lignes électriques très haute tension ? » Confédération Paysanne, St-lô, 28 mai 2005

Sommaire


Epilogue : notre Position sur le Réacteur

Nous vous invitons à lire, en guise d’épilogue, notre contribution écrite au débat national concernant le réacteur EPR. Cette contribution reprend certains points développés dans ce feuilleton. Vous pouvez aussi consulter notre contribution au débat national sur les déchets nucléaires.

Contribution de l’ACRO au débat sur l’EPR
Contribution de l’ACRO au débat sur les déchets nucléaires de haute activité et à vie longue

Ancien lien

Surveillance radioécologique 2001-2003 de l’environnement marin du chantier de démantèlement de l’ancienne conduite de rejets en mer Cogéma-La Hague

Surveillance 2001-2003 de l’environnement marin du chantier de démantèlement de l’ancienne conduite de rejets en mer Cogéma-La Hague

Impact environnemental des usines de La Hague : “Nous y étions presque !”

ACROnique du nucléaire n°69, juin 2005

Impact environnemental des usines de La Hague, Contrôle n°162, janvier 2005

Les lichens intégrateurs de tritium et de carbone 14

Résumé paru dans ACROnique du nucléaire n°67, décembre 2004


L’ACRO a collaboré à une étude pilotée par l’observatoire mycologique sur les potentialités des lichens comme bio-indicateurs pour l’étude de la concentration atmosphérique en tritium et carbone 14. Ces travaux ont fait l’objet de publications scientifiques dans des revues internationales.
Nous présentons ici un résumé de ces études et vous pouvez télécharger un article en français plus conséquent sur ce sujet avec tous les tableaux de résultats :Les lichens intégrateurs de tritium et de carbone 14, article complet par Olivier Daillant.


L’hydrogène et le carbone sont deux principaux constituants de la matière vivante. L’hydrogène et le carbone radioactifs sont donc des éléments importants à prendre en compte en terme de santé publique. Ces deux radio-éléments existent dans la nature, mais sont aussi rejetés par les installations nucléaires. Les lichens qui sont connus comme bio-indicateurs pour de nombreux polluants, pourraient être aussi intéressants pour évaluer l’impact des rejets atmosphériques car ils ne sont pas en contact avec le sol.

Les sites concernés par cette étude sont l’usine de La Hague, le centre militaire de Valduc et la centrale nucléaire du Bugey dans l’Ain. Par ailleurs, des prélèvements ont été faits en Bourgogne, dans le Morvan et à Vienne en Autriche, loin de toute installation nucléaire.

Le Tritium
Isotope radioactif de l’hydrogène avec une demi-vie de 12,3 ans, le tritium est présent dans l’environnement sous forme d’hydrogène tritié (HT), d’eau tritiée (HTO) ou liés à des atomes de carbone, on parle alors de tritium organiquement liés (OBT). Dans ce dernier cas, le tritium n’est pas facilement échangeable, contrairement aux deux autres cas.
Le tritium est produit dans la haute atmosphère par le rayonnement cosmique auquel s’ajoutent les retombées des essais nucléaires atmosphériques. Mais, ce qui domine, ce sont les rejets des installations nucléaires.

Le carbone 14
Il est aussi créé par les rayonnements cosmiques dans la haute atmosphère. Avec une demi-vie de 5730 ans, il est connu pour son utilisation en datation. En Suisse (Site de l’autorité sanitaire suisse : www.suer.ch) et en Allemagne, il est considéré comme l’élément entraînant l’exposition principale des populations riveraines des centrales nucléaires. On le retrouve aussi dans les rejets de l’usine de retraitement de La Hague.

Le tritium et le carbone 14 sont tous les deux des émetteurs bêta purs, ce qui signifie que leur détection nécessite un protocole complexe. Les mesures ont été faites en Autriche et en Allemagne.

Résultats
Pour le carbone 14, les résultats sont généralement donnés en comparaison avec la teneur habituelle en carbone 14 naturel afin de pouvoir détecter une pollution éventuelle. Quant au tritium, seule la partie organiquement liée est mesurée ici. Les résultats peuvent être exprimés par rapport à la masse de matière sèche, comme  on le fait généralement pour les autres éléments ou en becquerel par litre d’eau issue de la combustion. Dans ce cas, on est plus près des méthodes d’analyses. A noter que la concentration en tritium naturel dans les eaux n’est que de quelques becquerels par litre.

Les résultats des analyses sont présentés dans le document complet.

Commentaires
Aux abords de la centrale du Bugey, la contamination en tritium est légèrement supérieure au bruit de fond naturel. A La Hague, elle peut atteindre 5 à 8 fois ce bruit de fond. Mais c’est à Valduc que les concentrations sont les plus élevées. Cela s’explique par les activités militaires qui provoquent d’importants rejets en tritium. Mais les concentrations obtenues ne peuvent être dues uniquement aux rejets récents. Les lichens ont intégrés du tritium beaucoup plus ancien correspondant à des rejets historiques qui ont dû être très importants. En effet, la période biologique d’élimination du tritium dans les lichens est de l’ordre d’un an. Ce résultat a été obtenu en transplantant des lichens de Valduc vers une zone a priori non influencée par des rejets tritiés. Cela signifie que les concentrations en tritium dans les autres végétaux ont dû être aussi très élevées par le passé. Pour ce qui est du carbone 14 trouvé dans les lichens à La Hague, les niveaux obtenus correspondent à ceux généralement mesurés dans les autres végétaux.

Conclusion
Cette étude montre l’intérêt des lichens comme bio-indicateur de la contamination atmosphérique en tritium et carbone 14. Comparés à la plupart des autre végétaux, ils présentent plusieurs avantages : une activité continue presque tout au long de l’année et un métabolisme lent permettant une intégration à long terme. De plus, si les lichens sont soigneusement choisis, ils ne sont pas concernés par un éventuel transfert sol-lichen.

Ancien lien

EPR mon amour

Communiqué de presse du 12 juillet 2004


L’engouement des élus locaux pour l’EPR a de quoi surprendre. Normands d’en haut et d’en bas rivalisent d’imagination pour attirer un réacteur nucléaire dont l’utilité n’a pas été démontrée. Des subventions faramineuses sont votées pour des associations de promotion ou des entreprises de communication afin de s’attirer les bonnes grâces d’EdF et des populations sans que le principe de justification qui vient d’entrer dans la législation française ne soit respecté.

Toute nouvelle pratique entraînant une exposition aux rayonnements ionisants doit pourtant être justifiée par ces avantages économiques et sociaux. Or, les trois sages chargés de piloter le Débat National sur l’énergie avaient conclu : « qu’il est difficile, […] de se faire une opinion claire sur son degré de nécessité et d’urgence. […] Il a semblé que si le constructeur potentiel de l’EPR milite pour sa réalisation immédiate, c’est avant tout pour des raisons économiques et de stratégie industrielle. […] En définitive, la question du nucléaire ne peut être tranchée sans des compléments d’études allant au-delà des éléments fournis lors du Débat National. » Et l’un des sages, le sociologue Edgar Morin, a dans ce même rapport clairement tranché : « Les centrales actuelles ne devenant obsolètes qu’en 2020, il semble inutile de décider d’une nouvelle centrale EPR avant 2010 [car rien] ne permet pas d’être assuré qu’EPR, conçu dans les années quatre-vingt, serait la filière d’avenir. »

Réacteur éprouvé et commercialisable en Finlande qui l’a retenu ou « démonstrateur » en France pour garder les options ouvertes, le double langage des autorités n’apporte aucune clarification. Actuellement, un EPR en France serait essentiellement destiné à l’exportation d’électricité. En décidant son lancement sans aucune nouvelle justification, les autorités méprisent les citoyens et le Débat National qu’elles ont organisé.

Nous demandons donc que la loi soit appliquée et que l’on justifie les trois milliards d’euros prévus pour l’EPR par rapport à une autre politique énergétique. Le bilan en terme d’emploi, qui seul semble intéresser les régions, n’a pas été abordé au niveau national et mériterait aussi d’être étudié étant donné l’importance de l’enjeu.

Bilan radioécologique de l’environnement aquatique du bassin versant et de la rade de Brest

Bilan radioécologique de l’environnement aquatique du bassin versant et de la rade de Brest

Prolifération nucléaire

Mis en avant

Texte initialement écrit pour le Dictionnaire des risques paru chez Armand Colin et paru dans l’ACROnique du nucléaire n°63, décembre 2003. Version remise à jour pour l’édition 2007 du dictionnaire.


“On va faire la guerre une bonne dernière fois pour ne plus avoir à la faire. Ce fut l’alibi bien-aimé […] des conquérants de toutes tailles. […] Par malheur, ça n’a jamais marché” note Jean Bacon. En effet, la “civilisation” ou la “démocratie”, selon les époques, prétendument apportées au bout du fusil, n’ont jamais supprimé les conflits. Avec l’arme nucléaire, en exposant l’ennemi potentiel au risque d’une riposte massivement destructrice, a-t-on enfin trouvé définitivement le chemin de la paix ? L’équilibre de la terreur entre les deux grandes puissances aurait ainsi évité une troisième guerre mondiale, mais pas les nombreux petits conflits qui ont ensanglanté la planète. On comprend alors l’attrait que suscite cette arme radicalement nouvelle pour de nombreux pays se sentant menacés : comment oserions-nous la refuser aux pays en voie de développement alors qu’elle est indispensable à notre survie, et ceci d’autant plus, que cela représente de juteux marchés pour le fleuron de notre industrie ? Evidemment, le transfert de technologie sera “pacifique”, les technologies civile et militaire pour se procurer la matière première étant identiques. Tout comme les armes exportées sont qualifiées de “défensives”.

Les motivations pour partager son savoir sont multiples : échange de technologies entre la Corée du Nord et le Pakistan, accès au pétrole irakien ou iranien pour la France, développer en secret des technologies militaires dans un pays tiers pour l’Allemagne ou tout simplement renforcer son camp. Malheureusement, cette prolifération, dite horizontale, ne fait qu’augmenter le risque de voir un conflit régional dégénérer en guerre nucléaire. En effet, aucun pays, pas même les démocraties, n’est à l’abri de l’accession au pouvoir d’une équipe dirigeante peu scrupuleuse.

De fait, pas un pays ne s’est doté d’infrastructures nucléaires sans une arrière-pensée militaire, même si certains, comme la Suisse, le Brésil ou l’Afrique du Sud par exemple, ont officiellement renoncé à l’arme nucléaire. Quarante-quatre pays sont actuellement recensés par le traité d’interdiction des essais nucléaires comme possédant une technologie suffisante pour accéder à l’arme suprême. Personne ne met en doute qu’il suffirait d’un délai de quelques mois à un pays très industrialisé pour disposer, s’il le souhaitait, de l’arme atomique et des moyens de la déployer. L’acharnement du Japon, par exemple, à vouloir développer une filière plutonium et des lanceurs de satellites en dépit de nombreux déboires est lourd de sens à cet égard.

Conceptuellement, il est facile de fabriquer une arme rudimentaire, la difficulté étant d’ordre technologique pour accéder à la matière fissible. Le plutonium issu des réacteurs civils peut faire l’affaire, avec des performances moindres. Les Etats-Unis l’ont testé. Pour un groupe terroriste, qui recherche davantage un impact psychologique et médiatique, c’est suffisant. Mais dans une situation d’équilibre de la terreur, il faut des armes fiables qui n’explosent pas accidentellement et qui, en cas d’attaque, détruisent bien toutes les capacités ennemies à réagir. De telles armes nécessitent de la matière fissile dite de qualité militaire et des développements technologiques poussés. Le risque est déjà grand, avec des armes plus ou moins rudimentaires, de voir des équilibres régionaux se transformer en catastrophe, sans pour autant apporter la paix. Par exemple, le conflit au Cachemire n’a pas cessé avec l’accession de l’Inde et du Pakistan au statut de puissances nucléaires.

Dès 1946, l’Assemblée générale des Nations unies vote la création d’une commission atomique chargée d’éliminer les armes nucléaires et de destruction massive. Depuis, on ne compte plus les tentatives officielles et vœux pieux pour parvenir à un désarmement général. “L’homme se trouve placé devant l’alternative suivante : mettre fin à la course aux armements ou périr” prévient même l’ONU en 1977. Rien n’y fait. La diminution des arsenaux nucléaires des grandes puissances ne doit pas faire illusion. Ce sont des armes qui étaient devenues stratégiquement obsolètes qui ont été démantelées.

Les grandes puissances prennent comme prétexte la menace liée à la prolifération horizontale pour garder des arsenaux conséquents et développer de nouvelles armes, provoquant ainsi une prolifération dite verticale. Mais le tollé mondial provoqué par la reprise des essais nucléaires occidentaux en France en 1995 impose une certaine discrétion. Les programmes nucléaires “civils” permettent d’entretenir une infrastructure industrielle et un savoir faire ; sous couvert d’entretien du stock d’armes, les grandes puissances se sont engagées dans la course à une arme de quatrième génération miniaturisée, utilisable sur le champ de bataille. Elles s’appuient sur la recherche fondamentale qui leur sert d’alibi. Ainsi, par exemple, le laser mégajoule en France met en avant son intérêt pour l’astrophysique : la population se laisse berner et les concurrents avertis peuvent mesurer les progrès réalisés. Mais, le partage de certaines connaissances avec une communauté scientifique non-militaire, nécessaire pour attirer des chercheurs, facilite la prolifération horizontale.

Le développement de ces nouvelles armes est lié à un changement stratégique : avec la fin de la guerre froide, les territoires nationaux ne sont plus directement menacés ; c’est l’accès aux matières premières et ressources énergétiques qui devient primordial. Mais en cas d’utilisation, la frontière qui existe entre les armes classiques et celles de destruction massive risque d’être brouillée et d’entraîner une escalade dans la riposte. Les idéalistes voient là une violation de l’article 6 du traité de non-prolifération : “Chacune des Parties au Traité s’engage à poursuivre de bonne foi des négociations sur des mesures efficaces relatives à la cessation de la course aux armements nucléaires à une date rapprochée et au désarmement nucléaire et sur un traité de désarmement général et complet sous un contrôle international strict et efficace.” Alors que chaque pays jure de sa bonne foi.

Un désarmement complet n’est réalisable que par étapes ; le plus urgent semble être de sortir de l’état d’alerte. Comme au temps de la guerre froide, des milliers d’armes nucléaires américaines et russes peuvent être déclenchées en quelques dizaines de minutes. Un déclenchement accidentel ou suite à une erreur de jugement, entraînant une riposte immédiate, aurait des conséquences effroyables. Cependant, un désarmement complet et sûr impliquerait un renoncement à de nombreuses activités industrielles et de recherche, telles celles qui ont été interdites à l’Irak par le conseil de sécurité de l’ONU après la première guerre du Golfe. Se priver de recherches sur l’atome, surtout quand on a accumulé des déchets nucléaires dont on ne sait que faire, est-ce vraiment souhaitable ? Placer les activités proliférantes sous contrôle international est nécessaire, mais pas suffisant. Les institutions et traités ad hoc ayant montré leur inefficacité depuis la seconde guerre mondiale, de nouveaux mécanismes sont à inventer, parmi lesquels un contrôle citoyen avec la mise en place d’une protection internationale pour les lanceurs d’alerte.

Il n’est pas besoin, comme on le sait, d’armement nucléaire pour tuer massivement. Mais l’attrait pour ces armes de destruction massive est tel qu’il semble impossible d’en freiner la prolifération, malgré le lourd tribut déjà payé par les pays engagés dans la course folle. Outre le coût financier et humain qui aurait pu trouver des utilisations plus pacifiques, la fascination pour cette arme a fait que tout était permis. Partout, des populations – souvent des minorités ethniques et des appelés du contingent – ont été exposées sciemment aux essais nucléaires atmosphériques. Aux Etats-Unis, près 9.000 cobayes humains ont été, à leur insu, victimes d’expérimentations médicales visant à étudier l’influence des radioéléments. Nombre d’entre eux étaient des enfants. En URSS, l’infrastructure nucléaire était construite par des prisonniers des camps de détention spéciaux. L’environnement a aussi été sacrifié et certains sites ne peuvent plus être réhabilités. C’est bien là l’ironie suprême de la course à l’arme nucléaire, qui sous couvert d’apporter la sécurité absolue à chacun, n’aura conduit qu’à réduire la sécurité de tous.

David Boilley

Bibliographie :

  • Dominique Lorentz, Affaires atomiques, Les arènes, 2001
  • Jean Bacon, Les Saigneurs de la guerre : Du commerce des armes, et de leur usage, Les Presses d’aujourd’hui, 1981 et Phébus 2003.
  • Sven Lindqvist, Maintenant tu es mort ; Histoire des bombes, Serpent à plumes 2002
  • Conférences Pugwash sur la science et les affaires mondiales, Eliminer les armes nucléaires ; Est-ce souhaitable ? Est-ce réalisable ?, Transition, 1997
  • André Gsponer et Jean-Pierre Hurni, Fourth generation of nuclear weapons, Technical Report, INESAP, c/o IANUS, Darmstadt University of Technology, D-64289 Darmstadt (mai 1998)
  • Bruno Barrillot, Audit atomique, éd. du CRDPC, 1999.
  • Bruno Barrillot, L’héritage de la bombe, éd. du CRDPC, 2002.
  • Stephen I. Schwartz et al, Atomic audit, Brookings Institution Press mai 1998
  • Eileen Welsome, The Plutonium Files: America’s Secret Medical Experiments in the Cold War, Dial Press 1999
  • Kenzaburô Oé, Notes sur Hiroshima, Gallimard 1996

dicodico2Autres textes du dictionnaire des risques :

Ancien lien

Deuxième mission du Groupe Radio-écologie Nord-Cotentin

Le calcul d’incertitude

David Boilley, représentant de l’ACRO dans ce goupe de travail, ACROnique du nucléaire n°60, mars 2003


Dans la première phase de ses travaux, le Groupe Radioécologie Nord Cotentin (GRNC) avait estimé le nombre de cas de leucémie chez les jeunes de 0 à 24 ans vivant dans le canton de Beaumont-Hague attribuables aux rejets radioactifs des installations nucléaires et avait obtenu 0,002 cas environ pour la période 1978-1996 et la population considérée (Voir l’ACROnique du nucléaire n°47 de décembre 1999). Dans ces commentaires, l’ACRO avait tenu à souligner que « Notre principale réserve porte sur la démarche ” réaliste ” retenue par le Comité pour la reconstitution des doses reçues par la cohorte et le risque qui en découle. Nous continuons à penser qu’en matière de radioprotection, toute évaluation d’impact sanitaire doit être menée de façon conservatrice car en l’absence de la mesure précise de l’incertitude liée au calcul ” réaliste “, seul la démarche ” enveloppe ” garanti qu’elle contient la vraie valeur de l’impact. » C’est à dire, quand il y a plusieurs valeurs possibles pour un paramètre, on prend la valeur la plus pénalisante. Si le risque calculé est satisfaisant, alors le risque réel, forcément inférieur, le sera aussi.

En effet, le calcul repose sur de très nombreux paramètres théoriques mal maîtrisés : quelle est la quantité rejetée en mer par an, quel est le taux de concentration de chacun des 71 radio-éléments dans les poissons, mollusques…, quel est le régime alimentaire de la population locale ? Parfois, ces paramètres reposent sur des longues séries de mesures locales qui permettent d’avoir confiance. Dans d’autres cas, le choix s’est fait de manière arbitraire en choisissant une valeur plutôt qu’une autre relevée dans la littérature scientifique internationale. Le résultat de la première phase des travaux du GRNC correspond à la meilleure estimation possible en l’état des connaissances.

Ne nous sommes pas trompes dans le calcul ? Quel aurait été le résultat si on avait choisi un autre jeu de paramètres ? C’est dans le but de répondre à ces questions qu’un groupe de travail a conduit une « analyse de sensibilité et d’incertitude sur le risque de leucémie attribuable aux installations nucléaires du Nord-Cotentin » (Le rapport sera disponible en ligne à http://www.irsn.fr/nord-cotentin). Un représentant de l’ACRO a participé aux travaux, mais n’a pas signé le rapport.

« Un groupe de travail (GT) de l’IPSN sur les incertitudes a été mis en place dès janvier 2000. […] Le 24 juillet 2000, le Ministre délégué à la Santé et la Ministre de l’Aménagement du Territoire et de l’Environnement ont adressé une lettre de mission au GRNC lui demandant de réaliser une analyse de sensibilité et d’incertitude portant sur les paramètres principaux de l’estimation du risque de leucémie attribuable aux installations nucléaires du Nord-Cotentin. En octobre 2000, le groupe de travail a donc été placé sous l’autorité du GRNC et élargi à des experts extérieurs à l’IPSN (associatifs, exploitants, institutionnels). » (Les citations sont extraites du rapport du groupe de travail). Lorsque l’ACRO a été invitée à participer, les travaux de ce groupe de travail étaient déjà bien avancés et il n’a pas été possible de revenir sur certains choix faits en interne.

« Dans cette étude, les sources d’incertitude considérées par le GT « Incertitudes », conformément à sa mission, sont celles relatives aux paramètres. En conséquence, les modèles ne sont pas remis en cause. Une fois quantifiées les incertitudes de chacun de ces paramètres, il faut examiner comment elles se combinent pour produire l’incertitude sur le risque. » Ce choix limite énormément la portée de l’étude car le modèle de dispersion atmosphérique utilisé est notoirement faux. L’analyse par l’ACRO des incidents ruthénium est venue le confirmer. Cependant, faute de meilleur modèle, il n’est pas possible à l’heure actuelle de faire mieux.

« Le grand nombre de paramètres intervenant dans la procédure de calcul du risque collectif (plusieurs milliers), exclut que l’incertitude soit évaluée pour chacun d’entre eux. Le GT « Incertitudes » a donc dû limiter le champ de l’étude et identifier les paramètres prépondérants pour lesquels l’incertitude devra être précisée. La démarche requiert plusieurs étapes :

  • délimiter le champ de l’étude par rapport à celui couvert dans la première mission du GRNC, par exemple en se limitant aux rejets de routine des installations nucléaires,
  • identifier ensuite les paramètres prépondérants (paramètres relatifs aux rejets, au mode de vie, paramètres de transfert, …) dans le calcul du risque collectif. A partir du travail réalisé par le GRNC lors de sa première mission, le GT « Incertitudes » doit identifier les radionucléides prépondérants pour lesquels il est nécessaire de déterminer l’incertitude qui leur est associée parmi l’ensemble des radionucléides (32 dans les rejets gazeux et 71 dans les rejets liquides),
  • déterminer pour chaque paramètre sa gamme de variation et réaliser une analyse de sensibilité. »

Délimitation du champ de l’étude

Population ciblée : la cohorte, c’est à dire l’ensemble des jeunes de 0 à 24 ans ayant vécu dans le canton de Beaumont-Hague entre 1978 et 1996. « Par définition de la cohorte, les individus qui la constituent ne présentent pas de modes de vie particuliers. En ce sens, ils sont considérés comme des individus « moyens » au sein de leur classe d’âge. »

« L’étude présente ne traite que du risque collectif de leucémie ex utero associé aux rejets de routine des installations industrielles nucléaires du Nord-Cotentin (0,0009 cas sur la période considérée). L’incertitude sur la contribution au risque collectif des incidents et accidents des installations nucléaires (notamment le percement de la conduite de rejet en mer survenu en 1979-1980 et l’incendie du silo de déchets du 6 janvier 1981, pour l’usine de retraitement de La Hague) n’a pas été considérée. » Cette limitation est conséquente car seuls 45% du risque sont donc pris en compte par l’étude, les « incidents » ayant une part non négligeable. Par ailleurs, « l’incertitude sur le risque in utero n’est pas considérée dans ce travail. Dans son rapport, le GRNC avait souligné le caractère provisoire des modélisations utilisées pour le calcul du risque in utero [GRNC, 1999]. Il faudra donc vraisemblablement revenir sur l’évaluation effectuée avant d’envisager une étude d’incertitude sur ce point. »

« Les coefficients de dose permettent de passer des activités présentes dans l’environnement ou dans les produits alimentaires aux doses. » Ce sont donc les paramètres les moins bien connus car ils permettent de quantifier les effets des radiations sur la santé.  « Pour les calculs de dose et de risque, le GRNC a utilisé des modèles basés sur les meilleures connaissances scientifiques, adoptés au plan international et donnant lieu à des analyses critiques et à des évolutions en fonction des nouvelles connaissances acquises. Il n’entrait pas dans le cadre de la mission du GRNC de les remettre en cause. Il faut souligner également que les valeurs fournies dans la littérature internationale ne sont pas accompagnées d’incertitudes » Ces coefficients ne varieront pas, c’est le domaine réservé des experts de la CIPR (Commission Internationale de Protection Radiologique dont les recommandations servent à définir les règles de radioprotection).

« Une prise en compte rigoureuse des filiations radioactives nécessiterait une étude à part entière. A ce stade, les filiations radioactives ne sont pas prises en compte. » Le modèle d’exposition aux embruns a été fixé car son application au site de La Hague est douteuse. Faire varier ses paramètres aurait pu laisser entendre qu’on lui accordait une certaine confiance. Enfin, la granulométrie des aérosols a été fixée.

A l’exception des embruns, tous ces choix étaient fixés quand le GT a été ouvert aux représentants associatifs et il n’a pas été possible de revenir dessus.

Méthodologie

« La sélection des paramètres prépondérants a été effectuée en examinant les différentes étapes du transfert jusqu’à l’homme. » On appelle « voie d’atteinte » le chemin d’un élément depuis l’exutoire jusqu’à l’homme. Par exemple, « l’ingestion de produits marins contaminés » ou « l’inhalation de rejets gazeux ». 16 voies d’atteintes sont prises en compte par le GRNC. « Un radionucléide au sein d’une voie d’atteinte est considéré comme prépondérant si sa contribution au risque collectif est supérieure à 0,5 % ou en absolu supérieure à 4,5.10-6. Ce seuil de 0,5 % permet d’éviter une perte importante en termes de risque collectif quand on somme les contributions au risque collectif des radionucléides ainsi retenus. Au sens de ce critère, seuls 23 radionucléides restent à considérer. Ils contribuent, toutes voies d’atteinte confondues, à 95 % du risque collectif. Un paramètre de transfert ou un paramètre mode de vie au sein d’une voie d’atteinte est considéré comme prépondérant si sa contribution au risque collectif est supérieure à 0,15 % ou en absolu supérieure à 1,5.10-6. »

Une fois ces paramètres prépondérants déterminés, il a fallu pour chacun d’entre eux estimer l’intervalle de variation et la probabilité d’obtenir une valeur donnée. Cela a constitué l’essentiel des discussions lors des réunions de travail. Dans certains cas, de longues séries de mesures permettent d’estimer de manière assez fiable cet intervalle. Dans d’autres cas, le choix est purement arbitraire. Pour les régimes alimentaires, par exemple, la consommation moyenne a été multipliée par deux pour obtenir le maximum et divisée par deux pour obtenir le minimum. Cela s’appelle un « jugement d’expert » !

Analyse d’incertitude

Comment les incertitudes sur chacun des paramètres se combinent-elles pour donner l’intervalle de variation du risque total ? Il y a plusieurs méthodes de calcul possibles. L’IRSN en a considéré trois, sans que cela soit vraiment discuté dans le groupe de travail.

Méthode probabiliste : chaque paramètre incertain est tiré aléatoirement dans l’intervalle qui lui est assigné, puis un calcul de risque est effectué. L’opération est renouvelée 1000 fois pour obtenir l’intervalle de variation du risque. Cette méthode, dite de Monte-Carlo, a l’avantage d’être très simple à mettre en œuvre et conduit à un « intervalle de valeurs comprises entre 1,1 et 2,7 fois le risque de référence (soit 0,001 à 0,0024 cas de leucémie) ». Ce résultat est beaucoup plus étroit que l’incertitude des paramètres pris individuellement, ce qui peut surprendre. Cela est dû à la méthode de calcul utilisée. Pour comprendre, prenons le cas des dés : il est difficile de tirer deux six de suite. La probabilité d’en tirer une dizaine de suite est excessivement faible. C’est pareil ici. Si on combine dix paramètres tirés aléatoirement, on aura à peu près autant de valeurs élevées que de valeurs faibles pour un résultat global très moyen. L’étroitesse du résultat est donc due au grand nombre de paramètres qui entrent en jeu dans le calcul de risque. Par cette méthode, il est impossible d’aller explorer des situations extrêmes.

Méthode possibiliste : « Le principe de la méthode « possibiliste » est de décomposer le risque en composants élémentaires. Ceux-ci sont définis comme étant la contribution au risque par classe d’âge, par voie d’atteinte, et éventuellement par produit alimentaire. » Les risques de chaque élément s’ajoutent et ne se combinent pas comme précédemment. Le risque maximum (ou minimum) de chaque élément est additionné pour obtenir le risque maximum (ou minimum) global. Il est en effet raisonnable de penser que l’erreur sur l’atteinte due à l’ingestion de produits marins ne vienne pas compenser l’erreur sur l’atteinte due à l’ingestion de produits laitiers par exemple. « L’incertitude sur chacun de ces 115 composants élémentaires est évaluée par la méthode « probabiliste » de Monte-Carlo. » En effet, l’incertitude sur la concentration en radio-éléments à l’intérieur d’un produit marin n’a rien avoir avec l’incertitude sur le régime alimentaire du consommateur. Cette méthode « possibiliste, conduit à un intervalle de valeurs comprises entre 0,4 et 5 fois le risque de référence (soit 0,0004 à 0,0045 cas de leucémie) » qui est plus large que pour la méthode probabiliste.

Méthode maximaliste : chaque paramètre est fixé à son maximum (ou à son minimum) ce qui permet d’obtenir les valeurs les plus extrêmes. Cela correspond à la démarche enveloppe réclamée par l’ACRO lors de la première phase des travaux. Cette méthode « conduit à un intervalle de valeurs comprises entre 0,1 et 30 fois la valeur de référence (soit 0,00009 à 0,027 cas de leucémie) ».

Conclusion de l’étude : « Toutes ces valeurs restent très inférieures au nombre de cas de leucémies observées pour la même population et la même période (4 cas observés pour 2 cas attendus) et au risque de leucémie radio-induite toutes sources d’exposition confondues (naturelles, médicales, industrielles), soit 0,84 cas. Il apparaît donc peu probable que les installations nucléaires du Nord-Cotentin puissent expliquer la tendance à l’excès de leucémies observée.
Il faut, à ce stade, rappeler les limitations de l’étude d’incertitude réalisée qui n’inclut pas le risque lié aux incidents et accidents (inférieur à 0,0012 cas) ni le risque associé à l’exposition in utero (0,0003 cas). Le fait de les prendre en compte ne modifiera pas vraiment la largeur des intervalles de variation donnés ci-dessus.
Une autre limitation doit être soulignée. Les incertitudes associées aux coefficients de dose et de risque n’ont pas été considérées car il n’existe pas actuellement de documents agréés au plan scientifique sur les incertitudes qui accompagnent ces coefficients.
Réaliser une étude d’incertitude d’une telle ampleur dans le domaine de l’évaluation des impacts radiologiques est exemplaire à plusieurs titres : la diversité des modèles, le traitement de plusieurs centaines de paramètres, la mise en œuvre de plusieurs méthodes de quantification de l’incertitude. En termes de connaissances acquises, le travail effectué pour préciser les intervalles de variation et les distributions des paramètres a permis de constituer une base de données unique pour les futures études de sensibilité et d’incertitude. Enfin, dans une perspective de recherche, la réflexion sur la théorie des possibilités appliquée à ce type d’évaluation mériterait d’être poursuivie.»

Commentaires du participant de l’ACRO

« Concernant l’évaluation de l’incertitude sur le nombre de cas de leucémies calculé à partir des modèles de transfert dans l’environnement des rejets des installations nucléaires de la région, l’IPSN avait inscrit cette thématique dans ses programmes de recherche et l’a engagée au sein d’un groupe de travail interne. Ce travail a ensuite été confirmé par une lettre de mission des ministres de l’environnement et de la santé au cours de l’été 2000 et il a donc été décidé d’ouvrir ce groupe de travail aux exploitants et à des représentants du mouvement associatif. L’ACRO a été invitée à y participer au début de l’année 2001.

Ainsi, lorsqu’il a été décidé d’associer des membres du mouvement associatif, le travail était déjà très avancé. Il leur a été proposé de rediscuter les intervalles de variation d’une partie des paramètres entrant dans les modèles et c’est tout. Cela ne suffit pas pour se considérer acteur de l’étude. En conséquence, dès le mois de juin 2001, la présidente du GRNC a été informée que nous ne signerons pas un tel document que nous considérons plutôt comme un « rapport IPSN ».

Sur le fond, nous reconnaissons la difficulté et l’ampleur du travail accompli. Il est cependant important de noter que l’étude ne porte que sur moins de la moitié du risque théorique associé aux rejets radioactifs. Dans un premier temps, seuls les rejets de routine ont été pris en compte. Or, pour les incidents, l’erreur pourrait être beaucoup plus élevée. La seule prise en compte de 11 mesures de strontium 90 « oubliées » lors de la première mission, a conduit le GRNC à réévaluer d’un facteur 7 la dose collective reçue lors du percement de la conduite en 1979/80. Autre exemple plus récent, lors des incidents ruthénium de 2001, l’action de surveillance de l’ACRO a permis d’observer que l’incertitude sur le terme source était de trois ordres de grandeur (c’est à dire d’un facteur 1000).

Les limites de l’étude doivent être soulignées. Elle s’attache pour l’essentiel à l’impact environnemental des rejets de routine et aux modes de vie et refuse d’aborder tout ce qui touche aux effets sur la santé des rayonnements. C’est pourtant là encore une partie sujette à de larges approximations qui retentissent directement sur cette marge d’incertitude.

Sur ce chapitre, le travail fait par le GTI ne permet pas de conclure quant à l’innocuité des rejets radioactifs. Il n’en demeure pas moins important, car il donne une idée de l’ampleur de l’impact environnemental théorique des rejets de routine. Ainsi le travail effectué pourrait être très facilement transposé aux calculs de dose effectués par l’exploitant dans son dossier soumis à enquête publique en 2000. » (Ces commentaires font partie intégrante du rapport de synthèse de la deuxième mission du GRNC).


Liens

Ancien Lien