Impact environnemental des usines de La Hague : “Nous y étions presque !”

ACROnique du nucléaire n°69, juin 2005

Impact environnemental des usines de La Hague, Contrôle n°162, janvier 2005

Les lichens intégrateurs de tritium et de carbone 14

Résumé paru dans ACROnique du nucléaire n°67, décembre 2004


L’ACRO a collaboré à une étude pilotée par l’observatoire mycologique sur les potentialités des lichens comme bio-indicateurs pour l’étude de la concentration atmosphérique en tritium et carbone 14. Ces travaux ont fait l’objet de publications scientifiques dans des revues internationales.
Nous présentons ici un résumé de ces études et vous pouvez télécharger un article en français plus conséquent sur ce sujet avec tous les tableaux de résultats :Les lichens intégrateurs de tritium et de carbone 14, article complet par Olivier Daillant.


L’hydrogène et le carbone sont deux principaux constituants de la matière vivante. L’hydrogène et le carbone radioactifs sont donc des éléments importants à prendre en compte en terme de santé publique. Ces deux radio-éléments existent dans la nature, mais sont aussi rejetés par les installations nucléaires. Les lichens qui sont connus comme bio-indicateurs pour de nombreux polluants, pourraient être aussi intéressants pour évaluer l’impact des rejets atmosphériques car ils ne sont pas en contact avec le sol.

Les sites concernés par cette étude sont l’usine de La Hague, le centre militaire de Valduc et la centrale nucléaire du Bugey dans l’Ain. Par ailleurs, des prélèvements ont été faits en Bourgogne, dans le Morvan et à Vienne en Autriche, loin de toute installation nucléaire.

Le Tritium
Isotope radioactif de l’hydrogène avec une demi-vie de 12,3 ans, le tritium est présent dans l’environnement sous forme d’hydrogène tritié (HT), d’eau tritiée (HTO) ou liés à des atomes de carbone, on parle alors de tritium organiquement liés (OBT). Dans ce dernier cas, le tritium n’est pas facilement échangeable, contrairement aux deux autres cas.
Le tritium est produit dans la haute atmosphère par le rayonnement cosmique auquel s’ajoutent les retombées des essais nucléaires atmosphériques. Mais, ce qui domine, ce sont les rejets des installations nucléaires.

Le carbone 14
Il est aussi créé par les rayonnements cosmiques dans la haute atmosphère. Avec une demi-vie de 5730 ans, il est connu pour son utilisation en datation. En Suisse (Site de l’autorité sanitaire suisse : www.suer.ch) et en Allemagne, il est considéré comme l’élément entraînant l’exposition principale des populations riveraines des centrales nucléaires. On le retrouve aussi dans les rejets de l’usine de retraitement de La Hague.

Le tritium et le carbone 14 sont tous les deux des émetteurs bêta purs, ce qui signifie que leur détection nécessite un protocole complexe. Les mesures ont été faites en Autriche et en Allemagne.

Résultats
Pour le carbone 14, les résultats sont généralement donnés en comparaison avec la teneur habituelle en carbone 14 naturel afin de pouvoir détecter une pollution éventuelle. Quant au tritium, seule la partie organiquement liée est mesurée ici. Les résultats peuvent être exprimés par rapport à la masse de matière sèche, comme  on le fait généralement pour les autres éléments ou en becquerel par litre d’eau issue de la combustion. Dans ce cas, on est plus près des méthodes d’analyses. A noter que la concentration en tritium naturel dans les eaux n’est que de quelques becquerels par litre.

Les résultats des analyses sont présentés dans le document complet.

Commentaires
Aux abords de la centrale du Bugey, la contamination en tritium est légèrement supérieure au bruit de fond naturel. A La Hague, elle peut atteindre 5 à 8 fois ce bruit de fond. Mais c’est à Valduc que les concentrations sont les plus élevées. Cela s’explique par les activités militaires qui provoquent d’importants rejets en tritium. Mais les concentrations obtenues ne peuvent être dues uniquement aux rejets récents. Les lichens ont intégrés du tritium beaucoup plus ancien correspondant à des rejets historiques qui ont dû être très importants. En effet, la période biologique d’élimination du tritium dans les lichens est de l’ordre d’un an. Ce résultat a été obtenu en transplantant des lichens de Valduc vers une zone a priori non influencée par des rejets tritiés. Cela signifie que les concentrations en tritium dans les autres végétaux ont dû être aussi très élevées par le passé. Pour ce qui est du carbone 14 trouvé dans les lichens à La Hague, les niveaux obtenus correspondent à ceux généralement mesurés dans les autres végétaux.

Conclusion
Cette étude montre l’intérêt des lichens comme bio-indicateur de la contamination atmosphérique en tritium et carbone 14. Comparés à la plupart des autre végétaux, ils présentent plusieurs avantages : une activité continue presque tout au long de l’année et un métabolisme lent permettant une intégration à long terme. De plus, si les lichens sont soigneusement choisis, ils ne sont pas concernés par un éventuel transfert sol-lichen.

Ancien lien

EPR mon amour

Communiqué de presse du 12 juillet 2004


L’engouement des élus locaux pour l’EPR a de quoi surprendre. Normands d’en haut et d’en bas rivalisent d’imagination pour attirer un réacteur nucléaire dont l’utilité n’a pas été démontrée. Des subventions faramineuses sont votées pour des associations de promotion ou des entreprises de communication afin de s’attirer les bonnes grâces d’EdF et des populations sans que le principe de justification qui vient d’entrer dans la législation française ne soit respecté.

Toute nouvelle pratique entraînant une exposition aux rayonnements ionisants doit pourtant être justifiée par ces avantages économiques et sociaux. Or, les trois sages chargés de piloter le Débat National sur l’énergie avaient conclu : « qu’il est difficile, […] de se faire une opinion claire sur son degré de nécessité et d’urgence. […] Il a semblé que si le constructeur potentiel de l’EPR milite pour sa réalisation immédiate, c’est avant tout pour des raisons économiques et de stratégie industrielle. […] En définitive, la question du nucléaire ne peut être tranchée sans des compléments d’études allant au-delà des éléments fournis lors du Débat National. » Et l’un des sages, le sociologue Edgar Morin, a dans ce même rapport clairement tranché : « Les centrales actuelles ne devenant obsolètes qu’en 2020, il semble inutile de décider d’une nouvelle centrale EPR avant 2010 [car rien] ne permet pas d’être assuré qu’EPR, conçu dans les années quatre-vingt, serait la filière d’avenir. »

Réacteur éprouvé et commercialisable en Finlande qui l’a retenu ou « démonstrateur » en France pour garder les options ouvertes, le double langage des autorités n’apporte aucune clarification. Actuellement, un EPR en France serait essentiellement destiné à l’exportation d’électricité. En décidant son lancement sans aucune nouvelle justification, les autorités méprisent les citoyens et le Débat National qu’elles ont organisé.

Nous demandons donc que la loi soit appliquée et que l’on justifie les trois milliards d’euros prévus pour l’EPR par rapport à une autre politique énergétique. Le bilan en terme d’emploi, qui seul semble intéresser les régions, n’a pas été abordé au niveau national et mériterait aussi d’être étudié étant donné l’importance de l’enjeu.

Bilan radioécologique de l’environnement aquatique du bassin versant et de la rade de Brest

Bilan radioécologique de l’environnement aquatique du bassin versant et de la rade de Brest

Prolifération nucléaire

Mis en avant

Texte initialement écrit pour le Dictionnaire des risques paru chez Armand Colin et paru dans l’ACROnique du nucléaire n°63, décembre 2003. Version remise à jour pour l’édition 2007 du dictionnaire.


“On va faire la guerre une bonne dernière fois pour ne plus avoir à la faire. Ce fut l’alibi bien-aimé […] des conquérants de toutes tailles. […] Par malheur, ça n’a jamais marché” note Jean Bacon. En effet, la “civilisation” ou la “démocratie”, selon les époques, prétendument apportées au bout du fusil, n’ont jamais supprimé les conflits. Avec l’arme nucléaire, en exposant l’ennemi potentiel au risque d’une riposte massivement destructrice, a-t-on enfin trouvé définitivement le chemin de la paix ? L’équilibre de la terreur entre les deux grandes puissances aurait ainsi évité une troisième guerre mondiale, mais pas les nombreux petits conflits qui ont ensanglanté la planète. On comprend alors l’attrait que suscite cette arme radicalement nouvelle pour de nombreux pays se sentant menacés : comment oserions-nous la refuser aux pays en voie de développement alors qu’elle est indispensable à notre survie, et ceci d’autant plus, que cela représente de juteux marchés pour le fleuron de notre industrie ? Evidemment, le transfert de technologie sera “pacifique”, les technologies civile et militaire pour se procurer la matière première étant identiques. Tout comme les armes exportées sont qualifiées de “défensives”.

Les motivations pour partager son savoir sont multiples : échange de technologies entre la Corée du Nord et le Pakistan, accès au pétrole irakien ou iranien pour la France, développer en secret des technologies militaires dans un pays tiers pour l’Allemagne ou tout simplement renforcer son camp. Malheureusement, cette prolifération, dite horizontale, ne fait qu’augmenter le risque de voir un conflit régional dégénérer en guerre nucléaire. En effet, aucun pays, pas même les démocraties, n’est à l’abri de l’accession au pouvoir d’une équipe dirigeante peu scrupuleuse.

De fait, pas un pays ne s’est doté d’infrastructures nucléaires sans une arrière-pensée militaire, même si certains, comme la Suisse, le Brésil ou l’Afrique du Sud par exemple, ont officiellement renoncé à l’arme nucléaire. Quarante-quatre pays sont actuellement recensés par le traité d’interdiction des essais nucléaires comme possédant une technologie suffisante pour accéder à l’arme suprême. Personne ne met en doute qu’il suffirait d’un délai de quelques mois à un pays très industrialisé pour disposer, s’il le souhaitait, de l’arme atomique et des moyens de la déployer. L’acharnement du Japon, par exemple, à vouloir développer une filière plutonium et des lanceurs de satellites en dépit de nombreux déboires est lourd de sens à cet égard.

Conceptuellement, il est facile de fabriquer une arme rudimentaire, la difficulté étant d’ordre technologique pour accéder à la matière fissible. Le plutonium issu des réacteurs civils peut faire l’affaire, avec des performances moindres. Les Etats-Unis l’ont testé. Pour un groupe terroriste, qui recherche davantage un impact psychologique et médiatique, c’est suffisant. Mais dans une situation d’équilibre de la terreur, il faut des armes fiables qui n’explosent pas accidentellement et qui, en cas d’attaque, détruisent bien toutes les capacités ennemies à réagir. De telles armes nécessitent de la matière fissile dite de qualité militaire et des développements technologiques poussés. Le risque est déjà grand, avec des armes plus ou moins rudimentaires, de voir des équilibres régionaux se transformer en catastrophe, sans pour autant apporter la paix. Par exemple, le conflit au Cachemire n’a pas cessé avec l’accession de l’Inde et du Pakistan au statut de puissances nucléaires.

Dès 1946, l’Assemblée générale des Nations unies vote la création d’une commission atomique chargée d’éliminer les armes nucléaires et de destruction massive. Depuis, on ne compte plus les tentatives officielles et vœux pieux pour parvenir à un désarmement général. “L’homme se trouve placé devant l’alternative suivante : mettre fin à la course aux armements ou périr” prévient même l’ONU en 1977. Rien n’y fait. La diminution des arsenaux nucléaires des grandes puissances ne doit pas faire illusion. Ce sont des armes qui étaient devenues stratégiquement obsolètes qui ont été démantelées.

Les grandes puissances prennent comme prétexte la menace liée à la prolifération horizontale pour garder des arsenaux conséquents et développer de nouvelles armes, provoquant ainsi une prolifération dite verticale. Mais le tollé mondial provoqué par la reprise des essais nucléaires occidentaux en France en 1995 impose une certaine discrétion. Les programmes nucléaires “civils” permettent d’entretenir une infrastructure industrielle et un savoir faire ; sous couvert d’entretien du stock d’armes, les grandes puissances se sont engagées dans la course à une arme de quatrième génération miniaturisée, utilisable sur le champ de bataille. Elles s’appuient sur la recherche fondamentale qui leur sert d’alibi. Ainsi, par exemple, le laser mégajoule en France met en avant son intérêt pour l’astrophysique : la population se laisse berner et les concurrents avertis peuvent mesurer les progrès réalisés. Mais, le partage de certaines connaissances avec une communauté scientifique non-militaire, nécessaire pour attirer des chercheurs, facilite la prolifération horizontale.

Le développement de ces nouvelles armes est lié à un changement stratégique : avec la fin de la guerre froide, les territoires nationaux ne sont plus directement menacés ; c’est l’accès aux matières premières et ressources énergétiques qui devient primordial. Mais en cas d’utilisation, la frontière qui existe entre les armes classiques et celles de destruction massive risque d’être brouillée et d’entraîner une escalade dans la riposte. Les idéalistes voient là une violation de l’article 6 du traité de non-prolifération : “Chacune des Parties au Traité s’engage à poursuivre de bonne foi des négociations sur des mesures efficaces relatives à la cessation de la course aux armements nucléaires à une date rapprochée et au désarmement nucléaire et sur un traité de désarmement général et complet sous un contrôle international strict et efficace.” Alors que chaque pays jure de sa bonne foi.

Un désarmement complet n’est réalisable que par étapes ; le plus urgent semble être de sortir de l’état d’alerte. Comme au temps de la guerre froide, des milliers d’armes nucléaires américaines et russes peuvent être déclenchées en quelques dizaines de minutes. Un déclenchement accidentel ou suite à une erreur de jugement, entraînant une riposte immédiate, aurait des conséquences effroyables. Cependant, un désarmement complet et sûr impliquerait un renoncement à de nombreuses activités industrielles et de recherche, telles celles qui ont été interdites à l’Irak par le conseil de sécurité de l’ONU après la première guerre du Golfe. Se priver de recherches sur l’atome, surtout quand on a accumulé des déchets nucléaires dont on ne sait que faire, est-ce vraiment souhaitable ? Placer les activités proliférantes sous contrôle international est nécessaire, mais pas suffisant. Les institutions et traités ad hoc ayant montré leur inefficacité depuis la seconde guerre mondiale, de nouveaux mécanismes sont à inventer, parmi lesquels un contrôle citoyen avec la mise en place d’une protection internationale pour les lanceurs d’alerte.

Il n’est pas besoin, comme on le sait, d’armement nucléaire pour tuer massivement. Mais l’attrait pour ces armes de destruction massive est tel qu’il semble impossible d’en freiner la prolifération, malgré le lourd tribut déjà payé par les pays engagés dans la course folle. Outre le coût financier et humain qui aurait pu trouver des utilisations plus pacifiques, la fascination pour cette arme a fait que tout était permis. Partout, des populations – souvent des minorités ethniques et des appelés du contingent – ont été exposées sciemment aux essais nucléaires atmosphériques. Aux Etats-Unis, près 9.000 cobayes humains ont été, à leur insu, victimes d’expérimentations médicales visant à étudier l’influence des radioéléments. Nombre d’entre eux étaient des enfants. En URSS, l’infrastructure nucléaire était construite par des prisonniers des camps de détention spéciaux. L’environnement a aussi été sacrifié et certains sites ne peuvent plus être réhabilités. C’est bien là l’ironie suprême de la course à l’arme nucléaire, qui sous couvert d’apporter la sécurité absolue à chacun, n’aura conduit qu’à réduire la sécurité de tous.

David Boilley

Bibliographie :

  • Dominique Lorentz, Affaires atomiques, Les arènes, 2001
  • Jean Bacon, Les Saigneurs de la guerre : Du commerce des armes, et de leur usage, Les Presses d’aujourd’hui, 1981 et Phébus 2003.
  • Sven Lindqvist, Maintenant tu es mort ; Histoire des bombes, Serpent à plumes 2002
  • Conférences Pugwash sur la science et les affaires mondiales, Eliminer les armes nucléaires ; Est-ce souhaitable ? Est-ce réalisable ?, Transition, 1997
  • André Gsponer et Jean-Pierre Hurni, Fourth generation of nuclear weapons, Technical Report, INESAP, c/o IANUS, Darmstadt University of Technology, D-64289 Darmstadt (mai 1998)
  • Bruno Barrillot, Audit atomique, éd. du CRDPC, 1999.
  • Bruno Barrillot, L’héritage de la bombe, éd. du CRDPC, 2002.
  • Stephen I. Schwartz et al, Atomic audit, Brookings Institution Press mai 1998
  • Eileen Welsome, The Plutonium Files: America’s Secret Medical Experiments in the Cold War, Dial Press 1999
  • Kenzaburô Oé, Notes sur Hiroshima, Gallimard 1996

dicodico2Autres textes du dictionnaire des risques :

Ancien lien

Deuxième mission du Groupe Radio-écologie Nord-Cotentin

Le calcul d’incertitude

David Boilley, représentant de l’ACRO dans ce goupe de travail, ACROnique du nucléaire n°60, mars 2003


Dans la première phase de ses travaux, le Groupe Radioécologie Nord Cotentin (GRNC) avait estimé le nombre de cas de leucémie chez les jeunes de 0 à 24 ans vivant dans le canton de Beaumont-Hague attribuables aux rejets radioactifs des installations nucléaires et avait obtenu 0,002 cas environ pour la période 1978-1996 et la population considérée (Voir l’ACROnique du nucléaire n°47 de décembre 1999). Dans ces commentaires, l’ACRO avait tenu à souligner que « Notre principale réserve porte sur la démarche ” réaliste ” retenue par le Comité pour la reconstitution des doses reçues par la cohorte et le risque qui en découle. Nous continuons à penser qu’en matière de radioprotection, toute évaluation d’impact sanitaire doit être menée de façon conservatrice car en l’absence de la mesure précise de l’incertitude liée au calcul ” réaliste “, seul la démarche ” enveloppe ” garanti qu’elle contient la vraie valeur de l’impact. » C’est à dire, quand il y a plusieurs valeurs possibles pour un paramètre, on prend la valeur la plus pénalisante. Si le risque calculé est satisfaisant, alors le risque réel, forcément inférieur, le sera aussi.

En effet, le calcul repose sur de très nombreux paramètres théoriques mal maîtrisés : quelle est la quantité rejetée en mer par an, quel est le taux de concentration de chacun des 71 radio-éléments dans les poissons, mollusques…, quel est le régime alimentaire de la population locale ? Parfois, ces paramètres reposent sur des longues séries de mesures locales qui permettent d’avoir confiance. Dans d’autres cas, le choix s’est fait de manière arbitraire en choisissant une valeur plutôt qu’une autre relevée dans la littérature scientifique internationale. Le résultat de la première phase des travaux du GRNC correspond à la meilleure estimation possible en l’état des connaissances.

Ne nous sommes pas trompes dans le calcul ? Quel aurait été le résultat si on avait choisi un autre jeu de paramètres ? C’est dans le but de répondre à ces questions qu’un groupe de travail a conduit une « analyse de sensibilité et d’incertitude sur le risque de leucémie attribuable aux installations nucléaires du Nord-Cotentin » (Le rapport sera disponible en ligne à http://www.irsn.fr/nord-cotentin). Un représentant de l’ACRO a participé aux travaux, mais n’a pas signé le rapport.

« Un groupe de travail (GT) de l’IPSN sur les incertitudes a été mis en place dès janvier 2000. […] Le 24 juillet 2000, le Ministre délégué à la Santé et la Ministre de l’Aménagement du Territoire et de l’Environnement ont adressé une lettre de mission au GRNC lui demandant de réaliser une analyse de sensibilité et d’incertitude portant sur les paramètres principaux de l’estimation du risque de leucémie attribuable aux installations nucléaires du Nord-Cotentin. En octobre 2000, le groupe de travail a donc été placé sous l’autorité du GRNC et élargi à des experts extérieurs à l’IPSN (associatifs, exploitants, institutionnels). » (Les citations sont extraites du rapport du groupe de travail). Lorsque l’ACRO a été invitée à participer, les travaux de ce groupe de travail étaient déjà bien avancés et il n’a pas été possible de revenir sur certains choix faits en interne.

« Dans cette étude, les sources d’incertitude considérées par le GT « Incertitudes », conformément à sa mission, sont celles relatives aux paramètres. En conséquence, les modèles ne sont pas remis en cause. Une fois quantifiées les incertitudes de chacun de ces paramètres, il faut examiner comment elles se combinent pour produire l’incertitude sur le risque. » Ce choix limite énormément la portée de l’étude car le modèle de dispersion atmosphérique utilisé est notoirement faux. L’analyse par l’ACRO des incidents ruthénium est venue le confirmer. Cependant, faute de meilleur modèle, il n’est pas possible à l’heure actuelle de faire mieux.

« Le grand nombre de paramètres intervenant dans la procédure de calcul du risque collectif (plusieurs milliers), exclut que l’incertitude soit évaluée pour chacun d’entre eux. Le GT « Incertitudes » a donc dû limiter le champ de l’étude et identifier les paramètres prépondérants pour lesquels l’incertitude devra être précisée. La démarche requiert plusieurs étapes :

  • délimiter le champ de l’étude par rapport à celui couvert dans la première mission du GRNC, par exemple en se limitant aux rejets de routine des installations nucléaires,
  • identifier ensuite les paramètres prépondérants (paramètres relatifs aux rejets, au mode de vie, paramètres de transfert, …) dans le calcul du risque collectif. A partir du travail réalisé par le GRNC lors de sa première mission, le GT « Incertitudes » doit identifier les radionucléides prépondérants pour lesquels il est nécessaire de déterminer l’incertitude qui leur est associée parmi l’ensemble des radionucléides (32 dans les rejets gazeux et 71 dans les rejets liquides),
  • déterminer pour chaque paramètre sa gamme de variation et réaliser une analyse de sensibilité. »

Délimitation du champ de l’étude

Population ciblée : la cohorte, c’est à dire l’ensemble des jeunes de 0 à 24 ans ayant vécu dans le canton de Beaumont-Hague entre 1978 et 1996. « Par définition de la cohorte, les individus qui la constituent ne présentent pas de modes de vie particuliers. En ce sens, ils sont considérés comme des individus « moyens » au sein de leur classe d’âge. »

« L’étude présente ne traite que du risque collectif de leucémie ex utero associé aux rejets de routine des installations industrielles nucléaires du Nord-Cotentin (0,0009 cas sur la période considérée). L’incertitude sur la contribution au risque collectif des incidents et accidents des installations nucléaires (notamment le percement de la conduite de rejet en mer survenu en 1979-1980 et l’incendie du silo de déchets du 6 janvier 1981, pour l’usine de retraitement de La Hague) n’a pas été considérée. » Cette limitation est conséquente car seuls 45% du risque sont donc pris en compte par l’étude, les « incidents » ayant une part non négligeable. Par ailleurs, « l’incertitude sur le risque in utero n’est pas considérée dans ce travail. Dans son rapport, le GRNC avait souligné le caractère provisoire des modélisations utilisées pour le calcul du risque in utero [GRNC, 1999]. Il faudra donc vraisemblablement revenir sur l’évaluation effectuée avant d’envisager une étude d’incertitude sur ce point. »

« Les coefficients de dose permettent de passer des activités présentes dans l’environnement ou dans les produits alimentaires aux doses. » Ce sont donc les paramètres les moins bien connus car ils permettent de quantifier les effets des radiations sur la santé.  « Pour les calculs de dose et de risque, le GRNC a utilisé des modèles basés sur les meilleures connaissances scientifiques, adoptés au plan international et donnant lieu à des analyses critiques et à des évolutions en fonction des nouvelles connaissances acquises. Il n’entrait pas dans le cadre de la mission du GRNC de les remettre en cause. Il faut souligner également que les valeurs fournies dans la littérature internationale ne sont pas accompagnées d’incertitudes » Ces coefficients ne varieront pas, c’est le domaine réservé des experts de la CIPR (Commission Internationale de Protection Radiologique dont les recommandations servent à définir les règles de radioprotection).

« Une prise en compte rigoureuse des filiations radioactives nécessiterait une étude à part entière. A ce stade, les filiations radioactives ne sont pas prises en compte. » Le modèle d’exposition aux embruns a été fixé car son application au site de La Hague est douteuse. Faire varier ses paramètres aurait pu laisser entendre qu’on lui accordait une certaine confiance. Enfin, la granulométrie des aérosols a été fixée.

A l’exception des embruns, tous ces choix étaient fixés quand le GT a été ouvert aux représentants associatifs et il n’a pas été possible de revenir dessus.

Méthodologie

« La sélection des paramètres prépondérants a été effectuée en examinant les différentes étapes du transfert jusqu’à l’homme. » On appelle « voie d’atteinte » le chemin d’un élément depuis l’exutoire jusqu’à l’homme. Par exemple, « l’ingestion de produits marins contaminés » ou « l’inhalation de rejets gazeux ». 16 voies d’atteintes sont prises en compte par le GRNC. « Un radionucléide au sein d’une voie d’atteinte est considéré comme prépondérant si sa contribution au risque collectif est supérieure à 0,5 % ou en absolu supérieure à 4,5.10-6. Ce seuil de 0,5 % permet d’éviter une perte importante en termes de risque collectif quand on somme les contributions au risque collectif des radionucléides ainsi retenus. Au sens de ce critère, seuls 23 radionucléides restent à considérer. Ils contribuent, toutes voies d’atteinte confondues, à 95 % du risque collectif. Un paramètre de transfert ou un paramètre mode de vie au sein d’une voie d’atteinte est considéré comme prépondérant si sa contribution au risque collectif est supérieure à 0,15 % ou en absolu supérieure à 1,5.10-6. »

Une fois ces paramètres prépondérants déterminés, il a fallu pour chacun d’entre eux estimer l’intervalle de variation et la probabilité d’obtenir une valeur donnée. Cela a constitué l’essentiel des discussions lors des réunions de travail. Dans certains cas, de longues séries de mesures permettent d’estimer de manière assez fiable cet intervalle. Dans d’autres cas, le choix est purement arbitraire. Pour les régimes alimentaires, par exemple, la consommation moyenne a été multipliée par deux pour obtenir le maximum et divisée par deux pour obtenir le minimum. Cela s’appelle un « jugement d’expert » !

Analyse d’incertitude

Comment les incertitudes sur chacun des paramètres se combinent-elles pour donner l’intervalle de variation du risque total ? Il y a plusieurs méthodes de calcul possibles. L’IRSN en a considéré trois, sans que cela soit vraiment discuté dans le groupe de travail.

Méthode probabiliste : chaque paramètre incertain est tiré aléatoirement dans l’intervalle qui lui est assigné, puis un calcul de risque est effectué. L’opération est renouvelée 1000 fois pour obtenir l’intervalle de variation du risque. Cette méthode, dite de Monte-Carlo, a l’avantage d’être très simple à mettre en œuvre et conduit à un « intervalle de valeurs comprises entre 1,1 et 2,7 fois le risque de référence (soit 0,001 à 0,0024 cas de leucémie) ». Ce résultat est beaucoup plus étroit que l’incertitude des paramètres pris individuellement, ce qui peut surprendre. Cela est dû à la méthode de calcul utilisée. Pour comprendre, prenons le cas des dés : il est difficile de tirer deux six de suite. La probabilité d’en tirer une dizaine de suite est excessivement faible. C’est pareil ici. Si on combine dix paramètres tirés aléatoirement, on aura à peu près autant de valeurs élevées que de valeurs faibles pour un résultat global très moyen. L’étroitesse du résultat est donc due au grand nombre de paramètres qui entrent en jeu dans le calcul de risque. Par cette méthode, il est impossible d’aller explorer des situations extrêmes.

Méthode possibiliste : « Le principe de la méthode « possibiliste » est de décomposer le risque en composants élémentaires. Ceux-ci sont définis comme étant la contribution au risque par classe d’âge, par voie d’atteinte, et éventuellement par produit alimentaire. » Les risques de chaque élément s’ajoutent et ne se combinent pas comme précédemment. Le risque maximum (ou minimum) de chaque élément est additionné pour obtenir le risque maximum (ou minimum) global. Il est en effet raisonnable de penser que l’erreur sur l’atteinte due à l’ingestion de produits marins ne vienne pas compenser l’erreur sur l’atteinte due à l’ingestion de produits laitiers par exemple. « L’incertitude sur chacun de ces 115 composants élémentaires est évaluée par la méthode « probabiliste » de Monte-Carlo. » En effet, l’incertitude sur la concentration en radio-éléments à l’intérieur d’un produit marin n’a rien avoir avec l’incertitude sur le régime alimentaire du consommateur. Cette méthode « possibiliste, conduit à un intervalle de valeurs comprises entre 0,4 et 5 fois le risque de référence (soit 0,0004 à 0,0045 cas de leucémie) » qui est plus large que pour la méthode probabiliste.

Méthode maximaliste : chaque paramètre est fixé à son maximum (ou à son minimum) ce qui permet d’obtenir les valeurs les plus extrêmes. Cela correspond à la démarche enveloppe réclamée par l’ACRO lors de la première phase des travaux. Cette méthode « conduit à un intervalle de valeurs comprises entre 0,1 et 30 fois la valeur de référence (soit 0,00009 à 0,027 cas de leucémie) ».

Conclusion de l’étude : « Toutes ces valeurs restent très inférieures au nombre de cas de leucémies observées pour la même population et la même période (4 cas observés pour 2 cas attendus) et au risque de leucémie radio-induite toutes sources d’exposition confondues (naturelles, médicales, industrielles), soit 0,84 cas. Il apparaît donc peu probable que les installations nucléaires du Nord-Cotentin puissent expliquer la tendance à l’excès de leucémies observée.
Il faut, à ce stade, rappeler les limitations de l’étude d’incertitude réalisée qui n’inclut pas le risque lié aux incidents et accidents (inférieur à 0,0012 cas) ni le risque associé à l’exposition in utero (0,0003 cas). Le fait de les prendre en compte ne modifiera pas vraiment la largeur des intervalles de variation donnés ci-dessus.
Une autre limitation doit être soulignée. Les incertitudes associées aux coefficients de dose et de risque n’ont pas été considérées car il n’existe pas actuellement de documents agréés au plan scientifique sur les incertitudes qui accompagnent ces coefficients.
Réaliser une étude d’incertitude d’une telle ampleur dans le domaine de l’évaluation des impacts radiologiques est exemplaire à plusieurs titres : la diversité des modèles, le traitement de plusieurs centaines de paramètres, la mise en œuvre de plusieurs méthodes de quantification de l’incertitude. En termes de connaissances acquises, le travail effectué pour préciser les intervalles de variation et les distributions des paramètres a permis de constituer une base de données unique pour les futures études de sensibilité et d’incertitude. Enfin, dans une perspective de recherche, la réflexion sur la théorie des possibilités appliquée à ce type d’évaluation mériterait d’être poursuivie.»

Commentaires du participant de l’ACRO

« Concernant l’évaluation de l’incertitude sur le nombre de cas de leucémies calculé à partir des modèles de transfert dans l’environnement des rejets des installations nucléaires de la région, l’IPSN avait inscrit cette thématique dans ses programmes de recherche et l’a engagée au sein d’un groupe de travail interne. Ce travail a ensuite été confirmé par une lettre de mission des ministres de l’environnement et de la santé au cours de l’été 2000 et il a donc été décidé d’ouvrir ce groupe de travail aux exploitants et à des représentants du mouvement associatif. L’ACRO a été invitée à y participer au début de l’année 2001.

Ainsi, lorsqu’il a été décidé d’associer des membres du mouvement associatif, le travail était déjà très avancé. Il leur a été proposé de rediscuter les intervalles de variation d’une partie des paramètres entrant dans les modèles et c’est tout. Cela ne suffit pas pour se considérer acteur de l’étude. En conséquence, dès le mois de juin 2001, la présidente du GRNC a été informée que nous ne signerons pas un tel document que nous considérons plutôt comme un « rapport IPSN ».

Sur le fond, nous reconnaissons la difficulté et l’ampleur du travail accompli. Il est cependant important de noter que l’étude ne porte que sur moins de la moitié du risque théorique associé aux rejets radioactifs. Dans un premier temps, seuls les rejets de routine ont été pris en compte. Or, pour les incidents, l’erreur pourrait être beaucoup plus élevée. La seule prise en compte de 11 mesures de strontium 90 « oubliées » lors de la première mission, a conduit le GRNC à réévaluer d’un facteur 7 la dose collective reçue lors du percement de la conduite en 1979/80. Autre exemple plus récent, lors des incidents ruthénium de 2001, l’action de surveillance de l’ACRO a permis d’observer que l’incertitude sur le terme source était de trois ordres de grandeur (c’est à dire d’un facteur 1000).

Les limites de l’étude doivent être soulignées. Elle s’attache pour l’essentiel à l’impact environnemental des rejets de routine et aux modes de vie et refuse d’aborder tout ce qui touche aux effets sur la santé des rayonnements. C’est pourtant là encore une partie sujette à de larges approximations qui retentissent directement sur cette marge d’incertitude.

Sur ce chapitre, le travail fait par le GTI ne permet pas de conclure quant à l’innocuité des rejets radioactifs. Il n’en demeure pas moins important, car il donne une idée de l’ampleur de l’impact environnemental théorique des rejets de routine. Ainsi le travail effectué pourrait être très facilement transposé aux calculs de dose effectués par l’exploitant dans son dossier soumis à enquête publique en 2000. » (Ces commentaires font partie intégrante du rapport de synthèse de la deuxième mission du GRNC).


Liens

Ancien Lien

Des fissures dans la filière plutonium au Japon

Lettre d’information du réseau sortir du nucléaire n°20, janvier-février 2003.


Un nouveau scandale vient de secouer l’industrie nucléaire japonaise [1] : Tokyo Electric Power Co. (TEPCO), aurait falsifié 37 rapports de sûreté depuis la fin des années 80. Cela concerne 13 des 17 réacteurs de la première compagnie d’électricité du pays et plusieurs d’entre eux fonctionnent actuellement avec des fissures et de nombreuses autres anomalies. Par exemple, en juin 1994, TEPCO avait annoncé une fissure de 2,3 m dans l’enveloppe du réacteur n°1 de Fukushima en minimisant le nombre total de fissures. La cuve a ensuite été changée en 1998. Quand des inspecteurs gouvernementaux sont venus inspecter l’ancienne cuve, les fissures non-révélées ont été cachées sous des feuilles plastiques. Un rapport de l’agence pour la sûreté nucléaire et industrielle fait aussi état de cas particulièrement « malicieux » où des pièces métalliques ou de la peinture ont été utilisées pour dissimuler les parties endommagées ou réparées en secret, notamment sur le circuit de refroidissement primaire. La compagnie a reconnu les dissimulations. Les quatre principaux dirigeants ont donné leur démission et de nombreux cadres ont été rétrogradés.

Réactions en chaîne

Devant l’ampleur du scandale, des langues se sont déliées. D’autres compagnies d’électricité ont admis avoir falsifié des rapports de sûreté ou omis de mentionner des défauts dans les réacteurs. Tohoku Electric Power Co a ainsi considéré qu’il n’était pas nécessaire de signaler les fissures détectées dans le circuit de refroidissement de la centrale d’Onagawa, sous prétexte qu’elles ne posaient aucun risque en termes de sûreté. Des sous-traitants comme Hitachi et Toshiba ont reconnu avoir falsifié des rapports d’inspection à la demande de leurs clients. La nouvelle révélation la plus grave concerne probablement à nouveau TEPCO qui est soupçonnée d’avoir fabriqué des données de contrôle d’herméticité de ces réacteurs. Il s’agit là d’une accusation bien plus grave que les fissures dissimulées, car cela concerne l’enceinte de confinement supposée retenir la radioactivité en cas d’accident. Les contrôles sont classés au niveau le plus haut par l’autorité de sûreté. Cela n’a pas empêché TEPCO d’inventer des séries de données quand les mesures auraient pu alarmer les inspecteurs ou trafiquer un instrument de mesure afin qu’il donne un taux de fuite faible. Lors d’une inspection, elle a pompé secrètement de l’air à l’intérieur du réacteur pour compenser la fuite connue, de façon à ce que le taux de fuite mesuré satisfasse les normes.

L’association anti-nucléaire Mihama, a aussi reçu des documents internes à TEPCO montrant qu’une fuite de plutonium et d’autres radioéléments avait contaminé l’environnement de la centrale de Fukushima entre 1979 et 1981, sans que les autorités ou la population locale ne soient prévenus [2]. La compagnie a reconnu la fuite, mais en minimise les conséquences, comme d’habitude.

Un régime de complaisance

C’est un ancien travailleur de General Electric International qui, en juillet 2000, a alerté l’autorité de sûreté. Celle-ci a d’abord fait la sourde oreille, seule une question orale a été posée à TEPCO. Quand il a proposé de coopérer, son offre a d’abord été refusée. Il a fallu six mois aux autorités pour demander des comptes par écrit à TEPCO et elles ont transmis une copie des courriers de l’informateur, avec son identité ! Donner son nom est une faute grave, d’autant plus qu’il avait demandé à rester anonyme pour pouvoir retrouver du travail. L’autorité de sûreté est aussi accusée de lenteur et d’inefficacité, ce qui a conduit le ministre de l’industrie à reconnaître que « deux ans c’est trop long. » Quand le scandale a éclaté, le ministre s’est dit scandalisé que TEPCO ait trahi la confiance du public alors que l’énergie nucléaire est un des piliers de la politique énergétique de la nation. Cela devrait retarder l’introduction du MOx dans la centrale de Kashiwazaki-Kariwa, un maillon important de la politique gouvernementale du combustible nucléaire.

Aux dernières nouvelles, les 4 dirigeants démissionnaires de TEPCO seraient réintégrés comme conseillés avec tous les avantages matériels…

La population inquiète

Les premières révélations ont eu lieu à la fin août 2002 et d’autres ont suivi durant tout l’automne. La population, sondée par la presse, se dit très inquiète par la situation dans laquelle se trouve le parc électronucléaire du pays. Tout le monde se souvient que l’explosion qui avait eu lieu à Tokaimura dans une usine de conversion d’uranium [3], un des accidents les plus graves de l’industrie nucléaire, était due essentiellement au laxisme des exploitants qui n’avaient pas respecté les règles de sûreté. Plus de 600 personnes avaient été irradiées et des riverains viennent de porter plainte pour obtenir des compensations [4]. Les municipalités et provinces concernées par TEPCO ont donc demandé l’arrêt des réacteurs suspectés et l’abandon du programme « pluthermal » qui vise à l’introduction de combustible MOX. Fin octobre, 10 des 17 réacteurs de TEPCO sont à l’arrêt, suite au scandale ou à des inspections de routine, sans que l’alimentation électrique de la capitale ne soit perturbée.

La filière plutonium remise en cause

Le Japon est en train de finir la construction d’une usine de retraitement des combustibles irradiés à Rokkasho dans le nord de l’île principale pour en extraire du plutonium. Cette usine, dont les premiers tests devraient avoir lieu en 2003, est prévue pour prendre le relais de l’usine de La Hague, en France, pour la production nationale. Pourtant, le pays ne dispose actuellement d’aucun débouché pour le plutonium. Le surgénérateur Monju est arrêté depuis 1995 suite à une fuite de sodium et une falsification du rapport d’expertise de l’accident en 1997. Le programme MOX, qui vise à introduire du plutonium mélangé à de l’uranium dans des réacteurs ordinaires, vient de subir de nouveaux revers. Kansai Electric Power Co. (KEPCO) qui prévoyait aussi d’introduire du MOX dans ses réacteurs a dû y renoncer suite au scandale concernant la falsification des données de contrôle par le producteur, British Nuclear Fuel Limited (BNFL) [5]. Le combustible incriminé a été renvoyé en Grande-Bretagne cet été. KEPCO a également demandé à COGEMA de suspendre la fabrication du combustible MOX pour sa centrale de Takahama, parce que le fabriquant ne pouvait pas démontrer que les assemblages satisfaisaient les nouvelles règles établies par le gouvernement japonais [6]. La pression politique s’était donc intensifiée sur les municipalités et régions concernées par les centrales de Fukushima et Kashiwazaki-Kariwa, gérées par TEPCO, pour qu’elles acceptent que le MOX soit chargé. Suite à ce nouveau scandale, la compagnie s’est résignée à repousser sine die l’introduction du MOX dans ses réacteurs.

Du plutonium militaire ?

L’acharnement du gouvernement japonais à développer sa filière plutonium malgré les nombreux revers subis peut surprendre. En plus de l’introduction du MOX, il espère aussi redémarrer le surgénérateur de Monju capable de transformer du plutonium « civil » en plutonium « militaire ». L’explication est donnée par d’un des leaders de l’opposition, Ichiro Ozawa, qui a affirmé récemment, « nous avons plein de plutonium dans nos centrales nucléaires, il nous est possible de fabriquer de trois à quatre milles têtes nucléaires » [7]. En raison de son histoire, le Japon rejette officiellement les armes nucléaires suivant trois principes énoncés en 1959 par le Premier ministre, « pas de production, pas de possession et pas d’introduction ». Le dernier principe a déjà été violé par l’armée américaine qui a utilisé des îles japonaises comme base nucléaire [8]. Les autres probablement aussi. Le Japon possède toute la technologie nécessaire à la production de l’arme nucléaire et à son déploiement. En particulier, son programme de lanceur de satellites lui donne accès à des missiles inter-continentaux. Il s’est aussi engagé dans la course à l’arme de quatrième génération en développant un programme de « recherche fondamentale » consacré à la fusion par laser [9].

Pendant ce temps, le premier chargement de combustible MOX français, arrivé au Japon en septembre 1999, attend dans la piscine de la centrale de Fukushima en compagnie du combustible irradié. Tout un symbole. Les autres chargements ont rejoint, eux aussi, une piscine de déchets…


[1] Sur ce scandale, lire la revue de la presse japonaise faite par l’ACROnique du nucléaire n°59 de décembre 2002.

[2] Les documents sont disponibles sur son site Internet http://www.jca.apc.org/mihama

[3] Sur cet accident, on pourra lire, Criticality Accident at Tokai-mura – 1 mg of uranium that shattered Japan’s nuclear myth, de Jinzaburo Takagi et the Citizens’ Nuclear Information Center, (http://www.cnic.or.jp/english/books/jco-apply.html) ou en français, Tokaï-mura : un grave accident qui devait arriver, revue de la presse internationale de l’ACROnique du nucléaire n°47, décembre 1999.

[4] The Japan Times: Aug. 20, 2002

[5] Sur cette affaire, on pourra se reporter au site Internet en japonais de l’association Mihama qui en est à l’origine ou lire en français, La fin du retraitement en Grande-Bretagne ?, extrait de la revue de presse internationale de l’ACROnique du nucléaire n°49, juin 2000.

[6] Le communiqué de presse de la compagnie, daté du 26 décembre 2001, est disponible en anglais à l’adresse suivante :
http://www.cnic.or.jp/english/news/misc/melox.html

[7] Mainichi Shimbun, 7 avril 2002 et The Guardian, 8 avril 2002

[8] How much did Japan know ?, by Robert S. Norris, William M. Arkin, and William Burr, Bulletin of the Atomic Scientists, January/February 2000, Vol. 56, No. 1, http://www.thebulletin.org

[9] Sur ce sujet, lire, Vers une quatrième génération d’armes nucléaires ?, ACROnique du nucléaire n°46, septembre 1999 et Liaisons dangereuses en recherche et armement, ACROnique du nucléaire n°57, juin 2002

Ancien lien

Futurs arrêtés et décrets concernant l’usine Cogéma de La Hague

Lettre de l’ACRO adressée au gouvernement

Communiqué de presse du 28 novembre 2002


L’Association pour le Contrôle de la Radioactivité dans l’Ouest a adressé cette lettre à Monsieur Le Premier Ministre, Madame la Ministre de l’Ecologie et du Développement Durable, Madame la Ministre déléguée à l’Industrie, Monsieur le Ministre de l’Economie des Finances et de l’Industrie et à Monsieur le Ministre de la Santé de la Famille et des personnes handicapées.

Nous avons appris par voie de presse que vous vous apprêtiez à publier les décrets et arrêtés concernant l’usine Cogéma de La Hague. Si nous pensons qu’une réduction des autorisations de rejet dans l’environnement est nécessaire, nous nous inquiétons du fait que de nouveaux combustibles pourraient être retraités sans aucune justification.

Selon le principe de justification de la législation européenne (article 6 de la directive EURATOM 96/29), ” toute nouvelle catégorie ou tout nouveau type de pratique entraînant une exposition à des rayonnements ionisants […doivent être justifiés] par leurs avantages économiques, sociaux ou autres par rapport au détriment sanitaire qu’ils sont susceptibles de provoquer “.Lors des enquêtes publiques de l’an 2000, l’exploitant demandait l’autorisation de retraiter des combustibles venant de réacteurs de recherche (MTR) et des combustibles Mox, sans justifier ces nouvelles pratiques. Dans ses commentaires, l’ACRO avait montré que cette lacune vis à vis du droit était sûrement due au fait qu’elles n’étaient pas justifiables.
Nous avions aussi souligné la maigreur de l’étude de danger. Depuis, aucun élément nouveau n’a été présenté au public, nous continuons donc à réclamer un débat public sur le bien-fondé du retraitement de ces nouveaux combustibles.

Alors que votre gouvernement annonce un débat sur l’énergie au printemps prochain, une décision nous paraît prématurée et pourrait nous faire douter de la sincérité de la démarche. Si nous accueillons favorablement la démarche de limitation des rejets retenue dans les nouveaux arrêtés concernant les autorisations de rejet, nous vous demandons de ne pas inclure dans les décrets à venir les autorisations de retraitement de nouveaux types de combustibles.

Ancien lien