Tiers secteur scientifique : Risque, expertise et partage du savoir

Texte écrit pour le Dictionnaire des risques (Armand Colin 2007) et paru dans l’ACROnique du nucléaire n°79, décembre 2007


Le tiers-secteur scientifique englobe l’ensemble des associations et des initiatives qui produisent des savoirs en dehors des institutions étatiques ou des firmes privées, d’où le terme de « tiers secteur ». Les recherches, études, expertises… qu’il réalise sont gouvernées par d’autres logiques que le désir de puissance ou la soif de profits. Que ce soient des laboratoires associatifs, des associations de malades, des agriculteurs et jardiniers sauvegardant la biodiversité, le mouvement du logiciel libre… les savoirs sont construits selon un mode participatif, au sens où l’élaboration division du travail entre experts et « profanes » (usagers des savoirs) et le rapport de délégation cèdent la place à un dialogue et à la co-production des connaissances et des innovations. Le public du tiers-secteur scientifique se distingue donc du public passif de la vulgarisation scientifique. Des clubs d’astronomie, des groupes ornithologiques ou autres sociétés naturalistes ont aussi montré la fertilité d’une alliance entre spécialistes et profanes. Mais, nous ne nous intéresserons ici qu’aux dynamiques d’apprentissage en prise avec une problématique sociétale particulière qui, malgré une grande diversité de méthodes et pratiques, partagent, non pas une théorie ou un dogme, mais plutôt une vision qu’un autre monde – plus solidaire, plus paisible et plus écologiquement et socialement juste – est possible. Le tiers secteur scientifique a pour ambition d’expérimenter et d’établir l’espace public comme un espace de négociations démocratiques des choix scientifiques et des innovations et s’inscrit donc pleinement, par ses valeurs, ses pratiques et ses résultats cognitifs, dans la mouvance plus large de l’économie sociale et solidaire (aussi dénommée tiers secteur), dont il est un pilier cognitif.

Les grands défis environnementaux, de santé publique ou de société nécessitent une synergie entre des progrès technologiques et des changements comportementaux de la part des usagers. Il suffit de songer à la réduction des gaz à effet de serre par exemple ou aux épidémies pour s’en convaincre. Un monde vivable et vivant ne peut être obtenu que par la construction d’un monde commun. Comme le notent justement M. Callon, P. Lascoumes et Y. Barthes, « l’enjeu, pour les acteurs, n’est pas seulement de s’exprimer ou d’échanger, ou encore de passer des compromis ; il n’est pas seulement de réagir, mais de construire. » C’est là que des structures, où experts et profanes sont sur un pied d’égalité, ont un rôle clé à jouer. Ces expériences sont encore rares, mais innovantes et porteuses d’espoir car leur démarche ne consiste pas simplement à dénoncer, mais à penser, argumenter et construire un savoir alternatif pour dépasser les simples slogans et les « alternatives infernales » : OGM ou faim dans le monde, déchets nucléaires ou effet de serre, … Ainsi, il ne s’agit pas non plus d’affirmer de façon symétrique qu’il y a danger là où les industriels ou pouvoirs publics jurent, paroles d’expert, qu’il n’y a aucun danger, mais plutôt de rendre publiques et expliquer les méthodes qui conduisent à l’évaluation différente de l’activité à risque. Même s’il est beaucoup plus facile de dénoncer un mensonge que de construire une vérité impliquant un apprentissage avec une certaine humilité. Pour répondre aux besoins de la société civile, du développement humain et durable, l’enjeu est donc de s’approprier les problèmes, sans subir les termes dans lesquels ils sont généralement posés, et de parvenir à les formuler autrement en les transformant en enjeu politique et citoyen.

Le tiers secteur scientifique ne peut se réduire à un club de « purs et durs » fiers de leur radicalité ou de leur indépendance, considérés comme objectifs en soi et il n’a pas non plus vocation à demeurer dans les marges des secteurs étatiques et marchands pour combler leurs lacunes ou réparer leurs dégâts. Son développement vise à l’émergence d’une société civile mature, aspirant non seulement à se doter de capacités propres de recherche et d’expertise mais aussi à transformer ses rapports avec la recherche publique, à l’image de que certaines associations de malades ont obtenu et apporté. Pour la Fondation Sciences Citoyennes, le tiers secteur scientifique s’inscrit alors dans un mouvement plus général de recherche d’un nouveau pacte social entre science et société, de maîtrise sociale et de démocratisation de la science, qui comprend aussi bien de nouveaux dispositifs d’élaboration démocratiques des orientations techno-scientifiques, que des espaces où se déroulent des activités de contrôle citoyen de la recherche et des technologies. De ce nouveau pacte social, la recherche publique devrait sortir transformée dans ses priorités et sa gouvernance, mais aussi relégitimée et renforcée face aux intérêts marchands et militaires et à l’actuelle tendance à la privatisation des savoirs.

Mais la science officielle et les pouvoirs publics ne le voient pas du même œil ! Généralement, politiques et savants s’accordent avec Gorgias et Socrate pour estimer qu’il est du ressort des seuls « hommes compétents » « de savoir choisir parmi les choses agréables quelles sont celles qui sont bonnes et quelles sont celles qui sont mauvaises ». Traditionnellement, les scientifiques détiennent « la vérité » puis les hommes politiques en tirent « les conclusions qui s’imposent ». « Ce que les sciences ont donné à ceux qui les nourrissaient n’est pas seulement la possibilité de nouveaux pouvoirs de faire, » comme l’expliquent Philippe Pignarre et Isabelle Stengers, « mais aussi, et parfois surtout, le pouvoir de faire taire, de supprimer les objections, au nom d’une rationalité scientifique apolitique. » Les craintes des citoyens ne seraient liées qu’à des comportements pathologiques dus à l’irrationalité ou à un déficit de communication, voire les deux. Un tel jugement fait fi du fait que la population est de plus en plus éduquée et que le tiers secteur scientifique a souvent atteint un degré de connaissance qui dépasse largement celui des décideurs. Quant à l’industrie, elle tire une partie de ses profits de l’externalisation de ses nuisances et n’est pas prête à remettre en cause cet acquis. Les quelques exemples de tentative d’auto-régulation que sont les agences d’évaluation, comités de sages, etc, ont rarement réussi à répondre aux attentes des usagers. Au contraire, elles contribuent à renforcer la démocratie délégative là où plus de démocratie participative est nécessaire.

La convention d’Aarhus, ratifiée en 2002 par la France, et la charte de l’environnement, adossée à la constitution depuis mars 2005, devraient marquer un tournant dans la démocratisation des décisions touchant à l’environnement. Mais ces textes sont encore trop récents pour avoir un effet sur les pratiques. Pour pouvoir avoir voix au chapitre, la société civile doit donc batailler pendant des années et des modes de contestation radicaux sont souvent indispensables pour faire avancer le débat public. Là où l’expert officiel capitule devant la complexité du problème à résoudre, le citoyen directement concerné n’a pas d’autre choix que le déni, se penser en victime ou chercher à comprendre avec obstination. « L’expérience de la différence se faisant entre subir et créer, entre accepter sur le mode du « il faut bien » anonyme et découvrir/explorer/fabriquer le degré d’autonomie créatrice qui peut être reconquis. » Et I. Stengers et P. Pignarre d’ajouter : « nous dirons que cette expérience est ce qu’il arrive lorsqu’une situation a reçu ce qui ne lui appartient jamais en droit, ou jamais « naturellement » : le pouvoir d’obliger à penser ». Un discours basé sur un état de conscience, une intuition ou même le simple bon sens ne suffisant généralement pas pour être entendu, le tiers secteur scientifique doit s’immiscer dans le débat en s’appropriant souvent les mêmes outils et la rigueur scientifique que la techno-science officielle, mais il le fait avec d’autres méthodes et dans un autre esprit. Les quelques exemples où la controverse scientifique a débouché sur un véritable dialogue, montrent un enrichissement mutuel, car chacune des catégories d’acteurs possède des savoirs spécifiques. Une culture du risque mieux partagée ne peut que conduire à l’amélioration de la vigilance, de la précaution en situation d’incertitude, de la prévention en cas de danger avéré, voire de la survie dans des situations post-catastrophiques. Mais cela peut aussi conduire à la remise en cause de l’activité à risque ! C’est ce que craint le plus le pouvoir technoscientifique qui n’est prêt à accepter des concessions sur son fonctionnement que si cela conduit à l’acceptabilité de ses activités. D’où la réticence à partager la connaissance, car, comme le note La Boétie, « les gens asservis, outre ce courage guerrier, ils perdent aussi en toutes autres choses la vivacité, et ont le cœur bas et mol et incapable de toutes choses grandes. »

Parce que le chemin n’est pas balisé, c’est par la pratique que les associations du tiers secteur scientifique construisent une démarche originale et diverse qui doit s’inscrire dans la durée. Il n’est pas sûr que les recettes qui ont fait le succès des unes fonctionnent pour d’autres problématiques. Ses membres consacrent parfois plus de temps et d’énergie à bâtir et pérenniser l’outil qu’à militer pour la cause qu’ils défendent. La survie financière passe souvent par un soutien public, car la production du tiers secteur scientifique, comme les logiciels ou les semences, est naturellement libre et les résultats d’expertise publics. Comme en France, les fonds dédiés à la communication de la technoscience dépassent largement ceux dédiés à un fonctionnement plus démocratique, il est tentant de simplifier le discours pour satisfaire au format imposé par les médias et attirer des dons du public. Seule une forte implication bénévole, sans laquelle la structure ne serait pas viable, permet de maintenir le cap entre les écueils de l’audimat et le risque d’enlisement institutionnel. Pour de nombreux militants, l’effort consenti n’a d’autres buts que de les aider à vivre dans la société du risque. « Et il se pourrait, en outre, » pour M. Callon, P. Lascoumes et Y. Barthe, « que les solutions proposées […] soient transposables, transportables, dans d’autres champs, là où les sciences et les techniques ne sont pas nécessairement centrales, et qu’elles contribuent ainsi au mouvement plus général de démocratisation de la démocratie ».

David Boilley et Claudia Neubauer

  • BONNEUIL Christophe et GAUDILLIERE Jean-Paul (2001), «Faire entrer les sciences en démocratie – pour un tiers secteur scientifique », EcoRev’ – Revue critique d’écologie politique, n° 5, http://ecorev.org.
  • IRWIN Alan (1995), Citizen Science: A Study of People, Expertise, and Sustainable Development, Routledge.
  • CALLON Michel, LASCOUMES Pierre, BARTHE Yannick (2001), Agir dans un monde incertain , essai sur la démocratie technique, Paris, Seuil.
  • L’expertise et la recherche associative et citoyenne en France, Fondation Sciences citoyennes, 18 mars 2004 (http://sciencescitoyennes.org).
  • PIGNARRE Philippe et STENGERS Isabelle (2005), La sorcellerie capitaliste – Pratiques de désenvoûtement, Paris, La Découverte.
  • LA BOETIE Etienne de,  Discours de la servitude volontaire,  réédité par Flammarion (1993)

dicodico2Autres textes du dictionnaire des risques :

Ancien lien

Déchets nucléaires

Texte initialement écrit pour le Dictionnaire des risques (Armand Colin 2003) et paru dans l’ACROnique du nucléaire n°63, décembre 2003. Cette version a été remise à jour pour l’édition 2007 du dictionnaire et est parue dans l’ACROnique du nucléaire n°79, décembre 2007.


Aucun pays, à ce jour, n’a trouvé de solution pour le devenir de ces déchets qui, pour certains d’entre eux, demeureront toxiques pendant des millions d’années, et dont la gestion pose d’énormes problèmes à l’industrie nucléaire. L’enjeu est double : épurer le passif – des déchets sont parfois entreposés dans de mauvaises conditions et portent atteinte à l’environnement – et proposer une filière d’évacuation dès la source pour tous les déchets à venir, avec traçabilité.

De la mine à la centrale électrique ou l’usine de retraitement, chaque étape de la chaîne du combustible fournit son lot de déchets, généralement classés selon leur radioactivité et leur durée de vie. Seuls ceux faiblement radioactifs et de période courte (inférieure à trente ans) ont trouvé un site d’accueil définitif : ils sont stockés en surface, dans l’Aube, à Soulaines-Dhuys. Ce centre a pris le relais de celui de la Manche, qui a reçu son dernier colis en 1994 et ne satisfait pas aux règles de sûreté des stockages actuels. Pâtissant d’une gestion passée empirique, il contient des radioéléments à vie longue et des fuites portent atteinte à l’environnement. Le centre de l’Aube, huit fois plus grand pour deux fois plus de déchets, sert de vitrine à l’Agence Nationale des Déchets Radioactifs (ANDRA). Le stockage dans des tumuli bétonnés n’y est prévu que pour trois cents ans.

Dans d’autres pays – Suède, Finlande, Allemagne -, ces mêmes déchets sont parfois stockés en profondeur. Cette solution est cependant trop onéreuse et inadaptée pour les 50 millions de tonnes de résidus miniers accumulées pendant les quarante années d’extraction de minerai en France. En Allemagne, les seuls sites de Helmsdorf et de Culmitzsch contiennent respectivement 50 et 86 millions de tonnes et, au niveau mondial, quelque 6 milliards de tonnes sont ainsi accumulées. Si ces résidus sont très faiblement radioactifs, ils ont l’inconvénient de contenir des radioéléments à vie longue : 75 380 ans de période pour le thorium 230. Par ailleurs, l’un des descendants de l’uranium – le radon – est un gaz toxique, ce qui rend le stockage ou l’entreposage difficile. Ces types de déchets sont généralement entreposés dans d’anciennes mines à ciel ouvert ou dans des bassins fermés par une digue, en attendant une meilleure solution qui éviterait les risques de dispersion des radioéléments par érosion ou suintement. Ce problème est maintenant déplacé dans les pays producteurs puisque l’uranium est entièrement importé. Au Gabon, les résidus ont été déversés directement dans le lit de la rivière Ngamaboungou jusqu’en 1975 par la Comuf, filiale de la Cogema.

D’autres déchets très faiblement radioactifs, issus du démantèlement des installations nucléaires, vont aussi poser un problème d’envergure. Ainsi, en France, il va falloir trouver une solution à moindre coût pour les 15 millions de tonnes attendues. Pour une partie de ce volume, un « recyclage » est possible, des seuils de libération introduits par la législation d’origine européenne permettant alors de les considérer légalement comme des déchets non radioactifs. Pour les déchets dépassant les seuils, le centre de stockage en surface de Morvilliers dans l’Aube vient d’entrer en exploitation.

En ce qui concerne les déchets les plus toxiques et à vie longue, dont les volumes sont beaucoup plus faibles, un consensus international semble se dégager en faveur de leur enfouissement, même si l’avancement des recherches dépend beaucoup de considérations politiques locales. En France, outre le stockage en profondeur, la loi du 30 décembre 1991 relative aux recherches sur la gestion des déchets radioactifs a imposé l’étude de la séparation des éléments radioactifs les plus nocifs à long terme, celle de leur transmutation, ainsi que « l’étude de procédés de conditionnement et d’entreposage de longue durée en surface de ces déchets ». Une commission nationale d’évaluation (CNE) relative aux recherches sur la gestion des déchets radioactifs a été mise en place pour rédiger, chaque année, un rapport sur l’avancement des travaux menés dans le cadre de la loi pendant une période de quinze ans. Cette loi d’origine parlementaire constitue une véritable avancée démocratique, mais était malheureusement limitée aux déchets les plus radioactifs. Elle a eu surtout le mérite de faire sortir les déchets nucléaires du champ purement technique pour leur reconnaître un caractère politique.

Une nouvelle loi votée en 2006 prolonge ces axes de recherche. Elle va aussi plus loin en prenant en compte toutes les matières radioactives. Certaines, qualifiées de valorisables, n’ont pas le statut légal de déchet, même si elles ne sont pas valorisées et ne le seront probablement jamais. Suite à de longues procédures judiciaires allant jusqu’en cassation, la jurisprudence française, quant à elle, tend à considérer toute matière radioactive non valorisée comme un déchet.

La séparation et la transmutation proposées par la loi sont parfois présentées comme un recyclage des déchets radioactifs pouvant constituer une solution de rechange au stockage définitif. Elles concernent plutôt les combustibles irradiés issus d’une éventuelle prochaine génération de réacteurs, mais pas les déchets accumulés actuellement. La séparation de certains radioéléments du combustible irradié nécessite des opérations chimiques complexes. Les recherches en cours visent essentiellement à améliorer les capacités de retraitement de l’usine de la Hague. La transmutation, quant à elle, nécessite l’utilisation d’un parc complet de réacteurs nucléaires innovants ; d’autres pays se sont aussi lancés dans ce type de recherches dont certains résultats ne sont pas sans intérêts militaires.

C’est donc un système nucléaire vaste et complexe qui serait à créer pour remplacer des isotopes peu radioactifs à vie longue par des isotopes très radioactifs à vie courte. Faut-il exposer les travailleurs du nucléaire et les populations du présent siècle à un détriment certain sans être sûr de protéger les populations futures dans 100.000 à des millions d’années ? Sans compter le risque d’accident beaucoup plus grand sur un site industriel que dans un centre de stockage. L’industrie nucléaire peine déjà à recycler le plutonium et l’uranium extraits des combustibles usés. Le retraitement, technologie d’origine militaire, est aussi une opération très polluante et onéreuse. Un retraitement poussé ne ferait qu’augmenter ces coûts, d’autant plus que la convention internationale OSPAR impose de faire tendre vers zéro les rejets dans l’Atlantique Nord d’ici 2020. L’exposition aux rayonnements ionisants engendrée par cette pratique n’a jamais été justifiée par les avantages économiques, sociaux ou autres, par rapport au détriment qu’ils sont susceptibles de provoquer, comme l’impose pourtant la réglementation. Comment alors justifier des opérations plus complexes ? De plus, dans la mesure où il conduit à vitrifier les résidus, le retraitement rend difficile la reprise ultérieure des déchets soit parce qu’une matrice meilleure aura été trouvée, soit pour une séparation plus poussée. Le choix du retraitement, jamais débattu, ferme des options de gestion aux générations futures.

Pour les déchets actuels, ne restent donc que le stockage souterrain ou un entreposage en surface à plus ou moins long terme. Dans tous les pays, l’industrie nucléaire semble pencher vers une « évacuation géologique », même si l’on n’en est qu’au stade des études. Le Waste Isolation Pilot Plant (WIPP) dans une formation saline du Nouveau-Mexique aux Etats-Unis fait figure de pionnier avec son premier colis de déchets reçu en mars 1999. Il est destiné aux déchets transuraniens issus de la recherche et production d’armes nucléaires. Cette stratégie est basée sur l’oubli, dans la continuité de la gestion mise en œuvre pour les stockages en surface. Le pari est fait que des barrières bétonnées ou géologiques retiendront les radioéléments sans intervention humaine, le temps nécessaire à leur décroissance. L’argument généralement avancé est la protection des générations futures. Cette interprétation suppose une certaine défiance envers la capacité de nos successeurs à faire face aux dangers provoqués par les déchets nucléaires. Mais ces centres de stockage sont conçus pour que l’exposition théorique des générations futures satisfasse aux normes de radioprotection actuelles, normes qui seront fort probablement modifiées dans l’avenir. En cas d’erreur ou de problème, il est difficile de revenir en arrière sans travaux coûteux et risqués pour les travailleurs et l’environnement. La réversibilité du stockage profond, rendue obligatoire par la loi de 2006, est limitée à la phase d’exploitation et ne fait que différer l’échéance de la solution définitive. A la fermeture, l’étanchéité du site impose de fermer l’accès définitivement, les éventuels colis défectueux ne pouvant alors être repris qu’à l’issue de travaux miniers lourds.

La notion de réversibilité, qui découle du principe de précaution, est récurrente dans le débat sur les déchets. Elle est surtout présentée comme un argument d’acceptabilité pour l’enfouissement par les partisans du nucléaire qui se gardent bien de l’appliquer au retraitement. L’entreposage provisoire est, quant à lui, par essence réversible puisque au bout d’une certaine période estimée à une centaine d’années, il devra être entièrement renouvelé pour garantir le confinement ou pour s’orienter vers une autre option. Lors du débat national organisé fin 2005, cette notion d’entreposage pérennisé a eu les faveurs du public, preuve de sa confiance en la capacité des générations futures à faire face aux problèmes. Mais, elle est ignorée par la nouvelle loi de 2006 car elle est perçue comme une solution menaçante pour les opérateurs du nucléaire dans la mesure où elle érige la réversibilité en principe absolu et non plus relatif, obligeant ainsi à explorer d’autres possibles et corrélativement remettre en question des choix actuels. De plus, cette démarche, basée sur une mémoire active transmise de génération en génération, impose de démocratiser la gestion des déchets nucléaires car seule une information honnête et redondante permettra de faire face aux aléas. La prise en compte des générations futures commence par la génération actuelle…

La réversibilité implique aussi de garder plusieurs options ouvertes afin de pouvoir revenir sur certains choix. Pour limiter le coût humain et financier lié à la multiplication des options – « l’énergie nucléaire doit rester compétitive ! » – une hiérarchisation s’impose entre les options a priori prometteuses pour lesquelles des développements technologiques lourds sont nécessaires et celles pour lesquelles un effort modéré de Recherche et Développement devrait suffire à maintenir l’option ouverte. Avec le risque de rendre tout retour en arrière plus difficile par les investissements déjà consentis. Il a fallu, par exemple, beaucoup de courage politique aux autorités pour arrêter le surgénérateur Superphénix pour lequel la commission Castaing (1996), chargée d’évaluer ses capacités en tant qu’incinérateur, avait regretté « la maigreur du programme envisagé » pour la destruction des déchets, mais avait préconisé son maintien en activité à cause des investissements réalisés.

L’hypothèse d’un stockage à l’étranger dans des pays moins regardants séduit les autorités qui doivent faire face à une forte contestation de leurs populations. Une société britannique de droit suisse a pour but de convaincre l’Australie d’accepter ce rôle. La Russie a modifié sa législation pour accepter des déchets étrangers. Taiwan ou le Japon lorgnent du côté de la Chine populaire. Des arguments techniques fallacieux sur la densité de population ou la qualité des roches sont utilisés pour rassurer les personnes gênées par le caractère immoral de cette option. En France, l’article 3 de la loi de décembre 1991 stipule que « le stockage en France de déchets radioactifs importés, même si leur retraitement a été effectué sur le territoire national, est interdit au-delà des délais techniques imposés par le retraitement ». Mais des déchets étrangers, issus du retraitement, auraient dû être renvoyés dans leur pays d’origine depuis longtemps. Et les contrats allemands, qui prévoient l’hypothèse d’un non-retraitement sans pénalité, transforment de fait l’usine de La Hague en centre d’entreposage international.

La gestion des déchets radioactifs nécessite des choix collectifs problématiques impliquant une perspective temporelle inhabituelle : comment prendre des décisions pour les générations et sociétés lointaines ? Contrairement aux problèmes posés par l’introduction de nouvelles technologies comme celles des OGM, pour lesquelles un moratoire pourrait être utile pour nourrir la réflexion, trop reporter les décisions pourrait être préjudiciable. Les déchets existent et demandent une gestion rigoureuse dès leur production. Mais des considérations à court terme concernant par exemple la poursuite ou non du programme nucléaire viennent interférer et risquent d’emporter les décisions. En effet, pour pouvoir obtenir l’assentiment de la population, il faut absolument pouvoir prétendre avoir une solution pour les déchets. Un compromis prudent pourrait être réalisé à travers une approche séquentielle de la décision, avec des échéances régulières sans que soit fixée a priori une limite temporelle à ce processus afin de garantir la liberté de choix de nos descendants.

David Boilley

Bibliographie :

  • ACRO (2006), Gestion des déchets nucléaires : les leçons du Centre de Stockage de la Manche, http://acro.eu.org
  • ANCLI (2006), Livre blanc : Matières et déchets
    radioactifs – territoires, http://www.ancli.fr
  • BARRILLOT Bruno et DAVIS Mary (1994), Les déchets
    nucléaires militaires, éd. du CRDPC
  • CHARPIN Jean-Michel, DESSUS Benjamin, PELLAT René (2000),
    Etude économique prospective de la filière
    nucléaire : rapport au Premier ministre, La Documentation
    française
  • CNRS (2006), Recherche et déchets nucléaires : une
    réflexion interdisciplinaire, Cahiers risques collectifs et
    situations de crise n°5, MSH-Alpes
  • FAUSSAT Armand  (1997),  Les déchets
    nucléaires, Stock
  • HERIARD-DUBREUIL Gilles (2000), Comment mener une politique
    à long terme ? le cas des déchets nucléaires,
    Esprit
  • Rapports de l’Office parlementaire des choix scientifiques et
    technologiques
  • Rapports et documents de la Commission Nationale de Débat
    Public, http://www.debatpublic-dechets-radioactifs.org/
  • Rapports de la Commission Nationale d’Evaluation, La
    documentation française.

dicodico2Autres textes du dictionnaire des risques :

Ancien lien

Les radiations ionisantes

Texte écrit pour le Dictionnaire des risques (Armand Colin 2003 et 2007) et paru dans l’ACROnique du nucléaire n°64, mars 2004


Les radiations ionisantes correspondent à des rayonnements électromagnétiques ou particulaires possédant une énergie associée supérieure à 10 électron-volt (eV). En-dessous de cette valeur en énergie, les radiations sont dites « non ionisantes » et on y classe notamment les rayonnements ultra-violets ou encore les champs électromagnétiques de très basse fréquence. Ces derniers, bien que « non ionisants », ne sont pas pour autant dépourvus d’effets pathologiques chez l’homme ou l’animal.

Ce qualificatif de « ionisant » est important car il va désigner le mécanisme initiateur (à l’échelle moléculaire) qui sera à l’origine même de la toxicité de cette classe de radiations. Sur son parcours, une radiation créera en moyenne une paire d’ions pour un dépôt d’énergie de 33 eV. Ainsi, une particule alpha de 5,3 MeV (millions d’eV) générera plus de 150 000 paires d’ions sur un parcours de 40 µm dans les tissus. Si les radiations ionisantes se classent en fonction de leur nature, leur toxicité respective sera également une manière de les distinguer. De façon résumée, cette toxicité propre sera d’autant plus élevée que la densité d’ionisation produite sera grande.
Les radiations ionisantes agissent suivant deux voies d’action dont la contribution respective aux dégâts biologiques radio-induits restent l’objet d’un débat scientifique. D’une part, elles génèrent des cassures moléculaires (c’est l’effet direct), d’autre part, elles provoquent la radiolyse de l’eau (c’est l’effet indirect) conduisant à la formation de radicaux libres qui constituent des espèces moléculaires fortement toxiques.
La chronologie des événements qui surviennent consécutivement à une irradiation souligne une échelle de temps joignant les extrêmes. Le phénomène d’ionisation est quasi-instantané (10-15 sec), de même que la production de radicaux libres (10-9 sec) et les lésions sur le patrimoine génétique seront instaurées dans la seconde voire la minute qui suit l’irradiation. On comprend dès lors toute l’importance de la prévention mise en avant dans l’exercice de la radioprotection. Si ces lésions moléculaires peuvent être à la cause d’effets pathologiques visibles dans les jours et les semaines qui suivent (cas des fortes doses), elles seront aussi à l’origine d’effets tardifs pouvant survenir des années (voir plusieurs dizaines d’années) après l’exposition (en particulier la radio-cancérogénèse) ou encore dans la descendance (effets génétiques).

L’homme est exposé aux radiations selon différentes voies d’atteinte. Les rayonnements pénétrants issus de sources externes (corps radioactifs, appareils électriques accélérant des particules) sont les contributeurs d’une irradiation externe. Les substances radioactives présentes dans l’environnement (ou dispersées dans l’environnement par l’homme) participent à la contamination interne des personnes soit par inhalation (gaz, aérosols..), soit par ingestion au travers de la chaîne alimentaire (qui conduit souvent à des processus de re-concentration des toxiques).

L’origine des expositions aux radiations ionisantes peut être naturelle (cosmique et tellurique) ou artificielle (anthropologique).
Les sources d’exposition naturelle ainsi que les estimations de dose annuelle qui leur sont actuellement attribuées [1] sont présentées dans le tableau ci-dessous. On soulignera le rôle prépondérant du radon, un gaz radioactif (émetteur alpha) issu de la chaîne de l’uranium qui contribue pour plus de 50% à l’ensemble de cette exposition naturelle et qui pourrait constituer un problème de santé publique. Le Comité BEIR de l’Académie des Sciences US a récemment évalué entre 15.400 à 21.800 le nombre de cancers du poumon dû, chaque année au sein de la population américaine, au radon domestique [2]. Toujours selon l’Académie américaine, il représenterait la deuxième cause du cancer du poumon après le tabac. Les radiations cosmiques quant à elles ont fait l’objet de multiples investigations depuis le début des années 90. Leur débit de dose, faible au niveau du sol (0,03 µSv/h),peut être 150 à 200 fois plus élevé lors de vols intercontinentaux (5 µSv/h). Certaines études [3] ont pu mettre en évidence un excès d’anomalies chromosomiques caractéristiques de l’action des radiations. De fait, les personnels navigants devraient sans doute être considérés comme « personnels exposés » aux radiations ionisantes et classés comme les salariés du nucléaire.

Sources Dose moyenne
annuelle (mSv)
Domaine de
variation (mSv)

Exposition externe :

– rayonnement cosmique

– rayonnement tellurique

0,4

0,5

0,3 – 1,0

0,3 – 0,6

Exposition interne :

– inhalation (dont radon)

– ingestion

1,2

0,3

0,2 – 10

0,2 – 0,8

Total 2,4 1 – 10
[source : UNSCEAR, 2000]

Quant aux sources d’exposition artificielle, elles relèvent soit de l’exposition médicale (environ 1,2 mSv/an mais avec un domaine de variation très large) soit d’expositions d’origine industrielle ou militaire. En affirmant le principe de justification des actes radiologiques, la mise en application de la directive européenne 97-43 [4] devrait permettre de réduire les doses médicales, en particulier par la chasse aux examens inutiles qui perdurent encore trop souvent dans un milieu où la radioprotection a rarement été un souci majeur. Les essais nucléaires nombreux (945 explosions réalisées par les USA, 210 pour la France…) ont dispersé à la surface de la planète (principalement dans l’hémisphère nord) des quantités importantes de radioactivité qui, aujourd’hui encore, marquent notre environnement. Même s’ils détiennent chacun des activités très modestes comparativement à l’industrie nucléaire, on ne peut ignorer les nombreux « détenteurs » de sources radioactives utilisées en milieu hospitalier, dans les centres de recherche ou au sein de petites entreprises. En France, ils sont environ 5000 utilisateurs autorisés à détenir des sources scellées et non scellées. Des millions de sources radioactives sont ainsi dispersées dans le monde, dont plusieurs dizaines de milliers présentent de fortes activités (exprimées en terabecquerels, TBq). Régulièrement, des pertes, vols, actes de sabotage sont enregistrés. Plus grave, le trafic de ces matières s’est intensifié au cours des années 90 (il a doublé entre 1996 et 1999). De tels actes ont été confirmés dans plus de 40 pays, et ce n’est que la partie visible de l’iceberg. Depuis le 11 septembre 2001, la menace d’actes terroristes radiologiques (les « bombes sales »..) sont prises très au sérieux, y compris par la France où une circulaire (circulaire 800) est venue renforcer le dispositif en mai 2003. Le secteur de l’industrie nucléaire, avec son talon d’Achille que constituent les déchets nucléaires [voir Les déchets nucléaires], reste cependant l’objet principal des craintes exprimées par une large fraction de la population [5]. Issu du nucléaire militaire, il faut bien reconnaître que le principe de justification ne s’est jamais appliqué au programme nucléaire dont la France a fait son cheval de bataille. L’apparition de batteries lance-missiles Crotale déployées sur le plateau de la Hague (Nord Cotentin) en réponse aux attentats du 11 septembre a souligné brutalement l’extrême fragilité des systèmes de protection existants [6]. En matière de risques externes, la dimension de tels actes n’a jamais été prise en compte.

En regard de l’équation définissant le risque – le risque est égal au produit du danger potentiel par une probabilité d’occurrence d’un événement donné et par l’intensité des conséquences sanitaires et écologiques – le discours officiel ne s’est toujours porté que sur le second terme de l’équation (la probabilité d’occurrence) qu’il convenait de maintenir le plus faible au possible. La présentation des rapports de sûreté des installations nucléaires est de ce point de vue éclairant (pour certaines installations, l’exploitant est allé jusqu’à présenter le niveau de risque de chute d’un petit avion de tourisme en « probabilité d’impact par m2 » pour souligner son caractère « négligeable »). On est aujourd’hui légitimement en droit de se demander si la société n’a pas le devoir de refuser (pour elle-même et pour les générations futures) que s’érigent des installations industrielles présentant des niveaux de danger potentiel extrêmes et cela, indépendamment des estimations probabilistes présentées. Dans une certaine mesure, cette démarche rejoint une approche très actuelle en matière de maîtrise des risques industrielles qui vise à « réduire le danger à la source ».

La radioprotection. Dans l’année même (1896) qui suivi la découverte des Rayons X (1895) les premières règles pratiques de protection sont recommandées. Dès le tout début du siècle, les dangers de rayonnements ionisants deviennent de plus en plus apparents et des comités nationaux apparaissent en 1913 dans le but de les étudier. Le premier congrès international de radiologie (1925) reconnaît la nécessité d’évaluer et de limiter l’exposition aux radiations. Pour répondre à ce besoin, le Comité International de Protection contre les Rayons X et le Radium est créé en 1928 et il deviendra (en 1950) la Commission Internationale de Protection Radiologique (CIPR). En 1934, les premières limites de dose sont instituées tout en considérant l’existence de seuils d’innocuité (reconnaissance des seuls effets déterministes). Mais en 1955, le concept de seuil est rejeté et les effets stochastiques considérés comme « irréversibles et cumulatifs » sont maintenant pris en compte. Durant les années 60 et 70, le débat autour de l’acceptabilité du risque conduira à l’élaboration du concept ALARA (maintenir les expositions à un niveau aussi faible que raisonnablement possible). Depuis, les recommandations de la CIPR conduiront à des réductions successives des limites de dose (en 1977 puis en 1990) d’abord pour les travailleurs mais aussi, et c’est nouveau, pour le public. Cette évolution est résumée dans le tableau ci-contre.

Année Travailleurs Public
1934 env. 600 mSv/an (0,2
roentgen/jour)
1938 env. 500 mSv/an (1
roentgen/semaine)
1951 env. 150 mSv/an (0,3
roentgen/semaine)
1959 (et
1977)
50 mSv/an 5 mSv/an
1990 20 mSv/an 1 mSv/an

Les travaux de la CIPR conduiront à l’élaboration de trois grands principes fondamentaux : le principe de justification (une pratique doit faire plus de bien que de mal), dont nous avons souligné le peu d’empressement à le mettre en application ; le principe d’optimisation de la radioprotection (qui s’appuie largement sur le concept ALARA) ; le principe de limitation des expositions (valeurs limites censées interdire l’apparition d’effets déterministes et limiter le plus possible l’induction d’effets stochastiques). Ces trois principes fondamentaux viennent d’être intégrés au Code de la Santé Publique pour la première fois en 2002, année qui sera marquée en France par une réorganisation importante du système de radioprotection et des dispositions réglementaires correspondantes.

Le débat autour de la radioprotection est également très animé. Il repose pour l’essentiel sur la nature de la relation dose / effet. Depuis la fin des années 80, les principales instances internationales admettent que cette relation est de type « linéaire et sans seuil ». L’enjeu est important car cela signifie que toute dose, même très faible, est susceptible de produire un effet (induction de cancers ou affection de la descendance) en terme probabiliste.
Pour autant, cette relation ne serait prouvée que dans un domaine de dose plus élevé que celui de la radioprotection (niveaux d’exposition des travailleurs ou du public) car elle est déduite presque exclusivement de l’analyse des données du suivi des survivants aux explosions nucléaires de Hiroshima et Nagasaki. La poursuite de l’étude après 1985 a permis, d’une part, d’observer que les cancers continuent à apparaître en excès plus de 40 ans après et, d’autre part, d’affiner la limite inférieure de cette relation étayée qui passe ainsi de 200 mSv à 50 mSv confortant l’hypothèse de la linéarité sans seuil.
Les modes d’exposition étant très différents entre les populations d’Hiroshima et Nagasaki (qui ont subi une dose forte et aiguë) et les populations vivant autour d’installations nucléaires (qui reçoivent des doses faibles et chroniques), le modèle de la CIPR fait l’objet de critiques fortes de la part de groupes scientifiques-citoyens [7]. De fait, au-delà des modèles toujours critiquables, de nombreuses questions restent en suspend : la susceptibilité génétique (non prise en compte dans la détermination du risque radio-induit), l’hétérogénéité dans la distribution de la dose, l’interaction avec d’autres agents toxiques de nature différente (la cancérogenèse correspond à un processus qui se déroule par étapes successives), l’induction de pathologies non cancéreuses, les maladies multi-factorielles…
A l’inverse, des partisans de l’existence d’un seuil d’innocuité (en particulier dans le sérail de l’Académie de médecine) ont fait pression sur la CIPR et les pouvoirs publics pour tenter de s’opposer à la mise en application de la réduction des limites de doses proposées par la CIPR en 1990 [8]. Là n’est d’ailleurs pas la seule inquiétude puisque ces mêmes auteurs affirment que la radioprotection « représente une activité essentiellement médicale » et qu’il « apparaît indispensable que la radioprotection soit supervisée par des médecins et autres professions de santé »… Le discours est étayé par l’existence des mécanismes de réparation des lésions de l’ADN et s’appuie sur un leitmotiv : l’absence de preuve.
Une démarche scientifique voudrait pourtant que l’on considère que l’absence de preuve d’une relation causale ne constitue pas pour autant la preuve de l’absence de cette même relation. Ainsi, il peut suffire que des développements scientifiques et technologiques permettent d’élaborer de nouveaux outils d’investigation apportant des réponses nouvelles. Et c’est peut-être ce qui est en passe d’apparaître ces dix dernières années à travers l’émergence de travaux originaux d’une part autour de l’instabilité génétique et, plus récemment, autour de l’effet bystander (ou effet non cible) [9]. Ce dernier mécanisme d’action mérite que l’on y prête attention car il remet en cause le dogme de la radiobiologie selon lequel l’induction d’effets retardés (cancers, anomalies dans la descendance) est le produit de l’action directe des radiations sur l’ADN contenu dans le noyau de la cellule. De fait, des anomalies moléculaires et cellulaires (caractéristiques de l’action des radiations) s’expriment dans des cellules non atteintes par des radiations mais simplement présentes au voisinage d’une cellule irradiée (parfois même par une seule particule alpha). De façon surprenante, ce phénomène ne semble pas s’exprimer avec des doses fortes mais uniquement dans le domaine des faibles doses (celles qui concernent la radioprotection) et les auteurs s’accordent à démontrer l’existence, à ce niveau, d’une relation dose / effet supra-linéaire suggérant que le risque radio-induit serait actuellement sous-estimé dans le domaine des faibles doses [10].
Enfin, très récemment [11], une équipe de recherche est parvenue à établir la formation de lésions radio-induites spécifiques sur l’ADN à des niveaux de doses 1000 fois inférieurs à ceux habituellement utilisés (de l’ordre du Gy) pour observer ces dégâts. Plus intéressant encore, les auteurs notent que plus ils réduisent les doses délivrées, moins ces lésions génomiques sont réparables.

Si tous ces travaux devaient se confirmer, la relation linéaire sans seuil dans le domaine des faibles doses cesserait d’être une hypothèse (issue de l’extrapolation proposée par la CIPR) pour devenir une donnée établie sur des faits expérimentaux et peut-être même sous-estimée. Beaucoup de choses seront alors à reconsidérer à commencer par les fondements même de la radioprotection.

Références :
1. UNSCEAR. Sources and effects of ionizing radiations. Vol. I, 2000.

2. National Academy of Sciences : Health Effects of Exposure to Radon: BEIR VI, Committee on Health Risks of Exposure to Radon (BEIR VI), 516 pages, 1999.

3. ROMANO Elena et al. Increase of chromosomal aberrations induced by ionizing radiations in peripheral blood lymphocytes of civil aviation pilots and crew members. Mutation Research, 9, 377, 89-93, 1997.

4. Directive 97/43 Euratom du Conseil de l’union européenne. Protection sanitaire des personnes contre les rayonnements ionisants lors d’expositions à des fins médicales. J.O.C.E., L180, 9 juillet 1997.

5. IPSN. Perception des risques et de la sécurité. Préventique – Sécurité, n° 62, mars-avril 2002.

6. La Manche Libre du 03 novembre 2002.

7. Recommendations of the ECRR (European Committee on Radiation Risk): The Health Effects of Ionising Radiation Exposure at Low Doses and Low Dose Rates for Radiation Protection Purposes: Regulators’ Edition, 2003.

8. Avis de l’Académie Nationale de Médecine. Energie nucléaire et santé. 22 juin 1999.

9. LITTLE John B. Radiation-induced genomic instability and bystander effects : implications for radiation protection. Radioprotection. 37, 3, 261-282, 2002.

10. ZHOU Hongning et al. Radiation risk to low fluences of a particles may be greater than we thought. Proceeding of National Academy of Sciences. 98, 25, 14410-14415, 2001.

11. ROTHKAMM Kai et al. Evidence for a lack of DNA double-strand break repair in human cells exposed to very low X-Ray doses. Proceeding of National Academy of Sciences. A paraître en 2003.


dicodico2Autres textes du dictionnaire des risques :

Ancien lien

Prolifération nucléaire

Mis en avant

Texte initialement écrit pour le Dictionnaire des risques paru chez Armand Colin et paru dans l’ACROnique du nucléaire n°63, décembre 2003. Version remise à jour pour l’édition 2007 du dictionnaire.


« On va faire la guerre une bonne dernière fois pour ne plus avoir à la faire. Ce fut l’alibi bien-aimé […] des conquérants de toutes tailles. […] Par malheur, ça n’a jamais marché » note Jean Bacon. En effet, la « civilisation » ou la « démocratie », selon les époques, prétendument apportées au bout du fusil, n’ont jamais supprimé les conflits. Avec l’arme nucléaire, en exposant l’ennemi potentiel au risque d’une riposte massivement destructrice, a-t-on enfin trouvé définitivement le chemin de la paix ? L’équilibre de la terreur entre les deux grandes puissances aurait ainsi évité une troisième guerre mondiale, mais pas les nombreux petits conflits qui ont ensanglanté la planète. On comprend alors l’attrait que suscite cette arme radicalement nouvelle pour de nombreux pays se sentant menacés : comment oserions-nous la refuser aux pays en voie de développement alors qu’elle est indispensable à notre survie, et ceci d’autant plus, que cela représente de juteux marchés pour le fleuron de notre industrie ? Evidemment, le transfert de technologie sera « pacifique », les technologies civile et militaire pour se procurer la matière première étant identiques. Tout comme les armes exportées sont qualifiées de « défensives ».

Les motivations pour partager son savoir sont multiples : échange de technologies entre la Corée du Nord et le Pakistan, accès au pétrole irakien ou iranien pour la France, développer en secret des technologies militaires dans un pays tiers pour l’Allemagne ou tout simplement renforcer son camp. Malheureusement, cette prolifération, dite horizontale, ne fait qu’augmenter le risque de voir un conflit régional dégénérer en guerre nucléaire. En effet, aucun pays, pas même les démocraties, n’est à l’abri de l’accession au pouvoir d’une équipe dirigeante peu scrupuleuse.

De fait, pas un pays ne s’est doté d’infrastructures nucléaires sans une arrière-pensée militaire, même si certains, comme la Suisse, le Brésil ou l’Afrique du Sud par exemple, ont officiellement renoncé à l’arme nucléaire. Quarante-quatre pays sont actuellement recensés par le traité d’interdiction des essais nucléaires comme possédant une technologie suffisante pour accéder à l’arme suprême. Personne ne met en doute qu’il suffirait d’un délai de quelques mois à un pays très industrialisé pour disposer, s’il le souhaitait, de l’arme atomique et des moyens de la déployer. L’acharnement du Japon, par exemple, à vouloir développer une filière plutonium et des lanceurs de satellites en dépit de nombreux déboires est lourd de sens à cet égard.

Conceptuellement, il est facile de fabriquer une arme rudimentaire, la difficulté étant d’ordre technologique pour accéder à la matière fissible. Le plutonium issu des réacteurs civils peut faire l’affaire, avec des performances moindres. Les Etats-Unis l’ont testé. Pour un groupe terroriste, qui recherche davantage un impact psychologique et médiatique, c’est suffisant. Mais dans une situation d’équilibre de la terreur, il faut des armes fiables qui n’explosent pas accidentellement et qui, en cas d’attaque, détruisent bien toutes les capacités ennemies à réagir. De telles armes nécessitent de la matière fissile dite de qualité militaire et des développements technologiques poussés. Le risque est déjà grand, avec des armes plus ou moins rudimentaires, de voir des équilibres régionaux se transformer en catastrophe, sans pour autant apporter la paix. Par exemple, le conflit au Cachemire n’a pas cessé avec l’accession de l’Inde et du Pakistan au statut de puissances nucléaires.

Dès 1946, l’Assemblée générale des Nations unies vote la création d’une commission atomique chargée d’éliminer les armes nucléaires et de destruction massive. Depuis, on ne compte plus les tentatives officielles et vœux pieux pour parvenir à un désarmement général. « L’homme se trouve placé devant l’alternative suivante : mettre fin à la course aux armements ou périr » prévient même l’ONU en 1977. Rien n’y fait. La diminution des arsenaux nucléaires des grandes puissances ne doit pas faire illusion. Ce sont des armes qui étaient devenues stratégiquement obsolètes qui ont été démantelées.

Les grandes puissances prennent comme prétexte la menace liée à la prolifération horizontale pour garder des arsenaux conséquents et développer de nouvelles armes, provoquant ainsi une prolifération dite verticale. Mais le tollé mondial provoqué par la reprise des essais nucléaires occidentaux en France en 1995 impose une certaine discrétion. Les programmes nucléaires « civils » permettent d’entretenir une infrastructure industrielle et un savoir faire ; sous couvert d’entretien du stock d’armes, les grandes puissances se sont engagées dans la course à une arme de quatrième génération miniaturisée, utilisable sur le champ de bataille. Elles s’appuient sur la recherche fondamentale qui leur sert d’alibi. Ainsi, par exemple, le laser mégajoule en France met en avant son intérêt pour l’astrophysique : la population se laisse berner et les concurrents avertis peuvent mesurer les progrès réalisés. Mais, le partage de certaines connaissances avec une communauté scientifique non-militaire, nécessaire pour attirer des chercheurs, facilite la prolifération horizontale.

Le développement de ces nouvelles armes est lié à un changement stratégique : avec la fin de la guerre froide, les territoires nationaux ne sont plus directement menacés ; c’est l’accès aux matières premières et ressources énergétiques qui devient primordial. Mais en cas d’utilisation, la frontière qui existe entre les armes classiques et celles de destruction massive risque d’être brouillée et d’entraîner une escalade dans la riposte. Les idéalistes voient là une violation de l’article 6 du traité de non-prolifération : « Chacune des Parties au Traité s’engage à poursuivre de bonne foi des négociations sur des mesures efficaces relatives à la cessation de la course aux armements nucléaires à une date rapprochée et au désarmement nucléaire et sur un traité de désarmement général et complet sous un contrôle international strict et efficace. » Alors que chaque pays jure de sa bonne foi.

Un désarmement complet n’est réalisable que par étapes ; le plus urgent semble être de sortir de l’état d’alerte. Comme au temps de la guerre froide, des milliers d’armes nucléaires américaines et russes peuvent être déclenchées en quelques dizaines de minutes. Un déclenchement accidentel ou suite à une erreur de jugement, entraînant une riposte immédiate, aurait des conséquences effroyables. Cependant, un désarmement complet et sûr impliquerait un renoncement à de nombreuses activités industrielles et de recherche, telles celles qui ont été interdites à l’Irak par le conseil de sécurité de l’ONU après la première guerre du Golfe. Se priver de recherches sur l’atome, surtout quand on a accumulé des déchets nucléaires dont on ne sait que faire, est-ce vraiment souhaitable ? Placer les activités proliférantes sous contrôle international est nécessaire, mais pas suffisant. Les institutions et traités ad hoc ayant montré leur inefficacité depuis la seconde guerre mondiale, de nouveaux mécanismes sont à inventer, parmi lesquels un contrôle citoyen avec la mise en place d’une protection internationale pour les lanceurs d’alerte.

Il n’est pas besoin, comme on le sait, d’armement nucléaire pour tuer massivement. Mais l’attrait pour ces armes de destruction massive est tel qu’il semble impossible d’en freiner la prolifération, malgré le lourd tribut déjà payé par les pays engagés dans la course folle. Outre le coût financier et humain qui aurait pu trouver des utilisations plus pacifiques, la fascination pour cette arme a fait que tout était permis. Partout, des populations – souvent des minorités ethniques et des appelés du contingent – ont été exposées sciemment aux essais nucléaires atmosphériques. Aux Etats-Unis, près 9.000 cobayes humains ont été, à leur insu, victimes d’expérimentations médicales visant à étudier l’influence des radioéléments. Nombre d’entre eux étaient des enfants. En URSS, l’infrastructure nucléaire était construite par des prisonniers des camps de détention spéciaux. L’environnement a aussi été sacrifié et certains sites ne peuvent plus être réhabilités. C’est bien là l’ironie suprême de la course à l’arme nucléaire, qui sous couvert d’apporter la sécurité absolue à chacun, n’aura conduit qu’à réduire la sécurité de tous.

David Boilley

Bibliographie :

  • Dominique Lorentz, Affaires atomiques, Les arènes, 2001
  • Jean Bacon, Les Saigneurs de la guerre : Du commerce des armes, et de leur usage, Les Presses d’aujourd’hui, 1981 et Phébus 2003.
  • Sven Lindqvist, Maintenant tu es mort ; Histoire des bombes, Serpent à plumes 2002
  • Conférences Pugwash sur la science et les affaires mondiales, Eliminer les armes nucléaires ; Est-ce souhaitable ? Est-ce réalisable ?, Transition, 1997
  • André Gsponer et Jean-Pierre Hurni, Fourth generation of nuclear weapons, Technical Report, INESAP, c/o IANUS, Darmstadt University of Technology, D-64289 Darmstadt (mai 1998)
  • Bruno Barrillot, Audit atomique, éd. du CRDPC, 1999.
  • Bruno Barrillot, L’héritage de la bombe, éd. du CRDPC, 2002.
  • Stephen I. Schwartz et al, Atomic audit, Brookings Institution Press mai 1998
  • Eileen Welsome, The Plutonium Files: America’s Secret Medical Experiments in the Cold War, Dial Press 1999
  • Kenzaburô Oé, Notes sur Hiroshima, Gallimard 1996

dicodico2Autres textes du dictionnaire des risques :

Ancien lien