Les voies de la fusion
Septembre
2005
“Pour que la technologie connaisse le succès, la réalité
doit avoir la préséance sur les relations publiques, car on
ne peut pas duper la Nature." R Feynman
La récente attribution d’ITER à la France est l’occasion de
faire le point sur l’état actuel de la fusion nucléaire. Ce
domaine est fréquemment parasité par de nombreuses
polémiques et il convient de préciser nombre d’éléments
rationnels qui, entre les communiqués triomphateurs de
politiciens ignares et la panique de ceux qui voient
derrière le moindre isotope l’ombre d’Hiroshima,
contribueront je l’espère à éclaircir les lanternes et à
dépassionner le sujet.
Un
principe simple
La
réalisation de la fusion est simple à comprendre: deux
noyaux atomiques suffisamment rapprochés se “collent” pour
n’en former qu’un seul, dont la masse est inférieure à la
somme des masses des deux constituants. La masse manquante
est en fait émise sous forme d’énergie selon la
célébrissime équation E=MC2.
Si l’on veut écrire un bilan simplifié de la réaction de
fusion, on obtiendra:
noyau A + noyau B ----> noyau C + neutrons
Et l’énergie ? Elle est “emportée” par la vitesse
communiquée aux neutrons et au noyau formé.
La fusion n’est pas une idée neuve. Dès 1929, Atkinson et
Houtermans l’invoquent pour expliquer l’origine de
l’énergie des étoiles, mystérieuse jusqu’alors. Dès cette
époque, Le célèbre G. Gamow pense que cette réaction
pourrait servir à fabriquer de l’énergie sur Terre. En 1934
la fusion du deutérium est obtenue en laboratoire par
Rutherford, Harteck et Oliphant. Le premier programme de
fusion contrôlée et lancée dans la foulée aux USA en 1939
au Langley mémorial aeronautical laboratory puis rapidement
abandonné. C’est d’Argentine, en 1951, que provient
l’annonce (fausse...) de l’obtention d’une fusion
expérimentale, ce qui relance le programme américain sous
l’impulsion de l’astrophysicien L. Spitzer (dont le nom
vient d’être donné à un télescope spatial infrarouge). Les
militaires ont obtenu, de façon “explosive” la fusion le
premier novembre 1952, en rasant l’atoll d’Eniwetok avec
“Mike”, la bombe H mise au point par l’équipe de Teller et
Ulam. De l’autre côté du rideau de fer, c’est le nom moins
célèbre A. Sakharov, ainsi que I. Tamm, qui mettent au
point la fusion “explosive” . Dans les deux cas, il s’agit
de la fusion la plus facile à obtenir et la plus
énergétique, celle du deutérium (de l’hydrogène dont le
noyau, un proton solitaire, est “alourdit” par un neutron)
et du tritium (de l’hydrogène “superlourd” avec 2
neutrons”) obtenu par bombardement d’une cible de lithium
par des neutrons rapides issus d’une bombe à fission (nous
reviendrons sur ce procédé, car il est à la base de
l’alimentation d’un réacteur à fusion contrôlée).
Des
obstacles majeurs
La réalisation de la fusion contrôlée se heurte toutefois à
un “léger” problème: elle met en jeu une force,
l’interaction forte, qui ne s’exerce qu’à très courte
distance (de l’ordre de 10-15 m) entre les noyaux
atomiques. Le problème est que les noyaux portent une
charge électrique positive, et ont donc tendance à se
repousser fortement bien avant d’être assez proches pour
fusionner (heureusement pour nous!). Dès lors, pour forcer
les noyaux à se rapprocher malgré leur aversion
électromagnétique mutuelle, il est nécessaire de les faire
s’agiter en tout sens, de les accélérer à un point tel que
leur vitesse leur permette de se rapprocher malgré leurs
charges identiques. Accélérer un noyau revient à augmenter
son énergie cinétique, c’est à dire, in fine, la
température du milieu: le calcul brut nous donne une
énergie de l’ordre de 300 keV pour rapprocher deux noyaux
“légers”, soit une température de l’ordre de... 3 milliards
de degrés (en théorie)...
On conçoit aisément que plus on entassera des noyaux et
plus leur probabilité de rencontre, si leur vitesse est
suffisante, sera importante: un milieu (très) dense et
(très) chaud devrait donc être l’endroit rêvé pour réaliser
la fusion nucléaire.
Chaud, mais pas trop.
Les lecteurs familiers de l’astrophysique doivent déjà
avoir remarqué que 3 milliards de degrés pour obtenir la
fusion, c’est bien davantage que les 15 millions présents
au cœur du soleil, qui pourtant fusionne l’hydrogène en
Hélium... En effet, à une température donnée, les noyaux ne
vont pas être tous à la même vitesse, mais celle-ci se
répartit autour d’une valeur moyenne: il y a quelques
noyaux très rapides, d’autres très lents, et une majorité à
une vitesse correspondant à la température. Parmi ces
noyaux rapides, certains sont susceptibles, du fait de leur
structure ondulatoire, de franchir la “barrière” de
potentiel représentée par la répulsion électrostatique et
de percuter les autres noyaux. Ce phénomène permet
d’obtenir une fusion à des températures très inférieures au
milliard de degrés, mais cependant très élevées pour notre
expérience sensible.
Le tableau suivant donne les températures nécessaires pour
obtenir la fusion de quelques atomes légers (pour les +
lourds, l’énergie et la densité nécessaires ne sont
atteintes que dans certaines étoiles). Il permet de
comprendre pourquoi c’est la réaction de fusion
Deutérium/tritium (D/T) qui a été choisie pour la fusion
contrôlée: elle produit des neutrons de forte énergie, des
noyaux rapides et se produit à la température minimale...
Dense,
mais pas trop
Un milieu composé de noyaux véloces est fondamentalement
instable: les noyaux tendent à s’éloigner, à s’enfuir et
diffusent rapidement (les ions sont animés de vitesses de
l’ordre de 1000 km/s) si loin les uns des autres qu’ils ne
peuvent plus se percuter de façon efficace et que les
réactions de fusion s’interrompent. Pour éviter cette fuite
des noyaux, il est nécessaire de maintenir ensemble
fermement, de rassembler, de confiner les noyaux.
C’est là que gît le problème nº 1 de la fusion contrôlée:
comme il n’existe aucun corps matériel susceptible de
résister à une fusion se produisant continûment en milieu
dense (c’est ce que l’on appelle le régime
“thermonucléaire”) il est nécessaire d’utiliser soit des
milieux très peu denses (qu’il faut chauffer intensément
dans un grand volume) soit des “mini” fusions se produisant
dans un temps extrêmement bref afin de ne pas détruire les
installations...
Nous
avons jusqu’ici parlé de noyaux, pas d’atomes... En
chauffant la matière, noyaux et surtout électrons s’agitent
puis finissent pas se séparer. On obtient un plasma (l’état
de la matière le plus répandu dans l’univers), où les
électrons vagabondent de noyaux en noyau dans le milieu,
l’ensemble restant électriquement neutre. Une flamme est un
plasma.
Une fois le plasma obtenu, on le réchauffe encore jusqu’à
ce que les noyaux acquièrent l’énergie nécessaire aux
réactions de fusion. Mais qu'est-ce qui va bien pouvoir
maintenir “au chaud” un plasma suffisamment longtemps pour
que des réactions de fusion s’y déclenchent, et qu'est-ce
qui va permettre de les maintenir ?
Nous verrons que ce problème du confinement et du maintien
de la fusion est au centre des difficultés rencontrées dans
les machines de la famille d’ITER, et que ce dernier ne
servira, contrairement aux annonces triomphalistes des
politiciens, qu’a étudier ce problème dans l’optique d’une
future production d’énergie.
En fait, toute la problématique de la fusion nucléaire
revient à pouvoir concentrer une quantité d’énergie
relativement faible, mais sur des volumes minuscules. Si
l’on augmente les volumes concernés, comme dans les
machines que nous allons examiner, alors l’énergie qu’il
faut fournir devient énorme.
Nous verrons également qu’il existe d’autres façons, moins
coûteuses, d’obtenir des réactions de fusion, permettant
par exemple la réalisation de sources de neutrons de grande
énergie,
Première
voie: un grand volume de plasma confiné par des champs
magnétiques
Où l’on parle russe.
En pleine guerre froide, des scientifiques soviétiques,
dont en premier lieu le très influent Kourtchakov,
présentèrent à la conférence de 1958 “atomes pour la paix”,
à Genève, des résultats probants, communiqués 2 ans avant
en Angleterre, obtenus par confinement d’un plasma chaud au
moyen de champs magnétiques. Bien qu’en occident de telle
recherches, alors classifiées, ait été poursuivies (en
particulier à Harwell, où fonctionnait le dispositif
d’étude ZETA), cette nouvelle est accueillie avec
suspicion: on soupçonne le gouvernement soviétique de
chercher à aiguiller la recherche vers une voie sans issue,
et les résultats de Kourtchakov ne seront acceptés qu’une
fois reproduits dans le installations anglaises.
En fait, le dispositif soviétique à été pensé par deux
chercheurs que nous avons déjà rencontrés, Andrei Sakharov
et Igor Tamm. Ils conçurent un dispositif nommé Tokamak
(toroidalnya kamera ee magnetnaya katushka, que l’on peut
traduire par Tore à compression magnétique). À partir de
1968, l’efficacité des différents tokamaks construits de
par le monde crut continûment et a été multipliée depuis
par un facteur 1000, mais il manque toujours un ordre de
grandeur pour obtenir dans ces machines une fusion
véritable. Leur coût est tel qu’il a été nécessaire de
mettre au point une collaboration européenne dès 1978, puis
internationale. Ajoutons que les USA (à Princeton) ainsi
que le Japon construisirent aussi leurs installations
d’étude afin d’explorer cette voie.
Comment
ça marche(ra) ?
Le principe est simple à comprendre: un tokamak n’est pas
autre chose qu’une espèce de “tube au néon” circulaire
comme en utilisent les horlogers ou les bijoutiers. La
différence vient de ce qui est contenu dans le tube...
Un tokamak est un tore enserré dans des bobines qui vont
créer un champ magnétique intense susceptible d’écraser, de
comprimer le plasma que l’on va créer et chauffer à
l’intérieur.
Dans le tore, il n’y a presque... rien! Les champs
magnétiques créés ne pouvant comprimer que peu de matière,
la quantité de deutérium confinée dans un tore de plusieurs
m3 n’est que de quelques g! La pression dans le tore n’est
qu’un millionième de bar (un bon vide!). La gageure
technologique va être non pas de protéger l’enceinte du
plasma (qui, même à 100 millions de degrés, de demande qu’à
se refroidir) mais bel et bien de protéger le plasma de
l’enceinte (contrairement à ce que l’on peut lire sur
certains sites catastrophistes, un contact éventuel
plasma-enceinte n’aboutit pas à la fonte de l’enceinte, car
elle est comparable à ce qui se produit lorsque vous jetez
une goutte d’eau bouillante dans une piscine de glaçons).
Le plasma est si instable que s’il est “contaminé” par des
atomes arrachés à la paroi il perd de l’énergie par
rayonnement, et se refroidit inexorablement, rendant la
fusion impossible.
Pour obtenir du plasma, il faut chauffer. Pour cela, on
utilise plusieurs dispositifs, dont les principes sont
présents dans toute bonne cuisine moderne:
- le chauffage ohmique (même principe que les résistances
d’un four) utilise un champ électrique (induit), d’une
tension modeste (ordre du V) mais il est limité, car le
plasma chaud devient un excellent conducteur, donc chauffe
de moins en moins...
- des canon à ions (1 Mev), de principe similaire aux
canons à électrons des tubes cathodiques, injectent des
atomes rapides dans le plasma, ce qui le chauffe (et assure
aussi l’alimentation du plasma en combustible)
- enfin, des ondes HF (autour de 100 MHz) chauffent les
ions. Le principe est similaire à celui d’un four
micro-onde, mais on utilise ici des émetteurs dérivés des
techniques radio (chauffage cyclotronique). Il serait très
intéressant de pouvoir également chauffer les électrons du
plasma par le même moyen, mais il faudrait pour cela des
ondes à 100 gHz qui ne peuvent être produites,
actuellement, par des émetteurs de taille industrielle.
Ce chauffage est bien gentil, mais comme les noyaux
s’agitent en tout sens, le plasma ne demande qu’à se
disperser et à se refroidir au contact de l’enceinte.
Pendant tout ce temps, il est nécessaire de le concentrer.
C’est le rôle ô combien difficile du dispositif de
confinement.
Une prison magnétique.
Pour éviter que le plasma ne diffuse, des bobines entourant
le tore créent un champ magnétique qui le comprime au
centre du tore. Le plasma forme alors un cordon éloigné des
parois supérieures et inférieures (il est si peu massif que
la gravité est contrebalancée largement par les forces
magnétiques) mais, facétieux, il a tendance à fuir “par les
côtés”. Il est alors indispensable de le “serrer” au moyen
d’un deuxième champ magnétique. Mais problème, le tore est
déjà entouré de bobines créant le premier champ, impossible
alors de rajouter d’autres bobines. Le génial Sakharov
proposa alors de créer ce champ dans le plasma lui même
(qui, souvenons-nous, est un excellent conducteur) au moyen
d’un courant électrique induit. Ce champ, dit “poloïdal” se
combine avec celui des bobines, dit “toroïdal” pour forcer
les éléments du plasma à tournicoter dans le tore en
serpentant autour du centre de la cavité.
À l’origine, Sakharov avait envisagé d’induire le courant
générateur du champ poloïdal dans un anneau métallique en
lévitation dans le tore. Les techniques d’alors ne
permettaient pas cela, mais actuellement cette
configuration a été réalisée dans le LDX (Levitated dipole
eXperiment) dont le développement est du à l’observation
des magnétosphères planétaires par Akira Hasegawa (1) et
son équipe. Nous reviendrons sur cette réalisation
particulièrement intéressante.
Maintenant que notre plasma est bien chaud et maintenu dans
les barreaux magnétiques de sa prison, voyons ce que
produit le chauffage: les noyaux s’agitent, puis
quelques-uns fusionnent en libérant des neutrons (qui
fuient vers l’enceinte en emportant la majorité de
l’énergie produite) et de l’He qui, lui, très rapide, va
chauffer encore plus le plasma, facilitant ainsi d’autres
réactions de fusion (à condition que le combustible soit
présent). Nous voyons ici une des différences principales
entre fission et fusion: il n’y a pas ici de réaction en
chaîne. Alors qu’il est continuellement nécessaire de
freiner une réaction de fission, il est au contraire
continuellement nécessaire d’alimenter une réaction de
fusion.
Lorsque l’énergie libérée par la fusion dépasse celle
(importante!) qui a été dépensée pour chauffer le plasma,
on est alors en condition dite “breakeven” atteinte pour la
première fois en 1998 dans l’installation japonaise JT60U.
Toutefois, il faut bien être conscient qu’il s’agit ici de
constructions expérimentales dans lesquelles le plasma n’a
pu être maintenu en fusion que pendant quelques secondes!
On est donc loin d’un régime permanent.
Pour l’obtenir, il faudrait que l’He produit assure à lui
seul l’entretien du plasma, c’est à dire son chauffage et
compensent les pertes. Cette condition, dite “ignition” où
le réacteur ne demanderait plus d’énergie pour fonctionner,
n’a jamais été atteinte, mais reste théoriquement et
technologiquement possible. Atteindre à tout prix (c’est le
cas de la dire) l’ignition est le but d’ITER. Il n’est
cependant même pas nécessaire d’obtenir cet “auto-allumage”
pour avoir une installation capable de produire de
l’électricité.
La “rentabilité “ de la fusion est définie par un nombre Q.
Au breakeven correspond Q > 1, à l’ignition Q = ∞. Une
réaction économiquement exploitable commence vers Q=20
(conversion thermique/électrique de 40% et 10 à 15% de
l’énergie produite consommée par le réacteur lui-même). Les
meilleurs résultats actuels ont atteint Q=1,25 pendant
quelques secondes.
Où
les tores deviennent sphériques.
Les coûts de construction des tokamaks sont très élevés.
Leur forme de pneu implique la construction de gigantesques
électro-aimants ovoïdes et d’enceintes de forme complexe et
de grande surface, consommant une grande quantité de
matériaux onéreux. Des recherches ont été effectuées pour
concevoir des “bouteilles à plasma” à la fois plus simples
à construire et plus efficaces dans leur action de
confinement. L’enceinte, au lieu d’être torique, est alors
sphéroïdale. Ainsi, les tores sphériques (une appellation à
faire bondir un mathématicien) permettent de générer des
champs magnétiques plus intenses, mais surtout d’une
meilleure géométrie, assurant un meilleur confinement. Le
courant à induire dans le plasma,par exemple, est 10 fois
inférieur à celui d’une configuration tokamak
conventionnelle. Des installations sont en activité à
Cullham, en Angleterre (Mega Ampere Spherical Tokamak) et à
Princeton (National Spherical Torus Experiment).
D’une géométrie encore plus radicale, les “sphéromak”,
moins coûteux car comprenant moins d’aimants, sont
principalement étudiés aux USA (le petit Swarthmore
Spheromak Experiment en Pennsylvanie est destiné à des
études de physique fondamentale des plasmas alors que le
Sustained Spheromak Physics Experiment en Californie est
lui développé dans le but d’étudier une fusion possible à
faible coût). Toutefois, un bon confinement est plus
difficile à obtenir avec un spheromak qu’avec un tokamak
classique.
Une
voie délaissée; les stellarators
Une autre prison magnétique peut être envisagée pour nos
plasmas volages: au lieu de générer un double champ
magnétique (poloïdal + toroïdal) par un couple
aimants/courant induit, on se contente de concevoir des
bobines (aimants) hélicoïdales dont la forme est calculée
pour générer un champ complexe (ses lignes forment des
torsades) capable de confiner efficacement un plasma sans
qu’il soit nécessaire d’y induire un courant. Dans cette
configuration, les plasmas peuvent être à la fois plus
dense et se retrouver en régime stationnaire, ce qui
favorise la fusion. Malheureusement, la réalisation des
bobines hélicoïdales est d’une telle complexité et pose
tant de problèmes techniques qu’il n’est pas possible de
construire de grand stellarators. De petites installations
sont cependant étudiées aux USA (Helically Symmetric
Experiment) et au Japon (Large Helical Device), et
projetées dans plusieurs pays d’Europe et en Australie.
Elles servent à la fois à l’étude de la fusion et à celle,
plus fondamentale, de la physique des plasmas. C’est
également le cas de “confineurs” comme le MST (Madison
symmetric Torus) qui avec un seul aimant de faible
puissance et avec des champs magnétiques induits dans et
par le plasma, obtient un bon confinement et permet l’étude
des instabilités de ce milieu.
Problème
du confinement magnétique: big is beautiful
Le problème principal rencontré pour amener un plasma de
deutérium confiné magnétiquement à une température telle
que le fusion s’y produise consiste à maintenir ce dernier
dans sa prison. Dès les premiers tokamaks, il est apparu
que plus on éloignait la paroi du plasma et plus les
phénomènes de diffusion était réduits (ce qui semble
logique!) et donc que de meilleurs confinements ne
pourraient être obtenus que dans des installations plus
grandes (avec des bobines plus grandes, des champs plus
intenses, etc...). Des relations d’échelle, semi-empiriques
(donc, en fait, mal comprises) montrent que les temps de
confinement sont d’autant plus longs que le tore est plus
grand. C’est cette course au gigantisme, réclamant des
crédits importants, qui motiva la construction du JET et
qui motive aujourd’hui la construction d’ITER.
Certains lecteurs doivent s’impatienter: je n’ai pas encore
parlé de production d’électricité par la fusion. Ceci
s’explique: contrairement aux déclarations triomphalistes
de nombre d’élus locaux obnubilés par la manne financière
iterienne, il ne s’agit pas ici de produire le moindre KW
(au contraire, il faudra en consommer beaucoup) mais de
valider la possibilité de construire in fine des réacteurs
(le fait de savoir s’ils seront rentables étant délégué à
une installation suivante, repoussée aux calendes grecques,
nommée DEMO).
Souvenons-nous de ce qui se passe dans le plasma où se
produit la fusion deutérium/tritium: schématiquement, les
neutrons fuient, l’He chauffe le plasma. Les neutrons
emportent la majorité de l’énergie produite. Pour capter
cette énergie, il faut intercepter les neutrons dans une
enceinte qui va, ainsi, chauffer. Ce “chauffage
neutronique” permettra de faire... bouillir de l’eau
(vapeur à 500 °C sous pression, ou un autre fluide
caloriporteur) et de produire du courant grâce à des
alternateurs utilisant, comme toujours, les bons vieux
principes de la machine à vapeur....
Reste à se procurer le combustible. Pour le deutérium, pas
de problème, il est facilement extractible de l’eau de mer
(10 g dans 500 Kg d’eau). Le tritium serait plus difficile
à obtenir, et surtout à conserver (sa demi-vie est très
courte et cet isotope de l’hydrogène, de petite taille, a
tendance à s’échapper de ses conteneurs) aussi sera t’il,
élégamment, généré in situ: les neutrons, en bombardant une
couche interne de lithium (ce même élément qui se trouve en
quantité dans les batteries d’ordinateur ou de téléphone
mobile) provoquera la transmutation (hé oui) du lithium en
tritium selon les réactions:
7Li + n °˜ 4He + T + n – 2.47 MeV
6Li + n °˜ 4He (2.05 MeV) + T(2.73 MeV)
Ainsi, 50% de la masse de lithium est convertie en tritium
collecté et injecté dans le plasma pour participer aux
réactions de fusion. L’He produit pourra lui aussi être
collecté, ce qui permettrait d’obtenir une voie d’obtention
de ce produit actuellement extrait du gaz naturel.
Ce procédé de conversion lithium/tritium a été validé par
les militaires dans les explosions de bombes H (c’est le
lithium qui donne la couleur rouge carmin au début de
l’explosion), mais ITER doit en particulier vérifier qu’il
est réalisable dans le tore. En effet, bien que la fusion
D/T ait été obtenue dès 1991 dans le tokamak JET, le
tritium y avait été injecté de l’extérieur et non pas
généré par bombardement de neutrons.
ITER est en fait un énorme instrument d’étude des plasmas
et des matériaux. Voici ses véritables buts:
- Maîtriser les techniques de construction de grands
aimants supraconducteurs constitués de bobines de Nb3Sn ou
NbTi, alliages fragiles (qui devront donc être maintenus à
une température de -268°C par circulation d’He liquide
supercritique) parcourus de courants de 45 000 à 68 000
Ampères, et celle de leur refroidissement. A elles seules,
ces bobines de plusieurs centaines de t représentent plus
du tiers du coût total du système (les supraconducteurs
“nus” coûtent à eux seuls 10 % du projet). Ce sont des
aimants similaires (mais plus petits!) parcourus sans
résistance par un courant intense qui ont permis au tokamak
Tore Supra, à Cadarache de stabiliser un plasma pendant 6
min, générant ainsi plus de 1000 Mjoules d’énergie
thermique en décembre 2003.
On peut toutefois se demander s’il n’aurait pas été plus
sage d’attendre la mise au point de bobines
supraconductrices à “haute température”, les matériaux
étant déjà disponibles, ne nécessitant qu’un
refroidissement à l’azote liquide (-180 °C) pour un coût
très inférieur à celui des bobines à He d’ITER...
- Étudier la tenue des matériaux (aciers spéciaux ou
céramiques) constituant le tore sous l’influence des
neutrons de très haute énergie produits lors de la fusion.
Comme l’a fait justement remarquer le physicien M Koshiba,
prix Nobel de Physique, les effets de neutrons de 14 MeV
n’ont jamais été étudiés et leur influence sur
“l’activation” (le fait de rendre l’absorbeur de neutrons
radio-actif) n’a pas encore été quantifiée. Dans ce but,
une installation supplémentaire, l’IFMIF, sera construire
au japon dans le but d’étudier les interactions
neutrons/matériaux.
- mettre au point et valider la technique de fabrication et
d’alimentation du plasma en tritium
- améliorer les techniques de chauffage du plasma
- mettre au point les machines et les robots susceptibles
d’intervenir à l’intérieur du tore afin d’en assurer
l’entretien et, éventuellement, le dépannage.
Nous sommes donc très loin d’une production de courant,
envisagée seulement sur le papier pour le projet DEMO
planifié, si tout va bien, pour 2040, dernier essai avant
la mise au point d’une première génération de centrales à
fusion pour 2060...
Une
étoile ? Non.
Contrairement aux descriptions poétiques (et à la page
d’accueil du site officiel d’ITER - 2) visant à décrire un
éventuel réacteur à fusion comme “une étoile sur la Terre”,
le mode de fonctionnement des réacteurs envisageable n’a
rien, sauf son principe, de commun avec les étoiles.
En effet, à l’intérieur de celle-ci, les conditions de
fusion sont obtenues grâce au confinement gravitationnel
qui assure à la fois une forte T et une forte densité. Les
réactions varient selon les étoiles, mais la fusion DT ne
s’y produit jamais.
De plus, toutes les étoiles de fonctionnent pas de la même
façon: au fur et à mesure de leur histoire, leur évolution
les conduit à réaliser des fusions diverses, culminant,
pour les plus massives, par une brève formation de fer par
fusion du silicium à la température infernale de 4
milliards de degrés (3).
Notre soleil fonctionne selon un mode de fusion dit
“proton-proton” réalisant successivement la fusion de 2
protons (noyaux d’hydrogène) pour obtenir du deutérium (la
probabilité de cette fusion est si faible qu’elle réclame 1
milliard d’années pour se produire, chiffre heureusement
compensé par la grande quantité de protons au centre du
soleil) qui fusionne à son tour avec un autre proton pour
donner du 3He, lequel conduit à la formation de 4He et de 2
protons très énergétiques (ils emportent 50 % de l’énergie
produite). On chercherait en vain à obtenir une telle suite
de réaction sur Terre, ne serait-ce que parce qu’elles
nécessitent une densité très importante pour se produire
avec efficacité.
Au-delà de 15 millions de degrés, la fusion va emprunter
dans les cœurs stellaires la voie du cycle du carbone (où
cycle CNO) que l’on peut résumer ainsi:
- un proton fusionne avec un noyau de C pour former un
noyau d'azote 13 (13N)
- le 13N, instable, se désintègre en quelques min en 13C
- un proton fusionne avec 13C pour donner un noyau de 14N,
qui lui-même devient de l’18O par fusion avec un autre
proton
- 18O se désintègre en 15N qui par fusion avec un autre
proton nous redonne du carbone (qui est donc régénéré,
c’est un catalyseur) et, enfin, un noyau d’He...
On chercherait en vain à recréer sur Terre ce genre de
réactions de fusion. Seul leur principe de fonctionnement
apparente donc les dispositifs à fusion aux étoiles dont
ils se différencient à la fois par les densités de matière
mises en jeu et par le déroulement des réactions de fusion
envisagées.
La
fusion, tout de suite
Tout comme il n’est pas nécessaire d’espérer pour
entreprendre, certains chercheurs proposent de construire
dès maintenant une centrale à fusion sans avoir obtenu
l’ignition. En effet, nous avons vu que la rentabilité
était envisageable avec un paramètre Q de 20 (le plasma
fournit 20 fois plus d’énergie qu’il n’en absorbe, même
s’il faut toujours le chauffer). L’équipe de Culham, en
Angleterre, propose de construire un sphéromak (coûts plus
faibles) susceptible d’atteindre une valeur Q=40 (4)
capable de produire 1200 MW. Ils estiment le coût de la
construction à 18 milliards d’€ (soit moins que la somme
ITER + DEMO) et envisagent un prix du KWh produit de 0,9 à
0,45 €.
Il ne s’agit ni plus ni moins que de “shunter” les étapes
ITER et DEMO avec un objectif scientifiquement moins
ambitieux, mais, sans doute, technologiquement plus
rentable: une “fusion sans ignition”.
D’autres éléments sont aussi à considérer: Le discret LTX
du MIT, avec son anneau supraconducteur conduisant 3200 A
générant un champ magnétique poloïdal dipolaire, par
exemple. Cette configuration présente le grand avantage de
permettre l’obtention d’un plasma bien plus stable (le
champ utilisé permet, grossièrement, d’utiliser l’énergie
des instabilités périphériques du plasma pour renforcer sa
stabilité “centrale”) que les tokamaks classiques. Cela
permettrait d’envisager de réaliser la fusion du deutérium
(5) au lieu de celle du D/T.
ITER or not ITER ?
Si la voie des bouteilles magnétiques semble prometteuse,
n’oublions pas que rien ne garantit que la fabrication et
le fonctionnement d’une centrale à fusion puissent être
économiquement rentables dans un avenir proche. En effet,
il y a d’autre façon d’obtenir la fusion: au lieu de
chauffer fortement quelque g de mélange deutérium-tritium,
pourquoi ne pas utiliser le bon vieux principe qui fait
chauffer une pompe à vélo qui comprime de l’air, en
provoquant la compression d’un échantillon de mélange D/T
qui va s’échauffer si fort que la fusion va s’y déclencher.
De plus, on se retrouvera ici avec un milieu réactionnel
bien plus dense que celui utilisé dans un régime de
confinement magnétique, ce qui augmentera d’autant la
probabilité de la fusion. On utilisant des quantités
minimes de matériel, on devrait pouvoir obtenir des
micro-explosions thermonucléaires génératrices de
chaleur...
Cette compression “explosive” est la principe du
confinement dit “inertiel” dont nous allons examiner les
deux variantes...
Poussons,
poussons, les pernicieux neutrons...
Pour obtenir des pressions comparables à celles régnant au
centre d’une étoile, il est nécessaire de provoquer la
compression d’une cible de deutérium/tritium. Comme il est
impossible de comprimer matériellement la cible, on utilise
pour cela des rayonnements qui vont provoquer l’implosion
de la cible, de géométrie sphérique et de taille
millimétrique. 2 millions de Joules doivent être focalisés
pendant 4 milliardièmes de s sur la cible pour obtenir une
fusion.
Les rayonnements intenses et brusques provoquent la
vaporisation des couches externes de la cible qui se
détendent brusquement, provoquant par réaction la formation
d’une onde de compression qui se propage vers l’intérieur
de la cible à 100000 m/s, ce qui réduit son volume d’un
facteur compris entre 1/1 000 et 1/10 000,
permettant d’obtenir au centre de la cible une densité
multipliée par 2000 et une très haute température (120
millions de degrés), initiant les réactions de fusion qui
se propagent ensuite, via l’énergie des noyaux d’He créés,
au volume résiduel (30% de celui de départ) de la cible. On
aurait dû (devrait ?) récupérer ainsi 10 fois plus
d’énergie que l’on en fournit au système.
Malheureusement, de nombreuses difficultés subsistent, car
ce que nous venons de décrire n’est valable que pour une
cible parfaite parfaitement irradiée de façon parfaitement
isotrope... ce qui n’a jamais pu être encore réalisé. Si
les différentes couches constituant la cible ne sont pas
exactement sphériques ou si l’irradiation de celle-ci n’est
pas assez isotrope (chaque point de la bille devant
recevoir une quantité d’énergie identique) l’onde de
compression n’est pas parfaitement sphérique et des
instabilités de produisent dans la cible, dégradant les
performances du système en déclenchant au mieux la fusion
d’un volume insuffisant de matière pour récupérer de
l’énergie...
Initialement, il a été essayé de comprimer directement la
cible au moyen de faisceaux lasers (on a poétiquement
appelé cette voie “l’attaque directe”). Pour cela, il est
nécessaire de créer un front de compression exactement
sphérique, ce qui veut dire que les faisceaux doivent
déposer la même quantité d’énergie au même instant (à bien
moins qu’une ns près, l’échelle de temps considéré étant
ici la ps!) sur tous les points d’une bille creuse
contenant 0,3 mg de D/T sous forme de D/T gazeux entouré
par du D/T solide (refroidit à 19 K, soit - 254 ° C)
recouvert d’une couche métallique la plus lisse possible.
Dans ce but, le nombre de faisceaux laser utilisé doit être
multiple de 12 afin de répartir au mieux l’énergie des
faisceaux sur la sphère (une sphère pouvant être recouverte
entièrement par 12 pentagones de même surface). Les
différents faisceaux se recouvrent mutuellement sur la
cible afin d’assurer une couverture la plus homogène
possible.
Malgré plusieurs expériences réalisées aux USA voici
plusieurs dizaines d’années, il a été impossible d’obtenir
un dépôt d’énergie à symétrie sphérique sur la bille de
combustible. Pendant l’implosion, de nombreuses
instabilités apparaissent qui dégradent le bilan de la
fusion (ou ne permettent pas de l’obtenir). Insistons sur
la symétrie sphérique de l’implosion, qui peut être
perturbée par toute “rugosité” de la surface de la cible
ainsi que par toute différence d’intensité des différents
faisceaux qui la frappe. Ainsi, les différences de pression
sur les points de la cible doivent être inférieurs à 1%, la
compression les amplifiant ensuite. Ces différences
provoquent à l’intérieur de la cible des turbulences qui
mélangent ses différents constituants (enveloppe, mélange
DT) avant que la fusion ne puisse se déclencher, et limite
à la fois l’obtention de la fusion et son rendement si
cette dernière se produit (un trop faible % du mélange D/T
est consommé).
Pour essayer de résoudre cette
difficulté, les physiciens ont imaginé une attaque
indirecte, plus homogène, de la cible: les faisceaux laser
chauffent un cylindre métallique d’un cm environ (de l’or,
souvent) contenant la cible, qui peut alors prendre la
forme d’une pastille. Le cylindre vaporisé est converti en
plasma et émet un intense rayonnement X absorbé par la
cible et provoquant alors son implosion. Seulement, en
rajoutant un “intermédiaire”, les rayons X, on dégrade le
rendement énergétique du système. Ainsi, un tiers de
l’énergie émise par les lasers est consommée par la
vaporisation du cylindre entourant la cible et sa
transformation en émetteur de rayonnement X. Cette idée
lumineuse a été validée que par des simulations ainsi que
par des expériences militaires mettant en jeu les flux
intenses de neutrons obtenus lors d’explosions atomiques
souterraines (expérience Centurion halite en 1988, où 50 MJ
provenant dune explosion ont irradié plusieurs cibles de
D/T en provoquant une fusion à haut rendement - 6).
Bien que plusieurs nations construisent des installations
de ce type, les plus développées sont le projet mégajoule
LMJ français (240 lasers) et le NIF (192 faisceaux) aux
USA. Toutefois, ces projets ne sont pas clairement
présentés comme des moyens d’obtenir une fusion à visée
énergétique, mais bel et bien (pour le NIF en tout cas)
comme des moyens d’étude des plasmas à haute température et
densité. Comme le confinement obtenu aboutit à de mini
explosions thermonucléaires, les militaires sont également
très intéressés à ces projets (au point que le projet
mégajoule est intégralement financé par la défense) pour
des raisons assez obscures (leur utilisation en
“remplacement” de tests souterrains en vraie grandeur
semble peu crédible, peut être faut il s’orienter vers
l’intérêt d’une source de bouffées de neutrons très
énergétiques pour les applications militaires, ou d’autres
usages encore secrets).
Ces questions se posent, car, trois fois hélas, les lasers
présentent une faiblesse majeure sur la voie de la fusion:
leur rendement énergétique est catastrophique: le
prédécesseur du NIF, les lasers de NOVA (30 Kj) ne
déposaient sur la cible que 0,1 % de l’énergie nécessaire à
leur création. Même les futurs lasers du NIF (et à fortiori
notre glorieux projet mégajoule national) ne devraient
offrir un rendement énergétique que de 0,5 % au maximum, et
personne ne voit actuellement comment l’efficacité d’un
laser pourrait dépasser 1 %...
Le résultat de ces rendements lamentables est sans appel:
même si le NIF (ou LMJ) permettent de générer autant
d’énergie de fusion qu’ils en auront transmise à leur cible
(ce qui est, en fait, le but du NIF), l’énergie libérée par
les lasers sera 100 fois inférieure à celle nécessaire pour
les faire fonctionner ! Voici un sombre nuage qui se
profile sur l’avenir supposé radieux de la fusion par
confinement inertiel à laser...
La
lumière, c’est bien, la matière, c’est mieux.
Bien que les équipements les plus coûteux utilisent des
lasers pour créer l’implosion de la cible, une autre voie
est également étudiée, où les faisceaux incidents ne sont
plus constitués de lumière mais de matière: des ions lourds
accélérés à grande vitesse. Ces faisceaux possèdent en
effet de nombreux avantages (décisifs?) par rapport aux
lasers:
- ils ont un très bon rendement (15 % actuellement, soit...
150 fois celui des lasers!)
- on peut renouveler les faisceaux avec une grande
fréquence
- leur technologie, bien connue, est plus fiable que celle
des lasers de puissance.
- ils sont plus faciles à diriger sur la cible
L’étude de la production, du transport et de la
focalisation de ces faisceaux est en cours. Un projet
actuel comme l’HIDIF européen envisage la réalisation de 48
faisceaux d’ions Bismuth à 10 GeV.
Le X mène à tout: la striction axiale.
Puisqu’il est possible d’obtenir la fusion avec un
rayonnement X intense, ne pourrait-on pas trouver une autre
façon d’obtenir ces rayons X qu’une nuée de lasers ou de
canons à ions ? Les militaires, décidément partout dans ce
secteur, utilisaient une technique leur permettant de
soumettre l’électronique des missiles et autres têtes
nucléaires à des rayonnements intenses, et c’est à partir
de leurs dispositifs de test qu’ont été mises au point les
machines à “striction axiale” (dites aussi “Z-pinch”,
c'est-à-dire à pincement de l’axe magnétique) où des rayons
X intenses sont obtenus au moyen de fils métalliques
transformés en plasma par une impulsion électrique très
brève (100 ns!) mais plus qu’intense (20 millions
d’ampéres!) et enfermée dans une cavité réfléchissant les
rayons X vers... une cible de D/T située au centre du
système.
Le rayonnement X produit baigne uniformément la cible (tout
comme l'enveloppe d'une bombe H piège le rayonnement
provenant de la bombe A qui l’amorce, un sujet abondamment
étudié et validé par les militaires grâce à des budgets
quasi illimités...).
En fait, l’impulsion intense de courant génère un champ
magnétique qui comprime les plasmas issus des fils en un
tube qui s’effondre jusqu’à ce que l’énergie cinétique de
ses constituants soit convertie en rayonnement X. La
puissance libérée est alors voisine de 300 TW, ce qui
provoque la fusion. Cette approche élégante mêle à la fois
le confinement inertiel et l’action des champs magnétiques
(d’ailleurs, à l’origine, c’est ce diable d’homme de
Sakharov qui avait exploré la physique de la striction,
c'est-à-dire la compression axiale de champs magnétiques).
Actuellement, ces dispositifs sont surtout utilisés pour
réaliser des études d’astrophysique (étude de l’enveloppe
des supernovae ou des étoiles variables), mais ils
pourraient fort bien atteindre le breakeven avec une
intensité de... 60 millions d’ampères ! Dans ces
conditions de fusion à gain élevé (rentable), le
rayonnement X serait de 16 MJ et 1000 TW (soit la
consommation électrique de dix millions de foyers pendant
plusieurs heures concentrée en une fraction de seconde),
permettant d’obtenir une température de 3 millions de °C
(bien inférieure à celle réclamée dans les tokamaks
puisqu’ici nous sommes en condition de densité élevée).
Si l’on résume nos investigations, nous voyons que parmi
les différentes voies explorées pour parvenir à la fusion,
aucune ne pourra parvenir à une production énergétique
avant, pour être réaliste, les années 2060, voire 2080.
Bien qu’il ne fasse pas de doute que la fusion puisse être
atteinte par les tokamaks ou le confinement inertiel par
ion lourd (nettement moins avancé), rien ne justifie à ce
jour que les installations nécessaires pour obtenir la
fusion soient rentables à l’époque de leur réalisation.
Une étude (7) réalisée en mai 2000 montre toutefois que
cette rentabilité est possible, pour peu que l’entretien
d’une centrale ne se révèle pas trop dispendieux, ce que
seule l’expérience nous montrera...
Mais, entre les térawatts et les milliards de dollars,
n’existe t’il pas (encore!) d’autres moyens plus simples
d’obtenir une fusion ?
Les
fusions “froides”
Où l’on retrouve l’inévitable Sakharov.
Le
principal problème pour réaliser une fusion consiste à
obtenir un plasma puis à lui fournir assez d’énergie pour
que la fusion s’y produise. Pourquoi ne pas se dispenser de
l’étape “plasma” et faire se cogner des atomes, qui en plus
sont électriquement neutres et évitent ainsi d’avoir à
vaincre la répulsion “Coulombienne” engendrée par
l’existence de charges électriques de même signe? Parce que
le noyau est bien trop éloigné des électrons pour que l’on
ait, en agissant ainsi, la moindre chance d’observer une
fusion. Et si... on pouvait faire en sorte d’avoir des
“mini-atomes” avec des “électrons” bien plus proche du
noyau? C’est l’idée qui a germé dans l’esprit de
l’inévitable A. Sakharov et, indépendamment, de F.C. Frank
dès 1948 (8,9).
En effet, un faisceau d’ions rapides (tiens, comme ceux
utilisés dans le confinement par faisceaux ioniques ?)
bombardant une cible peut créer des particules nommées
muons (qui sont aussi abondants dans les rayons cosmiques
qui pénètrent la terre: nous sommes tous traversés par une
centaine de muons/s). Les muons sont 207 fois plus massifs
que les électrons et portent la même charge.
Si, dans un mélange D/T refroidi, on injecte des muons,
l’un d’eux brise une molécule (pas un atome!) et remplace
un électron, formant un “muatome” particulier: le muon, 207
fois plus massif que l’électron, orbite 207 fois plus près
du noyau! Le muatome peut alors sans répulsion électrique
se rapprocher d’un noyau pour y déclencher une fusion
libérant He et neutrons... et notre muon, qui, n’ayant pas
pris part à l’affaire, peut de nouveau former un nouveau
muatome, et ainsi de suite dans la limite imposée par sa
courte durée de vie, 2 microsecondes environ, suffisante
pour réaliser une centaine de réactions de fusion. Ensuite,
le muon se désintègre en un électron et des neutrinos.
Cette “catalyse par muons”, extrêmement élégante, n’est
cependant quasiment pas étudiée, car la synthèse des muons
réclame trop d’énergie et la catalyse se dégrade au fur et
à mesure que le milieu s’enrichit en He... Les rares
recherches actuelles visent à augmenter les probabilités et
la vitesse de la fusion, mais comme le signalent les
chercheurs de l’équipe d’Eskandari au terme d’une de leur
publication “ Finalement, l'évaluation du gain en énergie
pour la fusion avec catalyse muonique résonante... montre
que nous demeurons très très loin des valeurs minimales
suffisantes pour être d'un quelconque intérêt dans des
applications pratiques” (10).
D’autres chercheurs (Chris Llewellyn-Smith) sont même
partis à la recherche d’une particule autre que le muon, à
la durée de vie plus longue et à la masse comparable, voire
supérieure...
Viens faire des bulles...
Si l’on crée des différences de pression dans de l’eau (ou
un autre liquide), par exemple en faisant tourner une
hélice, il se forme des bulles lorsque la pression devient
inférieure à la pression de vapeur saturante du liquide. Ce
phénomène s’appelle la cavitation. Par la suite, ces bulles
microscopiques naissent, grossissement puis “s’effondrent”
rapidement. Comme toute bulle qui se respecte, leur
symétrie est sphérique et leur effondrement est isotrope...
ce qui devrait nous rappeler les aventures de nos cibles à
confinement inertiel.
Les physiciens ont mis en évidence le fait que de telles
bulles, obtenues par les variations de pression engendrées
par des ultrasons, pouvaient même émettre de la lumière.
Cette sonoluminescence est une émission spontanée, pendant
quelques ps, de lumière par des bulles de taille
micrométrique. Les physiciens ont réussi à étudier ce
phénomène limité à une seule bulle isolée. Leurs mesures
ont indiqué une température minimale de 10000 °C,
impliquant la formation d’un tout petit volume de plasma.
L’explication du phénomène faisait tout d’abord appel à la
pression de l’eau environnante, mais il est devenu évident
qu’il était possible qu’il se forme dans la bulle en
contraction une onde de choc supersonique, à symétrie
exactement sphérique, et comprimant le plasma vers le
centre de la bulle... ce qui était réalisable sur le coin
d’une paillasse, pour quelques milliers de dollars, et qui
était (vainement) recherché par le confinement inertiel
avec quelques milliards de dollars...
Mais peut-on obtenir ainsi les conditions nécessaires à la
fusion des noyaux contenus dans ce plasma ?
Dès 1978, le Pr. H. G. Flynn, de l’université de Rochester,
envisageait la possibilité théorique d’obtenir une fusion
par cavitation dans un métal liquide selon une méthode
qu’il avait brevetée (11)
D’autres chercheurs (Seth Putterman de l’UCLA, dont nous
reparlerons, Roger Stringham, Fukushima,Yamamoto...) ont
par la suite étudié les températures régnant à l’intérieur
des bulles en compression, montrant que l’on pouvait ainsi
atteindre le million de °C (12). Bien que Stringham ait
annoncé dès 1993 avoir obtenu une fusion, celle-ci est
reconnue seulement possible (pour le deutérium) par William
C Moss, qui simule les phénomènes de sonolumiscence (13).
En 1996, Stringham publia des observations montrant qu’il
avait peut-être obtenu des réactions de fusion (14), mais
qui n‘étaient pas assez précises (il se basait sur la
production d’un excès de chaleur).
Jusqu’à cette époque, la “sonofusion” était regardée comme
une curiosité, entre le canular et le divertissement pour
expérimentateurs. Mais voici qu’après beaucoup de
tergiversations et d’hésitations, une revue de premier
plan, Science, publie le 8 mars 2002 le premier article de
l’équipe de R.P. Taleyarkhan (15) de l’Oak Ridge National
Laboratory. Cette équipe dit avoir obtenu et caractérisé
des réactions de fusion dans de l’acétone “lourde” (dont
l’hydrogène a été remplacé par du deutérium) soumise à un
bombardement de neutrons rapides. L’acétone lourde est un
liquide dans lequel les bulles, bien plus grosses que dans
l’eau (elles atteignent une taille millimétrique) peuvent
provoquer une implosion plus intense et permettre d’obtenir
un plasma bien plus chaud. Les auteurs observent la
formation de tritium et la production de neutrons attendue
pour une fusion D/D.
Ces publications, reprises et discutées, sont à l’origine
d’une polémique scientifique (dont, fait exceptionnel, le
staff de “science” se fait l’écho dans la revue elle-même)
car elles ne sont pas facilement reproductibles (le
dégagement de neutrons, en particulier, n’est pas toujours
observé) et le labo d’Oak Ridge, essayant de faire
reproduire la manip. par une autre équipe avant
publication, n’a pu en obtenir confirmation (16). C’est à
ce stade que se sont arrêtées les “investigations” de la
presse scientifique française (“la recherche” en tête) pour
qui l’affaire est entendue et la sonofusion un exemple de
mauvaise interprétation. Voire.
Deux chercheurs de l’université de l’Illinois, insistant
cependant sur le caractère très mal connu du milieu régnant
dans les bulles, avancent que l’énergie crée par l’onde de
choc n’est pas disponible pour la fusion, car elle est
consommée par des réactions chimiques (17) alors que
d’autres équipes (18) ont récemment échouée à obtenir la
fusion dans de l’eau lourde avec une cavitation induite par
laser.
L’équipe de Taleyarkhan n’en démord pas, et précise ses
conditions expérimentales, améliorant la sensibilité de ses
détecteurs de neutrons (qui posait problème) et obtient
toujours tous les indices d’une fusion du deutérium (19).
Même la BBC, dans le cadre de son émission “Horizon”, fait
reproduire les expériences de R. P. Taleyarkhan par
d’autres équipes (surréaliste vu de France: quand
verrons-nous France 2 capable de faire réaliser des
manips . de physique !?) mais n’observe pas de
dégagement de neutrons. Malgré ces absences de
confirmation, l’équipe d’Oak Ridge a impulsé un nouveau
champ de recherche, et plusieurs équipes étudient les
plasmas se formant lors de cavitations se produisant dans
des liquides variés. Contrairement à ce qu’ont prétendu les
revues françaises (la sonofusion n’a pas l’air d’intéresser
grand monde de ce coté ci de l’atlantique), la messe n’est
pas dite: deux chercheurs de l’université de Purdue
viennent de confirmer l’émission de neutrons à 2,45 Mev
(20) et présenteront leurs résultats en octobre de cette
année.
Que conclure de ce “confinement inertiel acoustique“? Que
le phénomène mérite d’être étudié de plus près, la
possibilité d’une fusion étant réelle. Même si toute
application pratique énergétique est très lointaine, il
permettrait de pouvoir étudier à loisir ce phénomène sur un
coin de paillasse, ce qui ouvrirait alors un passionnant
champ de recherches expérimentales à faible coût sur la
fusion.
Où S. Putterman se prend pour le Captain Kirk et invente le
“dilitium”: la fusion pyroélectrique dans des cristaux.
En Avril 2005, l’équipe de S. Putterman, à l’UCLA, publie
dans “Nature” des résultats montrant qu’il est possible
d’obtenir la fusion avec “un cristal ordinaire plongé dans
du deutérium, dans un appareil pas plus grand qu’une tasse
à café” (21). Pour obtenir ce résultat surprenant, l’équipe
de Putterman utilise un cristal pyroélectrique de tantalate
de lithium (LiTaO3).
Vous connaissez tous un effet très voisin de l’effet
pyroélectrique, l’effet piézoélectrique : si l’on
déforme certains cristaux, il se crée un champ électrique
intense. Quiconque a déjà utilisé un allume-gaz sait que ce
champ est assez intense pour provoquer l’apparition d’un
arc électrique dans l’air (soit 30000 V/cm). Le cristal
utilisé par l’équipe de l’UCLA génère, lui, un puissant
champ électrique lorsqu’il est chauffé. Cet effet avait été
utilisé par J.D.Brownridge (22) pour obtenir une émission
de rayons X (le champ accélère les électrons du milieu ou
baigne le cristal et lorsqu’ils percutent les noyaux du
cristal, ils perdent leur énergie sous forme de rayonnement
X), permettant ainsi à la société Amptek de mettre au point
un générateur de rayons X de la taille d’une pièce de 10
cents (23).
Putterman s’est demandé si ce champ était suffisant pour
accélérer des ions au point de réaliser une fusion par
“bombardement” d’une cible, comme dans un accélérateur de
particules. Le champ électrique (100 KV, 25 GV/m, focalisé
par une pointe de tungstène) a été obtenu en réchauffant le
cristal de -33°C à 7°C, provoquant ainsi en quelques min
une accélération des noyaux de deutérium provenant du gaz
baignant le cristal, qui sont projetés avec force sur une
cible de deutéride d’Erbium. En se percutant, quelques (1
sur 1 million !) noyaux fusionnent, et produisent de l’He
et un flux de 1000 neutrons/s. Bien que ce procédé n’ai pas
d’applications énergétiques (il faudrait un flux
neutronique 10000 fois plus important!), il constitue une
excellente voie pour obtenir une source légère de neutrons.
De plus, ces recherches démontrent qu’il n’est pas
indispensable, pour obtenir un jet d’ions très énergétique,
d’utiliser une alimentation électrique importante: à petite
échelle, le chauffage modéré d’un cristal suffit...
L’équipe de l’UCLA, outre une source de neutrons, envisage
également l’utilisation de ces cristaux comme
micropropulseurs pour de petits engins spatiaux, la
propulsion se faisant par les courants ioniques créés.
Et
l’électrolyse ?
En 1989, deux ingénieurs de l'Université de l'Utah, Martin
Fleischmann et Stanley Pons, ont affirmé avoir obtenu un
dégagement de chaleur inattendu lors de l’électrolyse de
l’eau lourde au moyen d’électrodes de platine. Ils ont
interprété leur résultat comme provenant d’une fusion
nucléaire se produisant dans leur milieu, à température
ambiante. De nombreux physiciens refirent l’expérience
décrite, certains confirmant les résultats, d’autre ne
pouvant les observer. Une intense polémique se développa,
où l’on reprocha plus aux deux chercheurs la forme de leur
travail (annonce dans des journaux “tout publics” avant
publication dans les revues scientifiques) que le fond: les
deux chercheurs, aujourd’hui en retraite, ont bel et bien
mis en évidence, comme de nombreuses recherches et enquêtes
l’ont montré, un phénomène nouveau. Toutefois, la formation
d’He ou de tritium ainsi que la production de neutrons
n’ont pu clairement, de façon reproductible, être mis en
évidence. Cette difficulté signifie que, même dans le cas
où des réactions de fusion, pour des raisons mal connues,
se produisent, ces dernières ne pourraient être utilisées
comme source d’énergie, mais comme système d’étude
potentiel.
De
l’énergie pour (après) demain ?
Au
terme de notre rapide voyage au pays de la fusion, quelles
conclusions pouvons-nous tirer ?
Nous avons vu que la production d’énergie à partie de la
fusion, si elle a réalisé de gros progrès depuis un
demi-siècle (la puissance libérée par la fusion DT a
progressé plus vite que la capacité des mémoires
électroniques et la puissance des lasers pour la fusion
inertielle a été multipliée par 1 milliard), n’est pas, au
vu des investissements réalisés, envisageable avant au bas
mot un demi-siècle. Ces études nécessitent des instruments
de recherche fondamentale présentés (délibérément ?) de
façon erronée par des politiciens “fiers, ignorants et
naïfs” (dixit Claude Allègre, qui doit savoir de quoi il
parle...), comme des outils industriels. Toutefois, une
inflexion de cette politique permettrait de développer une
filière “fusion sans ignition” plus rapidement, en cas de
besoin.
Pour le moment, le principal intérêt de la fusion, outre
l’étude des plasmas d’un immense intérêt fondamental (en
astrophysique, par exemple), consiste en l’obtention de
sources de neutrons intenses qui peuvent trouver des
applications:
- dans les sciences des matériaux
- dans l’imagerie médicale
- dans la recherche fondamentale
- dans une possible utilisation comme “actinide-burner”,
voie (spéculative) visant à irradier des déchets nucléaires
de fission, à longue durée de vie, pour les transmuter en
matériaux radioactifs moins dangereux (à durée de vie plus
courte et surtout sans intérêt militaire).
Il est également patent que la fusion ne se réduit pas aux
projets ITER et mégajoule et que des structures plus
innovantes et inventives seront peut-être celles qui
permettront d’obtenir plus facilement l’électricité
indispensable aux activités humaines.
Références
1
- A. Hasegawa, Comm Pl Phys & Cont Fus, 1, (1987) 147.
2 - http://www.iter.org/
3 - Les étoiles - Time-life, 1989, 53-93
4 - G. M. Voss, S. Allfrey, A. Bond, Q. Huang, P. J.
Knight, H. R. Wilson. A Conceptual Design of a Spherical
Tokamak Power Plant Euratom, UKAEA Fusion association
(1999)
5 - J. Kesner, D.T. Garnier, A. Hansen, M. Mauel, L.
Bromberg, D-D Fusion in a Levitated Dipole, Nuclear Fusion
44 (2004) 193
6 - W.J. Broad, New York times, 137, No. 47451, 21/03/1988
7 - La fusion thermonucléaire: problématique de l’urgence
d’une développement d’un projet à long terme. F. Coppex •
Ecole polytechnique férédale de Lausanne - département de
physique, 05/2000
8 - F.C. Frank, Nature 525, 1947.
9 - A.D. Sakharov, Lebedev Rep.,1948
10 - R. Eskandari, S.N. Hoseini-Motlagh, B. Rezaie. Studies
on muonic dynamics of liquid D–T–H in dt muonic-molecule
resonance formation and its comparison with a D–T system.
Can. J. Phys./Rev. Can. Phys. 80(10), 2002,1099-1114
11 - Brevet US 4,333,796: Method of generating energy by
acoustically induced cavitation fusion and reactor
therefor. Nuclear fusion energy prodn. by liquid cavitation
- using acoustic devices to produce alternating pressure
pulses in liquid metal containing hydrogen isotopes. Déposé
le 19 mai 1978.
12 - Putterman, 1992
13 - Phys. Fluids 6(9) 2979, 01/09/1994
14 - George D.R., Stringham R.S. Technical report on the
demonstration of new technology producing heat and nuclear
products via cavitation induced micro-fusion in the E-Quest
Sciences Mark II research device", EPRI Project Final
Report, Work Order #3170-28, Palo Alto, CA,05/1996.
15- R. P. Taleyarkhan, C. D. West, J. S. Cho, R. T. Lahey
Jr., R. I. Nigmatulin, R. C. Block. Evidence for Nuclear
Emissions During Acoustic Cavitation. Science, Vol
295,5561, 1868-1873, 8/03/ 2002
16 - Shapira D, Saltmarsh M. Nuclear fusion in collapsing
bubbles-is it there? An attempt to repeat the observation
of nuclear emissions from sonoluminescence. Phys Rev Lett.
2/09/2002 ;89 (10): 104302.
17 - Didenko YT, Suslick KS. The energy efficiency of
formation of photons, radicals and ions during
single-bubble cavitation. Nature. 25/07/2002; 418(6896):
394-7.
18 - R. Geisler, W.-D. Schmidt-Ott, T. Kurz and W.
Lauterborn. Search for neutron emission in laser-induced
cavitation. Europhys. Lett., 66 (3) 435-440, 2004
19 - R. P. Taleyarkhan, J. S. Cho, C. D. West, R. T. Lahey,
Jr., R. I. Nigmatulin, R. C. Block. Additional evidence of
nuclear emissions during acoustic cavitation. Phys. Rev. E
69, 036109, 2004
20 - Yiban Xua, Adam Butt. Confirmatory experiments for
nuclear emissions during acoustic cavitation. Nuclear
Engineering and Design 235 (2005) 1317-1324.
21- B. Naranjo, J.K. Gimzewski and S. Putterman.
Observation of nuclear fusion driven by a pyroelectric
crystal. Nature 434, 1115-1117, 2005.
22 - J.D. Brownridge, S. Raboy. Investigations of
pyroelectric generation of X-rays. Journal of Applied
Physics, Vol. 86, No. 1, July 1999.
23 - http://www.amptek.com/coolx.html
Bibliographie
Il est assez difficile de trouver des ouvrages en français
qui ne soient pas idéologiquement marqués. Aussi, je me
suis limité à des ouvrages essentiellement techniques et
scientifiques “brut”.
- La fusion nucléaire. J. Weisse, puf coll “que sais je”,
2003
- Astrophysique nucléaire J Audouze, S Vauclair. puf “que
sais je”, 4éme ed., 2003
- La fusion nucléaire. J. Adam, 1993, coll sciences
d’avenir, Belin
- Structure et évolution des étoiles, P. Ledoux, 1979 in
“la nouvelle astronomie, science de l’univers”
Remarques
Température,
chaleur et énergie
On pourra être surpris en lisant cet article, des
températures envisagées et des unités utilisées. Précisons
un peu. La température représente le degré d’agitation des
molécules (ou des atomes, des ions, des électrons... selon
les cas). Plus l’agitation est importante, plus ces
particules ont une vitesse élevée, plus ils transportent
d’énergie et plus leur température est élevée (dans l’air à
20°C, par exemple, les molécules de dioxygène O2 ont une
vitesse voisine de 500 m/s)
La notion de chaleur est distincte de la température. Dans
une pièce, tous les meubles sont à la même température.
Néanmoins, si vous touchez des objets en bois et en métal,
vous aurez l’impression que le métal est plus “froid”.
Cette sensation est causée par la conductivité thermique
différente de ces matériaux, qui n’ont pas la même capacité
à “conduire” la chaleur. L’air est ainsi un bon isolant:
lorsque vous attrapez une pizza dans le four à 200 °C,
l’air ne vous brûle pas instantanément, car il transmet
très mal sa chaleur. Par contre, vous prenez vos
précautions pour ne pas toucher le plat ou les parois du
four, pourtant à la même température que l’air !
C’est pour cela qu’un plasma à 100 millions de degrés ne
fait pas fondre un tore (les meilleurs alliages solides ne
résistent qu’à environ 2000 °C), ce plasma est quasiment
“adiabatique”, c'est-à-dire qu’il n’échange pas sa chaleur
avec son environnement (à cause, entre autres, de sa faible
densité). Pour se chauffer avec, il faut intercepter les
neutrons produits.
Ainsi, la “température” (agitation des électrons) dans un
tube néon est de 100000 °C alors que le verre fond à 1200
°C, mais vous pouvez toucher un néon sans crainte: le
plasma qu’il contient ne traduit pas sa température en
terme de chaleur.
Pour graduer leur thermomètre en terme d’agitation, de
vitesse des particules, les physiciens utilisent une unité
qui est l’électron-volt (eV) correspondant à la vitesse
d’un électron accéléré par une différente de potentiel de 1
V. Comme cette unité est très petite, ils utilisent des
multiples: 1000 eV sont 1 KeV, ect... Traduits en terme de
température exprimée en °C, 1 eV correspond à peu près à
10000°C (11594 pour être exact).
ITER
or not ITER ?
Un vif “débat” s’est fait jour lors de la lutte homérique
visant à l’attribution d’ITER. De fait, il semble qu’à trop
vouloir ménager la chèvre et le chou, et à cause de leur
totale inculture scientifique, nombre de mauvaises
décisions aient été prises par les politiciens dans ce
projet.
Je ne reviendrais pas sur des critiques purement
idéologiques ou scientifiquement infondées, mais de
nombreux faits doivent être soulignés:
- ITER a été originellement conçu à partie de relations
d’échelle semi-empiriques montrant que le temps de
confinement de l’énergie est d’autant plus long que la
machine est plus grosse. L’ITER des origines devait générer
1500 MW, il a été réduit à 500 MW pour des raisons
budgétaires (des économies de bouts de chandelle, vu le
tarif global envisagé!), ce qui veut dire que l’ignition
sera plus difficile à obtenir... Au lieu d’avoir bâti un
équipement très très cher qui fonctionne, on risque de se
retrouver avec un monstre très cher qui ne fonctionne pas
comme voulu...
- La fusion est effectivement beaucoup moins dangereuse que
la fission: la réaction de demande qu’à s’interrompre
(c’est la source des difficultés pour l’obtenir!) et la
production de déchets radioactifs est très limitée (du
tritium faiblement radioactif et de période courte, 9 ans -
la radioactivité moyenne des matériaux d'un réacteur à
fusion est inférieure à celle des cendres d’une centrale à
charbon produisant la même quantité d'énergie). Toutefois,
les neutrons qui emportent l’essentiel de l’énergie
produite sont interceptés au niveau de la “couverture”
faite d’un alliage plomb/lithium. Ils y génèrent du tritium
et de la chaleur. Dans ITER, cette chaleur n’est pas
récupérée pour fabriquer de la vapeur sous pression. Dans
l’optique d’un réacteur, il faudra l’utiliser pour porter
de la vapeur à 500°C environ (le plomb sera alors...
liquide!). Très rapidement, la couverture sera “activée”
par les neutrons et deviendra radioactive. Si le tritium
est bien moins radioactif que le plutonium, il a néanmoins
un défaut: on ne sait pas l’enfermer de façon étanche, et
tout comme son cousin l’He qui s’enfuit inexorablement du
joli ballon argenté acheté à la fête foraine, le tritium
radioactif devra être collecté, stocké et recyclé par des
moyens qui restent à définir (son rayonnement est cependant
arrêté par quelques mm d’air, ce qui limite sa
dangerosité).
- Dans la même veine, il faudra bien réfléchir à la manière
de traiter les centaines de tonnes de plomb rendu
radioactif par le tritium qu’il contiendra. Ce point ne
sera pas étudié dans ITER mais pour son successeur (très)
lointain, DEMO.
- Le développement d’une “filière” fusion de type ITER ne
sera pas assez rapide pour que l’on puisse se passer de
l’étude et de la construction d’une nouvelle (et dernière
?) génération de réacteurs à fission à la fois plus surs,
plus efficaces et générant un peu moins de déchets à longue
vie. Il n’est pas dit que les deux voies, réclamant au
niveau pratique des compétences parfois similaires,
puissent être financées en même temps. C’est donc à tort
que la fusion est présentée comme remplaçante de la
fission: durant près d’un siècle, les deux filières devront
fonctionner conjointement.
- Pour avoir la joie, l’honneur et l’avantage d’accueillir
ITER à Cadarache, notre pays va investir 130 millions
d'euros par an pendant dix ans (50% du coût de la
construction). Même si ce budget n’est pas ponctionné sur
celui de la recherche (on va voir pourquoi!) il représente
une dépense non négligeable pour laquelle le parlement
aurait pu, à minima, être consulté. La dépense annuelle
sera de l’ordre du budget total des laboratoires de
physique, mathématique et biologie du CNRS... Pourtant, ces
130 millions ne représentent que le coût d’un seul avion de
chasse de type rafale (au lecteur de conclure sur la cherté
du protégé de Dassault ou sur le financement de la
recherche en France...). Il aurait été peut être plus
pertinent de mettre sous le boisseau l’orgueil national et,
en ayant plus qu’a financer 10% d’ITER, investir 50
millions supplémentaires “seulement” dans les secteurs de
la recherche fondamentale en physique ou biologie, et même,
pourquoi pas, s’en servir pour la réforme urgente de
l’enseignement supérieur et de la recherche qu’il nous
reste à mener...
- Le Japon apparaît comme le grand gagnant d’ITER: pour une
participation financière minime, il obtiendra non seulement
la direction du projet, mais également 1/5 des contrats
liés à la construction et du personnel. Des débouchés
assurés pour les physiciens nippons, d’autant plus que la
physique du solide, domaine dans lequel les scientifiques
de l’archipel sont très avancés, tirera profit d’un
programme de recherche fondamentale qui s’ajoute à ITER et
qui est gracieusement financé par l’Union européenne! Il
est permis de penser que d’autres pays moins riches que
l’Archipel, mais disposant de chercheurs de très grande
valeur, comme l’Inde, auraient été plus intéressés par ce
programme... De plus, le Japon aura, le moment venu, de
grandes chances d’obtenir l’appui de la France pour venir
siéger au conseil de sécurité des Nations unies, lorsque
sera venu le moment d’oublier la Seconde Guerre mondiale...