Quelle est la difficulté de la fusion thermonucléaire contrôlée. L'énergie thermonucléaire : état des lieux et perspectives

1. Introduction

3. Problèmes de contrôle de la fusion thermonucléaire

3.1 Problèmes économiques

3.2 Problèmes médicaux

4. Conclusion

5. Références


1. Introduction

Le problème du géré fusion thermonucléaire- l'une des tâches les plus importantes auxquelles l'humanité est confrontée.

La civilisation humaine ne peut exister, et encore moins se développer, sans énergie. Tout le monde comprend bien que les sources d’énergie développées pourraient malheureusement bientôt être épuisées. Selon le Conseil mondial de l’énergie, il reste 30 ans de réserves prouvées d’hydrocarbures sur Terre.

Aujourd’hui, les principales sources d’énergie sont le pétrole, le gaz et le charbon.

Selon les experts, les réserves de ces minéraux s’épuisent. Il n’existe presque plus de gisements de pétrole explorés et exploitables, et nos petits-enfants pourraient déjà être confrontés à un très grave problème de pénurie d’énergie.

Les centrales nucléaires les plus riches en combustible pourraient, bien entendu, fournir de l’électricité à l’humanité pendant des centaines d’années.

Objet d'étude : Problèmes de fusion thermonucléaire contrôlée.

Sujet d'étude: Fusion thermonucléaire.

But de l'étude: Résoudre le problème du contrôle de la fusion thermonucléaire ;

Objectifs de recherche:

· Étudier les types de réactions thermonucléaires.

· Considérez toutes les options possibles pour acheminer l'énergie libérée pendant réaction thermonucléaire, à l'homme.

· Proposer une théorie sur la conversion de l'énergie en électricité.

Fait de base :

L'énergie nucléaire est libérée lors de la désintégration ou de la fusion des noyaux atomiques. Toute énergie – physique, chimique ou nucléaire – se manifeste par sa capacité à effectuer un travail, à émettre de la chaleur ou des radiations. L'énergie dans tout système est toujours conservée, mais elle peut être transférée vers un autre système ou modifiée sous forme.

Réalisation Les conditions d’une fusion thermonucléaire contrôlée sont entravées par plusieurs problèmes principaux :

· Tout d'abord, vous devez chauffer le gaz à une température très élevée.

· Deuxièmement, il est nécessaire de contrôler le nombre de noyaux réactifs sur une durée suffisamment longue.

· Troisièmement, la quantité d'énergie libérée doit être supérieure à celle dépensée pour chauffer et limiter la densité du gaz.

· Le prochain problème est de stocker cette énergie et de la convertir en électricité

2. Réactions thermonucléaires sur le Soleil

Quelle est la source de l'énergie solaire ? Quelle est la nature des processus qui produisent d’énormes quantités d’énergie ? Combien de temps le soleil continuera-t-il à briller ?

Les premières tentatives pour répondre à ces questions ont été faites par les astronomes au milieu du XIXe siècle, après que les physiciens aient formulé la loi de conservation de l'énergie.

Robert Mayer a suggéré que le Soleil brille en raison du bombardement constant de la surface par des météorites et des particules météoriques. Cette hypothèse a été rejetée, puisqu'un simple calcul montre que pour maintenir la luminosité du Soleil au niveau actuel, il faut que 2∙10 15 kg tombent dessus chaque seconde. matière météorique. Au cours d'une année, cela représentera 6∙10 22 kg, et sur la durée de vie du Soleil, sur 5 milliards d'années – 3∙10 32 kg. Masse solaire M

= 2∙10 30 kg, donc sur cinq milliards d'années, une matière 150 fois supérieure à la masse du Soleil aurait dû tomber sur le Soleil.

La deuxième hypothèse a été exprimée par Helmholtz et Kelvin également au milieu du XIXe siècle. Ils ont suggéré que le Soleil rayonne en raison d'une compression de 60 à 70 mètres par an. Raison de la compression - attraction mutuelle particules du Soleil, c'est pourquoi cette hypothèse est appelée contraction. Si nous faisons un calcul selon cette hypothèse, alors l'âge du Soleil ne dépassera pas 20 millions d'années, ce qui contredit les données modernes obtenues à partir de l'analyse de la désintégration radioactive des éléments dans des échantillons géologiques du sol terrestre et du sol de la lune.

La troisième hypothèse sur les sources possibles d'énergie solaire a été exprimée par James Jeans au début du XXe siècle. Il a suggéré que les profondeurs du Soleil contiennent des éléments radioactifs lourds qui se désintègrent spontanément et émettent de l'énergie. Par exemple, la transformation de l’uranium en thorium puis en plomb s’accompagne d’une libération d’énergie. L'analyse ultérieure de cette hypothèse a également montré son incohérence ; une étoile constituée uniquement d'uranium ne libérerait pas suffisamment d'énergie pour produire la luminosité observée du Soleil. De plus, il existe des étoiles dont la luminosité est plusieurs fois supérieure à celle de notre étoile. Il est peu probable que ces étoiles disposent également de réserves plus importantes de matières radioactives.

L'hypothèse la plus probable s'est avérée être celle de la synthèse d'éléments résultant de réactions nucléaires dans les entrailles des étoiles.

En 1935, Hans Bethe a émis l’hypothèse que la source d’énergie solaire pourrait être la réaction thermonucléaire de conversion de l’hydrogène en hélium. C'est pour cela que Bethe reçut le prix Nobel en 1967.

La composition chimique du Soleil est à peu près la même que celle de la plupart des autres étoiles. Environ 75 % sont de l'hydrogène, 25 % de l'hélium et moins de 1 % sont tous les autres éléments chimiques (principalement le carbone, l'oxygène, l'azote, etc.). Immédiatement après la naissance de l’Univers, il n’y avait aucun élément « lourd ». Tous, c'est-à-dire des éléments plus lourds que l'hélium, et même de nombreuses particules alpha, se sont formés lors de la « combustion » de l'hydrogène dans les étoiles lors de la fusion thermonucléaire. La durée de vie caractéristique d'une étoile comme le Soleil est de dix milliards d'années.

La principale source d'énergie est le cycle proton-proton - une réaction très lente (temps caractéristique 7,9∙10 9 ans), car elle est due à une faible interaction. Son essence est que quatre protons forment un noyau d'hélium. Dans ce cas, une paire de positrons et une paire de neutrinos sont libérées, ainsi qu'une énergie de 26,7 MeV. Le nombre de neutrinos émis par le Soleil par seconde est déterminé uniquement par la luminosité du Soleil. Puisque 2 neutrinos naissent lorsque 26,7 MeV est libéré, le taux d'émission des neutrinos est : 1,8∙10 38 neutrinos/s. Un test direct de cette théorie est l’observation des neutrinos solaires. Des neutrinos de haute énergie (bore) sont détectés dans des expériences chlore-argon (expériences Davis) et montrent systématiquement un manque de neutrinos par rapport à la valeur théorique du modèle standard du Soleil. Les neutrinos de basse énergie résultant directement de la réaction pp sont enregistrés dans des expériences sur le gallium-germanium (GALLEX au Gran Sasso (Italie - Allemagne) et SAGE à Baksan (Russie - USA)) ; ils sont également « portés disparus ».

Selon certaines hypothèses, si les neutrinos ont une masse au repos différente de zéro, des oscillations (transformations) de différents types de neutrinos sont possibles (effet Mikheev – Smirnov – Wolfenstein) (il existe trois types de neutrinos : les neutrinos électroniques, muoniques et tauoniques). . Parce que Étant donné que les autres neutrinos ont des sections efficaces d'interaction avec la matière beaucoup plus petites que celles des électrons, le déficit observé peut s'expliquer sans changer le modèle standard du Soleil, construit sur la base de l'ensemble des données astronomiques.

Chaque seconde, le Soleil traite environ 600 millions de tonnes d'hydrogène. Les réserves de combustible nucléaire dureront encore cinq milliards d'années, après quoi elles se transformeront progressivement en naine blanche.

Les parties centrales du Soleil se contracteront, s'échaufferont, et la chaleur transférée à la coque externe conduira à son expansion à des tailles monstrueuses par rapport aux modernes : le Soleil se dilatera tellement qu'il absorbera Mercure, Vénus et consommera " carburant» cent fois plus rapide qu'actuellement. Cela entraînera une augmentation de la taille du Soleil ; notre étoile deviendra une géante rouge dont la taille est comparable à la distance de la Terre au Soleil !

Bien entendu, nous serons conscients d'un tel événement à l'avance, car la transition vers une nouvelle étape prendra environ 100 à 200 millions d'années. Lorsque la température de la partie centrale du Soleil atteint 100 000 000 K, l'hélium commencera à brûler, se transformant en éléments lourds, et le Soleil entrera dans la phase de cycles complexes de compression et d'expansion. Au dernier stade, notre étoile perdra sa coque externe, le noyau central aura une densité et une taille incroyablement élevées, comme celle de la Terre. Quelques milliards d'années supplémentaires s'écouleront et le Soleil se refroidira, se transformant en naine blanche.

3. Problèmes de fusion thermonucléaire contrôlée

Les chercheurs de tous les pays développés fondent leurs espoirs sur une réaction thermonucléaire contrôlée pour surmonter la crise énergétique à venir. Une telle réaction - la synthèse de l'hélium à partir du deutérium et du tritium - se produit sur le Soleil depuis des millions d'années, et dans des conditions terrestres, on tente de la réaliser depuis cinquante ans maintenant dans des installations laser géantes et très coûteuses, des tokamaks. (dispositif permettant de réaliser des réactions de fusion thermonucléaire dans du plasma chaud) et des stellarateurs (piège magnétique fermé pour confiner le plasma à haute température). Cependant, il existe d'autres moyens de résoudre ce problème difficile, et au lieu d'énormes tokamaks, il sera probablement possible d'utiliser un collisionneur assez compact et peu coûteux - un accélérateur de faisceaux à collision - pour réaliser la fusion thermonucléaire.

Le tokamak nécessite de très petites quantités de lithium et de deutérium pour fonctionner. Par exemple, un réacteur d’une puissance électrique de 1 GW brûle environ 100 kg de deutérium et 300 kg de lithium par an. Si nous supposons que toutes les centrales à fusion en produiront 10 000 milliards. kWh d’électricité par an, c’est-à-dire la même quantité que celle produite aujourd’hui par toutes les centrales électriques de la Terre, les réserves mondiales de deutérium et de lithium sont alors suffisantes pour fournir de l’énergie à l’humanité pendant plusieurs millions d’années.

Outre la fusion du deutérium et du lithium, une fusion purement solaire est possible lorsque deux atomes de deutérium se combinent. Si cette réaction est maîtrisée, les problèmes énergétiques seront résolus immédiatement et pour toujours.

Dans aucune des variantes connues de fusion thermonucléaire contrôlée (CTF), les réactions thermonucléaires ne peuvent pas entrer dans le mode d'augmentation incontrôlée de la puissance. Par conséquent, de tels réacteurs ne sont pas intrinsèquement sûrs.

Sivkova Olga Dmitrievna

Ce travail a pris la 3ème place à l'établissement d'enseignement régional

Télécharger:

Aperçu:

Établissement d'enseignement municipal

Moyenne école polyvalente №175

District Lénine de N. Novgorod

Problèmes de fusion thermonucléaire

Complété par : Sivkova Olga Dmitrievna

Élève de la classe 11 « A », école n°175

Conseiller scientifique:

Kirjaeva D.G.

Nijni Novgorod

année 2013.

Introduction 3

2. Fusion thermonucléaire contrôlée 8

3. Avantages de la fusion thermonucléaire 10

4. Problèmes de fusion thermonucléaire 12

4.1 Problèmes écologiques 15

4.2 Problèmes médicaux 16

5. Installations thermonucléaires 18

6. Perspectives de développement de la fusion thermonucléaire 23

Conclusion 26

Littérature 27

Introduction


Selon diverses prévisions, les principales sources d'électricité de la planète s'épuiseront d'ici 50 à 100 ans. L’humanité épuisera ses réserves de pétrole dans 40 ans, ses réserves de gaz dans un maximum de 80 ans et ses réserves d’uranium dans 80 à 100 ans. Les réserves de charbon pourraient durer 400 ans. Mais l'utilisation de ce combustible organique, et en tant que principal combustible, met la planète au bord d'un désastre environnemental. Si une telle pollution atmosphérique impitoyable n’est pas stoppée aujourd’hui, des siècles seront hors de question. Ce qui signifie source alternative Nous avons besoin d’énergie dans un avenir prévisible.

Et il existe une telle source. Il s'agit de l'énergie thermonucléaire, qui utilise du deutérium et du tritium radioactifs absolument non radioactifs, mais dans des volumes des milliers de fois inférieurs à ceux de l'énergie nucléaire. Et cette source est pratiquement inépuisable, elle repose sur la collision de noyaux d'hydrogène, et l'hydrogène est la substance la plus répandue dans l'Univers.

L'une des tâches les plus importantes auxquelles l'humanité est confrontée dans ce domaine estproblème de la fusion thermonucléaire contrôlée.

La civilisation humaine ne peut exister, et encore moins se développer, sans énergie. Tout le monde comprend bien que les sources d’énergie développées pourraient malheureusement bientôt être épuisées. Selon le Conseil mondial de l’énergie, il reste 30 ans de réserves prouvées d’hydrocarbures sur Terre.

Aujourd’hui, les principales sources d’énergie sont le pétrole, le gaz et le charbon.

Selon les experts, les réserves de ces minéraux s’épuisent. Il n’existe presque plus de gisements de pétrole explorés et exploitables, et nos petits-enfants pourraient déjà être confrontés à un très grave problème de pénurie d’énergie.

Les centrales nucléaires les plus riches en combustible pourraient, bien entendu, fournir de l’électricité à l’humanité pendant des centaines d’années.

Objet d'étude : Problèmes fusion thermonucléaire contrôlée.

Sujet d'étude:Fusion thermonucléaire.

But de l'étude:Résoudre le problème du contrôle de la fusion thermonucléaire ;

Objectifs de recherche:

  • Étudiez les types de réactions thermonucléaires.
  • Considérez toutes les options possibles pour transmettre à une personne l'énergie libérée lors d'une réaction thermonucléaire.
  • Proposer une théorie sur la conversion de l'énergie en électricité.

Fait de base :

L'énergie nucléaire est libérée lors de la désintégration ou de la fusion des noyaux atomiques. Toute énergie – physique, chimique ou nucléaire – se manifeste par sa capacité à effectuer un travail, à émettre de la chaleur ou des radiations. L'énergie dans tout système est toujours conservée, mais elle peut être transférée vers un autre système ou modifiée sous forme.

Réalisation Les conditions d’une fusion thermonucléaire contrôlée sont entravées par plusieurs problèmes principaux :

  • Tout d’abord, vous devez chauffer le gaz à une température très élevée.
  • Deuxièmement, il est nécessaire de contrôler le nombre de noyaux réactifs sur une durée suffisamment longue.
  • Troisièmement, la quantité d’énergie libérée doit être supérieure à celle dépensée pour chauffer et limiter la densité du gaz.
  • Le prochain problème est de stocker cette énergie et de la convertir en électricité.

1. Réactions thermonucléaires sur le Soleil

Quelle est la source de l'énergie solaire ? Quelle est la nature des processus qui produisent d’énormes quantités d’énergie ? Combien de temps le soleil continuera-t-il à briller ?

Les premières tentatives pour répondre à ces questions ont été faites par les astronomes au milieu du XIXe siècle, après que les physiciens aient formulé la loi de conservation de l'énergie.

Robert Mayer a suggéré que le Soleil brille en raison du bombardement constant de la surface par des météorites et des particules météoriques. Cette hypothèse a été rejetée, puisqu'un simple calcul montre que pour maintenir la luminosité du Soleil au niveau actuel, il faut que 2∙10 tombe dessus chaque seconde. 15 kg de matière météorique. Au cours d'une année, cela équivaudra à 6∙10 22 kg, et pendant l'existence du Soleil, sur 5 milliards d'années - 3∙10 32 kg. Masse solaire M = 2∙10 30 kg, donc dans cinq milliards d'années, une matière 150 fois supérieure à la masse du Soleil serait tombée sur le Soleil.

La deuxième hypothèse a été exprimée par Helmholtz et Kelvin également au milieu du XIXe siècle. Ils ont suggéré que le Soleil rayonne en raison d'une compression de 60 à 70 mètres par an. La raison de la compression est l'attraction mutuelle des particules du Soleil, c'est pourquoi cette hypothèse a été appelée contraction . Si nous faisons un calcul selon cette hypothèse, alors l'âge du Soleil ne dépassera pas 20 millions d'années, ce qui contredit les données modernes obtenues à partir de l'analyse de la désintégration radioactive des éléments dans des échantillons géologiques du sol terrestre et du sol de la lune.

La troisième hypothèse sur les sources possibles d'énergie solaire a été exprimée par James Jeans au début du XXe siècle. Il a suggéré que les profondeurs du Soleil contiennent des éléments radioactifs lourds qui se désintègrent spontanément et émettent de l'énergie. Par exemple, la transformation de l’uranium en thorium puis en plomb s’accompagne d’une libération d’énergie. L'analyse ultérieure de cette hypothèse a également montré son incohérence ; une étoile constituée uniquement d’uranium ne libérerait pas suffisamment d’énergie pour produire la luminosité observée du Soleil. De plus, il existe des étoiles dont la luminosité est plusieurs fois supérieure à celle de notre étoile. Il est peu probable que ces étoiles disposent également de réserves plus importantes de matières radioactives.

L'hypothèse la plus probable s'est avérée être celle de la synthèse d'éléments résultant de réactions nucléaires dans les entrailles des étoiles.

En 1935, Hans Bethe a émis l’hypothèse que la source d’énergie solaire pourrait être la réaction thermonucléaire de conversion de l’hydrogène en hélium. C'est pour cela que Bethe reçut le prix Nobel en 1967.

La composition chimique du Soleil est à peu près la même que celle de la plupart des autres étoiles. Environ 75 % sont de l'hydrogène, 25 % de l'hélium et moins de 1 % sont tous les autres éléments chimiques (principalement le carbone, l'oxygène, l'azote, etc.). Immédiatement après la naissance de l’Univers, il n’y avait aucun élément « lourd ». Tous, c'est-à-dire des éléments plus lourds que l'hélium, et même de nombreuses particules alpha, se sont formés lors de la « combustion » de l'hydrogène dans les étoiles lors de la fusion thermonucléaire. La durée de vie caractéristique d'une étoile comme le Soleil est de dix milliards d'années.

La principale source d'énergie estcycle proton-proton – réaction très lente (temps caractéristique 7,9∙10 9 années), car cela est dû à une faible interaction. Son essence est que quatre protons forment un noyau d'hélium. Dans ce cas, une paire de positrons et une paire de neutrinos sont libérées, ainsi qu'une énergie de 26,7 MeV. Le nombre de neutrinos émis par le Soleil par seconde est déterminé uniquement par la luminosité du Soleil. Puisque 2 neutrinos naissent lorsque 26,7 MeV est libéré, le taux d'émission des neutrinos est : 1,8∙10 38 neutrinos. Un test direct de cette théorie est l’observation des neutrinos solaires. Des neutrinos de haute énergie (bore) sont détectés dans des expériences chlore-argon (expériences Davis) et montrent systématiquement un manque de neutrinos par rapport à la valeur théorique du modèle standard du Soleil. Les neutrinos de basse énergie résultant directement de la réaction pp sont enregistrés dans des expériences sur le gallium-germanium (GALLEX au Gran Sasso (Italie - Allemagne) et SAGE à Baksan (Russie - USA)) ; ils sont également « portés disparus ».

Selon certaines hypothèses, si les neutrinos ont une masse au repos différente de zéro, des oscillations (transformations) de différents types de neutrinos sont possibles (effet Mikheev – Smirnov – Wolfenstein) (il existe trois types de neutrinos : les neutrinos électroniques, muoniques et tauoniques). . Parce que Étant donné que les autres neutrinos ont des sections efficaces d'interaction avec la matière beaucoup plus petites que celles des électrons, le déficit observé peut s'expliquer sans changer le modèle standard du Soleil, construit sur la base de l'ensemble des données astronomiques.

Chaque seconde, le Soleil traite environ 600 millions de tonnes d'hydrogène. Les réserves de combustible nucléaire dureront encore cinq milliards d'années, après quoi elles se transformeront progressivement en naine blanche.

Les parties centrales du Soleil se contracteront, s'échaufferont, et la chaleur transférée à la coque externe conduira à son expansion à des tailles monstrueuses par rapport aux modernes : le Soleil se dilatera tellement qu'il absorbera Mercure, Vénus et consommera " carburant» cent fois plus rapide qu'actuellement. Cela entraînera une augmentation de la taille du Soleil ; notre étoile deviendra une géante rouge dont la taille est comparable à la distance de la Terre au Soleil !

Bien entendu, nous serons conscients d'un tel événement à l'avance, car la transition vers une nouvelle étape prendra environ 100 à 200 millions d'années. Lorsque la température de la partie centrale du Soleil atteint 100 000 000 K, l'hélium commencera à brûler, se transformant en éléments lourds, et le Soleil entrera dans la phase de cycles complexes de compression et d'expansion. Au dernier stade, notre étoile perdra sa coque externe, le noyau central aura une densité et une taille incroyablement élevées, comme celle de la Terre. Quelques milliards d'années supplémentaires s'écouleront et le Soleil se refroidira, se transformant en naine blanche.

2. Fusion thermonucléaire contrôlée.

La fusion thermonucléaire contrôlée (CTF) est la synthèse de noyaux atomiques plus lourds à partir de noyaux plus légers afin d'obtenir de l'énergie qui, contrairement à la fusion thermonucléaire explosive (utilisée dans les armes thermonucléaires), est de nature contrôlée. La fusion thermonucléaire contrôlée diffère de l’énergie nucléaire traditionnelle en ce que cette dernière utilise une réaction de désintégration au cours de laquelle des noyaux plus légers sont produits à partir de noyaux lourds. Les principales réactions nucléaires prévues pour réaliser une fusion thermonucléaire contrôlée utiliseront le deutérium ( 2 H) et du tritium (3 H), et à plus long terme l'hélium-3 ( 3 He) et du bore-11 (11 B).

La fusion contrôlée peut utiliser différents types de réactions de fusion selon le type de combustible utilisé.

Le deutérium est un combustible thermonucléaire. 2 D 1, tritium 3 T 1 et 6 Li 3 . Le principal combustible nucléaire de ce type est le deutérium. 6 Li 3 sert de matière première pour la production de combustible thermonucléaire secondaire – tritium.

Tritium3T1 - hydrogène superlourd 3N1 – obtenu par irradiation du Li naturel ( 7,52 % 6 Li 3 ) neutrons et particules alpha ( 4α2 - noyaux d'atomes d'hélium 4 pas 2 ). Deutérium mélangé avec du tritium et 6 Li 3 (sous forme de LiD et LiT ). Lorsque des réactions de fusion nucléaire sont effectuées dans le combustible, des réactions de fusion de noyaux d'hélium se produisent (à des températures allant de dizaines à plusieurs centaines de millions de degrés). Les neutrons émis sont absorbés par les noyaux 6 Li 3 , dans ce cas une quantité supplémentaire de tritium est formée selon la réaction : 6 Li 3 + 1 p 0 = 3 T 1 + 4 He 2 ( dans la réaction de la somme des nombres de masse 6+1=3+4 et somme des charges 3+0=1+2 doit être le même des deux côtés de l’équation). À la suite de la réaction de fusion, deux noyaux de deutérium (hydrogène lourd) produisent un noyau de tritium (hydrogène super-lourd) et un proton (noyau d'un atome d'hydrogène normal) : 2 D 1 + 2 D 1 = 3 T 1 + 1 P 1 ; La réaction peut se dérouler selon un chemin différent, avec la formation d'un noyau isotopique de l'hélium 3 He 2 et neutron 1 n 0 : 2 D 1 + 2 D 1 = 3 He 2 + 1 n 0. Le tritium réagit avec le deutérium, des neutrons réapparaissent et peuvent interagir avec 6 Li 3 : 2 D 1 + 3 T 1 = 4 He 2 + 1 n 0 etc. Le pouvoir calorifique du combustible thermonucléaire est 5 à 6 fois supérieur à celui des matières fissiles. Les réserves de deutérium dans l'hydrosphère sont de l'ordre de 10 13 t . Cependant, à l'heure actuelle, seules des réactions incontrôlées (explosion) sont pratiquement réalisées ; une recherche généralisée est en cours pour mettre en œuvre une réaction thermonucléaire contrôlée, qui permet en principe de fournir de l'énergie à l'humanité pour une durée quasi illimitée.

3.Avantages de la fusion thermonucléaire

Quels sont les avantages de la fusion thermonucléaire par rapport aux réactions de fission nucléaire, qui permettent d'espérer le développement à grande échelle de l'énergie thermonucléaire ? La différence principale et fondamentale est l'absence de déchet radioactif, qui sont typiques des réacteurs à fission nucléaire. Et bien que lors du fonctionnement d'un réacteur thermonucléaire la première paroi soit activée par des neutrons, le choix de matériaux structurels appropriés à faible activation ouvre la possibilité fondamentale de créer un réacteur thermonucléaire dans lequel l'activité induite de la première paroi diminuera jusqu'à complètement niveau de sécurité trente ans après l'arrêt du réacteur. Cela signifie qu’un réacteur épuisé ne devra être mis en veilleuse que pendant 30 ans, après quoi les matériaux pourront être recyclés et utilisés dans un nouveau réacteur de synthèse. Cette situation est fondamentalement différente de celle des réacteurs à fission, qui produisent des déchets radioactifs qui nécessitent un retraitement et un stockage pendant des dizaines de milliers d'années. En plus d'une faible radioactivité, l'énergie thermonucléaire possède d'énormes réserves pratiquement inépuisables de combustible et d'autres matériaux nécessaires, suffisantes pour produire de l'énergie pendant plusieurs centaines, voire milliers d'années.

Ce sont ces avantages qui ont poussé les principaux pays nucléaires à lancer, au milieu des années 1950, des recherches à grande échelle sur la fusion thermonucléaire contrôlée. À cette époque, les premiers essais réussis de bombes à hydrogène avaient déjà été réalisés en Union soviétique et aux États-Unis, confirmant la possibilité fondamentale d'utiliser l'énergie de fusion nucléaire dans des conditions terrestres. Dès le début, il est devenu évident que la fusion thermonucléaire contrôlée n’avait aucune application militaire. La recherche a été déclassifiée en 1956 et est depuis menée dans le cadre d’une vaste coopération internationale. La bombe à hydrogène a été créée en quelques années seulement, et à cette époque, il semblait que l'objectif était proche et que les premières grandes installations expérimentales, construites à la fin des années 50, produiraient du plasma thermonucléaire. Cependant, il a fallu plus de 40 ans de recherche pour créer des conditions dans lesquelles la libération d'énergie thermonucléaire est comparable à la puissance calorifique du mélange réactionnel. En 1997, la plus grande installation thermonucléaire, l'européenne TOKAMAK (JET), a reçu 16 MW de puissance thermonucléaire et s'est rapprochée de ce seuil.

Quelle était la raison de ce retard ? Il s'est avéré que pour atteindre cet objectif, les physiciens et les ingénieurs ont dû résoudre de nombreux problèmes dont ils n'avaient aucune idée au début du voyage. Au cours de ces 40 années, la science de la physique des plasmas a été créée, qui a permis de comprendre et de décrire les processus physiques complexes se produisant dans le mélange réactionnel. Les ingénieurs devaient résoudre des problèmes tout aussi complexes, notamment apprendre à créer des vides profonds dans de grands volumes, sélectionner et tester des matériaux de construction appropriés, développer de grands aimants supraconducteurs, de puissants lasers et sources de rayons X, développer des systèmes d'énergie pulsée capables de créer de puissants faisceaux de particules. , développer des méthodes de chauffage à haute fréquence du mélange et bien plus encore.

4. Problèmes de fusion thermonucléaire contrôlée

Les chercheurs de tous les pays développés fondent leurs espoirs sur une réaction thermonucléaire contrôlée pour surmonter la crise énergétique à venir. Une telle réaction - la synthèse de l'hélium à partir du deutérium et du tritium - se produit sur le Soleil depuis des millions d'années, et dans des conditions terrestres, on tente de la réaliser depuis cinquante ans maintenant dans des installations laser géantes et très coûteuses, des tokamaks. (dispositif permettant de réaliser des réactions de fusion thermonucléaire dans du plasma chaud) et des stellarateurs (piège magnétique fermé pour confiner le plasma à haute température). Cependant, il existe d'autres moyens de résoudre ce problème difficile, et au lieu d'énormes tokamaks, il sera probablement possible d'utiliser un collisionneur assez compact et peu coûteux - un accélérateur de faisceaux à collision - pour réaliser la fusion thermonucléaire.

Le tokamak nécessite de très petites quantités de lithium et de deutérium pour fonctionner. Par exemple, un réacteur d’une puissance électrique de 1 GW brûle environ 100 kg de deutérium et 300 kg de lithium par an. Si nous supposons que toutes les centrales à fusion en produiront 10 000 milliards. kWh d’électricité par an, c’est-à-dire la même quantité que celle produite aujourd’hui par toutes les centrales électriques de la Terre, les réserves mondiales de deutérium et de lithium sont alors suffisantes pour fournir de l’énergie à l’humanité pendant plusieurs millions d’années.

Outre la fusion du deutérium et du lithium, une fusion purement solaire est possible lorsque deux atomes de deutérium se combinent. Si cette réaction est maîtrisée, les problèmes énergétiques seront résolus immédiatement et pour toujours.

Dans aucune des variantes connues de fusion thermonucléaire contrôlée (CTF), les réactions thermonucléaires ne peuvent pas entrer dans le mode d'augmentation incontrôlée de la puissance. Par conséquent, de tels réacteurs ne sont pas intrinsèquement sûrs.

D'un point de vue physique, le problème est formulé simplement. Pour réaliser une réaction de fusion nucléaire autonome, il est nécessaire et suffisant de remplir deux conditions.

  1. L'énergie des noyaux impliqués dans la réaction doit être d'au moins 10 keV. Pour que la fusion nucléaire se produise, les noyaux impliqués dans la réaction doivent entrer dans le champ forces nucléaires, dont la plage est de 10-12-10-13 cm. Cependant, les noyaux atomiques ont une charge électrique positive et les charges similaires se repoussent. A la limite de l'action des forces nucléaires, l'énergie de répulsion coulombienne est de l'ordre de 10 keV. Pour surmonter cette barrière, les noyaux lors d'une collision doivent avoir une énergie cinétique au moins non inférieure à cette valeur.
  2. Le produit de la concentration des noyaux réactifs et du temps de rétention pendant lequel ils conservent l'énergie spécifiée doit être d'au moins 1014 s.cm-3. Cette condition - appelée critère de Lawson - détermine la limite du bénéfice énergétique de la réaction. Pour que l’énergie libérée lors de la réaction de fusion couvre au moins les coûts énergétiques liés au lancement de la réaction, les noyaux atomiques doivent subir de nombreuses collisions. Dans chaque collision au cours de laquelle une réaction de fusion se produit entre le deutérium (D) et le tritium (T), 17,6 MeV d'énergie est libérée, soit environ 3,10-12 J. Si, par exemple, 10 MJ d'énergie sont dépensés à l'allumage, alors le la réaction ne sera pas rentable si au moins 3.1018 y participent vapeur D-T. Et pour cela, un plasma assez dense et de haute énergie doit être conservé assez longtemps dans le réacteur. Cette condition est exprimée par le critère de Lawson.

Si les deux exigences peuvent être satisfaites simultanément, le problème de la fusion thermonucléaire contrôlée sera résolu.

Cependant, la mise en œuvre technique de ce problème physique se heurte à d’énormes difficultés. Après tout, une énergie de 10 keV équivaut à une température de 100 millions de degrés. Une substance ne peut être maintenue à cette température ne serait-ce qu'une fraction de seconde sous vide, l'isolant des parois de l'installation.

Mais il existe une autre méthode pour résoudre ce problème : la fusion froide. Qu'est-ce qu'une réaction thermonucléaire froide ? C'est un analogue d'une réaction thermonucléaire « chaude » se déroulant à température ambiante.

Dans la nature, il existe au moins deux manières de modifier la matière dans une dimension du continuum. Vous pouvez faire bouillir de l'eau sur un feu, c'est-à-dire thermiquement, ou dans un four à micro-ondes, c'est-à-dire fréquence. Le résultat est le même : l'eau bout, la seule différence est que la méthode de fréquence est plus rapide. Atteindre des températures ultra-élevées est également utilisé pour diviser le noyau d’un atome. La méthode thermique produit une réaction nucléaire incontrôlable. L'énergie d'un thermonucléaire froid est l'énergie de l'état de transition. L'une des principales conditions pour la conception d'un réacteur permettant de réaliser une réaction thermonucléaire froide est l'état de sa forme cristalline pyramidale. Une autre condition importante est la présence de champs magnétiques tournants et de torsion. L'intersection des champs se produit au point d'équilibre instable du noyau d'hydrogène.

Les scientifiques Ruzi Taleyarkhan du Laboratoire national d'Oak Ridge et Richard Lahey de l'Université polytechnique. Rensilira et l'académicien Robert Nigmatulin ont enregistré une réaction thermonucléaire froide dans des conditions de laboratoire.

Le groupe a utilisé un bécher d’acétone liquide de la taille de deux à trois verres. Les ondes sonores étaient intensément transmises à travers le liquide, produisant un effet connu en physique sous le nom de cavitation acoustique, qui aboutit à la sonoluminescence. Lors de la cavitation, de petites bulles sont apparues dans le liquide, qui ont atteint deux millimètres de diamètre et ont explosé. Les explosions étaient accompagnées d'éclairs de lumière et de libération d'énergie, c'est-à-dire la température à l'intérieur des bulles au moment de l'explosion a atteint 10 millions de degrés Kelvin, et l'énergie libérée, selon les expérimentateurs, est suffisante pour réaliser la fusion thermonucléaire.

"Techniquement", l'essence de la réaction est qu'à la suite de la combinaison de deux atomes de deutérium, un troisième se forme - un isotope de l'hydrogène, connu sous le nom de tritium, et un neutron, caractérisé par une quantité colossale d'énergie.

4.1 Problèmes économiques

Lors de la création d'un TCB, on suppose qu'il s'agira d'une grande installation équipée d'ordinateurs puissants. Ce sera une toute petite ville. Mais en cas d'accident ou de panne de matériel, le fonctionnement de la station sera perturbé.

Ceci n’est pas prévu, par exemple, dans les conceptions modernes des centrales nucléaires. On pense que l’essentiel est de les construire et que ce qui se passe ensuite n’a pas d’importance.

Mais si une station tombe en panne, de nombreuses villes se retrouveront sans électricité. Cela peut être observé dans l’exemple des centrales nucléaires en Arménie. L'élimination des déchets radioactifs est devenue très coûteuse. A la demande des Verts, la centrale nucléaire a été fermée. La population s'est retrouvée sans électricité, les équipements de la centrale électrique ont été usés et l'argent alloué par les organisations internationales à la restauration a été gaspillé.

Un problème économique grave est la décontamination des installations de production abandonnées où l'uranium était traité. Par exemple, « la ville d'Aktau a son propre petit « Tchernobyl ». Il est situé sur le territoire de l'usine chimique et hydrométallurgique (KhMZ). Le rayonnement de fond gamma dans l'atelier de traitement de l'uranium (HMC) atteint par endroits 11 000 micro-. roentgens par heure, niveau moyen fond - 200 microroentgen (le fond naturel habituel est de 10 à 25 microroentgen par heure). Après la fermeture de l’usine, aucune décontamination n’a été effectuée ici. Une partie importante des équipements, environ quinze mille tonnes, présente déjà une radioactivité inamovible. Dans le même temps, ces objets dangereux sont stockés sous à ciel ouvert, sont mal gardés et sont constamment éloignés du territoire du KhGMZ.

Par conséquent, comme il n'y a pas de productions éternelles, en raison de l'émergence de nouvelles technologies, le TTS pourrait être fermé et alors les objets et les métaux de l'entreprise se retrouveraient sur le marché et la population locale en souffrirait.

Le système de refroidissement de l’UTS utilisera de l’eau. Mais selon les écologistes, si l’on prend les statistiques des centrales nucléaires, l’eau de ces réservoirs n’est pas potable.

Selon les experts, le réservoir est plein métaux lourds(en particulier le thorium-232), et à certains endroits, le niveau de rayonnement gamma atteint 50 à 60 microroentgens par heure.

Autrement dit, lors de la construction d'une centrale nucléaire, aucun moyen n'est prévu pour ramener la zone à son état d'origine. Et après la fermeture de l'entreprise, personne ne sait comment enterrer les déchets accumulés et nettoyer l'ancienne entreprise.

4.2 Problèmes médicaux

Les effets nocifs du CTS incluent la production de mutants de virus et de bactéries qui produisent des substances nocives. Cela est particulièrement vrai pour les virus et les bactéries présents dans le corps humain. Apparence tumeurs malignes et le cancer, sera très probablement une maladie courante parmi les habitants des villages vivant à proximité de l'UTS. Les habitants souffrent toujours davantage car ils n’ont aucun moyen de protection. Les dosimètres coûtent cher et les médicaments ne sont pas disponibles. Les déchets du CTS seront déversés dans les rivières, évacués dans l’air ou pompés dans des couches souterraines, comme c’est actuellement le cas dans les centrales nucléaires.

Outre les dommages qui apparaissent peu après une exposition à des doses élevées, les rayonnements ionisants entraînent des conséquences à long terme. Principalement carcinogenèse et troubles génétiques pouvant survenir avec n'importe quelle dose et n'importe quel type de rayonnement (unique, chronique, local).

Selon les rapports des médecins qui ont enregistré les maladies des travailleurs des centrales nucléaires, les maladies cardiovasculaires (crise cardiaque) viennent en premier, suivies par le cancer. Le muscle cardiaque s’amincit sous l’influence des radiations, devient flasque et moins fort. Il existe des maladies totalement incompréhensibles. Par exemple, insuffisance hépatique. Mais pourquoi cela se produit, aucun médecin ne le sait encore. Si des substances radioactives pénètrent dans les voies respiratoires lors d'un accident, les médecins découpent les tissus endommagés des poumons et de la trachée et la personne handicapée marche avec un appareil respiratoire portable.

5. Installations thermonucléaires

Les scientifiques de notre pays et de la plupart des pays développés du monde étudient depuis de nombreuses années le problème de l'utilisation des réactions thermonucléaires à des fins énergétiques. Des installations thermonucléaires uniques ont été créées - les plus complexes appareils techniques, conçu pour étudier la possibilité d'obtenir une énergie colossale, qui n'est jusqu'à présent libérée que lors de l'explosion d'une bombe à hydrogène. Les scientifiques veulent apprendre à contrôler le déroulement d'une réaction thermonucléaire - la réaction de noyaux d'hydrogène lourds (deutérium et tritium) se combinant pour former des noyaux d'hélium à haute température - afin d'utiliser l'énergie libérée à des fins pacifiques, au profit de l'homme. .


Un litre d'eau du robinet contient très peu de deutérium. Mais si ce deutérium est collecté et utilisé comme combustible dans une installation thermonucléaire, vous pouvez alors obtenir autant d'énergie qu'en brûlant près de 300 kilogrammes de pétrole. Et pour fournir l'énergie que l'on obtient aujourd'hui en brûlant du combustible conventionnel produit chaque année, il faudrait extraire le deutérium de l'eau contenue dans un cube de seulement 160 mètres de côté. La Volga à elle seule transporte chaque année environ 60 000 mètres cubes d'eau dans la mer Caspienne.


Pour qu’une réaction thermonucléaire se produise, plusieurs conditions doivent être remplies. Ainsi, la température dans la zone où se combinent les noyaux d’hydrogène lourds devrait être d’environ 100 millions de degrés. À une température aussi énorme, on ne parle plus de gaz, mais de plasma. Le plasma est un état de la matière dans lequel, à des températures de gaz élevées, les atomes neutres perdent leurs électrons et se transforment en ions positifs. En d’autres termes, le plasma est un mélange d’ions positifs et d’électrons se déplaçant librement. La deuxième condition est la nécessité de maintenir une densité de plasma dans la zone de réaction d'au moins 100 000 milliards de particules par centimètre cube. Et enfin, la chose principale et la plus difficile est de maintenir la progression de la réaction thermonucléaire au moins pendant au moins une seconde.


La chambre de travail d'une installation thermonucléaire est toroïdale, semblable à un énorme beignet creux. Il est rempli d'un mélange de deutérium et de tritium. À l'intérieur de la chambre elle-même, une bobine de plasma est créée - un conducteur à travers lequel passe un courant électrique d'environ 20 millions d'ampères.
Le courant électrique remplit trois fonctions importantes. Premièrement, cela crée du plasma. Deuxièmement, il le chauffe jusqu'à cent millions de degrés. Et enfin, le courant crée un champ magnétique autour de lui, c'est-à-dire qu'il entoure le plasma de lignes de force magnétiques. En principe, les lignes de force autour du plasma doivent le maintenir en suspension et empêcher le plasma d’entrer en contact avec les parois de la chambre. Cependant, maintenir le plasma en suspension n’est pas si simple. Les forces électriques déforment le conducteur plasma, qui n’a pas la résistance d’un conducteur métallique. Il se plie, heurte la paroi de la chambre et lui cède son énergie thermique. Pour éviter cela, des bobines sont placées au-dessus de la chambre toroïdale, créant un champ magnétique longitudinal dans la chambre, éloignant le conducteur du plasma des parois. Seulement, cela ne suffit pas, car le conducteur du plasma chargé du courant a tendance à s'étirer et à augmenter son diamètre. Le champ magnétique, créé automatiquement, sans intervention extérieure, est également conçu pour empêcher le conducteur du plasma de se dilater. forces externes. Le conducteur de plasma est placé avec la chambre toroïdale dans une autre chambre plus grande constituée d'un matériau non magnétique, généralement du cuivre. Dès que le conducteur du plasma tente de s'écarter de la position d'équilibre, un courant induit apparaît dans la coque en cuivre, selon la loi de l'induction électromagnétique, dans le sens opposé au courant dans le plasma. En conséquence, une force contraire apparaît, repoussant le plasma des parois de la chambre.
Il a été proposé en 1949 par A.D. d'empêcher le plasma d'entrer en contact avec les parois de la chambre par un champ magnétique. Sakharov, et un peu plus tard l'Américain J. Spitzer.


En physique, il est d’usage de donner des noms à chaque nouveau type de dispositif expérimental. Une structure dotée d’un tel système d’enroulement est appelée tokamak – abréviation de « chambre toroïdale et bobine magnétique ».


Dans les années 1970, l’URSS a construit une centrale thermonucléaire appelée Tokamak-10. Il a été développé à l’Institut de l’énergie atomique du nom. I.V. Kourtchatova. Grâce à cette installation, nous avons obtenu une température du conducteur du plasma de 10 millions de degrés, une densité du plasma d'au moins 100 mille milliards de particules par centimètre cube et un temps de rétention du plasma proche de 0,5 seconde. La plus grande installation de notre pays aujourd'hui, Tokamak-15, a également été construite à Moscou centre scientifique"Institut Kourtchatov".


Toutes les installations thermonucléaires créées jusqu'à présent ne consomment de l'énergie que pour chauffer le plasma et créer des champs magnétiques. L'installation thermonucléaire du futur devrait, au contraire, libérer tellement d'énergie qu'une petite partie de celle-ci puisse être utilisée pour entretenir la réaction thermonucléaire, c'est-à-dire chauffer le plasma, créer des champs magnétiques et alimenter de nombreux dispositifs et instruments auxiliaires, et l'essentiel peut être consacré à la consommation du réseau électrique.


En 1997, au Royaume-Uni, le tokamak JET a réussi à faire correspondre l'énergie d'entrée et l'énergie de sortie. Bien entendu, cela ne suffit pas pour que le processus s’auto-entretienne : jusqu’à 80 % de l’énergie reçue est perdue. Pour que le réacteur fonctionne, il est nécessaire de produire cinq fois plus d'énergie que celle dépensée pour chauffer le plasma et créer des champs magnétiques.
En 1986, les pays de l'Union européenne, avec l'URSS, les États-Unis et le Japon, ont décidé de développer et de construire conjointement d'ici 2010 un tokamak suffisamment grand, capable de produire de l'énergie non seulement pour soutenir la fusion thermonucléaire dans le plasma, mais aussi pour produire puissance électrique utile. Ce réacteur s’appelait ITER, abréviation de « réacteur expérimental thermonucléaire international ». En 1998, il était possible de terminer les calculs de conception, mais en raison du refus américain, des modifications ont dû être apportées à la conception du réacteur afin d'en réduire le coût.


Vous pouvez laisser les particules bouger naturellement, et donnez à la caméra une forme qui suit leur trajectoire. La caméra a alors une apparence plutôt bizarre. Il reprend la forme d'un filament de plasma apparaissant dans le champ magnétique de bobines externes de configuration complexe. Le champ magnétique est créé par des bobines externes d'une configuration beaucoup plus complexe que dans un tokamak. Les appareils de ce type sont appelés stellarateurs. Le torsatron Uragan-3M a été construit dans notre pays. Ce stellarateur expérimental est conçu pour contenir du plasma chauffé à dix millions de degrés.


Actuellement, les tokamaks ont d'autres concurrents sérieux utilisant la fusion thermonucléaire inertielle. Dans ce cas, plusieurs milligrammes d'un mélange deutérium-tritium sont enfermés dans une capsule d'un diamètre de 1 à 2 millimètres. Le rayonnement pulsé de plusieurs dizaines de lasers puissants est concentré sur la capsule. En conséquence, la capsule s’évapore instantanément. Vous devez mettre 2 MJ d’énergie dans le rayonnement en 5 à 10 nanosecondes. Ensuite, la légère pression comprime le mélange à un point tel qu’une réaction de fusion thermonucléaire peut se produire. L'énergie libérée lors de l'explosion, équivalente en puissance à l'explosion de cent kilogrammes de TNT, sera convertie sous une forme plus pratique - par exemple en électricité. Cependant, la construction de stellarateurs et d'installations de fusion inertielle se heurte également à de sérieuses difficultés techniques. Probablement, utilisation pratique l’énergie thermonucléaire n’est pas une question d’avenir proche.

6. Perspectives de développement de la fusion thermonucléaire

Une tâche importante à long terme pour l’industrie nucléaire est de maîtriser les technologies de fusion thermonucléaire contrôlée comme base de l’industrie énergétique du futur. Actuellement, des décisions stratégiques sont prises partout dans le monde concernant le développement et le développement de nouvelles sources d'énergie. La nécessité de développer de telles sources est associée à la pénurie attendue de production d'énergie et aux ressources limitées en combustibles. L’une des sources d’énergie innovantes les plus prometteuses est la fusion thermonucléaire contrôlée (CTF). L'énergie de fusion est libérée lorsque les noyaux des isotopes lourds de l'hydrogène fusionnent. Le combustible d'un réacteur thermonucléaire est de l'eau et du lithium dont les réserves sont pratiquement illimitées. Dans des conditions terrestres, la mise en œuvre du CTS représente un problème scientifique et technologique complexe lié à l'obtention d'une température de la substance supérieure à 100 millions de degrés et à l'isolation thermique de la zone de synthèse des parois du réacteur.

Fusion est un projet à long terme, avec une installation commerciale qui devrait être construite d'ici 2040-2050. Le scénario le plus probable pour maîtriser l’énergie thermonucléaire implique la mise en œuvre de trois étapes :
- maîtriser les modes de combustion à long terme des réactions thermonucléaires ;
- démonstration de production d'électricité ;
- création de stations thermonucléaires industrielles.

Dans le cadre du projet international ITER (International Thermonuclear Experimental Reactor), il devrait démontrer la faisabilité technique du confinement du plasma et de la génération d'énergie.L'objectif principal du projet ITER est de démontrer la possibilité scientifique et technique d'obtenir de l'énergie par des réactions de synthèse (fusion) d'isotopes de l'hydrogène - deutérium et tritium. La puissance thermonucléaire nominale du réacteur ITER sera d'environ 500 MW à une température de plasma de 100 millions de degrés.
En novembre 2006, tous les participants au projet ITER - l'Union européenne, la Russie, le Japon, les États-Unis, la Chine, la Corée et l'Inde - ont signé des accords sur la création de l'Organisation internationale ITER pour l'énergie de fusion pour la mise en œuvre conjointe du projet ITER. La phase de construction du réacteur a débuté en 2007.

La participation de la Russie au projet ITER consiste en le développement, la fabrication et la livraison sur le chantier de construction du réacteur (Cadarache, France) du principal équipement technologique et apporter une contribution en espèces, s'élevant généralement à environ 10 % du coût total de construction du réacteur. Les États-Unis, la Chine, l’Inde, la Corée et le Japon ont la même part de contribution.
Feuille de route pour maîtriser l’énergie de la fusion thermonucléaire contrôlée

2000 (niveau moderne) :
Problèmes à résoudre : parvenir à l’égalité des coûts et de la production d’énergie
La dernière génération de tokamaks a permis de se rapprocher de la mise en œuvre d'une combustion thermonucléaire contrôlée avec un dégagement d'énergie important.
La puissance des réactions de fusion thermonucléaire a atteint le niveau de 17 MW (installation JET, UE), ce qui est comparable à la puissance investie dans le plasma.
2020 :

Problèmes résolus dans le projet ITER : réaction à long terme, développement et intégration des technologies thermonucléaires.

L'objectif du projet ITER est de parvenir à un allumage contrôlé d'une réaction thermonucléaire et à sa combustion à long terme avec un excès de puissance thermonucléaire dix fois supérieur à la puissance nécessaire pour initier la réaction de fusion Q³10.

2030 :
Problème à résoudre : construction d'une station de démonstration DEMO (DTE)
Dans le cadre du projet DEMO, la sélection des matériaux et des technologies optimaux pour l'OFC, la conception, la construction et les tests de démarrage d'une centrale thermonucléaire expérimentale ont été achevés, et la conception du PFC a été achevée.
2050
Tâches à résoudre : conception et construction de PTE, réalisation des tests des technologies de production d'énergie électrique chez DEMO.
Création d'une centrale énergétique industrielle avec une marge de sécurité élevée et des indicateurs économiques de coûts énergétiques acceptables.
L’humanité mettra la main sur une source d’énergie inépuisable, écologiquement et économiquement acceptable.Le projet de réacteur thermonucléaire s'appuie sur des systèmes de confinement magnétique du plasma de type Tokamak, développés et mis en œuvre pour la première fois en URSS. En 1968, une température du plasma de 10 millions de degrés a été atteinte au tokamak T-3. Depuis lors, les installations Tokamak sont devenues une direction leader dans la recherche sur la fusion thermonucléaire dans tous les pays.

Actuellement utilisés en Russie sont les tokamaks T-10 et T-15 (RRC "Institut Kurchatov"), T-11M (Centre scientifique d'État FSUE de la Fédération de Russie TRINITI, Troitsk, région de Moscou), Globus-M, FT-2, Tuman-3 (Institut physique et technique nommé d'après A.F. Ioffe, Saint-Pétersbourg, RAS) et stellarator L-2 (Institut de physique générale, Moscou, RAS).

Conclusion

Sur la base des recherches menées, les conclusions suivantes peuvent être tirées :

La fusion thermonucléaire est le moyen de production d'énergie le plus rationnel, le plus écologique et le moins coûteux ; en termes de quantité de chaleur produite, elle est incomparable avec sources naturelles actuellement utilisé par les humains. Bien entendu, la maîtrise de la fusion thermonucléaire résoudrait de nombreux problèmes de l’humanité, présents et futurs.

Dans le futur, la fusion thermonucléaire permettra de surmonter une autre « crise de l’humanité », à savoir la surpopulation de la Terre. Ce n'est un secret pour personne que le développement de la civilisation terrestre implique une croissance constante et durable de la population de la planète. La question du développement de « nouveaux territoires », autrement dit de la colonisation des planètes voisines du système solaire pour créer des établissements permanents, est donc un problème. question d'un avenir très proche.

Littérature

  1. A.P. Baskakov. Génie thermique / - M. : Energoatomizdat, 1991
  2. V. I. Krutov. Génie thermique / - M. : Mashinostroenie, 1986
  3. K.V. Tikhomirov. Génie thermique, approvisionnement en chaleur et en gaz et ventilation - M. : Stroyizdat, 1991
  4. V. P. Preobrazhensky. Mesures et instruments thermiques - M. : Energia, 1978
  5. Jeffrey P. Freidberg. Physique des plasmas et énergie de fusion/ - Cambridge University Press, 2007.
  6. http://www.college.ru./astronomy- Astronomie
  7. http://nt.ru/tp/ie/ts.htm Fusion thermonucléaire sur le Soleil - une nouvelle version Vladimir Vlasov
Aperçu:

Pour utiliser les aperçus de présentation, créez un compte Google et connectez-vous : https://accounts.google.com


Légendes des diapositives :

FUSION THERMONUCLÉAIRE

CONCEPT Il s'agit d'un type de réaction nucléaire dans laquelle des noyaux atomiques légers se combinent en noyaux plus lourds en raison de l'énergie cinétique de leur mouvement thermique.

RECEVOIR DE L'ÉNERGIE

ÉQUATION POUR LA RÉACTION AVEC LA FORMATION DE HE ⁴

RÉACTION THERMONUCLÉAIRE AU SOLEIL

Fusion THERMONUCLÉAIRE CONTRÔLÉE

CHAMBRE TOROÏDALE AVEC BOBINES MAGNÉTIQUES (TOKAMAK)

LA NÉCESSITÉ DE MAÎTRISER LA Fusion THERMONUCLÉAIRE

1

Malgré les déclarations pleines de confiance absolue d'experts étrangers faisant autorité sur l'utilisation imminente de l'énergie qui peut enfin être obtenue à partir de réacteurs thermonucléaires, tout n'est pas si optimiste. L’énergie thermonucléaire, qui semble si compréhensible et accessible, est en réalité encore loin d’être mise en pratique à grande échelle et à grande échelle. Récemment, des messages optimistes sont réapparus sur Internet, assurant au grand public qu’« il n’y a pratiquement plus d’obstacles techniques à la création d’un réacteur à fusion dans un avenir proche ». Mais une telle confiance existait auparavant. Cela semblait être un problème très prometteur et résoluble. Mais des dizaines d'années se sont écoulées et la charrette, comme on dit, est toujours là. Une source d’énergie hautement efficace et respectueuse de l’environnement reste encore hors du contrôle de l’humanité. Comme auparavant, il s'agit d'un sujet de recherche et de développement prometteur, qui aboutira un jour à un projet réussi - et alors l'énergie nous parviendra comme d'une corne d'abondance. Mais le fait est qu’un si long progrès, plutôt une sorte de piétinement, vous oblige à réfléchir très sérieusement et à évaluer la situation actuelle. Et si nous sous-estimons certains facteurs importants, ne prenons pas en compte l'importance et le rôle d'aucun paramètre. Après tout, même dans le système solaire, il existe un réacteur thermonucléaire qui n’est pas encore opérationnel. C'est la planète Jupiter. Le manque de masse et la compression gravitationnelle n'ont pas permis à ce représentant des planètes géantes d'atteindre la puissance requise et de devenir un autre Soleil du système solaire. Il s’avère que, tout comme pour le combustible nucléaire conventionnel, il existe une masse critique nécessaire pour qu’une réaction en chaîne se produise ; dans ce cas, il existe également des paramètres limitants. Et si, pour contourner d'une manière ou d'une autre les restrictions sur la masse minimale requise lors de l'utilisation d'une charge nucléaire traditionnelle, on utilise la compression du matériau lors de l'explosion, alors dans le cas de la création d'installations thermonucléaires, certaines solutions non standard sont également nécessaires.

Le problème est qu’il faut non seulement obtenir du plasma, mais aussi le conserver. Nous avons besoin de stabilité dans le fonctionnement du réacteur thermonucléaire en cours de création. Mais c'est un gros problème.

Bien entendu, personne ne contestera les avantages de la fusion thermonucléaire. Il s'agit d'une ressource presque illimitée pour obtenir de l'énergie. Mais le directeur de l'agence russe ITER (nous parlons du réacteur thermonucléaire expérimental international) a noté à juste titre qu'il y a plus de 10 ans, les États-Unis et l'Angleterre recevaient de l'énergie d'installations thermonucléaires, mais que leur production était loin de la puissance investie. Le maximum était même inférieur à 70 %. Mais le projet moderne (ITER) implique d'obtenir 10 fois plus de puissance par rapport à l'investissement. Ainsi, les déclarations selon lesquelles le projet est techniquement complexe et que des ajustements y seront apportés, ainsi que, bien sûr, les dates de lancement du réacteur et, par conséquent, le retour sur investissement pour les États qui ont investi dans ce développement , sont très alarmants.

Ainsi, la question se pose de savoir dans quelle mesure la tentative de remplacer la puissante gravité qui retient le plasma dans les réacteurs thermonucléaires naturels (étoiles) est justifiée. champs magnétiques- le résultat de la création de l'ingénierie humaine ? L'avantage de la fusion thermonucléaire - le dégagement d'énergie est des millions de fois supérieur au dégagement de chaleur qui se produit, par exemple, lors de la combustion d'un combustible conventionnel - c'est en même temps un obstacle à la réduction réussie de la l'énergie se libère. Ce qui est facilement résolu par un niveau de gravité suffisant devient un problème incroyablement difficile pour les ingénieurs et les scientifiques. C’est pourquoi il est si difficile de partager l’optimisme quant aux perspectives immédiates de l’énergie thermonucléaire. Il y a beaucoup plus de chances d'utiliser un réacteur thermonucléaire naturel - le Soleil. Cette énergie durera encore au moins 5 milliards d’années. Et grâce à cela, des photocellules, des thermoéléments et même certaines chaudières à vapeur fonctionneront, pour lesquels l'eau serait chauffée à l'aide de lentilles ou de miroirs sphériques.

Lien bibliographique

Silaev I.V., Radchenko T.I. PROBLÈMES DE CRÉATION D'INSTALLATIONS POUR LA Fusion THERMONUCLÉAIRE // Revue Internationale de Recherche Appliquée et Fondamentale. – 2014. – N° 1. – P. 37-38 ;
URL : https://applied-research.ru/ru/article/view?id=4539 (date d'accès : 19/09/2019). Nous portons à votre connaissance les magazines édités par la maison d'édition "Académie des Sciences Naturelles"

Yu.N. Dnestrovsky - Docteur en physique Sciences, professeur, Institut de fusion nucléaire,
RRC "Institut Kurchatov", Moscou, Russie
Documents de la conférence internationale
« LE CHEMIN VERS LE FUTUR – SCIENCE, PROBLÈMES MONDIAUX, RÊVES ET ESPOIRS »
26-28 novembre 2007 Institut de mathématiques appliquées nommé d'après. M.V. Keldysh RAS, Moscou

La fusion thermonucléaire contrôlée (CTF) peut-elle résoudre le problème énergétique à long terme ? Quelle part du chemin vers la maîtrise du CTS a déjà été parcourue et combien reste-t-il encore à parcourir ? Quels défis nous attendent ? Ces problèmes sont discutés dans cet article.

1. Prérequis physiques pour le CTS

Il est proposé d'utiliser des réactions de fusion nucléaire de noyaux légers pour produire de l'énergie. Parmi les nombreuses réactions de ce type, la réaction la plus facile à réaliser est la fusion des noyaux de deutérium et de tritium.

Ici, le noyau d'hélium stable (particule alpha) est noté, N est le neutron et l'énergie des particules après la réaction est notée entre parenthèses, . Dans cette réaction, l'énergie libérée par particule ayant la masse d'un neutron est d'environ 3,5 MeV. Cela représente environ 3 à 4 fois l'énergie par particule libérée lors de la fission de l'uranium.

Quels problèmes surviennent lorsque l’on tente de mettre en œuvre la réaction (1) pour produire de l’énergie ?

Le principal problème est que le tritium n’existe pas dans la nature. Il est radioactif, sa demi-vie est d'environ 12 ans, donc, s'il était autrefois en grande quantité sur Terre, il n'en reste plus rien depuis longtemps. La quantité de tritium produite sur Terre en raison de la radioactivité naturelle ou du rayonnement cosmique est négligeable. Une petite quantité de tritium est produite lors de réactions se déroulant à l’intérieur d’un réacteur nucléaire à uranium. Dans l'un des réacteurs du Canada, la collecte de ce tritium a été organisée, mais sa production dans les réacteurs est très lente et la production s'avère trop coûteuse.

Ainsi, la production d'énergie dans un réacteur thermonucléaire basé sur la réaction (1) doit s'accompagner de la production simultanée de tritium dans le même réacteur. Nous verrons ci-dessous comment cela peut être fait.

Les deux particules, noyaux de deutérium et de tritium, participant à la réaction (1), ont une charge positive et se repoussent donc par la force coulombienne. Pour vaincre cette force, les particules doivent avoir une plus grande énergie. La dépendance de la vitesse de réaction (1), , sur la température du mélange tritium-deutérium est représentée sur la figure 1 sur une double échelle logarithmique.

On peut voir qu’avec l’augmentation de la température, la probabilité de réaction (1) augmente rapidement. La vitesse de réaction acceptable pour le réacteur est atteinte à une température T > 10 keV. Si l'on prend en compte ces degrés, alors la température dans le réacteur devrait dépasser 100 millions de degrés. Tous les atomes d'une substance à une telle température doivent être ionisés, et la substance elle-même dans cet état est généralement appelée plasma. Rappelons que selon les estimations modernes, la température au centre du Soleil atteint « seulement » 20 millions de degrés.

Il existe d’autres réactions de fusion qui conviennent en principe à la génération d’énergie thermonucléaire. Nous retiendrons ici seulement deux réactions largement discutées dans la littérature :

Voici un isotope du noyau d'hélium de masse 3, p est un proton (noyau d'hydrogène). La réaction (2) est bonne car il y a autant de combustible (deutérium) sur Terre que vous le souhaitez. Technologie permettant de séparer le deutérium du eau de meréprouvé et relativement peu coûteux. Malheureusement, la vitesse de cette réaction est sensiblement inférieure à la vitesse de la réaction (1) (voir Fig. 1), donc la réaction (2) nécessite une température d'environ 500 millions de degrés.

La réaction (3) suscite actuellement un grand enthousiasme parmi les personnes impliquées dans les vols spatiaux. On sait qu'il y a beaucoup de cet isotope sur la Lune, c'est pourquoi la possibilité de le transporter vers la Terre est discutée comme l'une des tâches prioritaires de l'astronautique. Malheureusement, la vitesse de cette réaction (Fig. 1) est également nettement inférieure ; les vitesses de réaction (1) et les températures requises pour cette réaction sont également de l'ordre de 500 millions de degrés.

Pour contenir un plasma à une température d'environ 100 à 500 millions de degrés, il a été proposé d'utiliser un champ magnétique (I.E. Tamm, A.D. Sakharov). Les installations les plus prometteuses semblent désormais être celles dans lesquelles le plasma a la forme d'un tore (beignet). On note le grand rayon de ce tore par R., et petit à travers un. Pour supprimer les mouvements instables du plasma, en plus du champ magnétique toroïdal (longitudinal) B 0, un champ transversal (poloïdal) est également nécessaire. Il existe deux types d'installations dans lesquelles une telle configuration magnétique est mise en œuvre. Dans les installations de type tokamak, le champ poloïdal est créé par un courant longitudinal I circulant dans le plasma dans la direction du champ. Dans les installations de type stellarateur, le champ poloïdal est créé par des enroulements hélicoïdaux externes transportant du courant. Chacun de ces paramètres présente ses propres avantages et inconvénients. Dans un tokamak, le courant I doit être cohérent avec le champ. Le Stellarator est techniquement plus complexe. De nos jours, les installations de type tokamak sont plus avancées. Bien qu'il existe également de grands stellarateurs qui fonctionnent avec succès.

2. Conditions du réacteur tokamak

Nous indiquerons ici seulement deux conditions nécessaires qui déterminent la « fenêtre » dans l’espace des paramètres plasma d’un réacteur tokamak. Il existe bien sûr de nombreuses autres conditions qui réduisent cette « fenêtre », mais elles ne sont toujours pas aussi importantes.

1). Pour que le réacteur soit commercialement viable (pas trop grand), la densité de puissance P de l'énergie libérée doit être suffisamment grand

Ici, n 1 et n 2 sont les densités du deutérium et du tritium - l'énergie libérée lors d'un acte de réaction (1). La condition (4) limite les densités n 1 et n 2 par le bas.

2). Pour qu'un plasma soit stable, la pression du plasma doit être sensiblement inférieure à la pression du champ magnétique longitudinal. Pour un plasma de géométrie raisonnable, cette condition a la forme.

Pour un champ magnétique donné, cette condition limite la densité et la température du plasma par le haut. Si pour effectuer une réaction il faut augmenter la température (par exemple, de la réaction (1) passer aux réactions (2) ou (3)), alors pour remplir la condition (5) il faut augmenter le champ magnétique .

Quel champ magnétique sera nécessaire pour mettre en œuvre le CTS ? Considérons d'abord une réaction de type (1). Pour simplifier, nous supposons que n 1 = n 2 = n /2, où n est la densité du plasma. Alors à la condition de température (1) donne

En utilisant la condition (5), nous trouvons la limite inférieure du champ magnétique

En géométrie toroïdale, le champ magnétique longitudinal diminue de 1/r à mesure qu'il s'éloigne de l'axe principal du tore. Le champ est le champ situé au centre de la section méridionale du plasma. Le champ sera plus grand sur le contour intérieur du tore. Avec rapport hauteur/largeur

R./ un~ 3 le champ magnétique à l'intérieur des bobines de champ toroïdal s'avère être 2 fois plus grand. Ainsi, pour remplir les conditions (4-5), les bobines de champ longitudinal doivent être constituées d'un matériau capable de fonctionner dans un champ magnétique de l'ordre de 13-14 Tesla.

Pour le fonctionnement stationnaire d'un réacteur tokamak, les conducteurs des bobines doivent être en matériau supraconducteur. Certaines propriétés des supraconducteurs modernes sont illustrées sur la figure 2.

Actuellement, plusieurs tokamaks dotés d'enroulements supraconducteurs ont été construits dans le monde. Le tout premier tokamak de ce type (tokamak T-7), construit en URSS dans les années 70, utilisait le niobium-titane (NbTi) comme supraconducteur. Le même matériau a été utilisé dans le grand tokamak français Tore Supra (milieu des années 80). D'après la figure 2, il est clair qu'à la température de l'hélium liquide, le champ magnétique dans un tokamak doté d'un tel supraconducteur peut atteindre des valeurs de 4 Tesla. Pour le réacteur tokamak international ITER, il a été décidé d'utiliser un supraconducteur niobium-étain doté de plus grandes capacités, mais également d'une technologie plus complexe. Ce supraconducteur est utilisé dans l’usine russe T-15, lancée en 1989. D'après la figure 2, il est clair que dans ITER, à une température d'hélium de l'ordre de grandeur, le champ magnétique dans le plasma peut atteindre les valeurs de champ requises de 6 Tesla avec une grande marge.

Pour les réactions (2) et (3), les conditions (4)-(5) s'avèrent beaucoup plus strictes. Pour satisfaire la condition (4), la température du plasma T dans le réacteur doit être 4 fois plus élevée et la densité du plasma n doit être 2 fois plus élevée que dans un réacteur basé sur la réaction (1). En conséquence, la pression du plasma augmente de 8 fois et le champ magnétique requis de 2,8 fois. Cela signifie que le champ magnétique sur un supraconducteur doit atteindre des valeurs de 30 Tesla. Jusqu'à présent, personne n'a travaillé dans de tels domaines grand volume en mode stationnaire. La figure 2 montre qu'il y a de l'espoir de créer à l'avenir un supraconducteur pour un tel domaine. Cependant, à l'heure actuelle, les conditions (4) à (5) pour les réactions de type (2) à (3) dans une installation tokamak ne peuvent pas être réalisées.

3. Production de tritium

Dans un réacteur tokamak, la chambre à plasma doit être entourée d'une épaisse couche de matériaux qui protègent les enroulements du champ toroïdal de la destruction de la supraconductivité par les neutrons. Cette couche, d'environ un mètre d'épaisseur, s'appelle une couverture. Ici, dans la couverture, il faut évacuer la chaleur générée par les neutrons lors du freinage. Dans ce cas, une partie des neutrons peut être utilisée pour produire du tritium à l’intérieur de la couverture. La réaction nucléaire la plus appropriée pour un tel processus est la réaction suivante, qui libère de l'énergie

Voici un isotope du lithium d'une masse de 6. Puisque le neutron est une particule neutre, il n'y a pas de barrière coulombienne et la réaction (8) peut se produire à une énergie neutronique sensiblement inférieure à 1 MeV. Pour une production efficace de tritium, le nombre de réactions de type (8) doit être suffisamment grand, et pour cela le nombre de neutrons en réaction doit être grand. Pour augmenter le nombre de neutrons, les matériaux dans lesquels se produisent des réactions de multiplication des neutrons doivent être situés ici dans la couverture. Étant donné que l'énergie des neutrons primaires produits dans la réaction (1) est élevée (14 MeV) et que la réaction (8) nécessite des neutrons de faible énergie, alors, en principe, le nombre de neutrons dans la couverture peut être augmenté de 10 à 15. fois et ainsi clôturer la balance du tritium : pour chaque acte réactionnel (1), obtenir un ou plusieurs actes réactionnels (8). Est-il possible d’atteindre cet équilibre dans la pratique ? La réponse à cette question nécessite des expériences et des calculs détaillés. Le réacteur ITER n'est pas obligé de s'approvisionner en combustible, mais des expérimentations seront menées dessus pour clarifier le problème du bilan tritium.

Quelle quantité de tritium est nécessaire pour faire fonctionner le réacteur ? De simples estimations montrent qu'un réacteur d'une puissance thermique de 3 GW (puissance électrique de l'ordre de 1 GW) nécessiterait 150 kg de tritium par an. C'est environ une fois moins que le poids de fioul nécessaire au fonctionnement annuel d'une centrale thermique de même puissance.

En vertu de (8), le « combustible » principal du réacteur est l’isotope du lithium. Y en a-t-il beaucoup dans la nature ? Le lithium naturel contient deux isotopes

On peut constater que la teneur en isotopes du lithium naturel est assez élevée. Les réserves de lithium sur Terre, au niveau actuel de consommation d'énergie, dureront plusieurs milliers d'années, et dans les océans, pendant des dizaines de millions d'années. Les estimations basées sur les formules (8) à (9) montrent que le lithium naturel doit être extrait 50 à 100 fois plus que le tritium n'est nécessaire. Ainsi, un réacteur de la capacité évoquée nécessitera 15 tonnes de lithium naturel par an. C'est 10,5 fois moins que le fioul nécessaire à une centrale thermique. Bien qu’une énergie importante soit nécessaire pour la séparation des isotopes dans le lithium naturel, l’énergie supplémentaire libérée lors de la réaction (8) peut compenser ces coûts.

4. Bref historique de la recherche sur le CTS

Historiquement, la première étude sur le CTS dans notre pays est considérée comme le rapport secret de I.E. Tamm et A.D. Sakharov, publié en mars-avril 1950. Il a été publié plus tard en 1958. Le rapport contenait un aperçu des principales idées permettant de confiner le plasma chaud par un champ magnétique dans une installation toroïdale et une estimation de la taille d'un réacteur à fusion. Étonnamment, le tokamak ITER actuellement en construction est proche dans ses paramètres des prévisions du rapport historique.

Les expériences avec le plasma chaud ont commencé en URSS au début des années cinquante. Au début, c'étaient de petites installations différents types, droite et toroïdale, mais déjà au milieu de la décennie, le travail conjoint d'expérimentateurs et de théoriciens a conduit à des installations appelées « tokamak ». D'année en année, la taille et la complexité des installations ont augmenté et en 1962 l'installation T-3 a été lancée avec des dimensions R = 100 cm, a = 20 cm et un champ magnétique allant jusqu'à quatre Tesla. L'expérience accumulée depuis une quinzaine d'années a montré que dans une installation dotée d'une chambre métallique, de parois bien nettoyées et d'un vide poussé (jusqu'à mmHg), il est possible d'obtenir un plasma propre et stable avec haute température des électrons. L.A. Artsimovich a rendu compte de ces résultats à Conférence internationale en physique des plasmas et CTS en 1968 à Novossibirsk. Après cela, la direction des tokamaks a été reconnue par la communauté scientifique mondiale et des installations de ce type ont commencé à être construites dans de nombreux pays.

Les tokamaks suivants, de deuxième génération (T-10 en URSS et PLT aux États-Unis) ont commencé à fonctionner avec du plasma en 1975. Ils ont montré que les espoirs suscités par la première génération de tokamaks se confirmaient. Et en tokamaks avec grandes tailles Vous pouvez travailler avec du plasma stable et chaud. Cependant, même alors, il est devenu clair qu'il était impossible de créer un petit réacteur et qu'il fallait augmenter la taille du plasma.

La conception des tokamaks de troisième génération a duré environ cinq ans et leur construction a commencé à la fin des années soixante-dix. Au cours de la décennie suivante, ils furent successivement mis en service et en 1989, 7 grands tokamaks étaient en activité : TFTR et DIII - D aux USA, JET (le plus grand) en Europe unie, ASDEX - U en Allemagne, TORE - SUPRA en France. , JT 60-U au Japon et T-15 en URSS. Ces installations ont permis d'obtenir la température et la densité du plasma requises pour le réacteur. Bien entendu, jusqu’à présent, ils ont été obtenus séparément, séparément pour la température et séparément pour la densité. Les installations TFTR et JET ont permis de travailler avec le tritium, et pour la première fois, une puissance thermonucléaire notable P DT a été obtenue avec elles (conformément à la réaction (1)), comparable à la puissance externe introduite dans le plasma P aux . La puissance maximale P DT de l'installation JET lors des expérimentations de 1997 a atteint 16 MW avec une puissance P aux de l'ordre de 25 MW. Section d'installation du JET et vue interne la caméra est représentée sur la Fig. 3a, b. Ici, à titre de comparaison, la taille d'une personne est indiquée.

Au tout début des années 80, le travail conjoint d'un groupe international de scientifiques (Russie, États-Unis, Europe, Japon) a commencé pour concevoir le tokamak de prochaine (quatrième) génération - le réacteur INTOR. A ce stade, il s’agissait de passer en revue les « goulots d’étranglement » de la future installation sans créer un projet complet. Cependant, au milieu des années 80, il est devenu évident qu'il fallait définir une tâche plus complète, y compris la création d'un projet. A l'instigation d'E.P. Velikhov, après de longues négociations au niveau des dirigeants de l'État (M.S. Gorbatchev et R. Reagan), un accord a été signé en 1988 et les travaux ont commencé sur le projet de réacteur tokamak ITER. Les travaux se sont déroulés en trois étapes avec des pauses et ont duré au total 13 ans. L'histoire diplomatique du projet ITER lui-même est dramatique, a conduit à plusieurs reprises à des impasses et mérite une description distincte (voir, par exemple, le livre). Officiellement, le projet a été achevé en juillet 2000, mais il restait encore à sélectionner un site de construction et à élaborer un accord de construction et la charte ITER. Au total, cela a pris près de 6 ans et finalement, en novembre 2006, l'accord sur la construction d'ITER dans le sud de la France a été signé. La construction elle-même devrait durer environ 10 ans. Ainsi, entre le début des négociations et la production du premier plasma dans le réacteur thermonucléaire ITER, il s'écoulera environ 30 ans. C'est déjà comparable à la vie active d'une personne. Telles sont les réalités du progrès.

En termes de dimensions linéaires, ITER est environ deux fois plus grand que l'installation JET. Selon le projet, le champ magnétique y est = 5,8 Tesla et le courant I = 12-14 MA. On suppose que la puissance thermonucléaire atteindra la valeur introduite dans le plasma pour le chauffage, qui sera de l'ordre de 10.

5. Développement de moyens de chauffage plasma.

Parallèlement à l'augmentation de la taille du tokamak, la technologie du chauffage au plasma s'est développée. Actuellement, trois sont utilisés diverses méthodes chauffage:

  1. Chauffage ohmique du plasma par le courant qui le traverse.
  2. Chauffage par faisceaux de particules neutres chaudes de deutérium ou de tritium.
  3. Chauffage par ondes électromagnétiques dans différentes gammes de fréquences.

Le chauffage ohmique du plasma dans un tokamak est toujours présent, mais il ne suffit pas pour le chauffer à des températures thermonucléaires de l'ordre de 10 à 15 keV (100 à 150 millions de degrés). Le fait est qu'à mesure que les électrons chauffent, la résistance du plasma diminue rapidement (inversement proportionnellement), donc à un courant fixe, la puissance investie diminue également. A titre d'exemple, soulignons que dans l'installation JET, avec un courant de 3-4 MA, il est possible de chauffer le plasma uniquement jusqu'à ~ 2 – 3 keV. Dans ce cas, la résistance du plasma est si faible qu'un courant de plusieurs millions d'ampères (MA) est maintenu à une tension de 0,1 à 0,2 V.

Les injecteurs à faisceau neutre chaud sont apparus pour la première fois dans l'installation américaine PLT en 1976-77 et ont depuis lors parcouru un long chemin dans le développement technologique. Désormais, un injecteur typique dispose d'un faisceau de particules d'une énergie de 80 à 150 keV et d'une puissance allant jusqu'à 3 à 5 MW. Sur une grande installation, jusqu'à 10 à 15 injecteurs de puissance différente sont généralement installés. La puissance totale des faisceaux capturés par le plasma atteint 25 à 30 MW. Ceci est comparable à la puissance d’une petite centrale thermique. Il est prévu d'installer sur ITER des injecteurs avec des énergies de particules allant jusqu'à 1 MeV et une puissance totale allant jusqu'à 50 MW. Il n'existe pas encore de tels bundles, mais un développement intensif est en cours. Dans le cadre de l’accord ITER, le Japon a assumé la responsabilité de ces développements.

On pense désormais que le chauffage du plasma par ondes électromagnétiques est efficace dans trois gammes de fréquences :

  • chauffage des électrons à leur fréquence cyclotron f ~ 170 GHz ;
  • chauffage des ions et des électrons à la fréquence du cyclotron ionique f ~ 100 MHz ;
  • chauffage à fréquence intermédiaire (hybride inférieure) f ~ 5 GHz.

Pour les deux dernières gammes de fréquences, de puissantes sources de rayonnement existent depuis longtemps, et le principal problème ici est de bien adapter les sources (antennes) au plasma pour réduire les effets de réflexion des ondes. Sur un numéro grandes installations Grâce à la grande compétence des expérimentateurs, il a été possible d'introduire ainsi jusqu'à 10 MW de puissance dans le plasma.

Pour la première gamme de fréquences, la plus élevée, le problème était initialement de développer des sources de rayonnement puissantes d'une longueur d'onde de 1 à 2 mm. Le pionnier en la matière fut l'Institut de physique appliquée de Nijni Novgorod. En un demi-siècle de travaux ciblés, il a été possible de créer des sources de rayonnement (gyrotrons) d'une puissance allant jusqu'à 1 MW en mode stationnaire. Ce sont ces appareils qui seront installés chez ITER. Dans les gyrotrons, la technologie est devenue une forme d’art. Le résonateur dans lequel les ondes sont excitées par un faisceau d'électrons a des dimensions de l'ordre de 20 cm et la longueur d'onde requise est 10 fois plus petite. Par conséquent, il est nécessaire d’investir de manière résonnante jusqu’à 95 % de la puissance dans une harmonique spatiale très élevée, et pas plus de 5 % dans toutes les autres ensemble. Dans l'un des gyrotrons d'ITER, une harmonique avec des nombres (nombre de nœuds) de rayon = 25 et d'angle = 10 est utilisée comme harmonique sélectionnée. Pour émettre le rayonnement du gyrotron, un disque de diamant polycristallin d'une épaisseur de 1,85 mm. et un diamètre de 106 mm est utilisé comme fenêtre. Ainsi, pour résoudre le problème du chauffage du plasma, il a fallu développer la production de diamants artificiels géants.

6. Diagnostic

À une température du plasma de 100 millions de degrés, aucun appareil de mesure ne peut être inséré dans le plasma. Il s'évaporera sans avoir le temps de transmettre des informations raisonnables. Toutes les mesures sont donc indirectes. Les courants, champs et particules extérieurs au plasma sont mesurés, puis, à l'aide de modèles mathématiques, les signaux enregistrés sont interprétés.

Qu’est-ce qui est réellement mesuré ?

Il s’agit tout d’abord des courants et tensions dans les circuits entourant le plasma. Les champs électriques et magnétiques extérieurs au plasma sont mesurés à l'aide de sondes locales. Le nombre de ces sondes peut atteindre plusieurs centaines. A partir de ces mesures, résolvant des problèmes inverses, il est possible de reconstruire la forme du plasma, sa position dans la chambre et l'amplitude du courant.

Des méthodes actives et passives sont utilisées pour mesurer la température et la densité du plasma. Par actif, nous entendons une méthode par laquelle un certain rayonnement (par exemple, un faisceau laser ou un faisceau de particules neutres) est injecté dans le plasma et le rayonnement diffusé, qui transporte des informations sur les paramètres du plasma, est mesuré. L’une des difficultés du problème réside dans le fait qu’en règle générale, seule une petite fraction du rayonnement injecté est diffusée. Ainsi, lorsque vous utilisez un laser pour mesurer la température et la densité électronique, seulement 10 à 10 de l’énergie de l’impulsion laser est dissipée. Lors de l'utilisation d'un faisceau de neutres pour mesurer la température des ions, l'intensité, la forme et la position des lignes optiques qui apparaissent lorsque les ions du plasma sont rechargés sur les neutres du faisceau sont mesurées. L'intensité de ces raies est très faible et des spectromètres à haute sensibilité sont nécessaires pour analyser leur forme.

Les méthodes passives font référence aux méthodes qui mesurent le rayonnement émanant constamment d'un plasma. Dans ce cas, le rayonnement électromagnétique est mesuré dans diverses plages de fréquences ou dans les flux et spectres des particules neutres qui s'échappent. Cela comprend les mesures des rayons X durs et mous, des rayons ultraviolets, ainsi que les mesures dans les domaines optique, infrarouge et radio. Les mesures des spectres ainsi que les positions et formes des raies individuelles sont intéressantes. Le nombre de canaux spatiaux dans les diagnostics individuels atteint plusieurs centaines. La fréquence d'enregistrement du signal atteint plusieurs MHz. Chaque installation qui se respecte dispose d'un ensemble de 25 à 30 diagnostics. Au réacteur tokamak ITER, ce n'est qu'au stade initial qu'il est prévu de disposer de plusieurs dizaines de diagnostics passifs et actifs.

7. Modèles mathématiques du plasma

Les problèmes de modélisation mathématique du plasma peuvent être grossièrement divisés en deux groupes. Le premier groupe comprend des tâches d'interprétation d'une expérience. Elles sont généralement incorrectes et nécessitent le développement de méthodes de régularisation. Voici quelques exemples de tâches de ce groupe.

  1. Reconstruction de la limite du plasma à partir de mesures magnétiques (sonde) de champs extérieurs au plasma. Ce problème conduit à des équations intégrales de Fredholm du premier type ou à des systèmes algébriques linéaires fortement dégénérés.
  2. Traitement des mesures d'accords. Nous arrivons ici aux équations intégrales du premier type de type mixte Volterra-Fredholm.
  3. Traitement des mesures de raies spectrales. Ici, il faut prendre en compte les fonctions matérielles, et nous revenons aux équations intégrales de Fredholm du premier type.
  4. Traitement des signaux horaires bruités. Ici, diverses décompositions spectrales (Fourier, ondelettes) et calculs de corrélations de différents ordres sont utilisés.
  5. Analyse des spectres de particules. Nous avons ici affaire à des équations intégrales non linéaires du premier type.

Les images suivantes illustrent certains des exemples ci-dessus. La figure 4 montre le comportement temporel des signaux de rayons X mous à l'installation MAST (Angleterre), mesurés le long des cordes avec des détecteurs collimatés.

Les diagnostics installés enregistrent plus de 100 de ces signaux. Les pics nets dans les courbes correspondent à des mouvements internes rapides (« perturbations ») du plasma. La structure bidimensionnelle de tels mouvements peut être trouvée grâce au traitement tomographique d'un grand nombre de signaux.

La figure 5 montre la distribution spatiale de la pression électronique pour deux impulsions provenant de la même configuration MAST.

Les spectres du rayonnement diffusé du faisceau laser sont mesurés en 300 points le long du rayon. Chaque point de la figure 5 est le résultat d'un traitement complexe du spectre énergétique des photons enregistré par les détecteurs. Étant donné que seule une petite partie de l’énergie du faisceau laser est dissipée, le nombre de photons dans le spectre est faible et restaurer la température sur toute la largeur du spectre s’avère être une tâche incorrecte.

Le deuxième groupe comprend les problèmes réels de modélisation des processus se produisant dans le plasma. Le plasma chaud dans un tokamak présente un grand nombre de temps caractéristiques dont les extrêmes diffèrent de 12 ordres de grandeur. Par conséquent, l’espoir de créer des modèles contenant « tous » les processus du plasma peut être vain. Il est nécessaire d’utiliser des modèles valables uniquement dans une bande assez étroite de temps caractéristiques.

Les principaux modèles comprennent :

  • Description gyrocinétique du plasma. Ici, l'inconnue est la fonction de distribution des ions, qui dépend de six variables : trois coordonnées spatiales en géométrie toroïdale, la vitesse longitudinale et transversale et le temps. Pour décrire les électrons dans de tels modèles, des méthodes de moyenne sont utilisées. Pour résoudre ce problème, des codes géants ont été développés dans plusieurs centres étrangers. Leur calcul nécessite beaucoup de temps sur les supercalculateurs. Il n’existe actuellement aucun code de ce type en Russie ; dans le reste du monde, il en existe une douzaine. Actuellement, les codes gyrocinétiques décrivent les processus plasmatiques dans un intervalle de temps de 10 -5 -10 -2 secondes. Ceux-ci incluent le développement d’instabilités et le comportement de la turbulence du plasma. Malheureusement, ces codes ne donnent pas encore une image raisonnable du transport dans le plasma. La comparaison des résultats de calcul avec l’expérience en est encore à ses débuts.
  • Description magnétohydrodynamique (MHD) du plasma. Dans ce domaine, plusieurs centres ont créé des codes pour des modèles tridimensionnels linéarisés. Ils sont utilisés pour étudier la stabilité du plasma. En règle générale, les limites de l'instabilité dans l'espace des paramètres et l'ampleur des incréments sont recherchées. Des codes non linéaires sont développés en parallèle.

Il convient de noter qu'au cours des deux dernières décennies, l'attitude des physiciens face aux instabilités du plasma a sensiblement changé. Dans les années 50 et 60, des instabilités du plasma étaient découvertes « presque tous les jours ». Mais au fil du temps, il est devenu clair que seuls certains d'entre eux conduisent à une destruction partielle ou totale du plasma, tandis que les autres ne font qu'augmenter (ou n'augmentent pas) le transfert d'énergie et de particules. L’instabilité la plus dangereuse, conduisant à la destruction complète du plasma, est appelée « instabilité de décrochage » ou simplement « décrochage ». Il est non linéaire et se développe dans le cas où des modes MHD linéaires plus élémentaires associés à des surfaces résonantes individuelles se croisent dans l'espace et détruisent ainsi les surfaces magnétiques. Les tentatives pour décrire le processus de blocage ont conduit à la création de codes non linéaires. Malheureusement, aucun d’entre eux n’est encore capable de décrire l’image de la destruction du plasma.

Aujourd’hui, dans les expériences sur plasma, outre les instabilités de décrochage, un petit nombre d’instabilités sont considérées comme dangereuses. Nous n’en citerons ici que deux. Il s'agit du mode dit RWM, associé à la conductivité finie des parois de la chambre et à l'amortissement des courants de stabilisation du plasma, et du mode NTM, associé à la formation d'îlots magnétiques sur des surfaces magnétiques résonantes. A ce jour, plusieurs codes MHD tridimensionnels en géométrie toroïdale ont été créés pour étudier ce type de perturbations. Il existe une recherche active de méthodes pour supprimer ces instabilités, telles que stade précoce, et au stade de turbulence développée.

  • Description du transport dans le plasma, conductivité thermique et diffusion. Il y a environ quarante ans, la théorie classique (basée sur des collisions de particules appariées) du transfert dans un plasma toroïdal a été créée. Cette théorie était qualifiée de « néoclassique ». Cependant, déjà à la fin des années 60, des expériences ont montré que le transfert d'énergie et de particules dans le plasma est bien supérieur à celui néoclassique (de 1 à 2 ordres de grandeur). Sur cette base, le transport normal dans le plasma expérimental est appelé « anormal ».

De nombreuses tentatives ont été faites pour décrire le transport anormal à travers le développement de cellules turbulentes dans le plasma. La méthode habituelle, adoptée au cours de la dernière décennie dans de nombreux laboratoires à travers le monde, est la suivante. On suppose que la cause principale déterminant le transport anormal est des instabilités de type dérive associées aux gradients de température des ions et des électrons ou à la présence de particules piégées dans la géométrie toroïdale du plasma. Les résultats des calculs utilisant de tels codes conduisent à l’image suivante. Si les gradients de température dépassent une certaine valeur critique, l'instabilité qui se développe entraîne une turbulisation du plasma et une forte augmentation des flux d'énergie. On suppose que ces flux augmentent proportionnellement à la distance (dans une certaine mesure) entre les gradients expérimental et critique. Dans cette optique, plusieurs modèles de transport ont été construits au cours de la dernière décennie pour décrire le transfert d'énergie dans le plasma tokamak. Cependant, les tentatives visant à comparer les calculs utilisant ces modèles avec l’expérience ne mènent pas toujours au succès. Pour décrire les expériences, nous devons supposer que dans différents modes de décharge et en différents points spatiaux de la section efficace du plasma Le rôle principal Diverses instabilités jouent un rôle dans le transfert. En conséquence, la prédiction n’est pas toujours fiable.

La question est encore compliquée par le fait qu'au cours du dernier quart de siècle, de nombreux signes d'« auto-organisation » du plasma ont été découverts. Un exemple d'un tel effet est illustré sur les figures 6a, b.

La figure 6a montre les profils de densité de plasma n (r) pour deux décharges de l'installation MAST avec les mêmes courants et champs magnétiques, mais avec des débits d'alimentation en gaz deutérium différents pour maintenir la densité. Ici r est la distance à l'axe central du tore. On constate que les profils de densité varient considérablement en forme. Sur la figure 6b, pour les mêmes impulsions, les profils de pression électronique sont représentés, normalisés au point – profil de température électronique. On constate que les « ailes » des profils de pression coïncident bien. Il s’ensuit que les profils de température électronique sont pour ainsi dire « ajustés » pour rendre les profils de pression identiques. Mais cela signifie que les coefficients de transfert sont « ajustés », c’est-à-dire qu’ils ne sont pas fonction des paramètres locaux du plasma. Cette image dans son ensemble s’appelle l’auto-organisation. L'écart entre les profils de pression dans la partie centrale s'explique par la présence d'oscillations périodiques MHD dans la zone centrale de la décharge avec une densité plus élevée. Les profils de pression sur les ailes sont les mêmes, malgré cette non-stationnarité.

Notre travail suppose que l’effet de l’auto-organisation est déterminé par l’action simultanée de nombreuses instabilités. Il est impossible d'identifier la principale instabilité parmi elles, c'est pourquoi la description du transfert doit être associée à certains principes variationnels qui se réalisent dans le plasma en raison de processus dissipatifs. En tant que tel principe, il est proposé d'utiliser le principe d'énergie magnétique minimale proposé par Kadomtsev. Ce principe nous permet d'identifier certains profils particuliers de courant et de pression, généralement appelés canoniques. Dans les modèles de transport, ils jouent le même rôle que les gradients critiques. Les modèles construits dans cette voie permettent de décrire raisonnablement les profils expérimentaux de température et de densité de plasma dans différents modes de fonctionnement d'un tokamak.

8. Le chemin vers l'avenir. Espoirs et rêves.

Depuis plus d'un demi-siècle de recherche sur les plasmas chauds, une partie importante du chemin vers un réacteur thermonucléaire a été parcourue. Actuellement, le plus prometteur est l’utilisation d’installations de type tokamak à cet effet. En parallèle, bien qu'avec un retard de 10 à 15 ans, la direction des stellarateurs se développe. Il est actuellement impossible de dire laquelle de ces installations sera à terme la plus adaptée à un réacteur commercial. Cela ne pourra être décidé que dans le futur.

Les progrès réalisés dans la recherche sur le CTS depuis les années 1960 sont présentés sur la figure 7 sur une échelle logarithmique double.

Le domaine de la physique des plasmas est né du désir de mettre en bouteille une étoile. Au cours des dernières décennies, le domaine s’est développé dans d’innombrables directions, de l’astrophysique à la météorologie spatiale en passant par la nanotechnologie.

À mesure que notre compréhension générale du plasma s’est développée, notre capacité à maintenir les conditions de fusion pendant plus d’une seconde a également augmenté. Plus tôt cette année, un nouveau réacteur à fusion supraconducteur en Chine a pu contenir du plasma à 50 millions de degrés Celsius pendant une durée record de 102 secondes. Le Wendelstein X-7 Stellarator, qui a effectué son premier vol en Allemagne l'automne dernier, devrait être capable de battre ce record et de contenir du plasma jusqu'à 30 minutes d'affilée.

La récente mise à jour du NSTX-U semble modeste par rapport à ces monstres : l'expérience peut désormais contenir du plasma pendant cinq secondes au lieu d'une. Mais c’est aussi une étape importante.

"Créer un plasma de fusion qui ne dure que cinq secondes peut ne pas sembler un processus très long, mais dans la physique du plasma, cinq secondes peuvent être comparées à sa physique en régime permanent", explique Myers, faisant référence aux conditions dans lesquelles le plasma est stable. L’objectif ultime est d’atteindre un état stable de « plasma en combustion » capable de réaliser la fusion de manière autonome avec peu d’apport d’énergie externe. Aucune expérience n’y est encore parvenue.

NSTX-U permettra aux chercheurs de Princeton de combler certaines lacunes entre ce que l'on sait actuellement de la physique des plasmas et ce qui sera nécessaire pour créer une usine pilote capable de réaliser une combustion en régime permanent et de produire de l'électricité propre.

D’une part, pour trouver de meilleurs matériaux de confinement, nous devons mieux comprendre ce qui se passe entre le plasma de fusion et les parois du réacteur. Princeton étudie la possibilité de remplacer les parois de son réacteur (en graphite de carbone) par une « paroi » en lithium liquide afin de réduire la corrosion à long terme.

En outre, les scientifiques estiment que si la synthèse peut contribuer à la lutte contre le réchauffement climatique, ils doivent se dépêcher. NSTX-U aidera les physiciens à décider de poursuivre ou non le développement de la conception du tokamak sphérique. La plupart des réacteurs tokamak ont ​​moins la forme d'une pomme et davantage une forme de beignet, de beignet et de tore. Forme inhabituelle le tore sphérique vous permet d'utiliser plus efficacement le champ magnétique de vos bobines.

«À long terme, nous aimerions trouver comment optimiser la configuration d'une de ces machines», déclare Martin Greenwald, directeur associé du Center for Plasma and Fusion Science de . "Pour ce faire, vous devez savoir comment les performances de la machine dépendent de éléments que vous pouvez contrôler, comme la forme."

Myers déteste estimer à quel point nous sommes loin d’une énergie de fusion commercialement réalisable, et il est compréhensible. Après tout, des décennies d’optimisme incessant ont sérieusement entaché la réputation de ce domaine et renforcé l’idée selon laquelle la fusion est une chimère. Avec toutes les implications en matière de financement.

Portant un coup dur au programme de fusion du MIT, le gouvernement fédéral a apporté son soutien au tokamak Alcator C-Mid, qui produit l'un des champs magnétiques les plus puissants au monde et démontre le plasma de fusion aux pressions les plus élevées. La plupart des recherches attendues sur le NSTX-U dépendront du soutien fédéral continu, qui, selon Myers, sera « dans un an ».

Tout le monde doit dépenser son argent en recherche avec précaution, et certains programmes de fusion ont déjà dépensé des sommes incroyables. Prenons par exemple ITER, un immense réacteur à fusion supraconducteur actuellement en construction en France. Quand a-t-il commencé en 2005 ? coopération internationale, il a été présenté comme un projet de 5 milliards de dollars sur 10 ans. Après plusieurs années d’échec, le prix à payer s’élève à 40 milliards de dollars. Selon les estimations les plus optimistes, l’installation sera achevée d’ici 2030.

Et là où ITER semble prêt à gonfler comme une tumeur jusqu'à manquer de ressources et tuer son hôte, le programme de fusion simplifié du MIT montre comment cela peut être réalisé avec un budget beaucoup plus réduit. L'été dernier, une équipe d'étudiants diplômés du MIT a présenté des plans pour ARC, un réacteur à fusion à faible coût qui utiliserait de nouveaux matériaux supraconducteurs à haute température pour générer la même quantité d'énergie qu'ITER, mais avec un dispositif beaucoup plus petit.

"Le défi de la fusion est de trouver une voie technique qui la rende économiquement attractive, ce que nous prévoyons de faire dans un avenir proche", explique Greenwald, soulignant que le concept ARC est actuellement poursuivi par l'Energy Initiative du MIT. - Nous pensons que si la synthèse est importante pour le réchauffement climatique, nous devons aller plus vite."

"La fusion promet d'être une source d'énergie majeure - c'est essentiellement notre objectif ultime", déclare Robert Rosner, physicien des plasmas à l'Université de Chicago et co-fondateur de son Energy Policy Institute. « En même temps, une question importante se pose : combien sommes-nous prêts à dépenser maintenant. Si nous réduisons le financement au point que la prochaine génération d’enfants intelligents ne veuille plus faire cela du tout, nous pourrions nous retirer complètement de ce secteur. »

mob_info