Was ist die Schwierigkeit der kontrollierten Kernfusion? Thermonukleare Energie: Stand und Perspektiven

1. Einleitung

3. Probleme der Kontrolle der Kernfusion

3.1 Wirtschaftsprobleme

3.2 Medizinische Probleme

4. Fazit

5. Referenzen


1. Einleitung

Das Problem des Gesteuerten thermonukleare Fusion- eine der wichtigsten Aufgaben der Menschheit.

Ohne Energie kann die menschliche Zivilisation nicht existieren, geschweige denn sich entwickeln. Jeder ist sich bewusst, dass die entwickelten Energiequellen leider bald erschöpft sein könnten. Nach Angaben des Weltenergierats gibt es auf der Erde noch nachgewiesene Kohlenwasserstoff-Brennstoffreserven für 30 Jahre.

Heutzutage sind Öl, Gas und Kohle die Hauptenergiequellen.

Experten zufolge gehen die Reserven dieser Mineralien zur Neige. Es gibt fast keine erkundeten und ausbeutbaren Ölfelder mehr, und unsere Enkelkinder stehen möglicherweise bereits vor einem sehr ernsten Problem der Energieknappheit.

Die brennstoffreichsten Kernkraftwerke könnten die Menschheit natürlich Hunderte von Jahren lang mit Strom versorgen.

Studienobjekt: Probleme der kontrollierten Kernfusion.

Gegenstand der Studie: Thermonukleare Fusion.

Zweck der Studie: Lösen Sie das Problem der Kontrolle der Kernfusion;

Forschungsschwerpunkte:

· Studieren Sie die Arten thermonuklearer Reaktionen.

· Berücksichtigen Sie alle Möglichkeiten zur Ableitung der dabei freigesetzten Energie thermonukleare Reaktion, zum Mann.

· Schlagen Sie eine Theorie zur Umwandlung von Energie in Elektrizität vor.

Hintergrundfakt:

Beim Zerfall oder der Verschmelzung von Atomkernen wird Kernenergie freigesetzt. Jede Energie – ob physikalisch, chemisch oder nuklear – manifestiert sich in ihrer Fähigkeit, Arbeit zu leisten, Wärme oder Strahlung abzugeben. Energie bleibt in jedem System immer erhalten, sie kann jedoch auf ein anderes System übertragen oder in ihrer Form geändert werden.

Leistung Die Bedingungen für eine kontrollierte Kernfusion werden durch mehrere Hauptprobleme erschwert:

· Zuerst müssen Sie das Gas auf eine sehr hohe Temperatur erhitzen.

· Zweitens ist es notwendig, die Anzahl der reagierenden Kerne über einen ausreichend langen Zeitraum zu kontrollieren.

· Drittens muss die freigesetzte Energiemenge größer sein als die, die für die Erwärmung und Begrenzung der Gasdichte aufgewendet wurde.

· Das nächste Problem besteht darin, diese Energie zu speichern und in Strom umzuwandeln

2. Thermonukleare Reaktionen auf der Sonne

Was ist die Quelle der Sonnenenergie? Welcher Art sind die Prozesse, die enorme Energiemengen erzeugen? Wie lange wird die Sonne noch scheinen?

Die ersten Versuche, diese Fragen zu beantworten, wurden von Astronomen Mitte des 19. Jahrhunderts unternommen, nachdem Physiker den Energieerhaltungssatz formuliert hatten.

Robert Mayer vermutete, dass die Sonne aufgrund der ständigen Bombardierung der Oberfläche durch Meteoriten und Meteoritenteilchen scheint. Diese Hypothese wurde verworfen, da eine einfache Berechnung zeigt, dass jede Sekunde 2∙10 15 kg auf die Sonne fallen müssen, um die Leuchtkraft der Sonne auf dem aktuellen Niveau zu halten meteorische Materie. Im Laufe eines Jahres werden es 6∙10 22 kg sein, und über die Lebensdauer der Sonne, über 5 Milliarden Jahre, 3∙10 32 kg. Sonnenmasse M

= 2∙10 30 kg, also müsste im Laufe von fünf Milliarden Jahren Materie mit der 150-fachen Sonnenmasse auf die Sonne gefallen sein.

Die zweite Hypothese wurde ebenfalls Mitte des 19. Jahrhunderts von Helmholtz und Kelvin aufgestellt. Sie vermuteten, dass die Sonne aufgrund der Kompression jährlich 60–70 Meter strahlt. Grund für die Komprimierung - gegenseitige Anziehung Teilchen der Sonne, weshalb diese Hypothese Kontraktion genannt wird. Wenn wir nach dieser Hypothese rechnen, wird das Alter der Sonne nicht mehr als 20 Millionen Jahre betragen, was modernen Daten widerspricht, die aus der Analyse des radioaktiven Zerfalls von Elementen in geologischen Proben des Erdbodens und des Bodens der Erde gewonnen wurden der Mond.

Die dritte Hypothese über mögliche Quellen der Sonnenenergie wurde von James Jeans zu Beginn des 20. Jahrhunderts aufgestellt. Er vermutete, dass in den Tiefen der Sonne schwere radioaktive Elemente enthalten sind, die spontan zerfallen und Energie abgeben. Beispielsweise geht die Umwandlung von Uran in Thorium und dann in Blei mit der Freisetzung von Energie einher. Die anschließende Analyse dieser Hypothese zeigte auch, dass sie widersprüchlich war; Ein Stern, der nur aus Uran besteht, würde nicht genug Energie freisetzen, um die beobachtete Leuchtkraft der Sonne zu erzeugen. Darüber hinaus gibt es Sterne, deren Leuchtkraft um ein Vielfaches größer ist als die Leuchtkraft unseres Sterns. Es ist unwahrscheinlich, dass diese Sterne auch über größere Reserven an radioaktivem Material verfügen.

Als wahrscheinlichste Hypothese erwies sich die Hypothese der Synthese von Elementen als Folge von Kernreaktionen im Inneren von Sternen.

Im Jahr 1935 stellte Hans Bethe die Hypothese auf, dass die Quelle der Sonnenenergie die thermonukleare Reaktion der Umwandlung von Wasserstoff in Helium sein könnte. Dafür erhielt Bethe 1967 den Nobelpreis.

Die chemische Zusammensetzung der Sonne entspricht in etwa der der meisten anderen Sterne. Ungefähr 75 % sind Wasserstoff, 25 % sind Helium und weniger als 1 % sind alle anderen chemischen Elemente (hauptsächlich Kohlenstoff, Sauerstoff, Stickstoff usw.). Unmittelbar nach der Geburt des Universums gab es überhaupt keine „schweren“ Elemente. Alle, d.h. Elemente, die schwerer als Helium sind, und sogar viele Alphateilchen, entstanden beim „Verbrennen“ von Wasserstoff in Sternen während der Kernfusion. Die charakteristische Lebensdauer eines Sterns wie der Sonne beträgt zehn Milliarden Jahre.

Die Hauptenergiequelle ist der Proton-Proton-Zyklus – eine sehr langsame Reaktion (charakteristische Zeit 7,9∙10 9 Jahre), da sie auf schwache Wechselwirkung zurückzuführen ist. Sein Wesen besteht darin, dass ein Heliumkern aus vier Protonen gebildet wird. Dabei werden ein Positronen- und ein Neutrinopaar sowie 26,7 MeV Energie freigesetzt. Die Anzahl der von der Sonne pro Sekunde emittierten Neutrinos wird nur durch die Leuchtkraft der Sonne bestimmt. Da bei der Freisetzung von 26,7 MeV zwei Neutrinos entstehen, beträgt die Neutrino-Emissionsrate: 1,8∙10 38 Neutrinos/s. Ein direkter Test dieser Theorie ist die Beobachtung solarer Neutrinos. Hochenergetische (Bor-)Neutrinos werden in Chlor-Argon-Experimenten (Davis-Experimenten) nachgewiesen und zeigen durchweg einen Mangel an Neutrinos im Vergleich zum theoretischen Wert für das Standardmodell der Sonne. Niederenergetische Neutrinos, die direkt bei der pp-Reaktion entstehen, werden in Gallium-Germanium-Experimenten erfasst (GALLEX in Gran Sasso (Italien – Deutschland) und SAGE in Baksan (Russland – USA)); sie „fehlen“ auch.

Wenn Neutrinos eine von Null verschiedene Ruhemasse haben, sind nach einigen Annahmen Schwingungen (Transformationen) verschiedener Arten von Neutrinos möglich (Mikheev-Smirnov-Wolfenstein-Effekt) (es gibt drei Arten von Neutrinos: Elektron-, Myon- und Tauon-Neutrinos). . Weil Da andere Neutrinos viel kleinere Wirkungsquerschnitte für die Wechselwirkung mit Materie haben als Elektronen, kann das beobachtete Defizit erklärt werden, ohne das Standardmodell der Sonne zu ändern, das auf der Grundlage aller astronomischen Daten erstellt wurde.

Jede Sekunde verarbeitet die Sonne etwa 600 Millionen Tonnen Wasserstoff. Die Kernbrennstoffreserven reichen noch für weitere fünf Milliarden Jahre, danach wird er sich nach und nach in einen Weißen Zwerg verwandeln.

Die zentralen Teile der Sonne werden sich zusammenziehen, sich erwärmen, und die auf die äußere Hülle übertragene Wärme wird zu ihrer Ausdehnung auf im Vergleich zu modernen Größen monströse Ausmaße führen: Die Sonne wird sich so stark ausdehnen, dass sie Merkur und Venus absorbiert und verbraucht. Kraftstoff“ hundertmal schneller als derzeit. Dies wird zu einer Vergrößerung der Sonne führen; Unser Stern wird zu einem Roten Riesen, dessen Größe mit der Entfernung von der Erde zur Sonne vergleichbar ist!

Wir werden uns eines solchen Ereignisses natürlich im Voraus bewusst sein, da der Übergang zu einer neuen Stufe etwa 100 bis 200 Millionen Jahre dauern wird. Wenn die Temperatur im zentralen Teil der Sonne 100.000.000 K erreicht, beginnt Helium zu brennen und verwandelt sich in schwere Elemente, und die Sonne tritt in die Phase komplexer Kompressions- und Expansionszyklen ein. Im letzten Stadium wird unser Stern seine äußere Hülle verlieren, der zentrale Kern wird eine unglaublich hohe Dichte und Größe haben, wie die der Erde. Es werden noch ein paar Milliarden Jahre vergehen, und die Sonne wird abkühlen und sich in einen Weißen Zwerg verwandeln.

3. Probleme der kontrollierten Kernfusion

Forscher aus allen entwickelten Ländern setzen ihre Hoffnung auf die Überwindung der kommenden Energiekrise auf einer kontrollierten thermonuklearen Reaktion. Eine solche Reaktion – die Synthese von Helium aus Deuterium und Tritium – findet seit Millionen von Jahren auf der Sonne statt und unter terrestrischen Bedingungen versucht man sie seit fünfzig Jahren in riesigen und sehr teuren Laseranlagen, Tokamaks, durchzuführen (ein Gerät zur Durchführung thermonuklearer Fusionsreaktionen in heißem Plasma) und Stellaratoren (geschlossene Magnetfalle zum Einschließen von Hochtemperaturplasma). Es gibt jedoch andere Möglichkeiten, dieses schwierige Problem zu lösen, und anstelle riesiger Tokamaks wird es wahrscheinlich möglich sein, einen recht kompakten und kostengünstigen Collider – einen Kollisionsstrahlbeschleuniger – zur Durchführung der Kernfusion zu verwenden.

Tokamak benötigt zum Betrieb sehr geringe Mengen Lithium und Deuterium. Beispielsweise verbrennt ein Reaktor mit einer elektrischen Leistung von 1 GW etwa 100 kg Deuterium und 300 kg Lithium pro Jahr. Wenn wir davon ausgehen, dass alle Fusionskraftwerke 10 Billionen produzieren werden. kWh Strom pro Jahr, also so viel, wie alle Kraftwerke der Erde heute produzieren, dann reichen die weltweiten Reserven an Deuterium und Lithium aus, um die Menschheit für viele Millionen Jahre mit Energie zu versorgen.

Neben der Fusion von Deuterium und Lithium ist auch eine rein solare Fusion möglich, wenn sich zwei Deuteriumatome verbinden. Wenn diese Reaktion beherrscht wird, werden Energieprobleme sofort und für immer gelöst.

Bei keiner der bekannten Varianten der kontrollierten thermonuklearen Fusion (CTF) können thermonukleare Reaktionen nicht in den Modus einer unkontrollierten Leistungssteigerung übergehen, daher sind solche Reaktoren nicht grundsätzlich sicher.

Sivkova Olga Dmitrievna

Diese Arbeit belegte bei der regionalen Bildungseinrichtung den 3. Platz

Herunterladen:

Vorschau:

Städtische Bildungseinrichtung

Durchschnitt allgemein bildende Schule №175

Leninsky-Bezirk von N. Nowgorod

Probleme der Kernfusion

Vervollständigt von: Sivkova Olga Dmitrievna

Schüler der 11. Klasse „A“, Schule Nr. 175

Wissenschaftlicher Leiter:

Kirzhaeva D. G.

Nizhny Novgorod

Jahr 2013.

Einleitung 3

2. Kontrollierte Kernfusion 8

3. Vorteile der Kernfusion 10

4. Probleme der Kernfusion 12

4.1 Die ökologischen Probleme 15

4.2 Medizinische Probleme 16

5. Thermonukleare Anlagen 18

6. Perspektiven für die Entwicklung der Kernfusion 23

Fazit 26

Literatur 27

Einführung


Verschiedenen Prognosen zufolge werden die wichtigsten Stromquellen auf dem Planeten in 50 bis 100 Jahren erschöpft sein. Die Erdölreserven der Menschheit werden in 40 Jahren, die Gasreserven in maximal 80 Jahren und die Uranreserven in 80-100 Jahren erschöpft sein. Die Kohlereserven reichen möglicherweise für 400 Jahre, aber die Nutzung dieses organischen Brennstoffs bringt den Planeten an den Rand einer Umweltkatastrophe. Wenn dieser gnadenlosen Luftverschmutzung heute nicht Einhalt geboten wird, sind Jahrhunderte nicht mehr in Frage. Was bedeutet alternative Quelle Wir brauchen auf absehbare Zeit Energie.

Und es gibt eine solche Quelle. Hierbei handelt es sich um thermonukleare Energie, bei der absolut nicht radioaktives Deuterium und radioaktives Tritium verwendet werden, jedoch in Mengen, die tausendmal kleiner sind als bei der Kernenergie. Und diese Quelle ist praktisch unerschöpflich, sie basiert auf der Kollision von Wasserstoffkernen und Wasserstoff ist die häufigste Substanz im Universum.

Eine der wichtigsten Aufgaben der Menschheit in diesem Bereich istProblem der kontrollierten Kernfusion.

Ohne Energie kann die menschliche Zivilisation nicht existieren, geschweige denn sich entwickeln. Jeder ist sich bewusst, dass die entwickelten Energiequellen leider bald erschöpft sein könnten. Nach Angaben des Weltenergierats gibt es auf der Erde noch nachgewiesene Kohlenwasserstoff-Brennstoffreserven für 30 Jahre.

Heutzutage sind Öl, Gas und Kohle die Hauptenergiequellen.

Experten zufolge gehen die Reserven dieser Mineralien zur Neige. Es gibt fast keine erkundeten, ausbeutbaren Ölfelder mehr, und unsere Enkelkinder stehen möglicherweise bereits vor einem sehr ernsten Problem der Energieknappheit.

Die brennstoffreichsten Kernkraftwerke könnten die Menschheit natürlich Hunderte von Jahren lang mit Strom versorgen.

Studienobjekt: Probleme kontrollierte thermonukleare Fusion.

Gegenstand der Studie:Thermonukleare Fusion.

Zweck der Studie:Lösen Sie das Problem der Kontrolle der Kernfusion;

Forschungsschwerpunkte:

  • Studieren Sie die Arten thermonuklearer Reaktionen.
  • Erwägen Sie alle Möglichkeiten, die bei einer thermonuklearen Reaktion freigesetzte Energie auf eine Person zu übertragen.
  • Schlagen Sie eine Theorie zur Umwandlung von Energie in Elektrizität vor.

Hintergrundfakt:

Beim Zerfall oder der Verschmelzung von Atomkernen wird Kernenergie freigesetzt. Jede Energie – ob physikalisch, chemisch oder nuklear – manifestiert sich in ihrer Fähigkeit, Arbeit zu leisten, Wärme oder Strahlung abzugeben. Energie bleibt in jedem System immer erhalten, sie kann jedoch auf ein anderes System übertragen oder in ihrer Form geändert werden.

Leistung Die Bedingungen für eine kontrollierte Kernfusion werden durch mehrere Hauptprobleme erschwert:

  • Zuerst müssen Sie das Gas auf eine sehr hohe Temperatur erhitzen.
  • Zweitens ist es notwendig, die Anzahl der reagierenden Kerne über einen ausreichend langen Zeitraum zu kontrollieren.
  • Drittens muss die freigesetzte Energiemenge größer sein als die, die für die Erwärmung und Begrenzung der Gasdichte aufgewendet wurde.
  • Das nächste Problem besteht darin, diese Energie zu speichern und in Strom umzuwandeln.

1. Thermonukleare Reaktionen auf der Sonne

Was ist die Quelle der Sonnenenergie? Welcher Art sind die Prozesse, die enorme Energiemengen erzeugen? Wie lange wird die Sonne noch scheinen?

Die ersten Versuche, diese Fragen zu beantworten, wurden von Astronomen Mitte des 19. Jahrhunderts unternommen, nachdem Physiker den Energieerhaltungssatz formuliert hatten.

Robert Mayer vermutete, dass die Sonne aufgrund der ständigen Bombardierung der Oberfläche durch Meteoriten und Meteoritenteilchen scheint. Diese Hypothese wurde verworfen, da eine einfache Berechnung zeigt, dass jede Sekunde 2∙10 auf die Sonne fallen müssen, um die Leuchtkraft der Sonne auf dem aktuellen Niveau zu halten. 15 kg Meteormaterial. Im Laufe eines Jahres werden es 6∙10 sein 22 kg und während der Existenz der Sonne über 5 Milliarden Jahre - 3∙10 32 kg. Sonnenmasse M = 2∙10 30 kg, also müsste in fünf Milliarden Jahren Materie mit der 150-fachen Sonnenmasse auf die Sonne gefallen sein.

Die zweite Hypothese wurde ebenfalls Mitte des 19. Jahrhunderts von Helmholtz und Kelvin aufgestellt. Sie vermuteten, dass die Sonne aufgrund der Kompression jährlich 60–70 Meter strahlt. Der Grund für die Kompression ist die gegenseitige Anziehung der Sonnenteilchen, weshalb diese Hypothese genannt wurde kontraktiv . Wenn wir nach dieser Hypothese rechnen, wird das Alter der Sonne nicht mehr als 20 Millionen Jahre betragen, was modernen Daten widerspricht, die aus der Analyse des radioaktiven Zerfalls von Elementen in geologischen Proben des Erdbodens und des Bodens der Erde gewonnen wurden der Mond.

Die dritte Hypothese über mögliche Quellen der Sonnenenergie wurde von James Jeans zu Beginn des 20. Jahrhunderts aufgestellt. Er vermutete, dass es in den Tiefen der Sonne schwere radioaktive Elemente gibt, die spontan zerfallen und Energie abgeben. Beispielsweise geht die Umwandlung von Uran in Thorium und dann in Blei mit der Freisetzung von Energie einher. Die anschließende Analyse dieser Hypothese zeigte auch, dass sie widersprüchlich war; Ein Stern, der nur aus Uran besteht, würde nicht genug Energie freisetzen, um die beobachtete Leuchtkraft der Sonne zu erzeugen. Darüber hinaus gibt es Sterne, deren Leuchtkraft um ein Vielfaches größer ist als die unseres Sterns. Es ist unwahrscheinlich, dass diese Sterne auch über größere Reserven an radioaktivem Material verfügen.

Als wahrscheinlichste Hypothese erwies sich die Hypothese der Synthese von Elementen als Folge von Kernreaktionen im Inneren von Sternen.

Im Jahr 1935 stellte Hans Bethe die Hypothese auf, dass die Quelle der Sonnenenergie die thermonukleare Reaktion der Umwandlung von Wasserstoff in Helium sein könnte. Dafür erhielt Bethe 1967 den Nobelpreis.

Die chemische Zusammensetzung der Sonne entspricht in etwa der der meisten anderen Sterne. Ungefähr 75 % sind Wasserstoff, 25 % sind Helium und weniger als 1 % sind alle anderen chemischen Elemente (hauptsächlich Kohlenstoff, Sauerstoff, Stickstoff usw.). Unmittelbar nach der Geburt des Universums gab es überhaupt keine „schweren“ Elemente. Alle, d.h. Elemente, die schwerer als Helium sind, und sogar viele Alphateilchen entstanden beim „Verbrennen“ von Wasserstoff in Sternen während der Kernfusion. Die charakteristische Lebensdauer eines Sterns wie der Sonne beträgt zehn Milliarden Jahre.

Die Hauptenergiequelle istProton-Proton-Zyklus – sehr langsame Reaktion (charakteristische Zeit 7,9∙10 9 Jahre), da dies auf eine schwache Wechselwirkung zurückzuführen ist. Sein Wesen besteht darin, dass ein Heliumkern aus vier Protonen gebildet wird. Dabei werden ein Positronen- und ein Neutrinopaar sowie 26,7 MeV Energie freigesetzt. Die Anzahl der von der Sonne pro Sekunde emittierten Neutrinos wird nur durch die Leuchtkraft der Sonne bestimmt. Da bei der Freisetzung von 26,7 MeV zwei Neutrinos entstehen, beträgt die Neutrino-Emissionsrate: 1,8∙10 38 Neutrino/s. Ein direkter Test dieser Theorie ist die Beobachtung solarer Neutrinos. Hochenergetische (Bor-)Neutrinos werden in Chlor-Argon-Experimenten (Davis-Experimenten) nachgewiesen und zeigen durchweg einen Mangel an Neutrinos im Vergleich zum theoretischen Wert für das Standardmodell der Sonne. Niederenergetische Neutrinos, die direkt bei der pp-Reaktion entstehen, werden in Gallium-Germanium-Experimenten erfasst (GALLEX in Gran Sasso (Italien – Deutschland) und SAGE in Baksan (Russland – USA)); sie „fehlen“ auch.

Wenn Neutrinos eine von Null verschiedene Ruhemasse haben, sind nach einigen Annahmen Schwingungen (Transformationen) verschiedener Arten von Neutrinos möglich (Mikheev-Smirnov-Wolfenstein-Effekt) (es gibt drei Arten von Neutrinos: Elektron-, Myon- und Tauon-Neutrinos). . Weil Da andere Neutrinos viel kleinere Wirkungsquerschnitte für die Wechselwirkung mit Materie haben als Elektronen, kann das beobachtete Defizit erklärt werden, ohne das Standardmodell der Sonne zu ändern, das auf der Grundlage aller astronomischen Daten erstellt wurde.

Jede Sekunde verarbeitet die Sonne etwa 600 Millionen Tonnen Wasserstoff. Die Kernbrennstoffreserven werden noch fünf Milliarden Jahre reichen, danach wird er sich nach und nach in einen Weißen Zwerg verwandeln.

Die zentralen Teile der Sonne werden sich zusammenziehen, sich erwärmen, und die auf die äußere Hülle übertragene Wärme wird zu ihrer Ausdehnung auf im Vergleich zu modernen Größen monströse Ausmaße führen: Die Sonne wird sich so stark ausdehnen, dass sie Merkur und Venus absorbiert und verbraucht. Kraftstoff“ hundertmal schneller als derzeit. Dies wird zu einer Vergrößerung der Sonne führen; Unser Stern wird zu einem Roten Riesen, dessen Größe mit der Entfernung von der Erde zur Sonne vergleichbar ist!

Wir werden uns eines solchen Ereignisses natürlich im Voraus bewusst sein, da der Übergang zu einer neuen Stufe etwa 100 bis 200 Millionen Jahre dauern wird. Wenn die Temperatur im zentralen Teil der Sonne 100.000.000 K erreicht, beginnt Helium zu brennen und verwandelt sich in schwere Elemente, und die Sonne tritt in die Phase komplexer Kompressions- und Expansionszyklen ein. Im letzten Stadium wird unser Stern seine äußere Hülle verlieren, der zentrale Kern wird eine unglaublich hohe Dichte und Größe haben, wie die der Erde. Es werden noch ein paar Milliarden Jahre vergehen, und die Sonne wird abkühlen und sich in einen Weißen Zwerg verwandeln.

2. Kontrollierte thermonukleare Fusion.

Unter der kontrollierten Kernfusion (CTF) versteht man die Synthese schwererer Atomkerne aus leichteren Kernen zur Energiegewinnung, die im Gegensatz zur explosiven Kernfusion (die in Kernwaffen eingesetzt wird) kontrollierter Natur ist. Die kontrollierte Kernfusion unterscheidet sich von der herkömmlichen Kernenergie dadurch, dass letztere eine Zerfallsreaktion nutzt, bei der aus schweren Kernen leichtere Kerne entstehen. Die wichtigsten Kernreaktionen, die zur Erzielung einer kontrollierten thermonuklearen Fusion eingesetzt werden sollen, werden Deuterium verwenden ( 2 H) und Tritium (3 H) und längerfristig Helium-3 ( 3 He) und Bor-11 (11 B).

Bei der kontrollierten Fusion können je nach Art des verwendeten Brennstoffs unterschiedliche Arten von Fusionsreaktionen eingesetzt werden.

Deuterium ist ein thermonuklearer Brennstoff. 2 D 1, Tritium 3 T 1 und 6 Li 3 . Der primäre Kernbrennstoff dieser Art ist Deuterium. 6 Li 3 dient als Rohstoff für die Herstellung von sekundärem thermonuklearem Brennstoff – Tritium.

Tritium 3 T 1 - superschwerer Wasserstoff 3 N 1 – gewonnen durch Bestrahlung von natürlichem Li ( 7,52 % 6 Li 3 ) Neutronen und Alphateilchen ( 4 α 2 - Helium-Atomkerne 4 Nicht 2 ). Deuterium gemischt mit Tritium und 6 Li 3 (in Form von LiD und LiT ). Wenn Kernfusionsreaktionen in Brennstoff durchgeführt werden, kommt es zu Fusionsreaktionen von Heliumkernen (bei Temperaturen von mehreren zehn bis mehreren hundert Millionen Grad). Ausgesandte Neutronen werden von Kernen absorbiert 6 Li 3 , in diesem Fall entsteht entsprechend der Reaktion eine zusätzliche Menge Tritium: 6 Li 3 + 1 p 0 = 3 T 1 + 4 He 2 ( in der Reaktion der Summe der Massenzahlen 6+1=3+4 und Ladungssumme 3+0=1+2 muss auf beiden Seiten der Gleichung gleich sein). Durch die Fusionsreaktion entstehen aus zwei Deuteriumkernen (schwerer Wasserstoff) ein Tritiumkern (superschwerer Wasserstoff) und ein Proton (Kern eines normalen Wasserstoffatoms): 2 D 1 + 2 D 1 = 3 T 1 + 1 P 1; Die Reaktion kann auch auf einem anderen Weg ablaufen, nämlich unter Bildung eines Heliumisotopenkerns 3 He 2 und Neutron 1 n 0: 2 D 1 + 2 D 1 = 3 He 2 + 1 n 0. Tritium reagiert mit Deuterium, es entstehen erneut Neutronen, mit denen es wechselwirken kann 6 Li 3: 2 D 1 + 3 T 1 = 4 He 2 + 1 n 0 usw. Der Heizwert von thermonuklearem Brennstoff ist fünf- bis sechsmal höher als der von spaltbarem Material. Die Deuteriumreserven in der Hydrosphäre liegen in der Größenordnung von 10 13 t . Derzeit werden jedoch praktisch nur unkontrollierte Reaktionen (Explosionen) durchgeführt; es wird intensiv nach Methoden zur Umsetzung einer kontrollierten thermonuklearen Reaktion gesucht, die es prinzipiell ermöglicht, die Menschheit nahezu unbegrenzt mit Energie zu versorgen.

3. Vorteile der Kernfusion

Welche Vorteile hat die Kernfusion gegenüber Kernspaltungsreaktionen, die auf eine groß angelegte Entwicklung der Kernenergie hoffen lassen? Der wichtigste und grundlegende Unterschied ist das Fehlen langlebiger radioaktiver Müll, die typisch für Kernspaltungsreaktoren sind. Und obwohl während des Betriebs eines thermonuklearen Reaktors die erste Wand durch Neutronen aktiviert wird, eröffnet die Wahl geeigneter Strukturmaterialien mit geringer Aktivierung die grundsätzliche Möglichkeit, einen thermonuklearen Reaktor zu schaffen, bei dem die induzierte Aktivität der ersten Wand vollständig abnimmt dreißig Jahre nach der Abschaltung des Reaktors ein sicheres Niveau erreichen. Das bedeutet, dass ein erschöpfter Reaktor nur 30 Jahre lang stillgelegt werden muss, danach können die Materialien recycelt und in einem neuen Synthesereaktor verwendet werden. Diese Situation unterscheidet sich grundlegend von Kernspaltungsreaktoren, die radioaktive Abfälle erzeugen, die einer Wiederaufbereitung und Lagerung über Zehntausende von Jahren bedürfen. Neben der geringen Radioaktivität verfügt die thermonukleare Energie über riesige, praktisch unerschöpfliche Reserven an Brennstoffen und anderen notwendigen Materialien, die ausreichen, um viele hunderte, wenn nicht tausende Jahre lang Energie zu erzeugen.

Es waren diese Vorteile, die die großen Atommächte dazu veranlassten, Mitte der 50er Jahre mit der groß angelegten Forschung zur kontrollierten Kernfusion zu beginnen. Zu diesem Zeitpunkt wurden bereits die ersten erfolgreichen Tests von Wasserstoffbomben in der Sowjetunion und den Vereinigten Staaten durchgeführt, die die grundsätzliche Möglichkeit der Nutzung der Kernfusionsenergie unter terrestrischen Bedingungen bestätigten. Von Anfang an war klar, dass die kontrollierte Kernfusion keine militärische Anwendung hatte. Die Forschung wurde 1956 freigegeben und wird seitdem im Rahmen einer umfassenden internationalen Zusammenarbeit durchgeführt. Die Wasserstoffbombe wurde in nur wenigen Jahren entwickelt, und damals schien es, als sei das Ziel nahe und die ersten großen Versuchsanlagen, die Ende der 50er Jahre gebaut wurden, würden thermonukleares Plasma erzeugen. Es bedurfte jedoch mehr als 40 Jahre Forschung, um Bedingungen zu schaffen, unter denen die Freisetzung thermonuklearer Energie mit der Heizleistung des reagierenden Gemisches vergleichbar ist. Im Jahr 1997 erhielt die größte thermonukleare Anlage, der europäische TOKAMAK (JET), 16 MW thermonukleare Leistung und näherte sich dieser Schwelle.

Was war der Grund für diese Verzögerung? Es stellte sich heraus, dass Physiker und Ingenieure, um das Ziel zu erreichen, viele Probleme lösen mussten, von denen sie zu Beginn der Reise keine Ahnung hatten. In diesen 40 Jahren entstand die Wissenschaft der Plasmaphysik, die es ermöglichte, die komplexen physikalischen Prozesse im reagierenden Gemisch zu verstehen und zu beschreiben. Ingenieure mussten ebenso komplexe Probleme lösen, darunter das Erlernen der Erzeugung tiefer Vakuums in großen Volumina, die Auswahl und Prüfung geeigneter Baumaterialien, die Entwicklung großer supraleitender Magnete, leistungsstarker Laser und Röntgenquellen sowie die Entwicklung gepulster Energiesysteme, mit denen leistungsstarke Teilchenstrahlen erzeugt werden können , entwickeln Methoden zur Hochfrequenzerwärmung des Gemisches und vieles mehr.

4. Probleme der kontrollierten Kernfusion

Forscher aus allen entwickelten Ländern setzen ihre Hoffnung auf die Überwindung der kommenden Energiekrise auf einer kontrollierten thermonuklearen Reaktion. Eine solche Reaktion – die Synthese von Helium aus Deuterium und Tritium – findet seit Millionen von Jahren auf der Sonne statt und unter terrestrischen Bedingungen versucht man sie seit fünfzig Jahren in riesigen und sehr teuren Laseranlagen, Tokamaks, durchzuführen (ein Gerät zur Durchführung thermonuklearer Fusionsreaktionen in heißem Plasma) und Stellaratoren (geschlossene Magnetfalle zum Einschließen von Hochtemperaturplasma). Es gibt jedoch andere Möglichkeiten, dieses schwierige Problem zu lösen, und anstelle riesiger Tokamaks wird es wahrscheinlich möglich sein, einen recht kompakten und kostengünstigen Collider – einen Kollisionsstrahlbeschleuniger – zur Durchführung der Kernfusion zu verwenden.

Tokamak benötigt zum Betrieb sehr geringe Mengen Lithium und Deuterium. Beispielsweise verbrennt ein Reaktor mit einer elektrischen Leistung von 1 GW etwa 100 kg Deuterium und 300 kg Lithium pro Jahr. Wenn wir davon ausgehen, dass alle Fusionskraftwerke 10 Billionen produzieren werden. kWh Strom pro Jahr, also so viel, wie alle Kraftwerke der Erde heute produzieren, dann reichen die weltweiten Reserven an Deuterium und Lithium aus, um die Menschheit für viele Millionen Jahre mit Energie zu versorgen.

Neben der Fusion von Deuterium und Lithium ist auch eine rein solare Fusion möglich, wenn sich zwei Deuteriumatome verbinden. Wenn diese Reaktion beherrscht wird, werden Energieprobleme sofort und für immer gelöst.

Bei keiner der bekannten Varianten der kontrollierten thermonuklearen Fusion (CTF) können thermonukleare Reaktionen nicht in den Modus einer unkontrollierten Leistungssteigerung übergehen, daher sind solche Reaktoren nicht grundsätzlich sicher.

Aus physikalischer Sicht ist das Problem einfach formuliert. Um eine autarke Kernfusionsreaktion durchzuführen, ist es notwendig und ausreichend, zwei Bedingungen zu erfüllen.

  1. Die Energie der an der Reaktion beteiligten Kerne muss mindestens 10 keV betragen. Damit eine Kernfusion stattfinden kann, müssen die an der Reaktion beteiligten Kerne in das Feld gelangen Nuklearkräfte, dessen Reichweite 10-12-10-13 cm beträgt. Atomkerne haben jedoch eine positive elektrische Ladung und gleiche Ladungen stoßen sich ab. An der Wirkungsgrenze der Kernkräfte liegt die Coulomb-Abstoßungsenergie in der Größenordnung von 10 keV. Um diese Barriere zu überwinden, müssen die Kerne beim Zusammenstoß mindestens eine kinetische Energie haben, die diesen Wert nicht unterschreitet.
  2. Das Produkt aus der Konzentration der reagierenden Keime und der Verweilzeit, während der sie die angegebene Energie behalten, muss mindestens 1014 s.cm-3 betragen. Diese Bedingung – das sogenannte Lawson-Kriterium – bestimmt die Grenze des energetischen Nutzens der Reaktion. Damit die bei der Fusionsreaktion freigesetzte Energie mindestens die Energiekosten für die Auslösung der Reaktion deckt, müssen Atomkerne viele Kollisionen erleiden. Bei jeder Kollision, bei der es zu einer Fusionsreaktion zwischen Deuterium (D) und Tritium (T) kommt, werden 17,6 MeV Energie freigesetzt, also etwa 3,10-12 J. Wenn beispielsweise 10 MJ Energie für die Zündung aufgewendet werden, dann beträgt die Die Reaktion wird unrentabel sein, wenn mindestens 3.1018 daran teilnehmen Dampf D-T. Und dafür muss ein ziemlich dichtes, hochenergetisches Plasma über einen längeren Zeitraum im Reaktor gehalten werden. Diese Bedingung wird durch das Lawson-Kriterium ausgedrückt.

Wenn beide Anforderungen gleichzeitig erfüllt werden können, ist das Problem der kontrollierten Kernfusion gelöst.

Allerdings stößt die technische Umsetzung dieses physikalischen Problems auf enorme Schwierigkeiten. Schließlich entspricht eine Energie von 10 keV einer Temperatur von 100 Millionen Grad. Im Vakuum kann ein Stoff nur für den Bruchteil einer Sekunde auf dieser Temperatur gehalten werden und ist somit von den Wänden der Anlage isoliert.

Aber es gibt noch eine andere Methode, dieses Problem zu lösen – die Kaltfusion. Was ist eine kalte thermonukleare Reaktion? Sie ist ein Analogon einer „heißen“ thermonuklearen Reaktion, die bei Raumtemperatur stattfindet.

In der Natur gibt es mindestens zwei Möglichkeiten, Materie innerhalb einer Dimension des Kontinuums zu verändern. Sie können Wasser über einem Feuer kochen, d.h. thermisch oder in der Mikrowelle, d.h. Frequenz. Das Ergebnis ist das gleiche – das Wasser kocht, der einzige Unterschied besteht darin, dass die Frequenzmethode schneller ist. Das Erreichen ultrahoher Temperaturen wird auch zur Spaltung eines Atomkerns genutzt. Bei der thermischen Methode kommt es zu einer unkontrollierbaren Kernreaktion. Die Energie eines kalten thermonuklearen Kerns ist die Energie des Übergangszustands. Eine der Hauptbedingungen für die Konstruktion eines Reaktors zur Durchführung einer kalten thermonuklearen Reaktion ist der Zustand seiner Pyramidenkristallform. Eine weitere wichtige Voraussetzung ist das Vorhandensein rotierender Magnet- und Torsionsfelder. Die Überschneidung der Felder erfolgt am Punkt des instabilen Gleichgewichts des Wasserstoffkerns.

Wissenschaftler Ruzi Taleyarkhan vom Oak Ridge National Laboratory, Richard Lahey von der Polytechnic University. Rensilira und der Akademiker Robert Nigmatulin zeichneten unter Laborbedingungen eine kalte thermonukleare Reaktion auf.

Die Gruppe verwendete einen Becher mit flüssigem Aceton in der Größe von zwei bis drei Gläsern. Schallwellen wurden intensiv durch die Flüssigkeit übertragen und erzeugten einen Effekt, der in der Physik als akustische Kavitation bekannt ist und zu Sonolumineszenz führt. Bei der Kavitation entstanden in der Flüssigkeit kleine Bläschen, die sich auf einen Durchmesser von zwei Millimetern vergrößerten und explodierten. Die Explosionen wurden von Lichtblitzen und der Freisetzung von Energie begleitet, d. h. Die Temperatur im Inneren der Blasen erreichte zum Zeitpunkt der Explosion 10 Millionen Grad Kelvin, und die freigesetzte Energie reicht laut Experimentatoren aus, um eine Kernfusion durchzuführen.

„Technisch gesehen“ besteht die Essenz der Reaktion darin, dass durch die Kombination zweier Deuteriumatome ein drittes gebildet wird – ein Wasserstoffisotop, bekannt als Tritium, und ein Neutron, das sich durch eine enorme Energiemenge auszeichnet.

4.1 Wirtschaftsprobleme

Bei der Erstellung eines TCB wird davon ausgegangen, dass es sich um eine große Anlage handelt, die mit leistungsstarken Computern ausgestattet ist. Es wird eine ganze kleine Stadt sein. Im Falle eines Unfalls oder eines Geräteausfalls kommt es jedoch zu einer Störung des Betriebs der Station.

Dies ist beispielsweise in modernen Kernkraftwerkskonzepten nicht vorgesehen. Es wird angenommen, dass die Hauptsache darin besteht, sie zu bauen, und dass es nicht wichtig ist, was danach passiert.

Wenn jedoch eine Station ausfällt, bleiben viele Städte ohne Strom. Dies lässt sich am Beispiel der Kernkraftwerke in Armenien beobachten. Die Beseitigung radioaktiver Abfälle ist sehr teuer geworden. Auf Wunsch der Grünen wurde das Atomkraftwerk geschlossen. Die Bevölkerung blieb ohne Strom, die Kraftwerksausrüstung war verschlissen und die von internationalen Organisationen für die Wiederherstellung bereitgestellten Gelder wurden verschwendet.

Ein ernstes wirtschaftliches Problem ist die Dekontamination stillgelegter Produktionsanlagen, in denen Uran verarbeitet wurde. Zum Beispiel „hat die Stadt Aktau ihr eigenes kleines „Tschernobyl“. Es befindet sich auf dem Territorium des chemisch-hydrometallurgischen Werks (KhMZ), das an manchen Stellen 11.000 Mikrometer erreicht. Röntgen pro Stunde, Durchschnittsniveau Hintergrund - 200 Mikroröntgen (üblicher natürlicher Hintergrund liegt zwischen 10 und 25 Mikroröntgen pro Stunde). Nach der Stilllegung der Anlage wurde hier überhaupt keine Dekontamination durchgeführt. Ein erheblicher Teil der Ausrüstung, etwa fünfzehntausend Tonnen, weist bereits unentfernbare Radioaktivität auf. Gleichzeitig werden solche gefährlichen Gegenstände darunter gelagert Freiluft, sind schlecht bewacht und werden ständig aus dem Gebiet der KhGMZ entfernt.

Da es daher aufgrund des Aufkommens neuer Technologien keine ewigen Produktionen gibt, kann es sein, dass das TTS geschlossen wird und dann Gegenstände und Metalle aus dem Unternehmen auf den Markt gelangen und die lokale Bevölkerung darunter leidet.

Das Kühlsystem des UTS wird Wasser verwenden. Wenn wir jedoch Statistiken von Kernkraftwerken heranziehen, ist das Wasser aus diesen Stauseen laut Umweltschützern nicht zum Trinken geeignet.

Laut Experten ist der Stausee voll Schwermetalle(insbesondere Thorium-232), und an manchen Orten erreicht die Gammastrahlung 50 - 60 Mikroröntgen pro Stunde.

Das heißt, während des Baus eines Kernkraftwerks sind keine Mittel vorgesehen, die das Gebiet in seinen ursprünglichen Zustand zurückversetzen würden. Und nach der Schließung des Unternehmens weiß niemand mehr, wie man den angesammelten Müll begräbt und das ehemalige Unternehmen aufräumt.

4.2 Medizinische Probleme

Zu den schädlichen Auswirkungen von CTS gehört die Produktion von Mutanten von Viren und Bakterien, die schädliche Substanzen produzieren. Dies gilt insbesondere für Viren und Bakterien, die im menschlichen Körper vorkommen. Aussehen bösartige Tumore und Krebs werden höchstwahrscheinlich eine häufige Krankheit unter Bewohnern von Dörfern sein, die in der Nähe von UTS leben. Die Bewohner leiden immer mehr, weil sie keinen Schutz haben. Dosimeter sind teuer und Medikamente sind nicht verfügbar. Abfälle aus dem CTS werden in Flüsse gekippt, in die Luft geleitet oder in unterirdische Schichten gepumpt, was derzeit in Kernkraftwerken der Fall ist.

Zusätzlich zu den Schäden, die kurz nach der Einwirkung hoher Dosen auftreten, verursacht ionisierende Strahlung langfristige Folgen. Hauptsächlich Karzinogenese und genetische Störungen, die bei jeder Dosis und Art der Bestrahlung (einmalig, chronisch, lokal) auftreten können.

Nach Berichten von Ärzten, die Erkrankungen von Kernkraftwerksarbeitern erfasst haben, stehen an erster Stelle Herz-Kreislauf-Erkrankungen (Herzinfarkte), dann Krebs. Der Herzmuskel wird unter Strahlungseinfluss dünner, schlaff und schwächer. Es gibt völlig unverständliche Krankheiten. Zum Beispiel Leberversagen. Aber warum das passiert, weiß noch keiner der Ärzte. Gelangen bei einem Unfall radioaktive Stoffe in die Atemwege, schneiden Ärzte das geschädigte Gewebe von Lunge und Luftröhre heraus und der Behinderte läuft mit einem tragbaren Atemgerät

5. Thermonukleare Anlagen

Wissenschaftler in unserem Land und den meisten Industrieländern der Welt untersuchen seit vielen Jahren das Problem der Nutzung thermonuklearer Reaktionen für Energiezwecke. Es wurden einzigartige thermonukleare Anlagen geschaffen – die komplexesten technische Geräte, mit dem die Möglichkeit untersucht werden soll, kolossale Energie zu gewinnen, die bisher nur bei der Explosion einer Wasserstoffbombe freigesetzt wird. Wissenschaftler wollen lernen, den Ablauf einer thermonuklearen Reaktion – der Reaktion schwerer Wasserstoffkerne (Deuterium und Tritium), die sich bei hohen Temperaturen zu Heliumkernen verbinden – zu steuern, um die freigesetzte Energie für friedliche Zwecke zum Wohle der Menschen zu nutzen .


Ein Liter Leitungswasser enthält sehr wenig Deuterium. Wenn dieses Deuterium jedoch gesammelt und in einer thermonuklearen Anlage als Brennstoff verwendet wird, kann man so viel Energie gewinnen wie durch die Verbrennung von fast 300 Kilogramm Öl. Und um die Energie bereitzustellen, die heute durch die Verbrennung herkömmlicher jährlich produzierter Brennstoffe gewonnen wird, müsste Deuterium aus Wasser gewonnen werden, das in einem Würfel mit einer Seitenlänge von nur 160 Metern enthalten ist. Allein die Wolga befördert jährlich etwa 60.000 solcher Kubikmeter Wasser ins Kaspische Meer.


Damit eine thermonukleare Reaktion stattfinden kann, müssen mehrere Bedingungen erfüllt sein. Daher sollte die Temperatur in der Zone, in der sich schwere Wasserstoffkerne verbinden, etwa 100 Millionen Grad betragen. Bei solch einer enormen Temperatur sprechen wir nicht mehr von Gas, sondern von Plasma. Plasma ist ein Aggregatzustand, bei dem neutrale Atome bei hohen Gastemperaturen ihre Elektronen verlieren und sich in positive Ionen verwandeln. Mit anderen Worten: Plasma ist eine Mischung aus frei beweglichen positiven Ionen und Elektronen. Die zweite Bedingung ist die Notwendigkeit, in der Reaktionszone eine Plasmadichte von mindestens 100 Milliarden Partikeln pro Kubikzentimeter aufrechtzuerhalten. Und schließlich besteht das Wichtigste und Schwierigste darin, den Fortschritt der thermonuklearen Reaktion mindestens eine Sekunde lang aufrechtzuerhalten.


Die Arbeitskammer einer thermonuklearen Anlage ist toroidförmig, ähnlich einem riesigen hohlen Donut. Es ist mit einer Mischung aus Deuterium und Tritium gefüllt. In der Kammer selbst entsteht eine Plasmaspule – ein Leiter, durch den ein elektrischer Strom von etwa 20 Millionen Ampere fließt.
Elektrischer Strom erfüllt drei wichtige Funktionen. Erstens erzeugt es Plasma. Zweitens erhitzt es es auf einhundert Millionen Grad. Und schließlich erzeugt der Strom um sich herum ein Magnetfeld, das heißt, er umgibt das Plasma mit magnetischen Kraftlinien. Im Prinzip sollten die Kraftlinien um das Plasma es in der Schwebe halten und verhindern, dass das Plasma mit den Wänden der Kammer in Kontakt kommt. Es ist jedoch nicht so einfach, das Plasma in der Schwebe zu halten. Elektrische Kräfte verformen den Plasmaleiter, der nicht die Festigkeit eines Metallleiters hat. Es biegt sich, trifft auf die Kammerwand und gibt seine Wärmeenergie an diese ab. Um dies zu verhindern, werden Spulen oben auf der Ringkammer angebracht, die ein longitudinales Magnetfeld in der Kammer erzeugen und den Plasmaleiter von den Wänden wegdrücken. Nur reicht dies nicht aus, da der Plasmaleiter unter Strom dazu neigt, sich zu dehnen und seinen Durchmesser zu vergrößern. Das automatisch und ohne Fremdeinwirkung erzeugte Magnetfeld soll auch die Ausdehnung des Plasmaleiters verhindern. äußere Kräfte. Der Plasmaleiter wird zusammen mit der Ringkammer in einer weiteren größeren Kammer aus einem nichtmagnetischen Material, meist Kupfer, platziert. Sobald der Plasmaleiter versucht, aus der Gleichgewichtslage abzuweichen, entsteht im Kupfermantel nach dem Gesetz der elektromagnetischen Induktion ein induzierter Strom, der dem Strom im Plasma entgegengesetzt ist. Dadurch entsteht eine Gegenkraft, die das Plasma von den Kammerwänden abstößt.
Es wurde 1949 von A.D. vorgeschlagen, durch ein Magnetfeld zu verhindern, dass das Plasma mit den Wänden der Kammer in Kontakt kommt. Sacharow und wenig später der Amerikaner J. Spitzer.


In der Physik ist es üblich, jeder neuen Art von Versuchsaufbau einen Namen zu geben. Eine Struktur mit einem solchen Wicklungssystem wird Tokamak genannt – kurz für „Ringkammer und Magnetspule“.


In den 1970er Jahren baute die UdSSR ein Kernkraftwerk namens Tokamak-10. Es wurde am gleichnamigen Institut für Atomenergie entwickelt. I.V. Kurchatova. Mit dieser Installation erreichten wir eine Plasmaleitertemperatur von 10 Millionen Grad, eine Plasmadichte von mindestens 100 Milliarden Partikeln pro Kubikzentimeter und eine Plasmaretentionszeit von nahezu 0,5 Sekunden. Auch die heute größte Anlage unseres Landes, Tokamak-15, wurde in Moskau gebaut Wissenschaftliches Zentrum„Kurchatov-Institut“.


Alle bisher geschaffenen thermonuklearen Anlagen verbrauchen nur Energie, um das Plasma zu erhitzen und Magnetfelder zu erzeugen. Die thermonukleare Anlage der Zukunft soll im Gegenteil so viel Energie freisetzen, dass ein kleiner Teil davon zur Aufrechterhaltung der thermonuklearen Reaktion, also zur Erwärmung des Plasmas, zur Erzeugung von Magnetfeldern und zum Antrieb vieler Hilfsgeräte und Instrumente, verwendet werden kann Der Hauptteil kann zum Verbrauch an das Stromnetz abgegeben werden.


Im Jahr 1997 erreichte der JET-Tokamak im Vereinigten Königreich eine Übereinstimmung zwischen der Eingangs- und der Ausgangsenergie. Allerdings reicht das natürlich nicht aus, damit sich der Prozess selbst trägt: Bis zu 80 Prozent der aufgenommenen Energie gehen verloren. Damit der Reaktor funktioniert, muss fünfmal mehr Energie erzeugt werden, als für die Erwärmung des Plasmas und die Erzeugung von Magnetfeldern aufgewendet wird.
1986 beschlossen die Länder der Europäischen Union zusammen mit der UdSSR, den USA und Japan, bis 2010 gemeinsam einen ausreichend großen Tokamak zu entwickeln und zu bauen, der in der Lage ist, Energie nicht nur zur Unterstützung der Kernfusion im Plasma zu erzeugen, sondern auch zu produzieren nutzbare elektrische Leistung. Dieser Reaktor wurde ITER genannt, eine Abkürzung für „International Thermonuclear Experimental Reactor“. Bis 1998 konnten die Konstruktionsberechnungen abgeschlossen werden, aber aufgrund der amerikanischen Weigerung mussten Änderungen am Reaktordesign vorgenommen werden, um die Kosten zu senken.


Sie können die Partikel bewegen lassen natürlich, und geben Sie der Kamera eine Form, die ihrer Flugbahn folgt. Die Kamera sieht dann eher skurril aus. Es wiederholt die Form eines Plasmafadens, der im Magnetfeld externer Spulen mit komplexer Konfiguration entsteht. Das Magnetfeld wird durch externe Spulen erzeugt, die eine viel komplexere Konfiguration haben als in einem Tokamak. Geräte dieser Art werden Stellaratoren genannt. Das Torsatron Uragan-3M wurde in unserem Land gebaut. Dieser experimentelle Stellarator soll auf zehn Millionen Grad erhitztes Plasma enthalten.


Derzeit haben Tokamaks andere ernsthafte Konkurrenten, die die Trägheitsfusion nutzen. Dabei sind mehrere Milligramm eines Deuterium-Tritium-Gemisches in einer Kapsel mit einem Durchmesser von 1–2 Millimetern eingeschlossen. Die gepulste Strahlung mehrerer Dutzend leistungsstarker Laser wird auf die Kapsel fokussiert. Dadurch verdunstet die Kapsel sofort. Sie müssen in 5–10 Nanosekunden 2 MJ Energie in die Strahlung einbringen. Durch den leichten Druck wird die Mischung dann so stark komprimiert, dass eine thermonukleare Fusionsreaktion stattfinden kann. Die bei der Explosion freigesetzte Energie, deren Leistung der Explosion von einhundert Kilogramm TNT entspricht, wird in eine bequemere Form umgewandelt – beispielsweise in Elektrizität. Allerdings stößt der Bau von Stellaratoren und Trägheitsfusionsanlagen auch auf große technische Schwierigkeiten. Wahrscheinlich, praktischer Nutzen Thermonukleare Energie ist keine Frage der nahen Zukunft.

6. Perspektiven für die Entwicklung der Kernfusion

Eine wichtige Aufgabe der Nuklearindustrie ist langfristig die Beherrschung kontrollierter Kernfusionstechnologien als Grundlage der Energiewirtschaft der Zukunft. Derzeit werden weltweit strategische Entscheidungen zur Entwicklung und Erschließung neuer Energiequellen getroffen. Die Notwendigkeit, solche Quellen zu erschließen, ist mit der erwarteten Verknappung der Energieproduktion und begrenzten Brennstoffressourcen verbunden. Eine der vielversprechendsten innovativen Energiequellen ist die kontrollierte thermonukleare Fusion (CTF). Fusionsenergie wird freigesetzt, wenn die Kerne schwerer Wasserstoffisotope miteinander verschmelzen. Der Brennstoff für einen thermonuklearen Reaktor sind Wasser und Lithium, deren Vorräte praktisch unbegrenzt sind. Unter terrestrischen Bedingungen stellt die Implementierung von CTS ein komplexes wissenschaftliches und technologisches Problem dar, das mit der Erzielung einer Temperatur der Substanz von mehr als 100 Millionen Grad und der thermischen Isolierung des Synthesebereichs von den Wänden des Reaktors verbunden ist.

Fusion ist ein langfristiges Projekt, bei dem zwischen 2040 und 2050 eine kommerzielle Anlage gebaut werden soll. Das wahrscheinlichste Szenario zur Beherrschung der thermonuklearen Energie beinhaltet die Umsetzung von drei Phasen:
- Beherrschung der langfristigen Verbrennungsmodi thermonuklearer Reaktionen;
- Demonstration der Stromerzeugung;
- Schaffung industrieller Kernkraftwerke.

Im Rahmen des internationalen Projekts ITER (International Thermonuclear Experimental Reactor) soll die technische Machbarkeit des Plasmaeinschlusses und der Energieerzeugung nachgewiesen werden.Das Hauptprogrammziel des ITER-Projekts besteht darin, die wissenschaftliche und technische Möglichkeit der Energiegewinnung durch Synthesereaktionen (Fusion) von Wasserstoffisotopen – Deuterium und Tritium – zu demonstrieren. Die geplante thermonukleare Leistung des ITER-Reaktors wird bei einer Plasmatemperatur von 100 Millionen Grad etwa 500 MW betragen.
Im November 2006 unterzeichneten alle Teilnehmer des ITER-Projekts – die Europäische Union, Russland, Japan, die USA, China, Korea und Indien – Vereinbarungen zur Gründung der Internationalen ITER-Organisation für Fusionsenergie zur gemeinsamen Umsetzung des ITER-Projekts. Die Bauphase des Reaktors begann im Jahr 2007.

Die Beteiligung Russlands am ITER-Projekt besteht in der Entwicklung, Herstellung und Lieferung des Hauptreaktors an die Reaktorbaustelle (Cadarache, Frankreich). technologische Ausrüstung und eine Bareinlage zu leisten, die im Allgemeinen etwa 10 % der Gesamtkosten für den Bau des Reaktors beträgt. Die USA, China, Indien, Korea und Japan haben den gleichen Beitragsanteil.
Roadmap zur Beherrschung der Energie der kontrollierten Kernfusion

2000 (modernes Niveau):
Zu lösende Probleme: Gleichheit bei Kosten und Energieerzeugung erreichen
Die neueste Generation von Tokamaks hat es ermöglicht, der Umsetzung einer kontrollierten thermonuklearen Verbrennung mit großer Energiefreisetzung nahe zu kommen.
Die Leistung thermonuklearer Fusionsreaktionen erreichte ein Niveau von 17 MW (JET-Anlage, EU), was mit der in das Plasma investierten Leistung vergleichbar ist.
2020:

Im ITER-Projekt gelöste Probleme: Langzeitreaktion, Entwicklung und Integration thermonuklearer Technologien.

Ziel des ITER-Projekts ist die kontrollierte Zündung einer thermonuklearen Reaktion und deren langfristige Verbrennung mit einem zehnfachen Überschuss der thermonuklearen Leistung gegenüber der Leistung zur Auslösung der Fusionsreaktion Q³10.

2030:
Zu lösendes Problem: Bau einer Demonstrationsstation DEMO (DTE)
Im Rahmen des DEMO-Projekts wurden die Auswahl optimaler Materialien und Technologien für OFC, Design, Bau und Inbetriebnahmetests eines experimentellen thermonuklearen Kraftwerks abgeschlossen und der konzeptionelle Entwurf von PFC abgeschlossen.
2050
Zu lösende Aufgaben: Entwurf und Bau von PTE, Abschluss der Tests von Technologien zur Stromerzeugung bei DEMO.
Schaffung einer industriellen Energiestation mit hoher Sicherheitsmarge und akzeptablen wirtschaftlichen Kennzahlen der Energiekosten.
Die Menschheit erhält eine unerschöpfliche, ökologisch und wirtschaftlich akzeptable Energiequelle.Das thermonukleare Reaktorprojekt basiert auf magnetischen Plasmaeinschlusssystemen vom Tokamak-Typ, die erstmals in der UdSSR entwickelt und implementiert wurden. Im Jahr 1968 wurde am Tokamak T-3 eine Plasmatemperatur von 10 Millionen Grad erreicht. Seitdem haben sich Tokamak-Anlagen in allen Ländern zu einer führenden Richtung in der Forschung zur Kernfusion entwickelt.

Derzeit im Einsatz in Russland sind die Tokamaks T-10 und T-15 (RRC „Kurchatov Institute“), T-11M (FSUE State Scientific Center der Russischen Föderation TRINITI, Troitsk, Region Moskau), Globus-M, FT-2, Tuman-3 (Physikalisch-Technisches Institut benannt nach A.F. Ioffe, St. Petersburg, RAS) und Stellarator L-2 (Institut für Allgemeine Physik, Moskau, RAS).

Abschluss

Basierend auf der durchgeführten Forschung können folgende Schlussfolgerungen gezogen werden:

Die Kernfusion ist die rationalste, umweltfreundlichste und kostengünstigste Art der Energieerzeugung; sie ist hinsichtlich der erzeugten Wärmemenge unvergleichlich natürliche Quellen derzeit von Menschen genutzt. Natürlich würde die Beherrschung der Kernfusion viele Probleme der Menschheit lösen, sowohl in der Gegenwart als auch in der Zukunft.

Die Kernfusion wird es in Zukunft ermöglichen, eine weitere „Krise der Menschheit“ zu überwinden, nämlich die Überbevölkerung der Erde. Es ist kein Geheimnis, dass die Entwicklung der irdischen Zivilisation mit einem ständigen und nachhaltigen Wachstum der Planetenbevölkerung einhergeht. Daher ist die Frage der Erschließung „neuer Territorien“, also der Kolonisierung benachbarter Planeten des Sonnensystems zur Schaffung dauerhafter Siedlungen, eine große Herausforderung Angelegenheit der sehr nahen Zukunft.

Literatur

  1. A. P. Baskakow. Wärmetechnik / - M.: Energoatomizdat, 1991
  2. V. I. Krutov. Wärmetechnik / - M.: Mashinostroenie, 1986
  3. K. V. Tikhomirov. Wärmetechnik, Wärme- und Gasversorgung und Lüftung - M.: Stroyizdat, 1991
  4. V. P. Preobrazhensky. Thermische Messungen und Instrumente - M.: Energia, 1978
  5. Jeffrey P. Freidberg. Plasmaphysik und Fusionsenergie/ – Cambridge University Press, 2007.
  6. http://www.college.ru./astronomy-Astronomie
  7. http://n-t.ru/tp/ie/ts.htm Kernfusion auf der Sonne - eine neue Version Wladimir Wlassow
Vorschau:

Um Präsentationsvorschauen zu nutzen, erstellen Sie ein Google-Konto und melden Sie sich an: https://accounts.google.com


Bildunterschriften:

Thermonukleare Fusion

KONZEPT Dies ist eine Art Kernreaktion, bei der sich leichte Atomkerne aufgrund der kinetischen Energie ihrer thermischen Bewegung zu schwereren verbinden.

ENERGIE EMPFANGEN

GLEICHUNG FÜR DIE REAKTION MIT DER BILDUNG VON HE ⁴

Thermonukleare Reaktion in der Sonne

KONTROLLIERTE THERMONUKLEARE Fusion

TOROIDKAMMER MIT MAGNETSPULEN (TOKAMAK)

Die Notwendigkeit, die thermonukleare Fusion zu beherrschen

1

Trotz der Aussagen durchaus maßgeblicher ausländischer Experten voller absoluter Zuversicht über die baldige Nutzung der Energie, die endlich aus thermonuklearen Reaktoren gewonnen werden kann, ist nicht alles so optimistisch. Die scheinbar so verständliche und zugängliche thermonukleare Energie ist in der Tat noch weit von einer weit verbreiteten und flächendeckenden Umsetzung in die Praxis entfernt. Kürzlich tauchten im Internet wieder rosige Botschaften auf, in denen der breiten Öffentlichkeit versichert wurde, dass „der Schaffung eines Fusionsreaktors in naher Zukunft praktisch keine technischen Hindernisse mehr im Weg stehen“. Aber dieses Vertrauen war schon vorher da. Es schien ein sehr vielversprechendes und lösbares Problem zu sein. Aber Dutzende Jahre sind vergangen, und der Karren, wie man sagt, ist immer noch da. Eine hocheffiziente umweltfreundliche Energiequelle liegt immer noch außerhalb der Kontrolle der Menschheit. Nach wie vor ist dies ein vielversprechendes Forschungs- und Entwicklungsthema, das eines Tages in einem erfolgreichen Projekt münden wird – und dann wird die Energie wie aus einem Füllhorn zu uns kommen. Tatsache ist jedoch, dass ein so langer Fortschritt, eher eine Zeitmarkierung, dazu führt, dass man sehr ernsthaft darüber nachdenkt und die aktuelle Situation bewertet. Was passiert, wenn wir einige wichtige Faktoren unterschätzen und die Bedeutung und Rolle irgendwelcher Parameter nicht berücksichtigen? Schließlich gibt es auch im Sonnensystem einen thermonuklearen Reaktor, der nicht in Betrieb genommen wurde. Dies ist der Planet Jupiter. Der Mangel an Masse und Gravitationskompression ermöglichte es diesem Vertreter der Riesenplaneten nicht, die erforderliche Leistung zu erreichen und eine weitere Sonne im Sonnensystem zu werden. Es stellt sich heraus, dass es genau wie bei konventionellem Kernbrennstoff eine kritische Masse gibt, die für das Auftreten einer Kettenreaktion erforderlich ist, sodass es in diesem Fall begrenzende Parameter gibt. Und wenn, um die Beschränkungen der minimal erforderlichen Masse bei der Verwendung einer herkömmlichen Kernladung irgendwie zu umgehen, die Kompression des Materials während der Explosion genutzt wird, dann sind bei der Schaffung thermonuklearer Anlagen auch bestimmte nicht standardmäßige Lösungen erforderlich.

Das Problem besteht darin, dass Plasma nicht nur gewonnen, sondern auch zurückgehalten werden muss. Wir brauchen Stabilität beim Betrieb des entstehenden thermonuklearen Reaktors. Aber das ist ein großes Problem.

Natürlich wird niemand über die Vorteile der Kernfusion streiten. Dies ist eine nahezu unbegrenzte Ressource zur Energiegewinnung. Aber der Direktor der russischen Agentur ITER (es handelt sich um den internationalen experimentellen thermonuklearen Reaktor) stellte zu Recht fest, dass die USA und England vor mehr als 10 Jahren Energie aus thermonuklearen Anlagen erhielten, deren Leistung jedoch weit von der investierten Leistung entfernt war. Das Maximum lag sogar unter 70 %. Aber das moderne Projekt (ITER) erfordert im Vergleich zur Investition eine zehnmal höhere Leistung. Daher Aussagen darüber, dass das Projekt technisch komplex ist und dass Anpassungen daran vorgenommen werden, sowie natürlich auch an den Startterminen des Reaktors und damit an der Rendite der Investitionen an die Staaten, die in diese Entwicklung investiert haben , sind sehr alarmierend.

Daher stellt sich die Frage, wie gerechtfertigt der Versuch ist, die starke Schwerkraft zu ersetzen, die das Plasma in natürlichen thermonuklearen Reaktoren (Sternen) hält. Magnetfelder- das Ergebnis der Schaffung menschlicher Ingenieurskunst? Der Vorteil der Kernfusion – die Freisetzung von Energie ist millionenfach größer als die Wärmefreisetzung, die beispielsweise bei der Verbrennung konventioneller Brennstoffe auftritt – ist gleichzeitig ein Hindernis für eine erfolgreiche Eindämmung der Kernfusion Energie bricht frei. Was durch eine ausreichende Schwerkraft leicht gelöst werden kann, wird für Ingenieure und Wissenschaftler zu einer unglaublich schwierigen Aufgabe. Aus diesem Grund ist es so schwierig, den Optimismus hinsichtlich der unmittelbaren Aussichten für die thermonukleare Energie zu teilen. Es besteht eine viel größere Chance, einen natürlichen thermonuklearen Reaktor zu nutzen – die Sonne. Diese Energie wird noch mindestens 5 Milliarden Jahre reichen. Dadurch funktionieren Fotozellen, Thermoelemente und sogar einige Dampfkessel, bei denen das Wasser mithilfe von Linsen oder sphärischen Spiegeln erhitzt wird.

Bibliografischer Link

Silaev I.V., Radchenko T.I. PROBLEME BEI ​​DER ERSTELLUNG VON ANLAGEN FÜR DIE THERMONUKLEARE Fusion // International Journal of Applied and Fundamental Research. – 2014. – Nr. 1. – S. 37-38;
URL: https://applied-research.ru/ru/article/view?id=4539 (Zugriffsdatum: 19.09.2019). Wir machen Sie auf Zeitschriften des Verlags „Academy of Natural Sciences“ aufmerksam.

Yu.N. Dnestrovsky - Doktor der Physik Wissenschaften, Professor, Institut für Kernfusion,
RRC „Kurchatov-Institut“, Moskau, Russland
Materialien der Internationalen Konferenz
„DER WEG IN DIE ZUKUNFT – WISSENSCHAFT, GLOBALE PROBLEME, TRÄUME UND HOFFNUNGEN“
26.–28. November 2007 Institut für Angewandte Mathematik benannt nach. M.V. Keldysh RAS, Moskau

Kann die kontrollierte Kernfusion (CTF) das Energieproblem langfristig lösen? Wie viel des Weges zur Beherrschung des CTS ist bereits geschafft und wie viel bleibt noch übrig? Welche Herausforderungen liegen vor uns? Diese Probleme werden in diesem Artikel diskutiert.

1. Körperliche Voraussetzungen für CTS

Es wird vorgeschlagen, Kernfusionsreaktionen leichter Kerne zur Energiegewinnung zu nutzen. Unter vielen Reaktionen dieser Art ist die Fusion von Deuterium- und Tritiumkernen die am einfachsten durchzuführende Reaktion

Hier wird der stabile Heliumkern (Alphateilchen) bezeichnet, N ist das Neutron und in Klammern ist die Teilchenenergie nach der Reaktion angegeben, . Bei dieser Reaktion beträgt die freigesetzte Energie pro Teilchen mit der Masse eines Neutrons etwa 3,5 MeV. Das ist ungefähr das Drei- bis Vierfache der Energie, die pro Teilchen bei der Uranspaltung freigesetzt wird.

Welche Probleme treten auf, wenn man versucht, Reaktion (1) zur Energieerzeugung umzusetzen?

Das Hauptproblem besteht darin, dass Tritium in der Natur nicht vorkommt. Es ist radioaktiv, seine Halbwertszeit beträgt etwa 12 Jahre. Wenn es also einmal in großen Mengen auf der Erde war, ist davon längst nichts mehr übrig. Die Menge an Tritium, die auf der Erde durch natürliche Radioaktivität oder durch kosmische Strahlung entsteht, ist vernachlässigbar. Eine kleine Menge Tritium entsteht bei Reaktionen, die in einem Uran-Kernreaktor stattfinden. In einem der Reaktoren in Kanada wurde die Sammlung dieses Tritiums organisiert, aber seine Produktion in den Reaktoren verläuft sehr langsam und die Produktion erweist sich als zu teuer.

Daher muss die Energieerzeugung in einem thermonuklearen Reaktor basierend auf Reaktion (1) mit der gleichzeitigen Produktion von Tritium im selben Reaktor einhergehen. Wie dies bewerkstelligt werden kann, besprechen wir weiter unten.

Beide an Reaktion (1) beteiligten Teilchen, Deuterium- und Tritiumkerne, sind positiv geladen und stoßen sich daher durch die Coulomb-Kraft ab. Um diese Kraft zu überwinden, müssen die Teilchen eine größere Energie haben. Die Abhängigkeit der Reaktionsgeschwindigkeit (1) von der Temperatur des Tritium-Deuterium-Gemisches ist in Abb. 1 im doppelten logarithmischen Maßstab dargestellt.

Man erkennt, dass mit steigender Temperatur die Wahrscheinlichkeit der Reaktion (1) schnell zunimmt. Die für den Reaktor akzeptable Reaktionsgeschwindigkeit wird bei einer Temperatur T > 10 keV erreicht. Wenn wir diese Gradzahl berücksichtigen, sollte die Temperatur im Reaktor 100 Millionen Grad überschreiten. Alle Atome einer Substanz müssen bei einer solchen Temperatur ionisiert werden, und die Substanz selbst in diesem Zustand wird üblicherweise als Plasma bezeichnet. Erinnern wir uns daran, dass die Temperatur im Zentrum der Sonne nach modernen Schätzungen „nur“ 20 Millionen Grad erreicht.

Es gibt weitere Fusionsreaktionen, die grundsätzlich zur Erzeugung thermonuklearer Energie geeignet sind. Hier stellen wir nur zwei Reaktionen fest, die in der Literatur ausführlich diskutiert werden:

Hier handelt es sich um ein Isotop des Heliumkerns mit der Masse 3, p ist ein Proton (Wasserstoffkern). Reaktion (2) ist gut, weil es auf der Erde so viel Treibstoff (Deuterium) dafür gibt, wie man möchte. Technologie zur Abtrennung von Deuterium Meerwasser bewährt und relativ kostengünstig. Leider ist die Geschwindigkeit dieser Reaktion deutlich geringer als die Geschwindigkeit von Reaktion (1) (siehe Abb. 1), sodass Reaktion (2) eine Temperatur von etwa 500 Millionen Grad erfordert.

Reaktion (3) sorgt derzeit bei Raumfahrtteilnehmern für große Aufregung. Es ist bekannt, dass es auf dem Mond viele dieser Isotope gibt, daher wird die Möglichkeit, es zur Erde zu transportieren, als eine der vorrangigen Aufgaben der Raumfahrt diskutiert. Leider ist auch die Geschwindigkeit dieser Reaktion (Abb. 1) deutlich geringer; die Reaktionsgeschwindigkeiten (1) und die erforderlichen Temperaturen für diese Reaktion liegen ebenfalls auf dem Niveau von 500 Millionen Grad.

Um Plasma mit einer Temperatur von etwa 100 bis 500 Millionen Grad zu enthalten, wurde vorgeschlagen, ein Magnetfeld zu verwenden (I.E. Tamm, A.D. Sacharow). Am vielversprechendsten scheinen derzeit Anlagen zu sein, bei denen das Plasma die Form eines Torus (Donuts) hat. Den großen Radius dieses Torus bezeichnen wir mit R, und klein durch A. Zur Unterdrückung instabiler Plasmabewegungen ist zusätzlich zum toroidalen (longitudinalen) Magnetfeld B 0 auch ein transversales (poloidales) Feld erforderlich. Es gibt zwei Arten von Installationen, in denen eine solche magnetische Konfiguration implementiert ist. Bei Tokamak-Anlagen wird das poloidale Feld durch einen im Plasma in Feldrichtung fließenden Längsstrom I erzeugt. In Anlagen vom Typ Stellarator wird das Poloidfeld durch äußere, stromdurchflossene Spiralwicklungen erzeugt. Jede dieser Einstellungen hat ihre eigenen Vor- und Nachteile. In einem Tokamak muss der Strom I mit dem Feld übereinstimmen. Der Stellarator ist technisch komplexer. Heutzutage sind Tokamak-Installationen fortschrittlicher. Allerdings gibt es auch große, erfolgreich betriebene Stellaratoren.

2. Bedingungen für den Tokamak-Reaktor

Wir werden hier nur zwei notwendige Bedingungen angeben, die das „Fenster“ im Raum der Plasmaparameter eines Tokamak-Reaktors bestimmen. Natürlich gibt es noch viele andere Bedingungen, die dieses „Fenster“ verkleinern, aber sie sind immer noch nicht so wichtig.

1). Damit der Reaktor kommerziell nutzbar (nicht zu groß) ist, Leistungsdichte P der freigesetzten Energie muss groß genug sein

Hier sind n 1 und n 2 die Dichten von Deuterium und Tritium – die Energie, die in einem Reaktionsakt freigesetzt wird (1). Bedingung (4) begrenzt die Dichten n 1 und n 2 nach unten.

2). Damit ein Plasma stabil ist, muss der Plasmadruck deutlich geringer sein als der Druck des longitudinalen Magnetfelds. Für ein Plasma mit einer angemessenen Geometrie hat diese Bedingung die Form

Bei einem gegebenen Magnetfeld begrenzt diese Bedingung die Dichte und Temperatur des Plasmas von oben. Wenn es zur Durchführung einer Reaktion erforderlich ist, die Temperatur zu erhöhen (z. B. von Reaktion (1) zu den Reaktionen (2) oder (3) überzugehen), muss zur Erfüllung der Bedingung (5) das Magnetfeld erhöht werden .

Welches Magnetfeld wird zur Implementierung des CTS benötigt? Betrachten wir zunächst eine Reaktion vom Typ (1). Der Einfachheit halber nehmen wir an, dass n 1 = n 2 = n /2, wobei n die Plasmadichte ist. Dann ergibt sich bei der Temperatur Bedingung (1).

Mit Bedingung (5) ermitteln wir die untere Grenze für das Magnetfeld

In der toroidalen Geometrie nimmt das longitudinale Magnetfeld um 1/r ab, wenn es sich von der Hauptachse des Torus entfernt. Das Feld ist das Feld in der Mitte des meridionalen Abschnitts des Plasmas. An der Innenkontur des Torus wird das Feld größer sein. Mit Seitenverhältnis

R/ A~ 3 Das Magnetfeld innerhalb der Ringspulen ist doppelt so groß. Um die Bedingungen (4–5) zu erfüllen, müssen die Längsfeldspulen daher aus einem Material bestehen, das in einem Magnetfeld in der Größenordnung von 13–14 Tesla arbeiten kann.

Für den stationären Betrieb eines Tokamak-Reaktors müssen die Leiter in den Spulen aus supraleitendem Material bestehen. Einige Eigenschaften moderner Supraleiter sind in Abb. 2 dargestellt.

Derzeit wurden weltweit mehrere Tokamaks mit supraleitenden Wicklungen gebaut. Der allererste Tokamak dieses Typs (T-7-Tokamak), der in den siebziger Jahren in der UdSSR gebaut wurde, verwendete Niob-Titan (NbTi) als Supraleiter. Das gleiche Material wurde im großen französischen Tokamak Tore Supra (Mitte der 80er Jahre) verwendet. Aus Abb. 2 wird deutlich, dass bei der Temperatur von flüssigem Helium das Magnetfeld in einem Tokamak mit einem solchen Supraleiter Werte von 4 Tesla erreichen kann. Für den internationalen Tokamak-Reaktor ITER entschied man sich für den Einsatz eines Niob-Zinn-Supraleiters mit größerer Leistungsfähigkeit, aber auch komplexerer Technologie. Dieser Supraleiter wird in der 1989 in Betrieb genommenen russischen T-15-Anlage eingesetzt. Aus Abb. 2 wird deutlich, dass bei ITER bei einer Heliumtemperatur in der Größenordnung das Magnetfeld im Plasma mit großem Spielraum die erforderlichen Feldwerte von 6 Tesla erreichen kann.

Für die Reaktionen (2) und (3) erweisen sich die Bedingungen (4)–(5) als wesentlich strenger. Um Bedingung (4) zu erfüllen, muss die Plasmatemperatur T im Reaktor viermal höher sein und die Plasmadichte n muss zweimal höher sein als in einem Reaktor, der auf Reaktion (1) basiert. Dadurch erhöht sich der Plasmadruck um das 8-fache und das erforderliche Magnetfeld um das 2,8-fache. Das bedeutet, dass das Magnetfeld auf einem Supraleiter Werte von 30 Tesla erreichen muss. Bisher hat noch niemand mit solchen Bereichen gearbeitet großes Volumen im stationären Betrieb. Abbildung 2 zeigt, dass es in Zukunft Hoffnung gibt, einen Supraleiter für ein solches Feld zu entwickeln. Allerdings können die Bedingungen (4)–(5) für Reaktionen vom Typ (2)–(3) in einer Tokamak-Anlage derzeit nicht realisiert werden.

3. Tritiumproduktion

In einem Tokamak-Reaktor muss die Plasmakammer von einer dicken Materialschicht umgeben sein, die die toroidalen Feldwicklungen vor der Zerstörung der Supraleitung durch Neutronen schützt. Diese etwa einen Meter dicke Schicht wird Decke genannt. Hier, in der Decke, muss die durch Neutronen beim Bremsen entstehende Wärme abgeführt werden. In diesem Fall kann ein Teil der Neutronen zur Herstellung von Tritium im Inneren der Decke genutzt werden. Die für einen solchen Prozess am besten geeignete Kernreaktion ist die folgende Reaktion, bei der Energie freigesetzt wird

Hier handelt es sich um ein Lithiumisotop mit einer Masse von 6. Da das Neutron ein neutrales Teilchen ist, gibt es keine Coulomb-Barriere und die Reaktion (8) kann bei einer Neutronenenergie deutlich unter 1 MeV ablaufen. Für eine effiziente Produktion von Tritium muss die Anzahl der Reaktionen vom Typ (8) ausreichend groß sein, und dafür muss die Anzahl der reagierenden Neutronen groß sein. Um die Anzahl der Neutronen zu erhöhen, müssen sich hier in der Decke Materialien befinden, in denen Neablaufen. Da die Energie der in Reaktion (1) erzeugten Primärneutronen hoch ist (14 MeV) und Reaktion (8) Neutronen mit niedriger Energie erfordert, kann die Anzahl der Neutronen in der Decke im Prinzip um 10–15 erhöht werden Zeiten und schließen dadurch das Tritiumgleichgewicht: Für jeden Reaktionsakt (1) erhält man einen oder mehrere Reaktionsakte (8). Lässt sich dieses Gleichgewicht praktisch umsetzen? Die Beantwortung dieser Frage erfordert detaillierte Experimente und Berechnungen. Der ITER-Reaktor muss sich nicht selbst mit Brennstoff versorgen, es werden jedoch Experimente an ihm durchgeführt, um das Tritium-Gleichgewichtsproblem zu klären.

Wie viel Tritium wird für den Betrieb des Reaktors benötigt? Einfache Schätzungen zeigen, dass ein Reaktor mit einer thermischen Leistung von 3 GW (elektrische Leistung in der Größenordnung von 1 GW) 150 kg Tritium pro Jahr benötigen würde. Das ist etwa einmal weniger als das Gewicht an Heizöl, das für den Jahresbetrieb eines Wärmekraftwerks gleicher Leistung benötigt wird.

Aufgrund von (8) ist der primäre „Brennstoff“ für den Reaktor das Lithiumisotop. Gibt es viel davon in der Natur? Natürliches Lithium enthält zwei Isotope

Man erkennt, dass der Isotopengehalt im natürlichen Lithium recht hoch ist. Die Lithiumreserven auf der Erde reichen bei dem derzeitigen Energieverbrauch für mehrere tausend Jahre und im Ozean für mehrere zehn Millionen Jahre. Schätzungen auf Basis der Formeln (8)–(9) zeigen, dass natürliches Lithium 50–100 Mal mehr gefördert werden muss als Tritium benötigt wird. Somit benötigt ein Reaktor mit der besprochenen Kapazität 15 Tonnen natürliches Lithium pro Jahr. Das ist 10,5-mal weniger als der Heizölbedarf für ein Wärmekraftwerk. Obwohl für die Isotopentrennung in natürlichem Lithium erheblicher Energieaufwand erforderlich ist, kann die bei Reaktion (8) freigesetzte zusätzliche Energie diese Kosten kompensieren.

4. Kurze Geschichte der CTS-Forschung

Historisch gesehen gilt der geheime Bericht von I.E. Tamm und A.D. Sacharow, der im März-April 1950 veröffentlicht wurde, als die erste Studie über CTS in unserem Land. Es wurde später im Jahr 1958 veröffentlicht. Der Bericht enthielt einen Überblick über die wichtigsten Ideen zum Einschluss von heißem Plasma durch ein Magnetfeld in einer Ringkernanlage und eine Schätzung der Größe eines Fusionsreaktors. Überraschenderweise kommt der derzeit im Bau befindliche ITER-Tokamak in seinen Parametern den Vorhersagen des historischen Berichts nahe.

Experimente mit heißem Plasma begannen in der UdSSR Anfang der fünfziger Jahre. Zunächst handelte es sich um kleine Installationen verschiedene Typen, gerade und ringförmig, aber bereits in der Mitte des Jahrzehnts führte die gemeinsame Arbeit von Experimentatoren und Theoretikern zu Installationen namens „Tokamak“. Von Jahr zu Jahr nahmen Größe und Komplexität der Anlagen zu, und 1962 wurde die T-3-Anlage mit den Abmessungen R = 100 cm, a = 20 cm und einem Magnetfeld von bis zu vier Tesla auf den Markt gebracht. Die über eineinhalb Jahrzehnte gesammelte Erfahrung hat gezeigt, dass es in einer Anlage mit einer Metallkammer, gut gereinigten Wänden und hohem Vakuum (bis zu mmHg) möglich ist, sauberes, stabiles Plasma zu erhalten hohe Temperatur Elektronen. L.A. Artsimovich berichtete über diese Ergebnisse unter Internationale Konferenz in Plasmaphysik und CTS im Jahr 1968 in Nowosibirsk. Danach wurde die Richtung der Tokamaks von der weltweiten wissenschaftlichen Gemeinschaft erkannt und in vielen Ländern begann man mit dem Bau von Anlagen dieser Art.

Die nächsten Tokamaks der zweiten Generation (T-10 in der UdSSR und PLT in den USA) begannen 1975 mit Plasma zu arbeiten. Sie zeigten, dass die mit der ersten Generation von Tokamaks geweckten Hoffnungen bestätigt wurden. Und in Tokamaks mit große Größen Kann mit stabilem und heißem Plasma arbeiten. Allerdings wurde schon damals klar, dass es unmöglich war, einen kleinen Reaktor zu bauen, und dass die Größe des Plasmas erhöht werden musste.

Der Entwurf der Tokamaks der dritten Generation dauerte etwa fünf Jahre und ihr Bau begann Ende der siebziger Jahre. Im nächsten Jahrzehnt wurden sie sukzessive in Betrieb genommen und bis 1989 waren 7 große Tokamaks in Betrieb: TFTR und DIII-D in den USA, JET (der größte) im vereinten Europa, ASDEX-U in Deutschland, TORE-SUPRA in Frankreich , JT 60-U in Japan und T-15 in der UdSSR. Diese Anlagen dienten dazu, die für den Reaktor erforderliche Plasmatemperatur und -dichte zu erreichen. Bisher wurden sie natürlich getrennt ermittelt, getrennt für die Temperatur und getrennt für die Dichte. Die TFTR- und JET-Anlagen ermöglichten die Arbeit mit Tritium und erstmals wurde mit ihnen eine nennenswerte thermonukleare Leistung P DT (gemäß Reaktion (1)) erhalten, vergleichbar mit der in das Plasma eingebrachten externen Leistung P aux . Die maximale Leistung P DT an der JET-Anlage erreichte in Experimenten im Jahr 1997 16 MW mit einer Leistung P aux in der Größenordnung von 25 MW. JET-Installationsabschnitt und Sicht von innen Kamera ist in Abb. dargestellt. 3 a, b. Hier wird zum Vergleich die Größe einer Person dargestellt.

Zu Beginn der 80er Jahre begann die gemeinsame Arbeit einer internationalen Gruppe von Wissenschaftlern (Russland, USA, Europa, Japan) mit der Entwicklung des Tokamaks der nächsten (vierten) Generation – des INTOR-Reaktors. In dieser Phase bestand die Aufgabe darin, die „Engpässe“ der zukünftigen Installation zu überprüfen, ohne ein vollständiges Projekt zu erstellen. Mitte der 80er Jahre wurde jedoch klar, dass eine umfassendere Aufgabe gestellt werden musste, einschließlich der Erstellung eines Projekts. Auf Betreiben von E.P. Velikhov wurde 1988 nach langwierigen Verhandlungen auf der Ebene der Staatsoberhäupter (M.S. Gorbatschow und R. Reagan) ein Abkommen unterzeichnet und die Arbeiten am ITER-Tokamak-Reaktorprojekt begonnen. Die Arbeiten wurden in drei Etappen mit Pausen durchgeführt und dauerten insgesamt 13 Jahre. Die diplomatische Geschichte des ITER-Projekts selbst ist dramatisch, hat mehr als einmal in Sackgassen geführt und verdient eine gesonderte Beschreibung (siehe beispielsweise das Buch). Formal wurde das Projekt im Juli 2000 abgeschlossen, es mussten jedoch noch ein Standort für den Bau ausgewählt und ein Bauvertrag sowie die ITER-Charta entwickelt werden. Insgesamt dauerte es fast sechs Jahre, und schließlich wurde im November 2006 das Abkommen über den Bau von ITER in Südfrankreich unterzeichnet. Der Bau selbst wird voraussichtlich etwa 10 Jahre dauern. Vom Beginn der Verhandlungen bis zur Produktion des ersten Plasmas im thermonuklearen Reaktor ITER werden also etwa 30 Jahre vergehen. Dies ist bereits vergleichbar mit dem aktiven Leben eines Menschen. Das sind die Realitäten des Fortschritts.

Von seinen linearen Abmessungen her ist ITER etwa doppelt so groß wie die JET-Anlage. Laut Projekt beträgt das Magnetfeld darin = 5,8 Tesla und der Strom I = 12-14 MA. Es wird davon ausgegangen, dass die thermonukleare Leistung den zur Erwärmung in das Plasma eingebrachten Wert erreicht, der in der Größenordnung von 10 liegt.

5. Entwicklung von Plasmaheizmitteln.

Parallel zur Vergrößerung des Tokamaks wurde die Technologie zur Plasmaerwärmung entwickelt. Derzeit werden drei verwendet verschiedene Methoden Heizung:

  1. Ohmsche Erwärmung des Plasmas durch durchfließenden Strom.
  2. Erhitzen durch Strahlen heißer neutraler Deuterium- oder Tritiumteilchen.
  3. Erwärmung durch elektromagnetische Wellen in verschiedenen Frequenzbereichen.

Eine ohmsche Erwärmung des Plasmas in einem Tokamak ist immer vorhanden, sie reicht jedoch nicht aus, um es auf thermonukleare Temperaturen in der Größenordnung von 10 – 15 keV (100 – 150 Millionen Grad) zu erhitzen. Tatsache ist, dass mit der Erwärmung der Elektronen der Plasmawiderstand schnell abnimmt (umgekehrt proportional), daher sinkt bei einem festen Strom auch die investierte Leistung. Als Beispiel weisen wir darauf hin, dass es bei der JET-Anlage bei einem Strom von 3-4 MA möglich ist, das Plasma nur auf ~ 2 – 3 keV aufzuheizen. Dabei ist der Plasmawiderstand so gering, dass bei einer Spannung von 0,1 – 0,2 V ein Strom von mehreren Millionen Ampere (MA) aufrechterhalten wird.

Heiße Neutralstrahlinjektoren tauchten erstmals 1976–77 in der amerikanischen PLT-Anlage auf und haben seitdem in der technologischen Entwicklung große Fortschritte gemacht. Ein typischer Injektor verfügt nun über einen Teilchenstrahl mit einer Energie von 80 – 150 keV und einer Leistung von bis zu 3 – 5 MW. Bei einer großen Anlage werden in der Regel bis zu 10 – 15 Injektoren unterschiedlicher Leistung verbaut. Die Gesamtleistung der vom Plasma eingefangenen Strahlen beträgt 25 – 30 MW. Dies ist vergleichbar mit der Leistung eines kleinen Wärmekraftwerks. Es ist geplant, am ITER Injektoren mit Teilchenenergien bis zu 1 MeV und einer Gesamtleistung von bis zu 50 MW zu installieren. Solche Pakete gibt es noch nicht, aber die Entwicklung ist intensiv im Gange. Im ITER-Abkommen übernahm Japan die Verantwortung für diese Entwicklungen.

Man geht heute davon aus, dass die Plasmaerwärmung durch elektromagnetische Wellen in drei Frequenzbereichen wirksam ist:

  • Erhitzen von Elektronen bei ihrer Zyklotronfrequenz f ~ 170 GHz;
  • Erhitzen von Ionen und Elektronen bei der Ionenzyklotronfrequenz f ~ 100 MHz;
  • Erhitzen bei mittlerer (unterer Hybrid-)Frequenz f ~ 5 GHz.

Für die letzten beiden Frequenzbereiche gibt es seit langem leistungsstarke Strahlungsquellen, und das Hauptproblem besteht darin, die Quellen (Antennen) richtig auf das Plasma abzustimmen, um die Auswirkungen der Wellenreflexion zu reduzieren. Auf einer Nummer große Anlagen Durch die hohe Geschicklichkeit der Experimentatoren war es möglich, auf diese Weise bis zu 10 MW Leistung in das Plasma einzubringen.

Für den ersten, höchsten Frequenzbereich bestand das Problem zunächst darin, leistungsstarke Strahlungsquellen mit einer Wellenlänge von l ~ 2 mm zu entwickeln. Vorreiter war hier das Institut für Angewandte Physik Nischni Nowgorod. In einem halben Jahrhundert gezielter Arbeit ist es gelungen, Strahlungsquellen (Gyrotrons) mit einer Leistung von bis zu 1 MW im stationären Modus zu erzeugen. Dies sind die Geräte, die bei ITER installiert werden. In Gyrotrons wurde Technologie zu einer Kunstform. Der Resonator, in dem Wellen durch einen Elektronenstrahl angeregt werden, hat Abmessungen in der Größenordnung von 20 cm und die erforderliche Wellenlänge ist zehnmal kleiner. Daher ist es notwendig, resonant bis zu 95 % der Leistung in eine sehr hohe räumliche Harmonische zu investieren und nicht mehr als 5 % in alle anderen zusammen. In einem der Gyrotrons für ITER wird als solche ausgewählte Harmonische eine Harmonische mit Zahlen (Anzahl der Knoten) im Radius = 25 und einer polykristallinen Diamantscheibe mit einer Dicke von 1,85 mm verwendet und als Fenster wird ein Durchmesser von 106 mm verwendet. Um das Problem der Plasmaerwärmung zu lösen, war es daher notwendig, die Produktion riesiger künstlicher Diamanten zu entwickeln.

6. Diagnose

Bei einer Plasmatemperatur von 100 Millionen Grad kann kein Messgerät in das Plasma eingeführt werden. Es wird verdunsten, ohne Zeit zu haben, vernünftige Informationen zu übermitteln. Daher sind alle Messungen indirekt. Dabei werden Ströme, Felder und Partikel außerhalb des Plasmas gemessen und anschließend mithilfe mathematischer Modelle die aufgezeichneten Signale interpretiert.

Was wird eigentlich gemessen?

Dabei handelt es sich zunächst einmal um Ströme und Spannungen in den das Plasma umgebenden Stromkreisen. Mit lokalen Sonden werden elektrische und magnetische Felder außerhalb des Plasmas gemessen. Die Anzahl solcher Sonden kann mehrere Hundert erreichen. Aus diesen Messungen und der Lösung inverser Probleme ist es möglich, die Form des Plasmas, seine Position in der Kammer und die Stärke des Stroms zu rekonstruieren.

Zur Messung der Plasmatemperatur und -dichte werden sowohl aktive als auch passive Methoden eingesetzt. Unter aktiv verstehen wir eine Methode, bei der etwas Strahlung (z. B. ein Laserstrahl oder ein Strahl neutraler Teilchen) in das Plasma injiziert wird und die Streustrahlung, die Informationen über die Parameter des Plasmas enthält, gemessen wird. Eine der Schwierigkeiten des Problems besteht darin, dass in der Regel nur ein kleiner Teil der eingestrahlten Strahlung gestreut wird. Wenn also ein Laser zur Messung von Temperatur und Elektronendichte verwendet wird, werden nur 10 -10 der Laserpulsenergie verloren. Bei der Messung der Temperatur von Ionen mithilfe eines Neutralstrahls werden Intensität, Form und Position der optischen Linien gemessen, die auftreten, wenn Plasmaionen auf den Neutralleitern des Strahls neu aufgeladen werden. Die Intensität dieser Linien ist sehr gering und zur Analyse ihrer Form sind hochempfindliche Spektrometer erforderlich.

Passive Methoden beziehen sich auf Methoden, die die Strahlung messen, die ständig von einem Plasma ausgeht. Dabei werden elektromagnetische Strahlung in verschiedenen Frequenzbereichen oder die Flüsse und Spektren austretender Neutralteilchen gemessen. Dazu gehören Messungen von harter und weicher Röntgenstrahlung, Ultraviolett, Messungen im optischen, Infrarot- und Radiobereich. Interessant sind sowohl die Messungen von Spektren als auch die Positionen und Formen einzelner Linien. Die Zahl der räumlichen Kanäle in der Einzeldiagnostik erreicht mehrere Hundert. Die Signalaufzeichnungsfrequenz erreicht mehrere MHz. Jede Installation mit Selbstachtung verfügt über einen Satz von 25 bis 30 Diagnosen. Im ITER-Tokamak-Reaktor sind nur in der Anfangsphase mehrere Dutzend passive und aktive Diagnostika geplant.

7. Mathematische Modelle von Plasma

Probleme der mathematischen Modellierung von Plasma lassen sich grob in zwei Gruppen einteilen. Die erste Gruppe umfasst Aufgaben zur Interpretation eines Experiments. Sie sind in der Regel falsch und erfordern die Entwicklung von Regularisierungsmethoden. Hier finden Sie einige Beispiele für Aufgaben aus dieser Gruppe.

  1. Rekonstruktion der Plasmagrenze aus magnetischen (Sonden-)Messungen von Feldern außerhalb des Plasmas. Dieses Problem führt zu Fredholm-Integralgleichungen erster Art oder zu stark entarteten linearen algebraischen Systemen.
  2. Akkordmessungen verarbeiten. Hier kommen wir zu Integralgleichungen erster Art vom gemischten Volterra-Fredholm-Typ.
  3. Verarbeitung von Spektrallinienmessungen. Hier müssen Hardwarefunktionen berücksichtigt werden, und wir kommen wieder zu den Fredholm-Integralgleichungen erster Art.
  4. Verarbeitung verrauschter Zeitsignale. Dabei kommen verschiedene spektrale Zerlegungen (Fourier, Wavelet) und Berechnungen von Korrelationen verschiedener Ordnungen zum Einsatz.
  5. Analyse von Partikelspektren. Hier handelt es sich um nichtlineare Integralgleichungen erster Art.

Die folgenden Bilder veranschaulichen einige der oben genannten Beispiele. Abbildung 4 zeigt das zeitliche Verhalten weicher Röntgensignale an der MAST-Installation (England), gemessen entlang von Sehnen mit kollimierten Detektoren.

Die installierte Diagnose registriert über 100 solcher Signale. Scharfe Spitzen in den Kurven entsprechen schnellen inneren Bewegungen („Störungen“) des Plasmas. Die zweidimensionale Struktur solcher Bewegungen kann durch tomografische Verarbeitung einer Vielzahl von Signalen ermittelt werden.

Abbildung 5 zeigt die räumliche Verteilung des Elektronendrucks für zwei Pulse aus demselben MAST-Aufbau.

Die Spektren der Streustrahlung des Laserstrahls werden an 300 Punkten entlang des Radius gemessen. Jeder Punkt in Abb. 5 ist das Ergebnis einer komplexen Verarbeitung des Energiespektrums der von Detektoren aufgezeichneten Photonen. Da nur ein kleiner Teil der Energie des Laserstrahls verloren geht, ist die Anzahl der Photonen im Spektrum gering und die Wiederherstellung der Temperatur über die gesamte Spektrumsbreite erweist sich als falsche Aufgabe.

Die zweite Gruppe umfasst die eigentlichen Probleme der Modellierung von im Plasma ablaufenden Prozessen. Heißes Plasma in einem Tokamak weist eine große Anzahl charakteristischer Zeiten auf, deren Extremwerte sich um 12 Größenordnungen unterscheiden. Daher kann die Erwartung, dass Modelle erstellt werden können, die „alle“ Prozesse im Plasma enthalten, vergeblich sein. Es müssen Modelle verwendet werden, die nur in einem relativ engen Bereich charakteristischer Zeiten gültig sind.

Zu den Hauptmodellen gehören:

  • Gyrokinetische Beschreibung von Plasma. Die Unbekannte ist hier die Ionenverteilungsfunktion, die von sechs Variablen abhängt: drei Raumkoordinaten in toroidaler Geometrie, Längs- und Quergeschwindigkeit und Zeit. Um Elektronen in solchen Modellen zu beschreiben, werden Mittelungsmethoden verwendet. Um dieses Problem zu lösen, wurden in einer Reihe ausländischer Zentren riesige Codes entwickelt. Ihre Berechnung erfordert auf Supercomputern viel Zeit. In Russland gibt es derzeit keine solchen Codes; im Rest der Welt gibt es etwa ein Dutzend davon. Derzeit beschreiben gyrokinetische Codes Plasmaprozesse im Zeitbereich von 10 -5 -10 -2 Sekunden. Dazu gehören die Entstehung von Instabilitäten und das Verhalten von Plasmaturbulenzen. Leider liefern diese Codes noch kein vernünftiges Bild des Transports im Plasma. Der Vergleich der Berechnungsergebnisse mit dem Experiment steht noch am Anfang.
  • Magnetohydrodynamische (MHD) Beschreibung von Plasma. In diesem Bereich haben mehrere Zentren Codes für linearisierte dreidimensionale Modelle erstellt. Sie werden zur Untersuchung der Plasmastabilität verwendet. Gesucht werden in der Regel die Grenzen der Instabilität im Parameterraum und die Größe der Inkremente. Parallel dazu werden nichtlineare Codes entwickelt.

Beachten Sie, dass sich die Einstellung der Physiker zu Plasmainstabilitäten in den letzten zwei Jahrzehnten merklich verändert hat. In den 50er und 60er Jahren wurden „fast täglich“ Plasmainstabilitäten entdeckt. Doch im Laufe der Zeit wurde klar, dass nur einige von ihnen zu einer teilweisen oder vollständigen Zerstörung des Plasmas führen, während der Rest nur die Übertragung von Energie und Teilchen erhöht (oder nicht erhöht). Die gefährlichste Instabilität, die zur vollständigen Zerstörung des Plasmas führt, wird „Stall-Instabilität“ oder einfach „Stall“ genannt. Es ist nichtlinear und entsteht, wenn sich mehr elementare lineare MHD-Moden, die mit einzelnen Resonanzoberflächen verbunden sind, im Raum kreuzen und dadurch magnetische Oberflächen zerstören. Versuche, den Abwürgeprozess zu beschreiben, haben zur Erstellung nichtlinearer Codes geführt. Leider ist keiner von ihnen bisher in der Lage, das Bild der Plasmazerstörung zu beschreiben.

In Plasmaexperimenten gelten heute neben Stallinstabilitäten auch einige wenige Instabilitäten als gefährlich. Hier nennen wir nur zwei davon. Dies ist der sogenannte RWM-Modus, der mit der endlichen Leitfähigkeit der Kammerwände und der Dämpfung der plasmastabilisierenden Ströme darin verbunden ist, und der NTM-Modus, der mit der Bildung magnetischer Inseln auf resonanten magnetischen Oberflächen verbunden ist. Bisher wurden mehrere dreidimensionale MHD-Codes in toroidaler Geometrie erstellt, um diese Art von Störungen zu untersuchen. Es wird aktiv nach Methoden gesucht, um diese Instabilitäten zu unterdrücken, wie z frühen Zeitpunkt und im Stadium entwickelter Turbulenzen.

  • Beschreibung des Transports im Plasma, der Wärmeleitfähigkeit und der Diffusion. Vor etwa vierzig Jahren wurde die klassische (auf gepaarten Teilchenkollisionen basierende) Theorie des Transfers in einem toroidalen Plasma entwickelt. Diese Theorie wurde „neoklassisch“ genannt. Experimente zeigten jedoch bereits Ende der 60er Jahre, dass die Übertragung von Energie und Teilchen im Plasma viel größer ist als im Neoklassizismus (um 1 - 2 Größenordnungen). Auf dieser Grundlage wird der normale Transport im experimentellen Plasma als „anomal“ bezeichnet.

Es wurden viele Versuche unternommen, den anomalen Transport durch die Entwicklung turbulenter Zellen im Plasma zu beschreiben. Der übliche Weg, der im letzten Jahrzehnt in vielen Labors auf der ganzen Welt übernommen wurde, ist wie folgt. Es wird angenommen, dass die Hauptursache für den anomalen Transport driftartige Instabilitäten sind, die mit Temperaturgradienten von Ionen und Elektronen oder mit dem Vorhandensein eingefangener Partikel in der toroidalen Geometrie des Plasmas verbunden sind. Die Ergebnisse der Berechnungen mit solchen Codes führen zu folgendem Bild. Wenn Temperaturgradienten einen bestimmten kritischen Wert überschreiten, führt die entstehende Instabilität zu Plasmaturbulisierungen und einem starken Anstieg der Energieflüsse. Es wird angenommen, dass diese Flüsse proportional zum Abstand (in einigen Maßeinheiten) zwischen dem experimentellen und dem kritischen Gradienten wachsen. Auf diesem Weg wurden im letzten Jahrzehnt mehrere Transportmodelle entwickelt, um die Energieübertragung im Tokamak-Plasma zu beschreiben. Versuche, Berechnungen anhand dieser Modelle mit Experimenten zu vergleichen, führen jedoch nicht immer zum Erfolg. Um die Experimente zu beschreiben, müssen wir von unterschiedlichen Entladungsmodi und an unterschiedlichen räumlichen Punkten des Plasmaquerschnitts ausgehen Hauptrolle Bei der Übertragung spielen verschiedene Instabilitäten eine Rolle. Daher ist die Vorhersage nicht immer zuverlässig.

Die Sache wird noch komplizierter durch die Tatsache, dass im letzten Vierteljahrhundert viele Anzeichen einer „Selbstorganisation“ von Plasma entdeckt wurden. Ein Beispiel für einen solchen Effekt ist in Abb. 6 a, b dargestellt.

Abbildung 6a zeigt die Plasmadichteprofile n(r) für zwei Entladungen der MAST-Anlage mit den gleichen Strömen und Magnetfeldern, aber mit unterschiedlichen Deuteriumgaszufuhrraten zur Aufrechterhaltung der Dichte. Dabei ist r der Abstand zur Mittelachse des Torus. Es ist zu erkennen, dass die Dichteprofile in ihrer Form stark variieren. Für die gleichen Pulse zeigt Abb. 6b Elektronendruckprofile, normiert am Punkt – Elektronentemperaturprofil. Man erkennt, dass die „Flügel“ der Druckprofile gut übereinstimmen. Daraus folgt, dass die Temperaturprofile der Elektronen sozusagen „angepasst“ werden, um die Druckprofile anzugleichen. Dies bedeutet jedoch, dass die Übertragungskoeffizienten „angepasst“ sind, das heißt, sie sind keine Funktionen lokaler Plasmaparameter. Dieses Gesamtbild nennt man Selbstorganisation. Die Diskrepanz zwischen den Druckprofilen im zentralen Teil wird durch das Vorhandensein periodischer MHD-Oszillationen in der zentralen Zone der Entladung mit höherer Dichte erklärt. Trotz dieser Instationarität sind die Druckprofile an den Flügeln gleich.

Unsere Arbeit geht davon aus, dass die Wirkung der Selbstorganisation durch das gleichzeitige Einwirken vieler Instabilitäten bestimmt wird. Es ist unmöglich, die Hauptinstabilität unter ihnen hervorzuheben, daher sollte die Beschreibung der Übertragung mit einigen Variationsprinzipien in Verbindung gebracht werden, die im Plasma aufgrund dissipativer Prozesse realisiert werden. Als solches Prinzip wird vorgeschlagen, das von Kadomtsev vorgeschlagene Prinzip der minimalen magnetischen Energie zu verwenden. Dieses Prinzip ermöglicht es uns, einige spezielle Strömungs- und Druckprofile zu identifizieren, die üblicherweise als kanonisch bezeichnet werden. In Verkehrsmodellen spielen sie die gleiche Rolle wie kritische Gradienten. Auf diesem Weg aufgebaute Modelle ermöglichen eine sinnvolle Beschreibung der experimentellen Temperatur- und Plasmadichteprofile in verschiedenen Betriebsmodi eines Tokamaks.

8. Der Weg in die Zukunft. Hoffnungen und Träume.

In mehr als einem halben Jahrhundert der Forschung an heißen Plasma ist ein erheblicher Teil des Weges zu einem thermonuklearen Reaktor zurückgelegt. Am vielversprechendsten ist derzeit der Einsatz von Tokamak-Anlagen zu diesem Zweck. Parallel dazu, wenn auch mit einer Verzögerung von 10–15 Jahren, entwickelt sich die Richtung der Stellaratoren. Welche dieser Anlagen letztendlich besser für einen kommerziellen Reaktor geeignet sein wird, lässt sich derzeit nicht sagen. Darüber kann erst in der Zukunft entschieden werden.

Die Fortschritte in der CTS-Forschung seit den 1960er Jahren sind in Abb. 7 im doppelt logarithmischen Maßstab dargestellt.

Das Gebiet der Plasmaphysik entstand aus dem Wunsch, einen Stern in Flaschen zu füllen. In den letzten Jahrzehnten ist das Gebiet in unzählige Richtungen gewachsen, von der Astrophysik über das Weltraumwetter bis hin zur Nanotechnologie.

Da unser allgemeines Verständnis von Plasma gewachsen ist, ist auch unsere Fähigkeit gewachsen, Fusionsbedingungen länger als eine Sekunde aufrechtzuerhalten. Anfang dieses Jahres war ein neuer supraleitender Fusionsreaktor in China in der Lage, Plasma bei 50 Millionen Grad Celsius für die Rekordzeit von 102 Sekunden zu halten. Der Wendelstein X-7 Stellarator, der im vergangenen Herbst erstmals in Deutschland flog, soll diesen Rekord brechen und Plasma bis zu 30 Minuten am Stück halten können.

Das jüngste Update von NSTX-U sieht im Vergleich zu diesen Monstern bescheiden aus: Das Experiment kann Plasma jetzt fünf statt einer Sekunde lang halten. Aber das ist auch ein wichtiger Meilenstein.

„Ein Fusionsplasma zu erzeugen, das nur fünf Sekunden dauert, scheint vielleicht kein sehr langer Prozess zu sein, aber in der Physik des Plasmas können fünf Sekunden mit seiner Steady-State-Physik verglichen werden“, sagt Myers und bezieht sich auf die Bedingungen, unter denen das Plasma entsteht ist stabil. Das ultimative Ziel besteht darin, einen stabilen Zustand des „brennenden Plasmas“ zu erreichen, der die Fusion selbstständig und mit geringem externen Energieaufwand durchführen kann. Dies hat bisher noch kein Experiment geschafft.

NSTX-U wird es Princeton-Forschern ermöglichen, einige Lücken zwischen dem, was jetzt aus der Plasmaphysik bekannt ist, und dem, was benötigt wird, um eine Pilotanlage zu schaffen, die eine stationäre Verbrennung erreichen und sauberen Strom erzeugen kann, zu schließen.

Um bessere Einschlussmaterialien zu finden, müssen wir einerseits besser verstehen, was zwischen dem Fusionsplasma und den Reaktorwänden passiert. Princeton prüft die Möglichkeit, seine Reaktorwände (aus Kohlenstoffgraphit) durch eine „Wand“ aus flüssigem Lithium zu ersetzen, um Langzeitkorrosion zu reduzieren.

Darüber hinaus glauben Wissenschaftler, dass sie sich beeilen müssen, wenn die Synthese im Kampf gegen die globale Erwärmung helfen wird. NSTX-U wird Physikern bei der Entscheidung helfen, ob sie das sphärische Tokamak-Design weiterentwickeln wollen. Die meisten Tokamak-Reaktoren sind weniger apfelförmig und eher donutförmig, donutförmig und torusförmig. Ungewöhnliche Form Mit dem sphärischen Torus können Sie das Magnetfeld Ihrer Spulen effizienter nutzen.

„Langfristig möchten wir herausfinden, wie wir die Konfiguration einer dieser Maschinen optimieren können“, sagt Martin Greenwald, stellvertretender Direktor des Center for Plasma and Fusion Science am . „Dazu müssen Sie wissen, wie die Leistung der Maschine von Dingen abhängt, die Sie steuern können, beispielsweise von der Form.“

Myers hasst es zu beurteilen, wie weit wir von einer kommerziell realisierbaren Fusionsenergie entfernt sind, und er ist verständlich. Schließlich haben Jahrzehnte des unerbittlichen Optimismus den Ruf des Fachgebiets ernsthaft geschädigt und die Vorstellung bestärkt, dass Fusion ein Wunschtraum sei. Mit allen Auswirkungen auf die Finanzierung.

Ein schwerer Schlag für das Fusionsprogramm des MIT war die Unterstützung des Alcator C-Mid-Tokamaks durch die Regierung, der eines der stärksten Magnetfelder der Welt erzeugt und Fusionsplasma bei höchsten Drücken demonstriert. Der Großteil der erwarteten NSTX-U-Forschung wird von der weiteren Unterstützung des Bundes abhängen, die laut Myers „noch ein Jahr entfernt“ ist.

Jeder muss seine Forschungsgelder sorgfältig ausgeben, und einige Fusionsprogramme haben bereits unglaubliche Summen verbrannt. Nehmen wir zum Beispiel ITER, einen riesigen supraleitenden Fusionsreaktor, der derzeit in Frankreich gebaut wird. Wann begann es im Jahr 2005? internationale Kooperation Es wurde als 5-Milliarden-Dollar-Projekt mit einer Laufzeit von 10 Jahren in Rechnung gestellt. Nach mehreren Jahren des Scheiterns ist der Preis auf 40 Milliarden US-Dollar gestiegen. Den optimistischsten Schätzungen zufolge wird die Anlage bis 2030 fertiggestellt sein.

Und während ITER wie ein Tumor anschwellen wird, bis ihm die Ressourcen ausgehen und sein Wirt stirbt, zeigt das abgespeckte Fusionsprogramm des MIT, wie es mit einem viel kleineren Budget umgesetzt werden kann. Letzten Sommer präsentierte ein Team von MIT-Absolventen Pläne für ARC, einen kostengünstigen Fusionsreaktor, der neue hochtemperatursupraleitende Materialien verwenden würde, um die gleiche Energiemenge wie ITER zu erzeugen, nur mit einem viel kleineren Gerät.

„Die Herausforderung für die Kernfusion besteht darin, einen technischen Weg zu finden, der sie wirtschaftlich attraktiv macht, was wir in naher Zukunft planen“, sagt Greenwald und weist darauf hin, dass das ARC-Konzept derzeit von der Energy Initiative am MIT verfolgt wird. - Wir glauben, dass Synthese wichtig ist für globale Erwärmung, wir müssen schneller vorankommen.“

„Die Fusion verspricht eine wichtige Energiequelle zu werden – das ist im Wesentlichen unser ultimatives Ziel“, sagt Robert Rosner, Plasmaphysiker an der University of Chicago und Mitbegründer des Energy Policy Institute. „Gleichzeitig stellt sich die wichtige Frage: Wie viel sind wir derzeit bereit auszugeben? Wenn wir die Mittel so weit reduzieren, dass die nächste Generation intelligenter Kinder dies überhaupt nicht mehr tun möchte, steigen wir möglicherweise ganz aus diesem Geschäft aus.

mob_info