Kapitel 5
Ungelöste Rätsel

4   Quantenfeldtheorie und Eichfelder

7   Die Frage nach der Existenz einer Quanten-Eichtheorie

In den letzten Kapiteln haben wir die Grundlagen gelegt, um nun endlich das Eichfeld-Millenium-Prize-Problem des Clay Mathematics Institute zu verstehen, für dessen Lösung wie bei den anderen Problemen eine Million US-Dollar ausgesetzt wurde.

Die Aufgabe lautet:

Was bedeutet das? Wiederholen wir dazu die Ergebnisse der vorherigen Kapitel:

Zunächst einmal haben wir es mit einer reinen Eichtheorie zu tun, d.h. die ψ-Felder (siehe letztes Kapitel), die beispielsweise Quarks repräsentieren können, dürfen wir zur Vereinfachung weglassen. Die Lagrangedichte der Theorie ist dann gegeben durch (siehe letztes Kapitel):

  L   =   1/(4 g2)   Spur ( Fμν Fμν )

(auf den Vorfaktor wollen wir nicht näher eingehen). Der Feldstärketensor Fμν hängt dabei mit den Eichpotentialen (Eichfeldern) Aμ über die Beziehung

  Fμν   :=   δμ Aν − δν Aμ − [Aμ , Aν]

zusammen. Die Eichfelder Aμ(x) sind dabei für jedes μ Matrizen, die i.a. nicht miteinander vertauschbar sind -- dies erklärt den Begriff nichtabelsche Eichgruppe, d.h. die abelsche Eichgruppe U(1) der Elektrodynamik interessiert uns hier nicht mehr.

Die Eichfelder Aμ(x) sind die dynamischen Variablen der Theorie, d.h. an jedem Ort x interessieren wir uns für die zeitliche Veränderung der Eichfelder. Allerdings gibt es dabei eine Besonderheit: Eichfelder, die sich nach der Transformationsformel

  (Tg A)μ   =   g Aμ g-1   +   (δμ g) g-1

ineinander umeichen lassen, betrachten wir als physikalisch gleichwertig. Dies wird in der Lagrangedichte dadurch zum Ausdruck gebracht, dass sich diese bei solchen Eichtransformationen nicht ändert. Genau genommen sind also die Äquivalenzklassen (Eichklassen) aus jeweils zueinander gleichwertigen Eichfeldern die dynamischen Variablen der Theorie. Diesen Umstand muss man immer wieder im Auge behalten und an verschiedenen Stellen in der Theorie geeignet berücksichtigen (z.B. bei den Pfadintegralen der Quantentheorie, wie wir bereits gesehen haben).

Das Prinzip der kleinsten Wirkung erlaubt es uns nun, die klassischen Feldgleichungen (auch Yang-Mills-Gleichungen genannt) aufzustellen. Diese sind gleichsam die Verallgemeinerung der Maxwellgleichungen aus der freien Elektrodynamik auf nichtabelsche Eichtheorien. Für die Eichgruppe G = U(1) ergeben sie genau die Maxwellgleichungen.

Im Gegensatz zu den Maxwellgleichungen beeinflussen sich die Felder jedoch bei nichtabelschen Eichtheorien gegenseitig. Die Feldgleichungen sind nichtlinear. Ursache ist der nichtverschwindende Kommutator in der Definition des Feldstärketensors oben. Dies macht die klassische nichtabelsche Eichtheorie bereits sehr viel komplexer als die klassische freie Elektrodynamik. Es ist nicht so einfach möglich, Lösungen der Feldgleichungen aufzustellen, und in vielen Fällen bleibt einem nur die numerische Simulation auf dem Computer.

Eine Gemeinsamkeit zwischen den Maxwellgleichungen und den Yang-Mills-Gleichungen gibt es jedoch: Die Lösungen haben in beiden Fällen den Charakter masseloser Wellen, d.h. sie breiten sich mit Lichtgeschwindigkeit aus.


Die spezielle Relativitätstheorie ist in den Yang-Mills-Gleichungen automatisch berücksichtigt, denn diese sind in dieser Hinsicht analog zu den Maxwellgleichungen aufgebaut (die Lorentzindices μ und ν und das damit verbundene Transformationsverhalten der Felder machen dies sichtbar). Wie aber sieht es mit der Quantentheorie aus?

Die Yang-Mills-Gleichungen sind wie die Maxwellgleichungen klassische Feldgleichungen, d.h. die Forderungen der Quantentheorie, die wir in Kapitel 5.4.2 kennengelernt haben, sind darin noch nicht berücksichtigt. Wir müssen also ausgehend von der klassischen Theorie eine entsprechende Quantentheorie konstruieren, die im sogenannten klassischen Grenzfall in die klassische Theorie übergeht. Zur Erinnerung:

Der klassische Grenzfall tritt nun ein, wenn die Werte des Wirkungsfunktionals für die verschiedenen Möglichkeiten, über die das Ereignis eintreten kann, sehr viel größer als das Planck'sche Wirkungsquantum sind, und wenn viele Möglichkeiten (und damit viele Amplituden) zum Ereignis beitragen. Die meisten Amplituden heben sich dann gegenseitig weg (interferieren also destruktiv) und nur die Amplituden, deren Wirkungsfunktional sich in der Nähe eines Extremwertes dieses Wirkungsfunktionals befinden, tragen nennenswert zur Gesamtamplitude bei. Daher bestimmt im klassischen Grenzfall der Extremwert des Wirkungsfunktionals die Physik -- dies ist die Begründung für das Prinzip der kleinsten Wirkung, aus dem die klassischen Feldgleichungen folgen.

Ein Beispiel: In der Quantentheorie des elektromagnetischen Feldes bedeutet der klassische Grenzfall, dass eine große Anzahl Photonen, die sich nur wenig unterscheiden (also ähnliche Impulse und damit Wellenlängen und Frequenzen haben), zu einem physikalischen Prozess beitragen (siehe Kapitel 5.4.4). Die Auswirkung dieser Photonen lässt sich dann in sehr guter Näherung durch ein klassisches elektromagnetisches Feld beschreiben.

Zur Konstruktion einer Quantentheorie, die im klassischen Grenzfall in eine klassische Eichtheorie übergeht, gibt es zwei Wege, die wir in den letzten Kapiteln bereits kennengelernt haben: die kanonische Quantisierung und die Quantisierung mit Hilfe von Pfadintegralen. Wiederholen wir kurz, was diese beiden (gleichwertigen) Möglichkeiten zur Quantisierung kennzeichnet:


Damit haben wir nun alle Zutaten zusammen: Wir wissen, was eine Eichtheorie ist, und welche Eigenschaften eine dazu passende Quantentheorie aufweisen soll. Und wir kennen auch gleich noch zwei Wege, wie man eine solche Quantentheorie konstruieren kann. Was aber soll es dann bedeuten, die Existenz dieser Quantentheorie zu beweisen?

Im Grunde geht es darum, sicherzustellen, dass die obigen Quantisierungswege ein konsistentes Ergebnis liefern. Es muss möglich sein, in der Quantentheorie für jede Wahrscheinlichkeitsamplitude, die zu einer beobachtbaren Größe gehört, ein eindeutiges Ergebnis auszurechnen. Aber was soll daran problematisch sein?

Normalerweise gelingt es in der Quantentheorie nicht, eine Wahrscheinlichkeitsamplitude direkt auszurechnen. Statt dessen muss man ein Näherungsverfahren finden, das es einem schrittweise ermöglicht, eine Amplitude immer genauer zu berechnen. Ein solches Näherungsverfahren ist beispielsweise die Störungstheorie, bei der man sogenannte Feynmangraphen verwendet. Dabei treten allerdings Divergenzen auf, d.h. die Amplituden, die man in dem Verfahren zur Gesamtamplitude aufsummieren muss, sind unendlich groß.

Man muss nun versuchen, diese Divergenzen so zu beseitigen, dass man ein eindeutiges Ergebnis für die gesuchte Amplitude erhält. Dieses Verfahren bezeichnet man als Renormierung. Dabei geht man im Wesentlichen so vor: Man beschränkt die Energien (Impulse), die in den aufzusummierenden Amplituden auftreten, auf Werte unterhalb eines bestimmten Maximalwertes (nennen wir ihn Cutoff). Damit werden alle Amplituden endlich. Nun summiert man soviele Amplituden auf, wie man zur Erreichung einer gewissen Genauigkeit zu brauchen glaubt, und versucht, den Grenzübergang Cutoff gegen Unendlich durchzuführen. Dabei muss man einen oder mehrere experimentell ermittelte Messwerte hineinstecken, um der ganzen Rechnung eine Art Fixpunkt zu spendieren. Die Divergenz verschiebt man nun in einen Bereich, der später wieder bereinigt wird, wenn man weitere Amplituden berücksichtigt. Auf diese Weise kann man die Divergenz immer weiter vor sich herschieben (das ganze Verfahren ist an einem einfachen Beispiel in Das Unteilbare, Kapitel 7.3: Der Umgang mit divergierenden Graphen: Renormierung http://www.joergresag.privat.t-online.de/mybkhtml/chap73.htm beschrieben). Die Annahme ist nun, dass die Divergenz verschwindet, wenn man alle unendlich vielen Amplituden berücksichtigt. Entscheidend ist dabei, dass man nur eine feste endliche Anzahl von Messwerten in die Rechnung als Fixpunkte hineinstecken muss, egal wieviele Amplituden man aufsummiert. Ist das der Fall, so nennt man die Theorie renormierbar. Wächst jedoch die Anzahl hineinzusteckender Messwerte immer weiter an, je mehr Amplituden man aufsummiert, so ist die Theorie nicht renormierbar. Der Grenzübergang, dass sich alle Amplituden konsistent aufsummieren lassen, lässt sich bei nicht renormierbaren Theorien nicht durchführen, ohne dass die Theorie ihre Vorhersagekraft verliert (denn man muss ja unendlich viele Messergebnisse hineinstecken, um sie wieder herauszubekommen). Das würde entweder bedeuten, dass die entsprechende Quantentheorie nicht existiert, oder zumindest dass das Näherungsverfahren nicht anwendbar ist.

Ähnlich ist es bei den Pfadintegralen. Um diese näherungsweise zu berechnen, kann man Raum und Zeit mit einem feinen Gitter überziehen und die Eichfelder nur an diesen Gitterpunkten berücksichtigen. Genau so hatten wir das Pfadintegral auch definiert. Das Integral wird dabei durch eine Summe ersetzt. Man kann nun mit Hilfe von Computerprogrammen (z.B. mit Hilfe sogenannter Monte-Carlo-Rechnungen) versuchen, diese Summe näherungsweise auszurechnen (exakt kann man die Summe nicht berechnen, da die Zahl der Summanden geradezu explodiert, je mehr Gitterpunkte man berücksichtigt, siehe auch Das Unteilbare, Kapitel 6.5: Quark-Physik mit dem Supercomputer, http://www.joergresag.privat.t-online.de/mybkhtml/chap65.htm ). Der räumliche Abstand zwischen den Gitterpunkten wirkt dabei wie ein Cutoff für die Energien und Impulse, d.h. wir erhalten ein endliches Ergebnis. Aber die Frage bleibt, ob dieses Ergebnis auch endlich bleibt, wenn wir den Gitterabstand immer weiter verkleinern und schließlich zum Kontinuumslimes übergehen. Ist dies der Fall, und muss man wie oben dabei nur eine feste endliche Anzahl Messwerte als Fixpunkte in die Rechnung hineinstecken, so ist die Theorie wieder renormierbar.


Man könnte nun meinen, der Nachweis der Renormierbarkeit reiche aus, um die Existenz einer Quanten-Eichfeldtheorie nachzuweisen. Das ist jedoch etwas zu kurz gegriffen, denn Renormierbarkeit ist nur eine der Eigenschaften, die eine Quanten-Eichtheorie aufweisen soll. Tatsächlich wurde die Renormierbarkeit von nichtabelschen Quanten-Eichtheorien bereits im Jahr 1971 von 't Hooft bewiesen (siehe Nucl.Phys B33, S. 173 und Nucl.Phys B35, S. 167). Es kommen eine Reihe weiterer Eigenschaften hinzu, wie sie beispielsweise um das Jahr 1960 herum von A.S.Wightman formuliert wurden (siehe z.B. Streater, Wightman: PCT, Spin and Statistics, and all That, Benjamin, New York 1964). Viele davon hatten wir weiter oben bereits erwähnt. Wir wollen diese Eigenschaften hier nicht alle aufzählen, sondern nur einige der wichtigsten angeben. Dabei wechseln wir je nach Bedarf zwischen kanonischer Quantisierung und Pfadintegralmethode hin und her:

Einige weitere verlangte Eigenschaften wie Lokalität (Mikrokausalität), Vollständigkeit, Zusammenhang zwischen Feldern und Hilbertraumvektoren usw. haben wir dabei weggelassen. Es ist auch gut möglich, dass diese geforderten Eigenschaften doch etwas abgeschwächt werden müssen -- so kann es aufgrund der Eichsymmetrie notwendig sein, erst einen zu großen Hilbertraum zu verwenden mit einem indefiniten Skalarprodukt, und diesen dann später durch Nebenbedingungen auf Teilräume einzuschränken, in denen das Skalarprodukt größer-gleich Null ist. So etwas ist uns bei der Quantisierung der Elektrodynamik bereits begegnet (Stichwort: Gupta-Bleuler-Formalismus, siehe Kapitel 5.4.4). Dies zeigt, dass wir letztlich noch keine absolut präzise Definition einer Quanten-Eichfeldtheorie haben und noch nicht über ein mathematisches Verständnis des Quanten-Verhaltens einer Quanten-Eichtheorie verfügen. Arthur Jaffe und Edward Witten schreiben in der offiziellen Beschreibung des Millenium Problems dazu (siehe Jaffe, Witten, Quantum Yang-Mills Theory, http://www.claymath.org/millennium/Yang-Mills_Theory/Official_Problem_Description.pdf ):



Edward Witten (geboren am 26ten August 1951). Quelle: Wikipedia


Um das Millenium-Problem zu lösen, muss man nachweisen, dass die konstruierte Quanten-Eichtheorie die obigen (oder ähnliche) Eigenschaften aufweist -- insofern ist das Problem vielleicht nicht absolut präzise gestellt. Auf jeden Fall muss die Quanten-Eichtheorie aber ein Vakuum besitzen, also einen Zustand mit Energie Null, der sich bei Poincaretransformationen nicht ändert. Ob dieser Zustand sich dagegen bei anderen (inneren) Symmetrietransformationen ändern darf (z.B. bei Eichtransformationen), darüber haben wir hier noch nichts gesagt. Man hat hier die interessante Beobachtung gemacht, dass das Vakuum nicht alle Symmetrien aufweisen muss, die das Wirkungsfunktional aufweist. Weist das Vakuum so eine Symmetrie nicht auf, dann sagt man, die Symmetrie ist spontan gebrochen. Die Symmetrien der klassischen Theorie müssen also in der zugehörigen Quantentheorie nicht unbedingt alle wiederzufinden sein. Man kann sich das analog zu einem Ferromagneten vorstellen: Obwohl die magnetische Wechselwirkung der Atome in dem Ferromagneten rotationssymmetrisch ist, bilden sich unterhalb einer kritischen Temperatur Bereiche aus, in denen die Magnetisierung des Materials eine bestimmte (zufällige) Vorzugsrichtung aufweist. Die Wechselwirkung im System ist also rotationssymmetrisch, der Grundzustand des Systems ist es jedoch nicht.

Die bisherigen Forderungen sind weitgehend in der Sprache der kanonischen Quantisierung gestellt. Wir können versuchen, dies in die Sprache der Pfadintegrale zu übersetzen, wobei wir davon ausgehen, dass beide Formulierungen gleichwertig sind (was natürlich, soweit nicht bereits geschehen, bewiesen werden muss). Die Pfadintegrale werden dabei als Grenzwert einer Gitter-Approximation definiert, bei dem der Abstand der Gitterpunkte in Raum und Zeit gegen Null geht. Zusätzlich kann man noch Raum und Zeit endlich wählen, indem man in Raum und Zeit ein endliches Intervall wählt und periodische Randbedingungen fordert (d.h. man betrachtet das Analogon zu einem Torus in Raum und Zeit). Dadurch erhält man eine wohldefinierte Gitterapproximation des Pfadintegrals. Der Grenzwert beinhaltet neben dem schwindenden Gitterabstand dann zusätzlich, dass das Raum- und das Zeitintervall unendlich groß wird. Man muss nun beweisen, dass diese Grenzwerte der Pfadintegral-Gitterapproximationen für eichinvariante beobachtbare Größen mathematisch existieren.


Will man das Millenium-Problem lösen, so muss man neben der Existenz der Quantentheorie noch die Existenz einer Massenlücke (mass gap) in dieser Theorie nachweisen. Anders ausgedrückt:

Zwischen dem Grundzustand der Theorie (dem Vakuum mit Energie Null und Masse Null) und dem nächsthöheren energetischen Teilchenzustand soll also eine Energielücke (oder Massenlücke) liegen. Numerische Berechnungen mit Pfadintegralen sowie die Physik der starken Wechselwirkung (d.h. die Tatsache, dass es keine freien Gluonen gibt) legen die Existenz einer solchen Massenlücke sehr nahe. Daher wurde im Millenium Prize Problem gefordert, ihre Existenz gleich mit zu beweisen. Es scheint allerdings sehr schwierig zu sein, diesen Beweis zu führen.

Der Grund dafür liegt darin, dass die klassische Eichtheorie als Lösung der Feldgleichungen nur Wellen zulässt, die sich mit Lichtgeschwindigkeit bewegen. Diesen Wellen entsprechen in der Quantentheorie normalerweise masselose Teilchen. In der Elektrodynamik ist das auch so: den Lichtwellen entsprechen die masselosen Photonen. Also würde man zunächst generell erwarten, dass in allen Quanten-Eichtheorien masselose Teilchen analog zu den Photonen auftreten.

Nun ist die Elektrodynamik eine abelsche Eichtheorie, d.h. die Felder und damit auch die Photonen beeinflussen sich nicht gegenseitig. Anders bei der nichtabelschen Eichtheorie, beispielsweise bei der Eichgruppe SU(3), die die Physik der starken Wechselwirkung beschreibt. Hier wechselwirken die klassischen Felder und damit auch die Feldquanten (die Gluonen) miteinander. Gluonen sind dabei das Analogon zu den Photonen; sie sind wie diese masselos und entsprechen den masselosen Wellen der klassischen Theorie. Aber: Photonen existieren als freie Teilchen, Gluonen dagegen nicht. Irgendwie müssen sich also Gluonen aufgrund ihrer gegenseitigen Wechselwirkung zu nicht-masselosen Objekten zusammenballen, die dann erst als freie massebehaftete Teilchen existieren können. Man bezeichnet in der starken Wechselwirkung diese Teilchen als Glueballs, und die Tatsache, dass es keine freien Gluonen gibt, wird als Confinement bezeichnet.

Die Aufgabe lautet also, nachzuweisen, dass es keine freien masselosen Teilchen (also z.B. keine freien Gluonen) gibt, und dass es statt dessen massebehaftete Teilchen (z.B. Glueballs) gibt. Die Lösung dieser Aufgabe hat sich (wie oben bereits erwähnt) als sehr schwierig herausgestellt, da man dazu das Verhalten der Theorie bei großen Abständen verstehen muss. Viele aus der Quantenelektrodynamik bekannte Verfahren (insbesondere die Störungstheorie) funktionieren hier jedoch nicht. Sie funktionieren nur bei sehr kleinen Abständen, bei denen sich die Freiheitsgrade der Theorie recht gut durch die masselosen Gluonen parametrisieren lassen -- ein Phänomen, das man als asymptotische Freiheit bezeichnet. Die Gluonen treten dabei aber nur als sogenannte virtuelle Teilchen auf, d.h. sie existieren nicht als freie Teilchen, sondern sie werden bei größeren Abständen irgendwie wieder eingefangen (z.B. indem sie sich mit anderen Gluonen zu massebehafteten Glueballs zusammenschließen).


Wie weit ist man nun bisher dem Ziel näher gekommen, das Millenium-Problem zu lösen? Sind erfolgversprechende Ansätze erkennbar?

Es sind mehrere Lösungsansätze denkbar (siehe die offizielle Problembeschreibung von Jaffe und Witten), z.B.:

Die erste Methode (exakte Lösung) ist leider nur in stark vereinfachten Fällen möglich, wird also vermutlich nicht helfen, das Problem zu lösen.

Die zweite Methode (konvergierende Näherungen) wird in der sogenannten konstruktiven Feldtheorie angewendet. Man benötigt hier eine Abschätzung für die Abweichung zwischen der jeweiligen Näherungslösung und der (hoffentlich existierenden) Gesamtlösung des Problems. Mit Hilfe dieser Abschätzung muss man dann die Konvergenz der Folge von Näherungslösungen beweisen, womit dann die Existenz des Grenzwertes bewiesen ist. Analog beweist man dann, dass auch das Mass-Gap diesen Grenzwertprozess überlebt und in der Gesamtlösung vorhanden ist.

Es gibt bei den Näherungslösungen im Wesentlichen zwei Ansätze: die sogenannten Korrelations-Ungleichungen, die allerdings nicht immer anwendbar sind, sowie konvergente Reihenentwicklungen.

Ein schönes Beispiel für Reihenentwicklungen ist die sogenannte Störungsreihe der Quantenelektrodynamik, die als Ergebnis die bekannten Feynmangraphen liefert. Sie funktioniert allerdings dort nur, weil die Stärke der elektromagnetischen Wechselwirkung relativ schwach ist, und ihre Konvergenz ist keineswegs klar (man spricht auch von Semi-Konvergenz). Hinzu kommt das Problem der Renormierung.

Andere Möglichkeiten sind sogenannte cluster expansions, bei denen man schrittweise die Freiheitsgrade der Theorie auf verschiedenen Längenskalen untersucht.

Erfolgreich waren diese Ansätze bisher allerdings nur in sehr einfachen Quantenfeldtheorien, bei denen man sich auf eine einzige (manchmal auch auf zwei) räumliche Dimension beschränkt hat. So hat man beispielsweise in einer Raum- und einer Zeitdimension die Lagrangedichte   L = φ2 + g φ4   untersucht. Dabei ist das skalare Feld φ(x) das Analogon zum Eichpotential, und die reelle Zahl g bestimmt die Stärke der Selbstwechselwirkung des Feldes (für g = 0 hat man ein masseloses Feld ohne Selbstwechselwirkung vor sich, das in der Quantentheorie zu masselosen nicht wechselwirkenden Teilchen führt). Man konnte mit Hilfe von Korrelations-Ungleichungen und mit Hilfe des Grenzübergangs von endlichem zu unendlichem Raum-Zeit-Volumen zeigen, dass für alle Werte von g eine Quantenfeldtheorie zu dieser Lagrangedichte in einer Raum- und einer Zeitdimension existiert. Bei genügend großen Werten von g (d.h. bei starker Selbstwechselwirkung) gibt es sogar mindestens zwei verschiedene Quantenfeldtheorien mit je einem eigenen Vakuumzustand. Für kleine g und sehr große g konnte man weiterhin die Existenz von Quantenzuständen nachweisen, die eine Teilcheninterpretation besitzen (sich also unter den Raum-Zeittransformationen der speziellen Relativitätstheorie in der zweidimensionalen Raumzeit entsprechend verhalten). Ebenso wurde nachgewiesen, dass es ein Mass-Gap gibt, d.h. das leichteste Teilchen der Theorie hat eine Masse größer als Null (außer bei einem bestimmten mittleren Wert von g, den man auch als kritischen Punkt bezeichnet, und der den Bereich mit nur einer Quantenfeldtheorie von dem mit mehreren Quantenfeldtheorien trennt).

Was aber bedeutet es, wenn es zwei oder mehr Quantenfeldtheorien mit je einem eigenen Vakuumzustand gibt? Es kann doch nur eine davon die physikalische Wirklichkeit beschreiben?! Die Antwort ist, dass man zusätzliche Informationen hineinstecken muss, um die wahre Theorie zu ermitteln. So kann man im obigen Beispiel fordern, dass der Vakuum-Erwartungswert des φ-Feldes gleich Null sein soll. In diesem Fall ergibt sich dieser Erwartungswert beim Grenzübergang zu unendlichem Volumen als statistische Überlagerung zweier Vakuum-Erwartungswerte. Dies zeigt, dass reine Quantenzustände nicht mehr ausreichen, sondern dass man statistische Überlagerungen (Dichtematrizen) aus Zuständen mehrerer Quantenfeldtheorien braucht, um die Physik zu beschreiben. Ähnliche Effekte vermutet man in der Quanten-Eichtheorie aufgrund von sogenannten Instantoneffekten, die auf die nichttriviale topologische Struktur der klassischen Eichtheorie zurückzuführen sind. Man sieht, wie komplex die ganze Sache werden kann!

Bei drei Raum- und einer Zeitdimension gibt es einige Fortschritte, wenn man nur endliche Raum- und Zeitgebiete betrachtet und die gegenüberliegenden Ränder gleichsam zusammenklebt (also periodische Randbedingungen einführt). Mathematisch gesehen betrachtet man also die kompaktifizierte Raumzeit, d.h. einen vierdimensionalen Torus. Auf diesem Torus führt man nun ein Raum-Zeit-Gitter ein, d.h. man betrachtet Gitter-Approximationen der Theorie (wir sind weiter oben bereits darauf eingegangen). Es ist gelungen, auf diese Weise das Verständnis für die Renormierung von Eichtheorien deutlich voranzubringen, und es erscheint plausibel, dass auf diese Weise ein Beweis für die Existenz von Eichtheorien in der kompaktifizierten Raumzeit gelingen kann. Allerdings scheint man das Problem der Massenlücke (Mass Gap) so nicht lösen zu können, so dass es fraglich erscheint, ob man den Grenzübergang zur gewöhnlichen Raumzeit durchführen kann.


Ein interessanter Aspekt, der bei Quantentheorien sehr wichtig zu sein scheint und der in letzter Zeit insbesondere bei Stringtheorien große Bedeutung erlangt hat, ist das Prinzip der Dualität. Bei den Stringtheorien bedeutet Dualität, dass verschiedene Quantentheorien, die zunächst scheinbar gar nichts miteinander zu tun haben (und die von verschiedenen klassischen Versionen der Stringtheorie ausgehen), sich ineinander transformieren lassen. Daher vermutet man heute, dass alle diese Theorien nur verschiedene gleichwertige Formulierungen bzw. Grenzfälle einer umfassenderen Quanten-Stringtheorie sind, die man auch als M-Theorie bezeichnet (siehe die Information zu Edward Witten weiter oben). Die einzelnen klassischen Stringtheorien, von denen man jeweils ausgegangen ist, sind dabei aber nicht gleichwertig zueinander -- erst die zugehörigen Quantentheorien scheinen verschiedene Facetten derselben übergreifenden Theorie zu sein.

Im Rahmen der Eichtheorie würde Dualität entsprechend bedeuten, dass sich die Quanten-Eichtheorie mit Hilfe von nicht-klassischen Variablenwechseln umformulieren lässt in eine neue, gleichwertige Quanten-Eichtheorie, bei der sich Existenzfragen und Mass-Gaps besser untersuchen lassen. Man würde also beispielsweise statt der Eichpotentiale andere Größen (z.B. sogenannte Solitonen, das sind gleichsam nicht zerfließende Wellen oder auch unentwirrbare Knoten in den Feldlinien) als Freiheitsgrade in der Quantentheorie verwenden, wobei sich diese Freiheitsgrade nicht zu einer Umformulierung der klassischen (also nicht-Quanten-) Eichtheorie in eine gleichwertige Theorie verwenden lassen -- daher der Ausdruck nicht-klassischer Variablenwechsel. Eine solche Dualitäts-Transformation setzt letzlich langreichweitige und kurzreichweitige Wechselwirkungen der Freiheitsgrade miteinander in Beziehung und erlaubt den Wechsel von einer kurzreichweitigen Beschreibung zu einer langreichweitigen Beschreibung. Auf diese Weise könnte man eventuell erreichen, dass aus einer starken Wechselwirkung der Eichpotentiale eine schwache Wechselwirkung der Solitonen wird, so dass sich Methoden der Störungstheorie einsetzen lassen. Da sich das Mass-Gap in der klassischen Theorie nicht zeigt (die Lösungen der klassischen Theorie bewegen sich ja mit Lichtgeschwindigkeit, sind also masselos), könnte ein solcher nicht-klassischer Variablenwechsel der Schlüssel zum Nachweis des Mass-Gaps sein.


Der Beweis der Existenz von Quanten-Eichtheorien mit Mass-Gap ist sicher eines der wichtigsten Probleme, das sowohl für Mathematiker als auch für Physiker gleichermaßen von hohem Interesse ist. Es berührt eine Vielzahl von Problemen und Konzepten, die heute in der Physik, aber auch in der Mathematik eine zentrale Rolle spielen:

Es wird sicher spannend, den Fortschritt bei der Lösung dieses Problems im einundzwanzigsten Jahrhundert zu beobachten. Ob die Lösung gelingen wird?


Literatur zu dem Thema:


zurück zum Inhaltsverzeichnis

last modified on 19 December 2008