Kapitel 5
Ungelöste Rätsel

4   Quantenfeldtheorie und Eichfelder

5   Pfadintegral-Quantisierung des freien elektromagnetischen Feldes

Im letzten Kapitel haben wir gesehen, wie man eine Quantentheorie zur Elektrodynamik konstruieren kann. Dabei haben wir das Kochrezept der kanonischen Quantisierung angewendet, d.h. wir haben die Maxwellgleichungen mit Hilfe der Potentiale umformuliert und die Zeitentwicklung der Potentiale und der dazu kanonisch konjugierten Felder mit Hilfe von Poissonklammern geschrieben. Diese Poissonklammern haben wir nun durch Kommutatoren der Feldoperatoren ersetzt und so eine Quantentheorie konstruiert.

Dabei mussten wir allerdings feststellen, dass diese Vorgehensweise nicht so geradlinig durchführbar war, wie dies noch bei der Quantisierung der klassischen Mechanik möglich gewesen ist. Hauptproblem war, dass es zu den vier Potentialen Aμ nur drei konjugierte Variablen πμ gab, denn es war   π0 = 0  . Grund dafür war, dass nicht alle Potentiale Aμ als voneinander unabhängige Freiheitsgrade angesehen werden können. Potentiale, die man durch Eichtransformationen ineinander überführen kann, sind gleichwertig zueinander. Man muss also Wege finden, um die überflüssigen Freiheitsgrade in den Potentialen loszuwerden. Dies kann man entweder vor der Quantisierung durchführen, was zu geänderten Poissonklammern führt, oder nach der Quantisierung, was zu Zusatzbedingungen in den Hilberträumen führt, um unphysikalische Vektoren loszuwerden. In jedem Fall ist die Vorgehensweise trickreich, und es stellt sich heraus, dass sie sich nur sehr mühevoll auf komplexere Eichtheorien übertragen lässt. Der Formalismus wird unübersichtlich, da er weder manifest kovariant noch eichinvariant ist.

Wie wir wissen, gibt es eine alternative Möglichkeit zur Quantisierung: die Pfadintegralmethode von Feynman. Diese Methode kommt sehr viel besser mit Symmetrien wie Poincaretransformationen und Eichtransformationen zurecht. Man zahlt allerdings auch einen Preis: Die mathematischen Grundlagen dieser Methode sind teilweise noch wenig fundiert, da über mehrfach unendlichdimensionale Räume integriert werden muss. Man muss daher immer auf Überaschungen gefasst sein, wenn man zu unbefangen mit diesen Integralen umgeht, und hoffen, dass sich alles mathematisch rechtfertigen lässt (z.B. als Grenzwert einer entsprechenden Gittertheorie -- siehe nächstes Kapitel). Andererseits muss man sich eine gewisse Furchtlosigkeit bewahren, da man sonst nicht weiterkommt. Das Ganze hat also manchmal einen gewissen Kochrezept-Charakter, und es wird sicher noch eine Weile dauern, bis die mathematischen Grundlagen gefestigt werden können. Vermutlich befanden sich Newton und Leibnitz in einer ähnlichen Situation, als sie vor mehr als 300 Jahren mit unendlich kleinen (infinitesimalen) Ausdrücken hantierten. Heute gehört so etwas zum mathematischen Standard und ist wohlfundiert.

Es erschien mir unmöglich, in diesem Kapitel im Detail den Formalismus zur Pfadintegralquantisierung der Elektrodynamik darzustellen. Daher werde ich in diesem Kapitel nicht so genau auf die Details eingehen, sondern statt dessen versuchen, die wesentlichen Ideen darzustellen, auch im Hinblick auf kompliziertere Eichtheorien. Fangen wir also an!


Zur Erinnerung:

Im vorletzten Kapitel haben wir die Pfadintegraldarstellung für den freien Einteilchenpropagator der nichtrelativistischen Quantenmechanik im eindimensionalen Raum kennengelernt:

á t,x | t',x'ñ   =   ∫Wege x   D(x)   exp [i S[x] / h/ ]

Dabei definierte der Propagator die Zeitentwicklung der Zustände:   ψ(t,x)   =   ∫ dx' á t,x | t',x'ñ ψ(t',x')
mit t > t' . Das Maß D(x) im Raum der möglichen Wege war definiert als

limn → ∞   ∫ dx1 dx2 ... dxn-1 (m / ihΔt)n/2   ...   =:   ∫Wege x   D(x)   ...

wobei jeder Weg als Grenzwert eines Polygonzuges angesehen wird, der vom Punkt x' zur Zeit t' zum Punkt x zur Zeit t (mit t > t') über die Zwischenpunkte x1, x2, ... , xn-1 führt. Dabei ist   Δt = (t - t')/n  , und der Zwischenpunkt xi wird zur Zeit   t' + i Δt   erreicht. Ob der obige Grenzwert   n → ∞   existiert, ist eine schwierige Frage, da der Intergrand   exp [i S[x] / h/]   eine sehr heftig oszillierende Funktion sein kann. Man versucht daher oft, das Integral durch analytische Fortsetzung in der Zeitvariablen durch ein Integral ohne die imaginäre Einheit i zu definieren, da in diesem Integral der dämpfende Integrand   exp [- S[x] / h/]   vorkommt. Auf Details wollen wir hier nicht eingehen.

Versuchen wir, in Analogie zu dem obigen Pfadintegral einen Ausdruck für das Pfadintegral der Quantenelektrodynamik aufzustellen. Dazu müssen wir zunächst die Anzahl der Freiheitsgrade kräftig erhöhen: Statt einem Freiheitsgrad x(t) brauchen wir unendlich viele Freiheitsgrade Aμ(ct, x) , wobei μ und x als Doppelindex zu sehen ist, der die unendlich vielen Freiheitsgrade gleichsam durchnummeriert. Für jedes μ und jedes x ist also Aμ(ct, x) ein Freiheitsgrad der klassischen Theorie, dessen Zeitabhängigkeit man untersucht.

Im Pfadintegral oben muss man also jede Zwischenebene xi , über die integriert wird, durch eine Integration über alle Zwischen-Feldkonfigurationen   Aμi(x)   ersetzen, wobei der Index i andeutet, dass die Feldkonfiguration zur Zwischenzeit ti betrachtet wird. Um dies zu konkretisieren, kann man beispielsweise ein Gitter mit Gitterpunkten xj betrachten, das man im Grenzfall immer feiner werden lässt. Jede der unendlich vielen eindimensionalen Integrationen über xi wird also durch ein unendlichdimensionales Integral über alle Feldkonfigurationen   Aμi(xj)   ersetzt. Insofern enthält das Pfadintegral unendlich viele unendlich-dimensionale Integrationen -- wer hier an ein mathematisches Monster denkt, liegt vielleicht nicht ganz falsch. Aber wie oben gesagt: bloß keine Angst, einfach weitermachen!

Im Grenzübergang erhalten wir schließlich ein Integral, das den Integranden   exp [i S[A] / h/ ]   integriert, und zwar über alle Möglichkeiten Aμ(ct,x), über die sich eine Feldkonfiguration gegeben zur Zeit t' in eine andere Feldkonfiguration gegeben zur Zeit t entwickeln kann. Integriert wird dabei über alle möglichen Zwischen-Feldkonfigurationen:

Feldkonfig. A   D(A)   exp [i S[A] / h/ ]

Über die genaue Definiton des Maßes D(A) wollen wir uns hier keine Gedanken machen (so müssten wir beispielsweise überlegen, was aus dem Faktor   (m / ihΔt)n/2   wird, der eine Rolle bei der Normierung des Pfadintegrals spielt und der seine Herkunft im freien Propagator hat, siehe vorletztes Kapitel).

Die obige Amplitude beschreibt das Ereignis, dass man zur Zeit t' mit einer Anfangskonfiguration Aμ(ct',x) startet und zur Zeit t mit einer Endkonfiguration Aμ(ct,x) endet. Dabei wird im Pfadintegral über alle möglichen (in gewissem Sinn hinreichend glatten) Funktionsverläufe Aμ(τ,x) (mit τ zwischen t' und t) integriert, die die beiden Konfigurationen miteinander verbinden. Nun ist dieses Ereignis normalerweise nicht wohlbestimmt, denn man kann die Anfangs- und Endkonfiguration gar nicht messen. Wir erinnern uns an den Schluss des letzten Kapitels, der aufzeigt, wann wir überhaupt von elektromagnetischen Feldern und damit Potentialen sprechen können.

Man kann versuchen, andere (besser messbare) Amplituden zu finden und diese durch Pfadintegrale analog zu oben auszudrücken. Interessant ist beispielsweise der Photonpropagator, der die Amplitude dafür ist, dass sich ein Photon von einem Orts-Zeitpunkt zu einem anderen Orts-Zeitpunkt bewegt. Auch dieser Propagator ist nicht direkt messbar, ist jedoch Bestandteil vieler Berechnungen und deshalb interessant. Wirklich messbar sind dagegen Übergangsamplituden von einem in einen Streuprozess einlaufenden freien Zustand zu einem aus dem Prozess auslaufenden freien Zustand. Man bezeichnet diese Amplituden auch als Streuamplituden oder auch als Matrixelemente der S-Matrix. Die freie Quantenelektrodynamik, auf die wir uns hier beschränken, ist jedoch eine Theorie freier Quantenzustände, d.h. die Photonen wechselwirken nicht miteinander. Daher treten auch keine Streuprozesse auf. Dies wird bei komplexeren Eichtheorien anders sein!

Stellt man die Pfadintegralformeln für solche Amplituden (z.B. Propagatoren oder komplexere Objekte) auf, so enthalten diese Formeln im Wesentlichen diverse Funktionalableitungen (siehe vorheriges Kapitel) des folgenden Pfadintegrals

W[J]   =   ∫   D(A)   exp [i { S[A]   +   ∫ d4x Jμ(x) Aμ(x) } / h/ ]

nach den sogenannten Quellen   Jμ(x)  . Man bezeichnet W[J] auch als erzeugendes Funktional. Es besitzt große Ähnlichkeit mit der Zustandssumme aus der statistischen Physik (Thermodynamik) -- auch dort bilden Ableitungen der Zustandssumme ein zentrales Element der Theorie. Das erzeugende Funktional kann man interpretieren als die Vakuum-zu-Vakuum-Amplitude in der Gegenwart einer externen Quelle J (wir wollen hier nicht genauer darauf eingehen).

Genau genommen ist W[J] erst über die analytische Fortsetzung der Zeitvariable definiert. Man müsste also die Zeit t als komplexe Variable ansehen. Für   t = i τ   (mit reellem τ) kann man   i dt = - dτ verwenden und erhält   W[J]   =   ∫   D(A)   exp [- ∫ dτ d3x ... ]  . Aus einer oszillierenden Funktion wird so eine nicht-oszillierende Exponentialfunktion, die zur Konvergenz des Pfadintegrals beiträgt.

Wir wollen im Folgenden nicht so genau unterscheiden, welches Pfadintegral wir nun genau betrachten, da wir uns eher für die allgemeine Struktur und allgemeine Probleme interessieren wollen -- diese treten dann überall in ähnlicher Form auf! Halten wir einfach nur allgemein fest:


Vielleicht hat sich der eine oder andere Leser an dieser Stelle bereits die folgende Frage gestellt:

Die Frage ist in der Tat berechtigt, und wir wollen uns das Pfadintegral (ohne Quellterm) genauer ansehen, um eine Antwort zu geben. Dazu schreiben wir den Exponenten im Pfadintegral zunächst ein wenig um:

S[A]   =   -1/4   ∫ d4x   Fμν Fμν   =  
  =   -1/4   ∫ d4x   [δμ Aν − δν Aμ]   [δμ Aν − δν Aμ]   =  

... ausmultiplizieren und Indices ggf. umbenennen ...

  =   -1/2   ∫ d4x   [(δμ Aν) (δμ Aν)   −   (δμ Aν) (δν Aμ)]   =  

... es ist   (δμ Aν) (δμ Aν)   =   δμ (Aν δμ Aν)   − Aνμ δμ Aν)   und analog für den zweiten Term. Nach einigen kleineren Umformungen und Zusammenfassungen erhalten wir:

  =   -1/2   ∫ d4x   { δμ (Aν Fμν)   −   Aν [ gνμ δρ δρ   −   δν δμ ] Aμ }   =  

... Das Integral über den ersten Term können wir nach dem Gauß'schen Satz in ein Integral über den Fluss von   Aν Fμν   über den unendlich fernen Rand der vierdimensionalen Raumzeit überführen. Wieder verwenden wir die Randbedingung, dass die Felder im Unendlichen hinreichend schnell abfallen, so dass dieses Integral verschwindet:

  =   1/2   ∫ d4x   Aν [ gνμ δρ δρ   −   δν δμ ] Aμ

Der Operator   Kνμ   =   gνμ δρ δρ   −   δν δμ   hat große Ähnlichkeit mit dem transversalen Projektionsoperator PT aus dem letzten Kapitel. So gilt:

δν Kνμ Aμ   =   0

d.h. der Operator   Kνμ   macht aus jedem Vierervektorfeld   Aμ(x)   ein vierer-divergenzfreies Vektorfeld. Mit anderen Worten: Das Vektorfeld   Kνμ Aμ(x)   erfüllt die Stromerhaltungsgleichung. Der Operator   Kνμ   vergisst also die Anteile von   Aμ(x)  , die nicht vierer-divergenzfrei sind, verhält sich also wie ein Projektionsoperator.

Was geschieht, wenn man Aμ umeicht, also durch ein eichtransformiertes Potential   Aμ' = Aμ + δμ χ   ersetzt? Man rechnet leicht nach, dass   Kνμ δμ χ = 0   ist, also

Kνμ (Aμ + δμ χ)   =   Kνμ Aμ

Für den Operator   Kνμ   spielen also Eichtransformationen keine Rolle, d.h. der Term   Kνμ Aμ   ist eichinvariant. Das wundert uns nicht, denn schließlich haben wir den Operator oben aus einem eichinvarianten Ausdruck abgeleitet. Der Operator projeziert Eichtransformationen also gleichsam weg.

Die Folge davon ist, dass   Kνμ   nicht invertierbar ist. Die präzise Version dieser Aussage lautet:   Kνμ   besitzt keine Greensfunktion (genauer: Distribution), d.h. die Gleichung   Kνμ Gμρ(x − y)   =   gνρ δ(x − y)   besitzt keine Lösung   Gμρ(x − y)  , wie man durch vierdimensionale Fouriertransformation sehen kann.

Warum stört uns die Tatsache, dass   Kνμ   nicht invertierbar ist? Hier ist ein Argument dafür, das wir aber nur grob anreißen wollen: Das Pfadintegral

W[J]   =   ∫   D(A)   exp [ i   ∫ d4x   { 1/2   Aν Kνμ Aμ   +   Jμ(x) Aμ(x) } / h/ ]

hat große Ähnlichkeit mit einem unendlich-dimensionalen Gauß-Integral (wobei wir wieder die analytische Fortsetzung in der Zeit vornehmen, so dass die imaginäre Einheit i verschwindet). Schauen wir uns zum Vergleich ein n-dimensionales Gaußintegral mit einer symmetrischen n × n -Matrix K und n-dimensionalen Vektoren a und j an. Es gilt:

∫ dna   exp ( − aT K a − 2 jT a )   =   πn/2   (det K)-1/2   exp ( jT K -1 j )

Voraussetzung ist also, dass die Matrix K invertierbar ist, denn in der Formel taucht der inverse Operator auf und es wird durch die Matrix-Determinante dividiert. Ist K nicht invertierbar, so divergiert das Integral. Dies kann man auch anschaulich verstehen: Diagonalisiert man K durch eine entsprechende unitäre Transformation der Variablen a, so ist bei einem nicht-invertierbaren K eines der Diagonalelemente (Eigenwerte) gleich Null. In Richtung des entsprechenden Eigenvektors a0 ist dann   exp ( − a0T K a0 ) = 1  , d.h. das Integral in a0 - Richtung liefert einen unendlichen Beitrag.

Analog ist die Nichtinvertierbarkein von   Kνμ   ein Zeichen dafür, dass das Pfadintegral so gar nicht definiert ist. Ursache für die Nichtinvertierbarkeit war aber, dass sich   Kνμ   nicht für Eichtransformationen von Aμ interessiert und diese wegprojeziert. Die Integration in Eichrichtung liefert deshalb einen unendlichen Beitrag. Und damit sind wir beim Kern des Problems angelangt:

Dann müsste auch das Invertierungsproblem mit   Kνμ   in den Griff zu bekommen sein, denn auf den Eichklassen sollte sich eine solche Inversion sicher definieren lassen.


Wie aber kann man die Integration im Pfadintegral so einschränken, dass jede Eichklasse nur einmal vorkommt?

Zunächst einmal wird es sicher nötig sein, jede dieser Eichklassen eindeutig durch eines ihrer Elemente zu kennzeichnen. Aus jeder Klasse ineinander eichtranstransformierbarer Potentiale wollen wir also genau ein Potential herausfiltern. Wir nehmen an, dass wir dies durch eine Funktionalgleichung der Form

F[A]   =   0

erreichen können, also durch eine Nebenbedingung, die in jeder Klasse genau von einem Repräsentanten erfüllt wird (Anmerkung: wir haben hier die Bezeichnungsweise F[A] statt g[A] (siehe letztes Kapitel) gewählt, um den Buchstaben g weiter unten für Elemente der Eichgruppe verwenden zu können). Dies könnte beispielsweise die Lorentz-Eichbedingung   F[A]   =   δμ Aμ   =   0   sein (siehe letztes Kapitel). Diese Bedingung würde allerdings noch nicht ausreichen, um genau ein Element aus jeder Klasse auszuwählen, denn die Lorentz-Eichbedingung fixiert die Eichung ja noch nicht vollständig.

Das Beispiel der Lorentz-Eichbedingung zeigt, dass der Wert von F[A] keine reelle Zahl sein muss (so wie noch im letzten Kapitel). Der Wert von F[A] kann hier allgemeiner eine Funktion sein, d.h. F ist ein Operator, der in Funktionenräumen wirkt. Die Bedingung   F[A] = 0   bedeutet, dass F[A] die Nullfunktion ist, die für jedes Argument x den Wert 0 ergibt.

Bei komplexeren Eichtheorien ist die Frage, wie man ein geeignetes F[A] finden kann, tatsächlich sehr komplex und meines Wissens noch nicht zufriedenstellend gelöst. Die Fläche mit   F[A] = 0   tendiert im Raum der Potentiale dazu, jede Eichklasse mehrfach zu schneiden, d.h. in jeder Klasse zueinander eichtransformierbarer Potentiale gibt es immer mehrere, die   F[A] = 0   erfüllen. Man spricht vom Gribov-Problem.

Man könnte nun auf die Idee kommen, im Pfadintegral einfach eine Art Delta-Funktion der Form   δ(F[A])   hinter dem Integrationsmaß D(A) einzufügen und so eine Eichfixierung zu erzwingen. Das funktioniert jedoch nicht, denn es zeigt sich, dass das ursprüngliche Pfadintegral nicht einfach derart willkürlich verfälscht werden darf. Das ursprüngliche Pfadintegral ist schon der korrekte Ausgangspunkt, aber man muss die Ursache der Divergenz sorgfältig aus diesem Integral isolieren und dann beseitigen.

Versuchen wir, anhand von einfachen zweidimensionalen Integralen ein Gefühl dafür zu bekommen, wie man das Problem angehen könnte (siehe z.B. Cheng, Li: Gauge theory of elementary particle physics, Oxford University Press 1984, Kapitel 9 Quantum gauge theories). Statt einem Integral über den unendlich dimensionalen Funktionenraum der Potentiale betrachten wir also ein Integral über die zweidimensionale reelle Ebene. Aus dem Integrationsmaß D(A) wird also das Flächenelement d2x (in karthesischen Koordinaten x und y ist dann   d2x = dx dy  ). Aus dem Wirkungsfunktional S[A] wird die Funktion S(x) mit x = (x, y) in karthesischen Koordinaten.

Nun ist das Wirkungsfunktional S[A] eichinvariant, ändert sich also unter Eichtransformationen von A nicht. Analog nehmen wir an, dass S(x) rotationsinvariant ist, also nur von |x| abhängt.

Wie können wir nun das Integral

W   =   ∫ d2x ei S(x)

geeignet umschreiben, so dass nicht mehr über den überflüssigen Freiheitsgrad (den Drehwinkel φ , wenn wir x in Polarkoordinaten schreiben:   x = (x, y) = r (cos φ, sin φ)   mit   r = |x| ) integriert werden muss?

Natürlich könnte man einfach die obigen Polarkoordinaten einführen und die Integration über φ ausführen. Wir wollen aber nach einer Methode suchen, die sich auf Pfadintegrale übertragen lässt. Dazu verwenden wir analog zur Eichbedingung   F[A] = 0   eine Nebenbedingung der Form   F(x) = 0  . Diese Nebenbedingung muss aus jeder Klasse zueinander gleichwertiger Vektoren x genau einen auszeichnen. Wegen der Rotationsinvarianz von S(x) wollen wir zwei Vektoren als gleichwertig ansehen, wenn sie sich durch Rotation ineinander transformieren lassen, oder anders gesagt: wenn sie denselben Betrag haben. Die Bedingung   F(x) = 0   soll also aus jeder Menge von Vektoren x, die denselben Betrag haben, genau einen herausfiltern, d.h. nur einer dieser Vektoren soll   F(x) = 0   erfüllen. Anschaulich muss die Linie der Vektoren mit   F(x) = 0   jeden Kreis um den Ursprung in genau einem Punkt schneiden. In Polarkoordinaten lassen sich solche Bedingungen leicht formulieren, z.B.     F(r cos φ, r sin φ)   =   φ − φ0   =   0   mit fest vorgegebenem Winkel φ0 .


Für die folgende Diskussion ist es nützlich, die Drehung eines Vektors durch die Wirkung eines Operators (einer Drehmatrix)   RΦ   auszudrücken, d.h.   RΦ   führt eine Drehung um den Winkel Φ entgegen dem Uhrzeigersinn durch.

Betrachten wir nun das Integral   ∫ dΦ δ( F( RΦx) )   mit der uns bereits bekannten Deltafunktion und einem vorgegebenem Vektor x. Integriert wird dabei über den Drehwinkel Φ der Drehmatrix, und zwar von 0 bis 2π . Dabei kann es wegen der Deltafunktion zu jedem vorgegebenem x nur für einen einzigen Wert von Φ einen Beitrag zum Integral geben, nämlich genau dann, wenn der gedrehte Vektor die Nebenbedingung   F( RΦx) = 0   erfüllt. Wie groß dieser Beitrag und wie groß damit das Integral ist, hängt von der Funktion F ab. Insgesamt berechnet also das Integral zu jedem Vektor x eine reelle Zahl, deren Wert von der Funktion F abhängt. Das gesamte Integral definiert also eine reellwertige Funktion des Vektors x, die von der Funktion F abhängt. Es erweist sich später als günstig, diese Funktion als Kehrwert einer anderen Funktion namens ΔF(x) zu schreiben, d.h. wir definieren:

1 / ΔF(x)   :=   ∫ dΦ   δ( F( RΦx) )

Der Name ΔF(x) für die Funktion ist üblich in der Literatur und hat nichts mit irgendwelchen Intervallen etc. zu tun. Der Vorteil, den Kehrwert zu verwenden, liegt darin, dass man später den Term

1   =   ∫ dΦ   δ( F( RΦx) )   ΔF(x)

in das Pfadintegral einfügen kann.

Zur Veranschaulichung schauen wir uns das folgende Beispiele an:   F(x) = φ   mit   x = (x, y) = r (cos φ, sin φ)   und   r = |x| . Die Bedingung   F(x) = 0   läuft also auf   φ = 0   heraus, d.h. von allen Vektoren mit gleichem Betrag erfüllt derjenige in Richtung der x-Achse gerade die Bedingung. Dann ist   F( RΦx) = 0   gleichbedeutend mit   Φ + φ = 0  , d.h.   Φ = − φ  . Für das Integral folgt:

  ∫ dΦ   δ( F( RΦx) )   =   ∫ dΦ   δ(Φ + φ)   =   1

so dass   ΔF(x) = 1   ist. In diesem sehr einfachen Fall hätten wir uns also die Definition der Funktion ΔF sparen können.

Sobald die Zusatzbedingung   F(x) = 0   jedoch etwas komplizierter ist, sieht die Sache anders aus. In Polarkoordinaten r und φ können wir F(x) in der Form   F(x) = F(r, φ)   schreiben (wir verzichten der Einfachheit halber auf ein neues Funktionssymbol). Analog ist   F( RΦx) = F(r, Φ + φ)  . Die Funktion F muss nun bei jedem gegebenem r genau für einen Winkel (nennen wir ihn φr ) eine Nullstelle haben -- so ist gewährleistet, dass von allen Vektoren gleichen Betrags nur einer die Bedingung erfüllt. Es ist also   F(r, φr) = 0  . Anders ausgedrückt legt die Bedingung   F(r, φr) = 0   den Wert von φr als Funktion von r eindeutig fest (man spricht hier von impliziten Funktionen).

Schauen wir uns nun wieder das Integral an:

  1 / ΔF(x)   :=  
  =   ∫ dΦ   δ( F( RΦx) )   =  
  =   ∫ dΦ   δ( F(r, Φ + φ) )   =  
  =   1 / |δφ F(r, φr)|

mit der partiellen Ableitung   δφ F = δF/δφ  . Die letzte Zeile gilt aufgrund der allgemeinen Rechenregeln für die Delta-Funktion, speziell für Ausdrücke der Form   ∫ dx δ(f(x)) . Insgesamt haben wir also:

  ΔF(x)   =   |δφ F(r, φr)|

Genau diesen Faktor würden wir unterschlagen, wenn wir einfach nur einen Faktor   δ(F(x))   in das Wirkungsintegral   W   =   ∫ d2x ei S(x)   eingefügt hätten. Statt dessen müssen wir den Faktor   1   =   ∫ dΦ   δ( F( RΦx) )   ΔF(x)   im Integranden einfügen:

W   =   ∫ d2x ei S(x)   =   ∫ dΦ ∫ d2x   ei S(x)   δ( F( RΦx) )   ΔF(x)   =:   ∫ dΦ WΦ

mit     WΦ   :=   ∫ d2x   ei S(x)   δ( F( RΦx) )   ΔF(x)

Wir sehen, dass neben der Deltafunktion   δ( F( RΦx) )   auch noch die Funktion   ΔF(x)   in WΦ auftritt.

Hängt WΦ überhaupt von Φ ab? Ist RΦ überhaupt relevant, oder können wir Φ gleich Null setzen und damit RΦ weglassen, so dass wir unsere ursprünglich angedachte Deltafunktion   δ( F(x) )   erhalten?

Um das herauszufinden, setzen wir   RΦx =: x'   , d.h. x' ist gegenüber x um den Winkel Φ nach links gedreht. Das Flächenmaß d2x ist rotationsinvariant, d.h.   d2x = d2x'  . Dasselbe hatten wir für die Wirkung vorausgesetzt:   S(x) = S(x')  . Bleibt die Frage, was mit   ΔF(x)   los ist. Schauen wir es uns an:

  1 / ΔF(x')   =  
  =   ∫ dΦ'   δ( F( RΦ' x') )   =  
  =   ∫ dΦ'   δ( F( RΦ' RΦ x) )   =  
  =   ∫ dΦ'   δ( F( RΦ' + Φ x) )   =  

... setze   Φ' + Φ =: Φ''   , d.h. dΦ' = dΦ'' :

  =   ∫ dΦ''   δ( F( RΦ'' x) )   =  
  =   1 / ΔF(x)

Also ist auch   ΔF(x) = ΔF(x')   und wir können WΦ wie folgt umschreiben:

  WΦ   =  
  =   ∫ d2x   ei S(x)   δ( F( RΦx) )   ΔF(x)   =  
... setze   RΦx =: x'   :
  =   ∫ d2x   ei S(x)   δ( F(x') )   ΔF(x)   =  
... setze   d2x = d2x'   sowie   S(x) = S(x')   und   ΔF(x) = ΔF(x')  :
  =   ∫ d2x'   ei S(x')   δ( F(x') )   ΔF(x')   =:   W0

Unsere Vermutung hat sich bestätigt: WΦ hängt nicht von Φ ab, so dass wir es immer durch W0 ersetzen können. Für das Gesamtintegral W bedeutet das:

W   =   ∫ dΦ W0

mit     W0   =   ∫ d2x   ei S(x)   δ( F(x) )   ΔF(x)

Da W0 nicht von Φ abhängt, ist der Term   ∫ dΦ   ein unabhängiger Volumenfaktor, der gleichsam das Volumen der Invarianzgruppe misst. In unserem Beispiel ist einfach   ∫ dΦ   =   2 π  .


Analog geht man nun beim unendlich-dimensionalen Pfadintegral vor. An die Stelle des zweidimensionalen Vektors x tritt die Funktion   Aμ(x)  , bei der μ und x als Doppelindex gesehen werden, und an die Stelle der Rotation   RΦx   tritt die Eichtransformation des Potentials, also die Transformation   A'μ(x) = Aμ(x) + δμ χ(x)  .

Diese Eichtransformation wollen wir noch etwas umschreiben, und zwar in eine Form, die auch bei komplexeren Eichgruppen gültig ist. Ausgangspunkt ist eine sogenannte Eichgruppe G, wobei G normalerweise eine der Gruppen SU(n) mit vorgegebenem n > 1 ist. Im Fall der Elektrodynamik ist G = U(1), also die unitären 1 × 1 -Matrizen. Ein Element g der Gruppe U(1) lässt sich also als komplexe Zahl der Form   g = ei χ   schreiben. Die reelle Zahl χ ist dabei der Parameter der Gruppe, d.h. sein Wert legt das Gruppenelement g eindeutig fest. Bei komplexeren Gruppen treten auch mehrere reelle Parameter auf, die man gleichsam als Koordinaten im Raum der Gruppenelemente ansehen kann.

Bei Eichtheorien geht man nun davon aus, dass die Gruppenelemente differenzierbare Funktionen von Raum und Zeit sind -- man spricht von lokalen Eichtransformationen. Gleichwertig dazu kann man auch sagen, dass die Gruppenparameter differenzierbare Funktionen von Raum und Zeit sind. In userem Fall ist also   g = ei χ(x)  . Warum man so vorgeht, werden wir uns erst im nächsten Kapitel genauer ansehen -- hier wollen wir einfach die Vorgehensweise akzeptieren, ohne sie weiter zu hinterfragen.

Man definiert nun auf den Potentialen Aμ(x) eine Darstellung der Gruppe G. Wir hatten diesen Begriff bereits früher kennengelernt. Er bedeutet, dass wir eine Umrechnungsvorschrift (einen Operator) Tg definieren, die aus einer gegebenen Potentialfunktion A eine neue Potentialfunktion   A' = Tg A   errechnet, wobei die Umrechnung durch Angabe eines Gruppenelementes g aus der Gruppe G gesteuert wird. Dabei soll sich die Gruppenstruktur auf die Umrechnungsvorschrift übertragen, d.h. wir fordern für zwei beliebige Gruppenelemente g und h, dass die Beziehung   Tg h   =   Tg Th   gilt.

Wie diese Darstellung nun aussehen muss, werden wir erst im nächsten Kapitel genauer verstehen. Hier wollen wir einfach das Ergebnis zur Kenntnis nehmen:

A'μ   =   (Tg A)μ   =   (δμ g) g-1   +   g Aμ g-1

Für die Eichgruppe U(1) führt   g = ei χ(x)   zu unserer bekannten Eichtransformation   A'μ(x) = Aμ(x) + δμ χ(x)  .

Wichtig ist dabei, dass bei lokalen Eichtransformationen neben A auch g eine Funktion von Raum und Zeit ist! Genau genommen hat man daher nicht nur eine Darstellung der Gruppe G, sondern eine Darstellung eines unendlichen Produktes dieser Gruppe mit sich selbst, nämlich je eine pro Raum-Zeitpunkt. Man könnte sagen, dass jeder Funktion g (mit Werten in G) einen Operator Tg zuordnet, der auf den Funktionen A wirkt (mit Werten in diesem Funktionenraum).

Wir müssen nun die Rotation   RΦx   durch die Eichtransformation   Tg A   ersetzen. Die Integration über Φ wird analog ersetzt durch die Integration über die Eichgruppe, wobei an jedem Raumpunkt x zu jeder Zwischenzeit t über die Eichgruppe integriert werden muss. Die genauen Details sollen uns hier nicht interessieren. Als Ergebnis erwarten wir ein unendlich-dimensionales Integral über ein Maß D(g), von dem wir annehmen wollen, dass es invariant unter Eichtransformationen ist, so wie oben auch das Flächenmaß d2x invariant bei Rotationen war. Auch dür das Maß D(A) nehmen wir diese Eichinvarianz an. Auf diese Weise ziehen wir gleichsam alle die Zwischen-Feldkonfigurationen aus dem Pfadintegral heraus, die sich nur durch Umeichungen voneinander unterscheiden. Das Ergebnis ist (wir lassen den Term mit J der Einfachheit halber weg):

  W   =  
  =   ∫   D(A)   exp [i S[A] / h/ ]   =  
  =   ∫ D(g)   ∫   D(A)   δ( F[A] )   ΔF[A]   exp [i S[A] / h/ ]



Die Eichfixierung   F[A] = 0   wählt aus jeder Klasse ineinander eichtransformierbarer Potentiale einen Repräsentanten aus (siehe Quantisation of Gauge Fields, http://w3.physics.uiuc.edu/~efradkin/phys483/483-chapter9.pdf).

Der (unendliche) Faktor   ∫ D(g)   entspricht dem Volumen der Eichgruppe G, unendlich oft mit sich selbst multipliziert (nämlich für jeden Raum-Zeitpunkt einmal). Man kann versuchen, D(g) als Grenzwert eines unendlich-faches Integral   dg1 dg2 dg3 ...   zu definieren, wobei   dgi   jeweils das sogenannte Haar'sche Maß der Gruppe G ist. Der Faktor   ∫ D(g)   drückt die Tatsache aus, dass im ursprünglichen Pfadintegral über viele zueinander gleichwertige (d.h. ineinander eichtransformierbare) Feldkonfigurationen A integriert wird, und führt zur Divergenz des Pfadintegrals (diese Divergenz drückte sich weiter oben in der Nichtinvertierbarkeit von Kνμ aus). Wir lassen diesen Faktor nun weg (d.h. wir definieren W neu) und sorgen damit dafür, dass in W jede Klasse zueinander eichtransformierbarer Potentiale nur einmal berücksichtigt wird:

Neudefinition:     W   =   ∫   D(A)   δ( F[A] )   ΔF[A]   exp [i S[A] / h/ ]

mit     1 / ΔF[A]   =   ∫ D(g)   δ( F[Tg A] )

Das naive Einfügen des Terms   δ( F[A] )   zur Eichfixierung hätte demnach zu falschen Ergebnissen geführt. Erst zusammen mit dem Funktional   ΔF[A]   erhält man die korrekte Quantisierung. Dabei spielt   ΔF[A]   gleichsam die Rolle eines Gewichtsfaktors, mit dem die durch ein A (mit F[A] = 0 ) repräsentierte Klasse ineinander eichtransformierbarer Felder in das Pfadintegral eingeht.


Das Funktional   ΔF[A]   lässt sich als unendlich-dimensionale Verallgemeinerung einer Determinante interpretieren und wird auch als Faddeev-Popov-Determinante bezeichnet (was das bedeutet, sehen wir etwas weiter unten). Um den Grund dafür zu erkennen, schauen wir uns noch einmal die Definition an:

  1 / ΔF[A]   =   ∫ D(g)   δ( F[Tg A] )

Wir betrachten nun   F[Tg A]   für festes A als Funktion von g(x) (wobei wir g(x) wieder als unendlich-dimensionalen Vektor mit Index x betrachten). Nun führen wir die neuen Variablen y ein durch   y := F[Tg A]  , wobei wir A festhalten. Wir wechseln also von dem Vektor g zum Vektor y als Variable, d.h. y ist wie g zuvor eine Funktion von x. Auf diese Weise erreichen wir, dass in der Delta-Funktion nur noch die Variable y steht. Dazu muss F entsprechende Eigenschaften haben (Invertierbarkeit an bestimmten Stellen usw.).

Für den Variablenwechsel gilt nun in Verallgemeinerung des endlich-dimensionalen Falls:   D(g)   =   D(y) / |det( dy/dg )|   (was das genau bedeutet, klären wir gleich). Dies setzen wir nun oben ein:

  1 / ΔF[A]   =   ∫ D(g)   δ( F[Tg A] )   =   ∫ D(y) / |det( dy/dg )|   δ(y)   =   1 / |det( dy/dg )|y = 0

d.h. wir erhalten

ΔF[A]   =   |det( dy/dg )|y = 0

Schauen wir uns für die Elektrodynamik die Determinante genauer an. Die zentrale Formel bei der Definition einer solchen unendlichdimensionalen Determinante ist   det B   =   exp( Spur( log B ) )  . Hier ist eine kurze Skizze, wie man mit solchen Determinanten umgeht (siehe z.B. Path Integrals in Quantum Mechanics and Quantum Field Theory http://w3.physics.uiuc.edu/~efradkin/phys483/483-chapter5.pdf):

Betrachten wir zunächst im endlichdimensionalen Fall eine diagonalisierbare Matrix B mit Eigenwerten bi . Dann ist die Determinante gegeben durch das Produkt dieser Eigenwerte:

  det B   =   b1 b2 ... bn

Um zum unendlichdimensionalen (kontinuierlichen) Fall übergehen zu können, ist es nützlich, statt des Produktes eine Summe zu verwenden, denn diese würde dann in ein Integral übergehen. Dies erreichen wir durch Bilden des (natürlichen) Logarithmus:

  log( det B )   =   log b1 + log b2 + ... + log bn   =:   Spur( log B )

was uns zur obigen Formel   det B   =   exp( Spur( log B ) )   führt.

Wie sieht   B = dy/dg   nun in der Elektrodynamik aus? Das hängt natürlich von der Eichbedingung F ab. Schauen wir uns als Beispiel die Lorentzeichbedingung   F[A] = δμ Aμ   an. Außerdem ist G gleich der Gruppe U(1), d.h.   g(x) = ei χ(x)   und   A'μ(x)   =   (Tg A)μ(x)   =   Aμ(x) + δμ χ(x)  , so dass wir   F[Tg A]   =   δμ Aμ + δμ δμ χ   erhalten.

Um die Funktionalableitung (siehe letztes Kapitel) auszurechnen, verwenden wir   gε := ei (χ + ε η)   mit einem reellen Parameter ε und einer beliebigen differentierbaren reellwertigen Funktion η(x) . Die Definition der Funktionalableitung lautet in Verallgemeinerung der Definition aus dem letzten Kapitel:

  dy/dg [η]   :=     dF[Tg A]/dg [η]   :=   d/dε F[Tgε A] |ε = 0
  =   d/dε { δμ Aμ + δμ δμ (χ + ε η) } |ε = 0   =   δμ δμ η

d.h. dy/dg ist ein linearer Operator (so muss es auch sein), und zwar hier der Wellenoperator δμ δμ .

Wie sieht nun die Determinante dieses Operators aus? Nach dem oben gesagten brauchen wir dazu die Eigenwerte bn des Operators. Die Logarithmen dieser Eigenwerte müssen wir aufsummieren bzw. aufintegrieren, und das Ergebnis als Argument der Exponentialfunktion verwenden. Dies führt jedoch häufig zu divergenten Ausdrücken und ist als Hinweis darauf zu werten, dass wir bei der Definition der Determinante linearer Operatoren noch nicht genug Sorgfalt angewendet haben (der endlich-dimensionale Fall lässt sich eben doch nicht ohne Weiteres auf den unendlich-dimensionalen Fall übertragen).

Man kann mathematische Methoden finden, um dennoch eine sinnvolle Definition einer Determinante eines Operators B aufzustellen (siehe z.B. Introduction to Quantum Fields in Classical Backgrounds http://www.math.uwaterloo.ca/~akempf/qft/text.ps ). Man verfährt dabei ähnlich zu der Methode, mit der man die unendlichen Reihe   ζ(s)   :=   1 + 1/2s + 1/3s + 1/4s + 1/5s + ...  , die zunächst nur für komplexe s mit Realteil größer als 1 definiert ist, auch auf andere s-Werte analytisch fortzusetzen kann (siehe Kapitel 5.2  Die Riemannsche Vermutung ). Statt 1/n verwendet man aber hier 1/bn , wobei bn die Eigenwerte des Operators B sind:   ζB(s)   := (1/b1)s + (1/b2)s + ...   bzw. statt der Summe ein Integral bei kontinuierlichen Eigenwerten. Diese spezielle Zetafunktion des Operators B konvergiert zunächst wieder nur für komplexe s mit hinreichend großem Realteil, lässt sich aber zumeist auf andere s analytisch fortsetzen und so dort definieren (insbesondere bei s = 0).

Wir leiten nun formal die Reihe nach s an der Stelle s = 0 ab. Wegen   d/ds (1/bn)s   =   d/ds exp( − s log bn )   =   − log bn   exp( − s log bn )   gilt:

  dζB(s)/ds |s = 0   =   − (log b1 + log b2 + ... )   =   − log( det B )

Diese Formeln sind jedoch keine präzise Herleitung, sondern eher eine Motivation, denn die Reihe konvergiert normalerweise für s = 0 nicht. Genauer macht man folgendes: Man ermittelt die analytische Fortsetzung der Reihe, so dass man eine Funktion ζB(s) erhält, die auch bei s = 0 definiert ist, und definiert nun die Determinante des Operators B durch die Gleichung

det B   :=   exp( − dζB(s)/ds |s = 0 )

Die Erfahrung und der Vergleich mit anderen Berechnungen zeigt, dass diese Methode zu sinnvollen Ergebnissen führt.

Wir wollen hier die Details nicht weiter verfolgen, sondern nur erwähnen, dass die Determinante des Wellenoperators physikalisch etwas mit der Energie des Grundzustandes zu tun hat und in gewissem Sinn gleichsam die Vakuumfluktuationen wiederspiegelt. Weiter haben wir oben gesehen, dass für die Elektrodynamik die Funktion   ΔF[A]   von A unabhängig ist. Bei allgemeineren Eichtheorien ist das leider nicht so einfach. Man geht hier sehr trickreich vor und schreibt   ΔF[A]   als ein Gauß-Integral über sogenannte Geistfelder. Diese Geistfelder sind Elemente sogenannter Grassmann-Algebren, d.h. eine Vertauschung zweier solcher Felder ergibt ein Minuszeichen. Geistfelder sind unphysikalische Hilfsfelder, die man benötigt, um den Formalismus konsistent zu halten. Auch hier wollen wir nicht weiter ins Detail gehen.

Mit Hilfe des Pfadintegrals lassen sich nun alle Amplituden der Quantenelektrodynamik berechnen, die man auch im Rahmen der kanonischen Quantisierung mit Hilfe von Operatoren und Hilberträumen berechnen kann -- mit demselben Ergebnis. Die Pfadintegralmethode hat damit ihre erste Bewährungsprobe bestanden. Für komplexere Eichtheorien und auch für andere Theorien wie beispielsweise die Stringtheorie ist sie sowieso die einzige praktikable Methode, um von einer klassischen Theorie zu einer Quantentheorie zu gelangen -- die kanonische Quantisierung aus dem letzten Kapitel führt hier zu großen Problemen. Richard Feynman hatte also wohl den richtigen Riecher, als er die Pfadintegralmethode zu einer Zeit ersann, als fast jeder andere noch ausschließlich an Poissonklammern, Hilberträume, Operatoren und Kommutatoren dachte, wenn das Wort Quantisierung fiel. Im nächsten Kapitel wollen wir uns nun genauer anschauen, wie die erwähnten komplexeren Eichtheorien aussehen.


Literatur zu dem Thema:


zurück zum Inhaltsverzeichnis

last modified on 25 June 2004