Kapitel 5
Ungelöste Rätsel

4   Quantenfeldtheorie und Eichfelder

3   Die Quantisierung der klassischen Mechanik

Wie sieht nun der Hamiltonoperator und damit die zeitliche Dynamik einer Quantentheorie konkret aus?

Das hängt von der jeweils betrachteten physikalischen Quantentheorie ab. Im allgemeinen muss man zur Formulierung einer solchen Theorie zunächst festlegen, welches die grundlegenden dynamischen Größen der Theorie sein sollen. Diese Größen werden durch Operatoren im Hilbertraum dargestellt. Wir werden unten Beispiele für solche Größen kennenlernen. Mit Hilfe dieser Größen kann man nun einen Hamiltonoperator konstruieren und so die zeitliche Dynamik der Zustände festlegen.

Bei der Wahl der dynamischen Größen und der anschließenden Konstruktion des Hamiltonoperators lässt man sich meist von Analogien zu klassischen Nicht-Quantentheorien leiten, z.B. durch Analogien zur klassischen Mechanik (ohne Relativitätstheorie) oder zur Elektrodynamik (der relativistsichen Theorie der elektromagnetischen Felder). Man versucht gleichsam, eine quantisierte Version der klassischen Theorie zu konstruieren, wobei man fordert, dass beim Zusammenwirken sehr vieler Quantenzustände unter bestimmten Bedingungen (Stichwort: Wirkung sehr viel größer als das Plancksche Wirkungsquantum) die Quantentheorie die Eigenschaften der klassischen Theorie reproduziert. Die quantenmechanischen Mittelwerte müssen sich beim Grenzübergang zur klassischen Theorie wie die zugehörigen klassischen Größen verhalten.

Schauen wir uns am Beispiel der nichtrelativistischen Mechanik einmal an, wie ein solcher Übergang von einer klassischen Theorie zu einer Quantentheorie aussehen kann. Die Raum-Zeit-Symmetriegruppe ist dabei nicht die Poincaregruppe, sondern die Galileigruppe -- dies ist aber an dieser Stelle nicht weiter wichtig.

In der nichtrelativistischen Mechanik wird die Dynamik durch das Newtonsche Kraftgesetz   F = m a   bestimmt, d.h. ein Objekt (Teilchen) mit Masse m erfährt unter einer Kraft F eine Beschleunigung a. Das Objekt durchläuft dabei eine Bahnkurve im dreidimensionalen Raum, die man durch eine Funktion x(t) mathematisch beschreibt ( x(t) ist der Ort des Objektes zur Zeit t ). Die dynamischen Variablen (Freiheitsgrade) der klassischen Mechanik eines Teilchens sind daher gerade die drei Koordinaten des Vektors x(t) . Die Beschleunigung a ist dabei die zweite zeitliche Ableitung dieser Funktion x(t) .

Wir wollen die Diskussion etwas vereinfachen und annehmen, dass die Kraft F eine sogenannte konservative Kraft ist, sich also als Gradient eines Potentials V(x) schreiben lässt:   F   =   - grad V(x) , wobei wir im Folgenden statt grad V(x) auch die Schreibweise dV(x)/dx verwenden werden. Das Newtonsche Kraftgesetzt lautet dann   m (d/dt)2 x(t) = - grad V(x(t)) . Es handelt sich dabei um eine Differentialgleichung zweiter Ordnung für die gesuchte Funktion x(t) . Diese Funktion ist z.B. eindeutig festgelegt, wenn wir zu einem bestimmten Zeitpunkt (sagen wir, bei t = 0 ) den Ort x(0) und die Geschwindigkeit v(0) = [d/dt x](0) des Objektes vorgeben.

Für den Übergang zur Quantentheorie ist es nützlich, das Newtonsche Kraftgesetz aus einem Variationsprinzip herzuleiten. Den Grund dafür werden wir erst verstehen, wenn wir die Quantentheorie konstruiert haben, denn dann ergibt sich der klassische Grenzfall gerade über ein solches Variationsprinzip.

Für die Formulierung als Variationsproblem geben nicht Ort und Geschwindigkeit zu einer Zeit t = 0 vor, sondern wir sagen, dass das Objekt zum Startzeitpunkt Zeit t1 am Ort x1 = x(t1) sein soll und zu einem späteren Zeitpunkt t2 am Ort x2 = x(t2) . Welche Bahnkurve x(t) erfüllt diese Bedingungen und genügt dabei zugleich der Differentialgleichung   (d/dt)2 x(t)   =   - grad V(x(t)) ?

Um die Bahnkurve x(t) zu finden, wollen wir ein Funktional S konstruieren, das jeder beliebigen (hinreichend glatten) Kurve x(t) , die x1 = x(t1) und x2 = x(t2) erfüllt (aber nicht unbedingt der obigen Differentialgleichung genügen muss), eine reelle Zahl zuordnet. Man bezeichnet S als Wirkungsfunktional oder kurz als Wirkung. Die Kurve, die für S den kleinsten Wert liefert, soll dann die gesuchte Bahnkurve sein und die obige Differentialgleichung erfüllen. Die Kurve wird also gleichsam solange variiert, bis das Minimum von S gefunden ist -- daher der Begriff Variationsprinzip. Man spricht hier auch vom Prinzip der kleinsten Wirkung oder auch vom Hamiltonschen Prinzip.

Für das Wirkungsfunktional S machen wir den folgenden Ansatz:

S[x]   =   ∫[t1,t2]   L (x(t), v(t)) dt

mit v(t) = [d/dt x](t) . Die Wirkung soll also ein Integral über das Zeitintervall von t1 bis t2 sein, wobei eine Funktion L integriert wird, die als Argument den Ort und die Geschwindigkeit der Kurve zum Zeitpunkt t enthält. Diese Funktion L bezeichnet man als Lagrangefunktion. Sie ist bei einem Teilchen im dreidimensionalen Raum und ohne explizite Zeitabhängigkeit also eine Funktion von drei Raumkoordinaten und drei Geschwindigkeitskoordinaten.

Gesucht ist nun die Bahnkurve, für die S minimal wird. Dazu macht man den Ansatz x(t) = x0(t) + ε η(t) , wobei x0(t) die gesuchte Bahnkurve ist und ε η(t) die Abweichung von dieser gesuchten Bahnkurve darstellt. Dabei ist η(t) irgendeine (differenzierbare) Funktion, die η(t1) = η(t2) = 0 erfüllt, und ε ist eine reelle Zahl, die gleichsam steuert, wie weit wir von der gesuchten Kurve abweichen wollen. Analog gilt für die Geschwindigkeit v(t) = [d/dt x](t) = [d/dt x0](t) + ε [d/dt η](t) =: v0(t) + ε vη(t)


Variation der Kurve x(t)


Wir suchen nun das Minimum von S[x] über die Bedingung

d/dε S[x0 + ε η] |ε = 0   =   0

d.h. wir verlangen, dass S sich in der unmittelbaren Umgebung der gesuchten Kurve erst in der zweiten Ordnung mit ε ändert, also dort ein Maximum, Minimum oder Sattelpunkt hat. Dass es sich um ein Minimum handelt, wollen wir hier nicht näher untersuchen.

Wie sieht nun die Lagrangefunktion L aus? Um das herauszufinden, können wir die obige Bedingung für S wieder in eine Differentialgleichung für die gesuchte Bahnkurve x(t) übersetzen und dann durch einen Vergleich mit dem Newtonschen Kraftgesetz oben ermitteln, wie die Lagrangefunktion L aussehen muss:

d/dε S[x]   =   d/dε ∫[t1,t2] L (x(t), v(t)) dt   =  

... wir ziehen d/dε unter das Zeitintegral:

  =   ∫[t1,t2] d/dε L (x(t), v(t)) dt   =  

... wir führen d/dε mit Hilfe der Kettenregel aus:

  =   ∫[t1,t2] (dL/dx dx/dε + dL/dv dv/dε) dt   =  

... wir verwenden dv/dε   =   d/dε dx/dt   =   d/dt dx/dε :

  =   ∫[t1,t2] (dL/dx dx/dε + dL/dv d/dt dx/dε) dt   =  

... der zweite Term wird partiell integriert:

  =   ∫[t1,t2] (dL/dx dx/dε - (d/dt dL/dv) dx/dε) dt + [dL/dv dx/dε](t2) - [dL/dv dx/dε](t1)   =  

... die beiden letzten Terme sind Null, denn dx/dε(t2)   =   η(t2)   =   0 und analog für t1 :

  =   ∫[t1,t2] (dL/dx dx/dε - (d/dt dL/dv) dx/dε) dt   =  

... dx/dε   =   η(t) ausklammern:

  =   ∫[t1,t2] (dL/dx - (d/dt dL/dv)) η(t) dt

Dieses Integral kann für beliebige Funktionen η(t) nur dann Null sein, wenn   dL/dx − d/dt dL/dv   =   0   ist. Damit folgt aus dem Variationsprinzip d/dε S[x] die Differentialgleichung


dL(x(t),v(t))
dx
  −   d
dt
dL(x(t),v(t))
dv
  =   0

für die gesuchte Bahnkurve x(t), wobei noch v(t) = dx(t)/dt einzusetzen ist. Diese Gleichung trägt den Namen Euler-Lagrange-Gleichung. Um L zu ermitteln, müssen wir sie mit der Newtonschen Bewegungsgleichung   m (d/dt)2 x(t)   =   - grad V(x(t))   vergleichen. Dabei ist   grad V(x(t)) = dV/dx   und   (d/dt)2 x(t) = dv/dt   , so dass die Newtonsche Gleichung so geschrieben werden kann:

- dV/dx   −   m dv/dt   =   0

Wenn wir beispielsweise L = m v2/2 - V(x) wählen (also kinetische minus potentielle Energie des Teilchens), so ergibt die Euler-Lagrange-Gleichung gerade die Newtonsche Bewegungsgleichung. Dabei können wir L natürlich nur bis auf einen Zahlenfaktor festlegen -- auch 2*L ginge. Das Vorzeichen von L ist gerade so gewählt, dass die gesuchte Bahnkurve ein Minimum und kein Maximum von S ist -- die Begründung wollen wir hier überspringen, denn das ist kein besonders wichtiger Punkt. Halten wir fest:

In der Mechanik verwendet man die Lagrangefunktion häufig, um dem Problem angepasste Koordinaten (nennen wir sie q) einzuführen (beispielsweise Polarkoordinaten) und die Lagrangefunktion durch diese Koordinaten auszudrücken: L'(q(t), vq(t) ) mit vq(t) = dq(t)/dt . Das Variationsprinzip kann nun ganz analog für diese Funktion durchgeführt werden, so dass die Bewegungsgleichungen in den neuen Koordinaten einfach durch   dL/dq − d/dt dL/dvq   =   0   gegeben sind. Man erhält also direkt die Bewegungsgleichung in den angepassten Koordinaten.


Man kann nun an dieser Stelle bereits zur Quantentheorie übergehen, indem man den Formalismus der Pfadintegrale verwendet -- dieser Weg wird daher auch als Lagrange-Zugang zur Quantentheorie bezeichnet. Diese Methode ist besonders bei Eichfeldern sehr nützlich und zeigt sehr schön, was beim Übergang von der klassischen Theorie zur Quantentheorie eigentlich geschieht. Wir werden uns am Ende dieses Kapitels die Details dazu ansehen.

Zunächst jedoch wollen wir den Hamiltonschen Weg einschlagen, der uns zum oben gesuchten Hamiltonoperator der Quantentheorie führen wird. Dazu müssen wir die klassische Mechanik noch etwas umformulieren, indem wir eine sogenannte Legendre-Transformation durchführen. Was wollen wir damit erreichen?

Die Euler-Lagrange-Gleichung ist eine Differentialgleichung zweiter Ordnung für die gesuchte Bahnkurve x(t) . Für manche Zwecke (z.B. für Symmetriebetrachtungen) ist es jedoch nützlich, statt dessen zwei Differentialgleichungen erster Ordnung zu verwenden. Man kann dies erreichen, indem man z.B. die Geschwindigkeit v(t) = dx(t)/dt als unabhängige zweite Funktion neben der Funktion x(t) betrachtet. In diesem Fall wäre die Differentialgleichung   dL(x(t),v(t))/dx − d/dt dL(x(t),v(t))/dv   =   0   als Differentialgleichung erster Ordnung für die beiden Funktionen x(t) und v(t) zu lesen, wobei die zweite Differentialgleichung erster Ordnung v(t) = dx(t)/dt hinzukommt. Viel gewonnen hat man jedoch dadurch nicht, denn man könnte ja die zweite Differentialgleichung wieder in die erste einsetzen, so die Funktion v(t) eliminieren und die Differentialgleichung zweiter Ordnung für x(t) zurückgewinnen.

Schön wäre es, eine Formulierung zu finden, in der die beiden Funktionen x(t) und v(t) (oder wie immer die zweite Funktion dann heisst) relativ gleichberechtigt sind und nicht eine dieser Funktionen einfach nur die zeitliche Ableitung der anderen Funktion ist. Wie können wir das erreichen?

Zunächst einmal bietet es sich an, statt der Geschwindigkeit die Variable

p   :=   dL(x, v)/dv

zu verwenden. Setzen wir   L   =   m v2/2 − V(x)   ein, so ist   p = m v   , d.h. es handelt sich um den Impuls des Teilchens. Wir wollen aber im Folgenden den Formalismus weiter allgemein halten, ohne ein bestimmtes L zu verwenden.

Dadurch, dass wir statt v die Variable p verwenden, liefert die Euler-Lagrange-Gleichung die folgende Differentialgleichung erster Ordnung für die gesuchte Funktion p(t):

dp(t)/dt     =     dL(x(t), v(x(t),p(t)) )/dx

Leider muss dabei aber v durch die neue Variable p ausgedrückt werden, d.h. die Gleichung p := dL(x, v)/v muss invertiert werden. Dies ist nicht immer eindeutig möglich.

Es wäre sicher nützlich, statt L(x, v(x,p))) eine neue Funktion H(x,p) zu verwenden, und zwar so, dass man in der Differentialgleichung für p(t) die rechte Seite dL(x, v(x,p))/dx durch den Term dH(x, p)/dx ausdrücken kann, ohne dass man dazu den funktionalen Zusammenhang v(x,p)) zwischen alter Variable v und neuer Variable p explizit benötigt.

Außerdem benötigen wir neben der Differentialgleichung für p(t) noch eine Differentialgleichung für x(t) , die wir am Besten auch mit Hilfe der neuen Funktion H(x,p) formulieren sollten. Eine solche Differentialgleichung wäre leicht zu bekommen, wenn man analog zu   p = dL(x, v)/dv   nun umgekehrt   v = dH(x, p)/dp   hätte, denn dann wäre   dx/dt = dH(x(t), p(t))/dp .

Fassen wir also zusammen:

Natürlich hätten wir diese Forderungen nicht aufgestellt, wenn sie nicht auch erfüllbar wären. Die einfache Funktion

H(x, p)   :=   p v(x,p) − L(x, v(x,p) )

erfüllt alle Anforderungen, wie wir gleich nachweisen werden. Man bezeichnet H als Hamiltonfunktion. Allerdings bleibt einem die Umrechnung von v nach p dabei nicht erspart, denn man muss ja innerhalb von L die Variable v durch die neue Variable p ersetzen, um H aus L zu berechnen. Deshalb führt die ganze Umformung nicht unbedingt zu einer besseren Lösbarkeit der Bewegungsgleichung, sondern man verändert den Blickwinkel. Ob das etwas bringt, muss man dann noch sehen (wir gehen unten nochmal darauf ein).

Schauen wir uns an, warum die Hamiltonfunktion H gerade die gewünschten Eigenschaften hat. Dazu nehmen wir an, dass wir die Argumente von L und H über einen reellen Parameter ε verändern können (z.B. x = x0 + ε η usw.) und betrachten die Veränderung von H mit ε :

dH/dε   =   dH/dx dx/dε + dH/dp dp/dε

Andererseits ist wegen H(x, p) = p v - L(x, v(x,p)) auch

dH/dε =
  =   p dv/dε + v dp/dε - dL/dx dx/dε - dL/dv dv/dε   =  
  =   p dv/dε + v dp/dε - dL/dx dx/dε - p dv/dε   =  
  =   v dp/dε + dL/dx dx/dε

Es muss also   v = dH/dp   und   dH/dx = - dL/dx   gelten -- genauso wie gewünscht! Entscheidend dabei war, dass der Term mit dv/dε wegfällt, so dass die Veränderung von H mit ε in erster Ordnung nicht von der Veränderung von v mit ε abhängt. Man bezeichnet diesen Wechsel von   x, v und L(x, v)   zu   x, p und H(x, p) mit   p = dL/dv   und   H  =  p v − L   als Legendre-Transformation .

Die Legendre-Transformation kann durch nochmaliges Ausführen wieder rückgängig gemacht werden: setze   L := p v − H   und   v := dH/dp   , um die ursprüngliche Lagrange-Funktion L und die ursprüngliche Variable v wieder zurückzuerhalten. Dies macht die Legendre-Transformation auch für andere Zusammenhänge (z.B. für die thermodynamischen Potentiale) sehr nützlich.

Mit Hilfe der Legendre-Transformation ist es nun gelungen, die ursprüngliche Aufgabe (löse die Euler-Lagrange-Differentialgleichung zweiter Ordnung für die Funktion x(t) ) in eine neue Aufgabe umzuformulieren:

Was hat man durch diese Umformulierung gewonnen?

Man hat eine Formulierung erhalten, in der relativ gleichberechtigt zwei Funktionen x(t) und p(t) vorkommen. Weiterhin gibt es zwei sehr ähnliche Differentialgleichungen erster Ordnung für diese beiden Funktionen. Man kann nun die Formulierung der Mechanik in eine geometrische Sprache übersetzen und sie so den Werkzeugen der Differentialgeometrie zugänglich machen. Dazu fasst man die Koordinaten x und p zu einem Vektor zusammen: (x, p) . Der Raum dieser Vektoren hat also eine doppelt so große Dimension wie der x -Raum alleine, ist also im Fall eines Teilchens 6-dimensional. Man bezeichnet diesen Raum als Phasenraum. Die Bewegung des Teilchens wird nun durch eine Kurve (x(t), p(t)) in diesem Phasenraum dargestellt.

Um Bewegungsgleichungen zu lösen, kann man nun versuchen, in diesem Phasenraum nach neuen geeigneten Koordinaten X(x, p) und P(x, p) zu suchen, so dass die Bewegungsgleichungen eine möglichst einfache Form haben. Dabei können Orts- und Impulskoordinaten auch miteinander zu neuen Koordinaten kombiniert werden, d.h. diese Methode geht über angepasste Ortskoordinaten (z.B. Polarkoordinaten) hinaus. Darin liegt einer der Vorteile der neuen Formulierung mit Hilfe der Hamiltonfunktion H.

Um die Tragweite der Hamiltonschen Formulierung der Mechanik besser zu erkennen, ist es nützlich, die Auswirkung der oben genannten Hamiltonschen Differentialgleichungen mit Hilfe des Phasenraums in eine geometrische Sprache zu übersetzen.

Schauen wir uns irgendeine Funktion f(x, p) an, die im Phasenraum definiert ist. Wie verändert sich f zeitlich entlang der Bahnkurve (x(t), p(t)), d.h. wie verändert sich f im Verlauf der Bewegung des Teilchens? Rechnen wir es unter Verwendung der Hamiltonschen Bewegungsgleichung aus:


d
dt
  f(x(t),p(t))   =   df
dx
dx
dt
  +   df
dp
dp
dt
  =   df
dx
dH
dp
  −   df
dp
dH
dx
  =:   { H, f }

wobei wir zur Vereinfachung der Schreibweise die Poissonklammer   { H, f }   :=   df/dx dH/dp − df/dp dH/x   für Funktionen im Phasenraum einführen. Die Schreibweise bedeutet, dass komponentenweise multipliziert und anschließend über die Komponenten summiert wird, also wie beim gewöhnlichen Skalarprodukt dreidimensionaler reeller Vektoren. Weiter gilt { H, f } = -{ f, H } , d.h. die Poissonklammer ist antisymmetrisch.

Die Poissonklammer hat eine einfache anschauliche Bedeutung: Sie ist im Phasenraum die Richtungsableitung der Funktion f entlang der Höhenlinien von H (also entlang der Linien mit konstantem H). { H, f } misst also, wie schnell sich f ändert, wenn man sich im Phasenraum entlang der Höhenlinien von H bewegt. Dies ist auch gleichzeitig die zeitliche Änderung von f entlang der Bahnkurve (x(t), p(t)) . Das kann man auch anschaulich verstehen, wenn man sich klarmacht, dass die Bahnkurve im Phasenraum entlang der Höhenlinien von H verläuft, d.h. H ist eine Konstante der Bewegung (wir setzen voraus, dass H und f nicht explizit zeitabhängig sind). Setzen wir nämlich f = H ein, so ist dH/dt = {H, H} = 0 .

Wie sieht H bei einem Teilchen in einem klassischen Potential aus? Für ein solches Teilchen war   L = m v2/2 − V(x)   (siehe oben). Dann ist   p = dL/dv = m v   und   H = p2/(2m) + V(x)   , d.h. H ist die Summe aus kinetischer plus potentieller Energie. Die Hamiltonfunktion ist also als die Gesamtenergie des Teilchens zu interpretieren.


Nun sind wir gerüstet, um den Übergang zur Quantentheorie zu versuchen. Dabei wollen wir zunächst den Weg gehen, der auf der gerade besprochenen Hamiltonschen Formulierung der klassischen Mechanik beruht. Diesen Weg bezeichnet man auch als kanonische Quantisierung.

Im ersten Schritt müssen wir dazu die relevanten dynamischen Variablen der klassischen Theorie identifizieren. In der Hamiltonschen Formulierung der Mechanik sind dies der Ort x und der dazu kanonisch konjugierte Impuls   p = dL(x, v)/dv   des Teilchens (wir beschränken uns wieder auf ein Teilchen in einem äußeren Potential; die Verallgemeinerung auf mehrere Teilchen ist nicht schwer, verkompliziert die Diskussion aber hier nur unnötig). Diesen dynamischen Variablen ordnen wir in der Quantentheorie nun gewisse Operatoren zu, die auf die Zustandsvektoren einwirken und diese verändern können. Um die Schreibweise einfach zu halten, wollen wir Orts- und Impulsoperator ebenfalls mit den Buchstaben x und p bezeichnen. Diese Operatoren bilden also die dynamische Grundlage unserer Quantentheorie. Alle anderen Operatoren werden aus ihnen aufgebaut.

Als nächstes müssen wir uns um beobachtbare Größen kümmern. Im Fall der nichtrelativistischen Mechanik sind in der zugehörigen Quantentheorie Ort und Impuls selbst bereits beobachtbare Größen, d.h. Orts- und Impulsoperator sind hermitesche Operatoren.

Allgemein sind in der klassischen Hamiltonschen Mechanik beobachtbare Größen Funktionen von Ort und Impuls, also Funktionen auf dem Phasenraum. In der Quantentheorie dagegen müssen diese beobachtbaren Größen durch hermitesche Operatoren dargestellt werden. Diese Operatoren sollen mit Hilfe der Operatoren x und p aufgebaut werden. Aber wie?

Betrachten wir als Beispiel die kinetische Energie p2/(2m) . Wie sieht der entsprechende Operator in der Quantentheorie aus?

Um dies festlegen zu können, müssen wir den Übergang von der Quantentheorie zur klassischen Theorie betrachten. Was bedeutet dieser Übergang?

Der klassische Grenzfall einer Quantentheorie bedeutet, dass bei vielen Messungen an identischen Quantensystemen die Messwerte nur noch sehr wenig um den Mittelwert (Erwartungswert) aller Messungen schwanken. Es kommt praktisch immer derselbe Messwert heraus, d.h. Erwartungswerte gehen in die klassischen Funktionswerte über. Genau dies ist die Charakterisierung des klassischen Grenzfalls: aus Erwartungswerten werden die klassischen Funktionswerte.

Nehmen wir nun an, dass zur kinetischen Energie in der Quantentheorie der Operator   p2/(2m)   gehört. Im klassischen Grenzfall können wir also den quantenmechanischen Erwartungswert der kinetischen Energie   áy(t)| p2/(2m) y(t)ñ   (hier ist p ein Operator) durch den Ausdruck   áy(t)| p y(t)ñ2 / (2m)   ersetzen, da die Streuung der Messwerte sehr klein ist. Der Erwartungswert   áy(t)| p y(t)ñ   wird aber im klassischen Grenzfall gleich der klassischen Funktion   p(t)  , d.h. der Erwartungswert der kinetischen Energie wird gleich der klassischen kinetischen Energie   p(t)2/(2m)  .

Allgemein wird im klassischen Grenzfall aus dem Erwartungswert eines Produktes von hermiteschen Operatoren das Produkt der Erwartungswerte dieser Operatoren. Wenn wir also einem Polynom aus den klassischen Größen x(t) und p(t) als quantenmechanischen Operator das entsprechende Polynom der Operatoren zuordnen, so ist sichergestellt, dass im klassischen Grenzfall der Erwartungswert dieses Operators in das Produkt der klassischen Größen übergeht.

Wir werden generell versuchen, den quantenmechanischen Operator zu einer klassischen Funktion genauso aus den Operatoren x und p aufzubauen, wie diese klassische Funktion aus den Variablen x und p aufgebaut ist. Eine Rechtfertigung für diese Vorgehensweise haben wir immer dann, wenn man die klassische Funktion in eine Potenzreihe entwickeln kann und dann Terme wie p2 als zweifaches Anwenden des Impulsoperators versteht. Kompliziert wird die Angelegenheit aber, wenn Terme wie x p auftreten. Soll man daraus den Operator x p oder den Operator p x machen? Das muss keineswegs derselbe Operator sein, wie wir noch sehen werden. Der Übergang von klassischen Funktionen des Phasenraums zu hermiteschen Operatoren der Quantentheorie ist also nicht unbedingt eindeutig, und man muss gegebenenfalls Zusatzüberlegungen anstellen, um eine geeignete Quantisierung einer klassischen Theorie zu formulieren. Wir sehen also: Die Quantisierung einer klassischen Theorie ist kein geradliniger und komplikationsfreier Prozess, sondern man muss Zusatzinformationen hineinstecken, die die klassische Theorie nicht enthält. Das ist auch nicht so überaschend, denn schließlich geht die Quantentheorie ja über die klassische Nicht-Quantentheorie hinaus, und es gibt lediglich die Randbedingung, dass die klassische Theorie sich als Grenzfall der Quantentheorie ergibt (d.h. aus Erwartungswerten hermitescher Operatoren müssen dann die klassischen beobachtbaren Größen werden).


Kommen wir nun zum Hamiltonoperator:

Nach dem gerade Gesagten sieht der quantenmechanische Hamiltonoperator für ein nichtrelativistisches freies Teilchen in einem äußeren Potential genauso aus wie die klassische Hamiltonfunktion:

H   =   p2/(2m) + V(x)

wobei p und x jetzt Operatoren im Hilbertraum sind. Wie V(x) zu verstehen ist, müssen wir dabei ggf. noch sehen. Allerdings können wir mit dieser Information noch nicht allzuviel anfangen, denn wir wissen nicht, was die Operatoren p und x im Hilbertraum bewirken. Außerdem wissen wir noch nicht, ob dieser Operator H wirklich der Operator ist, der in der Quantentheorie die Zeitentwicklung der Zustandsvektoren bewirkt. Wir benötigen also noch eine Regel, wie sich die zeitliche Dynamik der klassischen Theorie auf die Quantentheorie überträgt.

Um zu dieser Regel zu gelangen, schauen wir uns in der Quantentheorie die zeitliche Entwicklung von Erwartungswerten (Mittelwerte vieler Messungen) an. Mit A wollen wir den hermiteschen Operator zu irgendeiner messbaren Größe bezeichnen, und mit |y(t)ñ bezeichnen wir wieder den Zustandsvektor, der den Zustand des quantenmechanischen Systems zur Zeit t beschreibt. A selbst ist dabei nicht zeitabhängig, d.h. die gesamte Zeitentwicklung steckt in der Veränderung der Zustandsvektoren und ist durch   i h/(2 π) d/dt |y(t)ñ   =   H |y(t)ñ   gegeben (siehe oben). Damit folgt:

d/dt áy(t)| A y(t)ñ   =  
  =   ád/dt y(t)| A y(t)ñ + áy(t)| A d/dt y(t)ñ   =  
  =   áH / (i h/2 π) y(t)| A y(t)ñ + áy(t)| A H / (i h/2 π) y(t)ñ =
  =   1/(i h/2 π) ( - á y(t)| H A y(t)ñ + áy(t)| A H y(t)ñ ) =
  =   -1/(i h/2 π) á y(t)| (H A - A H) y(t)ñ =
  =:   i/(h/2 π) á y(t)| [H, A] y(t)ñ

wobei wir als abkürzende Schreibweise den Kommutator   [H, A] := H A - A H   der beiden Operatoren eingeführt haben. Fassen wir zusammen:


d
dt
  áy(t)| A y(t)ñ   =   i
h/2 π
á y(t)| [H, A] y(t)ñ

Was bedeutet dieses Ergebnis für den Grenzfall, bei dem die Quantenmechanik in die klassische Mechanik übergeht? Im klassischen Grenzfall sollte die statistische Streuung der Messergebnisse der beobachtbaren Größe gegenüber dem Mittelwert selbst kaum noch ins Gewicht fallen. Jede Messung zur Zeit t liefert daher ungefähr den Mittelwert, d.h. der Mittelwert wird zum klassisch beobachteten Messwert, der durch die Phasenraum-Funktion A (Vorsicht: wir verwenden dieselbe Schreibweise für die Phasenraum-Funktion wie für den Operator) gegeben ist. Aus   d/dt áy(t)| A y(t)ñ   wird also im klassischen Grenzfall   d/dt A(x(t),p(t))   . Für diese zeitliche Ableitung galt in der Hamiltonschen Mechanik:


d
dt
  A(x(t),p(t))   =   { H(x(t),p(t))  ,  A(x(t),p(t)) }

mit der weiter oben definierten Poissonklammer. Der quantenmechanische Erwartungswert   i / h/2 π á y(t)| [H, A] y(t)ñ   der quantenmechanischen Operatoren H und A geht also im klassischen Grenzfall in die Poissonklammer {H, A} der klassischen Phasenraum-Funktionen H und A über. Daher fordert man umgekehrt, dass beim Übergang von klassischen Phasenraum-Funktionen zu quantenmechanischen Operatoren die Poissonklammern { , } in die Kommutatoren i / h/2 π [ , ] übergehen. Damit ist auch klar, dass der zur Hamiltonfunktion H konstruierte Hamiltonoperator H tatsächlich für die Zeitentwicklung in der Quantentheorie verantwortlich ist, denn dieses Rezept stellt sicher, dass Erwartungswerte sich im klassischen Grenzfall zeitlich wie die entsprechenden Phasenraum-Funktionen entwickeln. Außerdem passt auch mathematisch alles zusammen, denn Kommutatoren haben dieselben algebraischen Eigenschaften wie Poissonklammern, z.B. ist {A, B} = -{B, A} genauso wie [A, B] = -[B, A] . Halten wir also fest:

Man kann also die Quantisierung einer klassischen Theorie so verstehen: Suche einen Hilbertraum, auf dem man zu jeder klassischen Phasenraumfunktion einen analog aufgebauten Operator definieren kann, so dass Poissonklammern der klassischen Phasenraumfunktionen in Kommutatoren der zugehörigen Operatoren übergehen. Besonders wichtig sind natürlich die Poissonklammern der zugrundeliegenden dynamischen Variablen (hier Ort und Impuls) sowie die Kommutatoren der entsprechenden Operatoren. Wir wollen sie daher noch einmal auflisten:

Für die grundlegenden Poissonklammern rechnet man direkt nach:

(diese Ausdrücke sind komponentenweise zu lesen: sie gelten separat für alle drei Komponenten der Vektoren p und x, d.h. {pi,xj} = 1 für i = j und = 0 für i ungleich j). Diese Poissonklammern müssen nach unserer obigen Quantisierungsregel durch folgende Kommutatoren ersetzt werden (den Faktor i / h/2 π haben wir dabei auf die andere Seite gebracht):

(diese Kommutatoren sind wie die Poissonklammer komponentenweise zu lesen).


Das ganze Konzept mutet manchmal etwas wie Zauberei an, und es ist ja auch keine absolut strenge Vorgehensweise, sondern eher ein halbwegs systematisches Suchen nach einer Quantentheorie, die im klassischen Grenzfall in eine vorgegebene klassische Theorie übergeht. Dabei kann es immer wieder Überaschungen geben, die man aufgrund der klassischen Theorie nicht bereits vorher erkennen kann. So können Zusatzforderungen nach Kausalität oder nach mathematischer Konsistenz sowie Symmetriebetrachtungen zu weiteren Erkenntnissen führen, wie die Quantentheorie aufgebaut werden muss. Man muss immer wieder überlegen, was man da eigentlich tut, denn das ganze Vorgehen läuft nicht vollautomatisch ab.

Auch wir wollen uns noch einige Gedanken machen, um ein besseres Gefühl für den Vorgang der Quantisierung zu bekommen.

Man kann sich beispielweise fragen, wie der Faktor i / h/2 π zu erklären ist, der beim Übergang von der Poissonklammer zum Kommutator auftritt. Warum dieser Faktor notwendig ist, wird deutlich, wenn wir uns die daraus folgende Zeitentwicklungsgleichung für Erwartungswerte


d
dt
  áy(t)| A y(t)ñ   =   i
h/2 π
á y(t)| [H, A] y(t)ñ

(siehe oben) ansehen. Auf der rechten Seite steht der Erwartungswert eines Kommutators. Was passiert mit diesem Erwartungswert im klassischen Grenzfall?

Oben hatten wir bereits gesagt: Allgemein wird im klassischen Grenzfall aus dem Erwartungswert eines Produktes von hermiteschen Operatoren das Produkt der Erwartungswerte dieser Operatoren. Das bedeutet, dass der Erwartungswert des Kommutators im klassischen Grenzfall gegen Null geht, denn   á y(t)| H y(t)ñ á y(t)| A y(t)ñ   −   á y(t)| A y(t)ñ á y(t)| H y(t)ñ   =   0   . Das aber würde bedeuten, dass im klassischen Grenzfall auch   d/dt á y(t)| A y(t)ñ   gleich Null würde, d.h. es gäbe keine zeitliche Veränderung von Erwartungswerten mehr und damit keine zeitliche Entwicklung der zugehörigen klassischen Größen, in die die Erwartungswerte im klassischen Grenzfall ja übergehen. Das aber kann nicht sein. Was stimmt an dieser Überlegung nicht?

Der Fehler liegt darin, dass die Ausage "allgemein wird im klassischen Grenzfall aus dem Erwartungswert eines Produktes von hermiteschen Operatoren das Produkt der Erwartungswerte dieser Operatoren" nicht genau genug ist, um in diesem Fall den klassischen Grenzfall korrekt zu betrachten. Schauen wir uns daher einmal genauer Erwartungswerte von Kommutatoren an und versuchen, eine anschauliche Vorstellung von ihrer Bedeutung zu gewinnen.

Bei einer großen Zahl von Messungen einer beobachtbaren Größe (mit zugehörigem Operator A) bei einem quantenmechanischen System im Zustand |y(t)ñ ist die sogenannte statistische Standardabweichung (nennen wir sie ΔA) definiert als Wurzel aus dem Mittelwert (Erwartungswert) der quadrierten Differenzen Messwert minus Mittelwert aller Messwerte:

ΔA   :=   √ ( á y| (A − á y| A yñ)2 yñ )   =   √ ( á y| A2 yñ − (á y| A yñ)2 )

ΔA ist also die Wurzel aus der durchschnittlichen quadratischen Abweichung vom Mittelwert. Eine Standardrechnung (siehe z.B. http://theory.gsi.de/~vanhees/faq/quant/node12.html ) liefert die Beziehung

ΔA ΔB   ≥   |á y| [A, B] yñ| / 2

Der Erwartungswert des Kommutators von A und B liefert also eine untere Grenze für die multiplizierten Standardabweichungen (die Unschärfen) der Messwerte von A und B. Wenn also der Kommutator von A und B ungleich Null ist (d.h. wenn die Operatoren A und B nicht miteinander vertauschbar sind), so streuen die Messwerte von A oder die von B (oder beide) um ihren Mittelwert. Dabei ist die Streuung dieser Messwerte beispielsweise für A umso größer, je kleiner die Streuung von B ist (und umgekehrt). Man kann also keinen Zustand für das quantenmechanische System präparieren, in dem sowohl der Messwert von A als auch der von B beide immer denselben scharfen Wert besitzen. Man bezeichnet dies als die Heisenbergsche Unschärferelation.



Werner Heisenberg (1901-1976),
Quelle: Wikimedia Commons File:Werner Heisenberg Briefmarke.jpg,
Briefmarke der Deutschen Post (2001), demnach gemeinfrei

Ein Spezialfall dieser Beziehung ist A = pj und B = xj (dabei ist j = 1, 2 oder 3). Wegen   [pj, xj] = h/2 π i   und der Normierung   á y| yñ  =  1   folgt

Δpj Δxj   ≥   h/4 π

Oft bezeichnet man auch diesen Spezialfall als Heisenbergsche Unschärferelation.

Ein anderer interessanter Spezialfall ist A = H . Nennen wir ΔH in das sprechendere ΔE um (denn ΔH ist ja die Standardabweichung der Energiemesswerte) und verwenden   d/dt áy(t)| A y(t)ñ   =   i/(h/2 π) á y(t)| [H, A] y(t)ñ   so ist

ΔE ΔB   ≥   |á y| [H, B] yñ| / 2   =   h/2 π d/dt |áy(t)| B y(t)ñ| / 2

Was sagt uns diese Gleichung? Wir wollen eine grobe Abschätzung des rechten Terms vornehmen und   d/dt |áy(t)| B y(t)ñ|   ≈   ΔB/Δt   setzen. Das bedeutet: Bei den vielen Messungen schwankt der genaue Messzeitpunkt mit einer Unsicherheit Δt . Dies bewirkt eine Unsicherheit ΔB in den Messwerten von B. Wir wollen grob annehmen, dass diese Unsicherheit auf der linken Seite etwa genauso groß ist wie auf der rechten Seite, d.h. wir können ΔB wegkürzen und erhalten

ΔE Δt ≥ h/4 π

Diese Ungleichung ist als grobe Abschätzung zu verstehen, d.h. sie lässt sich nicht so präzise begründen wie die Unschärferelation Δpi Δx' ≥ h/4 π . Dennoch liefert sie zumindest einen Hinweis auf eine Regel, die man näherungsweise immer wieder bestätigt findet:

Zurück zu unserer Frage: wie ist der Faktor i / h/2 π in der Ersetzungsregel zu erklären, der beim Übergang von der Poissonklammer zum Kommutator auftritt? Dazu hatten wir uns die Zeitentwicklung


d
dt
  áy(t)| A y(t)ñ   =   i
h/2 π
á y(t)| [H, A] y(t)ñ

angesehen. Die obigen Überlegungen haben gezeigt, dass der Erwartungswert des Kommutators von der Größenordnung her dem Produkt der Unsicherheiten ΔE mal ΔA entspricht. Die obigen Beispiele haben gezeigt, dass dieses Produkt typischerweise etwa die Größenordnung des Planckschen Wirkungsquantums h aufweist. Den klassischen Grenzfall können wir nun genauer beschreiben: Er entspricht dem Grenzfall, das h gegen Null geht (d.h. Terme ohne h dominieren gegenüber Termen, die proportional zu h sind):

Damit verbunden ist, dass auch die Unsicherheiten von Messwerten klein werden sollten (vorausgesetzt, sie haben vergleichbare Größenordnungen, so dass aus einem kleinen Produkt auch kleine Faktoren folgen). Die Details des klassischen Grenzfalls wirklich sauber aufzustellen erfordert jedoch deutlich mehr Präzision, denn schließlich gibt es auch makroskopische Quantenphänomene (z.B. Supraleitung). So muss man den Begriff der Kohärenz und Dekohärenz mit einbeziehen. Wir wollen hier darauf verzichten.

Mit diesem Verständnis des klassischen Grenzfalls können wir nun sehen, wozu h im Nenner oben benötigt wird: da der Erwartungswert des Kommutators selbst die Größenordnung h besitzt, sorgt das h im Nenner dafür, dass beim Grenzübergang h gegen Null die rechte Seite nicht automatisch gleich Null wird. Nur so kann eine Zeitentwicklung der beobachtbaren Größen im klasssichen Grenzfall erhalten bleiben.


Einen weiteren Punkt wollen wir uns näher ansehen: Geht im klassischen Grenzfall der Erwartungswert des Kommutators (mit Vorfaktor) tatsächlich in die Poissonklammer über?

Schauen wir uns die beiden Spezialfälle A = pi und A = xi (mit i = 1, 2 oder 3) an und betrachten jeweils den Kommutator i / h/2 π [H , A] . Dabei wollen wir voraussetzen, dass H als Potenzreihe der Operatoren pi und xi geschrieben werden kann.

Um den Kommutator ausrechnen zu können, brauchen wir etwas Vorbereitung. Schauen wir uns dazu zunächst einmal den Kommutator -i / h/2 π [xi , pin+1] an. Eine kleine Rechnung zeigt:

[xi , pin+1] =
= [xi , pin pi ] =
= xi pin pi - pin pi xi =
= xi pin pi - pin xi pi + pin xi pi - pin pi xi =
= [xi , pin] pi + pin [xi , pi] =
= [xi , pin] pi + i h/2 π pin

also insgesamt

-i / h/2 π [xi , pin+1]   =   -i / h/2 π [xi , pin] pi + pin

Mit dem Kommutator -i / h/2 π [xi , pin] pi auf der rechten Seite können wir nun analog verfahren, so dass

-i / h/2 π [xi , pin+1]   =   ( -i / h/2 π [xi , pin - 1] pi + pin - 1 ) pi + pin   =   -i / h/2 π [xi , pin - 1] pi2 + pin + pin

wird. Das Schema ist klar: der Exponent wird heruntergezählt, und dafür taucht ein weiterer Term pin auf. Insgesamt können wir in n + 1 Schritten den Exponenten von n + 1 bis auf 0 herunterzählen. Der letzte Kommutator [xi , pi0] ist gleich Null und trägt nicht mehr bei. Daher haben wir insgesamt -i / h/2 π [xi , pin+1] = (n + 1) pin oder anders geschrieben

-i / h/2 π [xi , pin]   =   n pin - 1   =:   dpin/dpi

Dabei haben wir den Term dpin/dpi (dabei ist pi ein Operator!) analog zu den Regeln der üblichen Ableitung definiert. Wir können dieses Ergebnis noch verallgemeinern, da für i ungleich j der Term [xi , pjn] = 0 ist. Analog soll für i ungleich j auch dpjn/dpi gleich Null sein, ebenfalls analog zu den Regeln der üblichen Ableitung. Also ist

-i / h/2 π [xi , pjn]   =   dpjn/dpi

Kommen wir nun zurück zum Kommutator i / h/2 π [H , xi] = -i / h/2 π [xi , H] . Dabei soll H als Potenzreihe in xj und pj definiert sein, wobei für j alle Werte von 1 bis 3 vorkommen können. Da [xi , xj] = 0 ist, erhalten wir insgesamt

i / h/2 π [H , xi] = dH/dpi

wobei der Operator dH/dpi über die Potenzreihe wie oben definiert ist. Für den Erwartungswert gilt also:


d
dt
  áy(t)| xi y(t)ñ   =   i
h/2 π
á y(t)| [H, xi] y(t)ñ
  =   á y(t)| dH/dpi y(t)ñ

Diese Gleichung geht offensichtlich im klassischen Grenzfall in die klassische Hamiltonsche Bewegungsgleichung über. Analog kann man auch die zweite klassischen Bewegungsgleichung herleiten. Wir sehen also: Der klassische Grenzfall funktioniert mit unserem Quantisierungs-Kochrezept von oben tatsächlich!


Wir wissen also nun, wie die Kommutatoren unserer Operatoren aussehen sollen. Mehr braucht man streng genommen gar nicht zu wissen (so lässt sich beispielsweise die Quantenmechanik des eindimensionalen harmonischen Oszillators mit V(x) = a x2 alleine mit Hilfe der Kommutatoren berechnen). Dies war der Weg, den Werner Heisenberg vor ca. 80 Jahren bei der Formulierung der Quantenmechanik beschritten hatte, wobei er durch das Einfügen von Basisvektoren die Operatorschreibweise noch in eine formale Schreibweise mit unendlichdimensionalen Matrizen umgeformt hatte (genau genommen startete er direkt mit solchen Matrizen).

Für Berechnungen ist es jedoch oft nützlich, einen konkreten Hilbertraum und eine dazugehörende Darstellungen der Operatoren auf diesem Hilbertraum zu finden, so dass die Kommutatoren gleichsam nebenbei korrekt herauskommen.

Eine Möglichkeit, dies für die nichtrelativistische Quantenmechanik zu erreichen, ist die Folgende:

Wähle als Hilbertraum den Raum der quadratintegrierbaren glatten komplexwertigen Funktionen im dreidimensionalen reellen Raum, d.h. der Funktionswert ψ(x) ist eine komplexe Zahl und das Argument x der Funktion ist ein dreidimensionaler reeller Vektor. Das Skalarprodukt sei in diesem Raum gegeben durch

áφ|ψñ   =   ∫ d3x [φ(x)]* ψ(x)

wobei der Stern die komplexe Konjugation bezeichnet (also (a + i b)* = a - i b ). Wir definieren nun die Operatoren X und P durch

(zur besseren Unterscheidung haben wir die Operatoren hier groß geschrieben). Man kann nun leicht nachweisen, dass diese Operatoren bezüglich dem oben definierten Skalarprodukt hermitesch sind und dass die gewünschten Kommutator-Beziehungen erfüllt sind. Diese Darstellung wählte vor ca. 80 Jahren Erwin Schrödinger und schuf damit zeitgleich zu Heisenberg einen anderen Zugang zur Quantenmechanik. Beide Zugänge sind äquivalent, wie wir ja nun bereits wissen.



Erwin Schrödinger (1887-1961),
Quelle: Wikimedia Commons File:Erwin Schrödinger.jpg, demnach Public Domain


Im Prinzip könnten wir nun versuchen, uns an die Quantisierung anderer Theorien zu machen, beispielsweise der Elektrodynamik (das ist die relativistische Theorie der elektrischen und magnetischen Felder). Es zeigt sich jedoch, dass ein zweiter Zugang zur Quantentheorie häufig sehr nützlich ist, da er viele Zusammenhänge sehr viel deutlicher sichtbar macht, als es die kanonische Quantisierung von oben vermag. Insbesondere erhält man einen intuitiven Zugang zur Quantentheorie über ein einfaches Prinzip, und es wird sehr viel klarer, was der klassische Grenzfall genau bedeutet -- in der mehr formalen kanonischen Quantisierung mutet der Übergang von Poissonklammern zu Kommutatoren ja manchmal etwas wie Zauberei an, und der klassische Grenzfall erfordert eine gewisse Mühe.

Der alternative Zugang geht im Wesentlichen auf den Physiker und Nobelpreisträger Richard Feynman aus dem Jahre 1942 zurück. Feynman versuchte, den etwas künstlichen Umweg über den Hamilton-Formalismus zu vermeiden und direkt von der Lagrange-Funktion auszugehen. So wie man die klassische Mechanik im Lagrangeformalismus oder alternativ nach einer Legendre-Transformation im Hamiltonformalismus formulieren kann, so sollte es auch möglich sein, die Quantentheorie alternativ in einem Lagrange-Formalismus oder in dem oben gezeigten Hamilton-Formalismus darzustellen.

Ausgangspunkt der Formulierung Feynmans ist die Wahrscheinlichkeitsamplitude dafür, dass ein Teilchen, welches zur Zeit t' am Ort x' startet, zur späteren Zeit t am Ort x ankommt. Diese Amplitude bezeichnet man auch als Propagator. Wir wollen sie symbolisch durch das Skalarprodukt   á t,x | t',x'ñ   abkürzen. Kennt man diesen Propagator, so lassen sich daraus alle anderen quantenmechanischen Größen berechnen.

Feynmans zentrale Idee bestand nun darin, die Interferenzregel aus dem letzten Kapitel als zentrale Forderung zu verwenden, um mit ihrer Hilfe den Propagator zu berechnen. Erinnern wir uns:

Die verschiedenen ununterscheidbaren Möglichkeiten sind hier die verschiedenen Wege, die das Teilchen nehmen kann, um in der Zeit von t' bis t vom Ort x' zum Ort x zu gelangen. Diese Möglichkeiten sind tatsächlich ununterscheidbar, wenn wir nur am Ort x nach dem Teilchen suchen. Versuchen wir dagegen, zu messen, welchen Weg das Teilchen tatsächlich genommen hat, so haben wir es mit einem anderen Ereignis zu tun, zu dem auch eine andere Amplitude gehört. Dies wird am Doppelspaltexperiment sehr deutlich (wir wollen hier nicht näher darauf eingehen).

Jeder Weg, der innerhalb des Zeitintervalls von t' bis t vom Ort x' zum Ort x führt, steuert nach der Interferenzregel eine Amplitude (also eine komplexe Zahl, d.h. einen zweidimensionalen Pfeil) zum Propagator bei. Man muss nun alle diese Amplituden für alle diese Wege bzw. Pfade aufsummieren (oder genauer: integrieren), um den Propagator auszurechnen. Daher bezeichnet man den den entsprechenden mathematischen Ausdruck als Pfadintegral.

Gehen wir wieder von der klassischen Mechanik aus, deren Lagrangefunktion uns ja bekannt ist. Um mit Hilfe der Pfadintegralmethode eine dazu passende Quantentheorie zu konstruieren, müssen wir nun einen konkreten Pfadintegral-Ausdruck für den Propagator gleichsam erraten, und zwar wieder so, dass im klassischen Grenzfall die klassische Mechanik entsteht.

Wir wollen hier jedoch etwas anders vorgehen, da wir ja bereits die Methode der kanonischen Quantisierung kennen: wir versuchen, aufgrund der kanonischen Quantisierung der klassischen Mechanik einen Ausdruck für das Pfadintegral herzuleiten. Damit wäre dann garantiert, dass dieses Pfadintegral dieselbe Quantentheorie ergibt wie die kanonische Quantisierung, wenn man es als Ausgangspunkt für die Quantisierung der klassischen Mechanik verwendet.

Machen wir uns zunächst mit dem Propagator vertraut. Um die Diskussion zu vereinfachen, wollen wir uns auf eine räumliche Dimension beschränken. Außerdem wollen wir ganz konkret die Darstellung des Zustandsvektors durch eine komplexwertige Funktion ψ(t,x) verwenden (diesmal allerdings mit nur einer Raumdimension).

Die folgende Gleichung definiert den Propagator   á t,x | t',x'ñ   als Integralkern:

ψ(t,x)   =:   ∫ dx' á t,x | t',x'ñ ψ(t',x')

wobei wir t > t' verlangen, denn wir wollen ja sehen, wie sich die Funktion bei wachsender Zeit entwickelt. Man spricht daher auch vom kausalen Propagator. Die Idee dabei ist analog zum Huygensschen Prinzip der Optik: Zur Zeit t' geht von jedem Punkt x' eine Welle aus, deren Anfangswert proportional zu   ψ(t',x')   ist. Zur Zeit t hat diese Welle am Punkt x die Stärke   á t,x | t',x'ñ ψ(t',x')   . Nun muss man alle Wellen der verschiedenen Punkte x' aufsummieren (aufintegrieren), um die Gesamtwelle   ψ(t,x)   zur späteren Zeit t am Ort x zu erhalten. Die Wellen interferieren miteinander. In der Quantentheorie entsprechen den Wellen die Wahrscheinlichkeitsamplituden, und es wird über die verschiedenen ununterscheidbaren Möglichkeiten integriert. Der Propagator entspricht der Wahrscheinlichkeitsamplitude dafür, dass das Teilchen zur Zeit t' am Ort x' startet und zur späteren Zeit t am Ort x ankommt. Weiter ist   ψ(t',x')   die Amplitude dafür, dass sich das Teilchen zur Zeit t' am Ort x' befindet, und analog ist   ψ(t,x)   die Amplitude dafür, dass das Teilchen schließlich zur Zeit t am Ort x gemessen wird. Die obige Integralformel spiegelt also lediglich die Interferenzregel der Quantentheorie wieder.

Der Propagator ist streng genommen mathematisch keine Funktion, sondern eine sogenannte Distribution. Er macht nur im Zusammenhang mit Integralen wie oben Sinn. Das sieht man beispielsweise, wenn man den Spezialfall   t = t'   betrachtet (genauer betrachtet man den Grenzwert, bei dem t von oben gegen t' geht). Dann muss

ψ(t',x)   =   ∫ dx' á t',x | t',x'ñ ψ(t',x')

gelten, d.h.

á t',x | t',x'ñ   =   δ(x-x')

Dabei ist   δ(x-x')   die bekannte Delta-Distribution, die über die Eigenschaft   ∫dx δ(a-x) f(x) = f(a)   definiert ist. Man kann sich   δ(a-x)   als Gaußsche Glockenkurve in der Variable x mit Maximum bei a vorstellen, die unendlich schmal und hoch geworden ist (wobei der Grenzwert genau genommen nur für Integrale mit dieser Glockenkurve definiert ist und nicht für die Glockenkurve selbst). Sie entspricht also einem unendlich hohen und unendlich schmalen Peak beim Wert a. Insbesonderen ist   δ(a-x) = 0   für a ungleich x.

Was können wir nun über den Propagator herausfinden? Man kann z.B. zeigen, dass der Propagator die sogenannte Greensche Funktion des Operators   (i h/ d/dt − H)   bildet, also in gewissem Sinne sein Inverses ist, denn es gilt

(i h/ d/dt − H) á t,x | t',x'ñ   =   i h/ δ(t-t') δ(x-x')

Diese Gleichung ist im Distributionensinn zu verstehen und benötigt zusätzliche Randbedingungen, die wir hier nicht im Detail aufführen wollen -- diese Randbedingungen werden benötigt, um die obige Integralgleichung   ψ(t,x) = ∫ dx' á t,x | t',x'ñ ψ(t',x')   zu reproduzieren, die ja nur für t > t' gelten soll. Für t > t' folgt

(i h/ d/dt − H) á t,x | t',x'ñ   =   0

wie man auch direkt durch Anwendung von   (i h/ d/dt − H)   auf die Integralgleichung herausfindet, wobei man die Schrödingergleichung   (i h/ d/dt − H) ψ(t,x)   =   0   verwendet.

Wenn man den Propagator kennt, so hat man die Schrödingergleichung   (i h/ d/dt − H) ψ(t,x)   =   0   gelöst, denn man kann   ψ(t,x)   (zumindest im Prinzip) berechnen. Anstatt die Schrödingergleichung zu lösen, kann man also auch versuchen, den Propagator und mit seiner Hilfe dann   ψ(t,x)   zu berechnen. Ja man kann sogar sagen: Hat man eine Formel für den Propagator, so braucht man die Schrödingergleichung nicht mehr. Genau dies hat Richard Feynman getan. Schauen wir uns dazu nun die Details an!


In der Integralgleichung

ψ(t,x)   =   ∫ dx' á t,x | t',x'ñ ψ(t',x')

können wir   ψ(t',x')   natürlich ebenfalls durch ein entsprechendes Integral mit einem noch früheren Zeitpunkt t'' ausdrücken, so dass aus der obigen Formel die Gleichung
ψ(t,x)   =   ∫ dx' á t,x | t',x'ñ   ∫ dx'' á t',x' | t'',x''ñ ψ(t'',x'')

wird. Dieses Spiel können wir beliebig oft wiederholen.

Wir können dies nun verwenden, um das Zeitintervall von t' bis t in n gleichgroße Teilintervalle   Δt = (t' − t)/n   zu zerlegen. Später werden wir dann den Grenzfall n gegen Unendlich untersuchen, bei dem die Teilintervalle Δt beliebig klein werden. Die entsprechende Formel lautet dann

ψ(t,x)   =   ∫ dx0 dx1 dx2 ... dxn-1   át,x | tn-1,xn-1ñ   átn-1,xn-1 | tn-2,xn-2ñ   ...   át1,x1 | t0,x0ñ   ψ(t0,x0)

Dabei ist   t0 = t'   und   tn = t   sowie   xn = x  . Der Index bei x dient dazu, die verschiedenen Integrationsvariablen zu unterscheiden, ist also nicht mit einem Index für eine Raumachse zu verwechseln (wir haben uns ja auf eine räumliche Dimension beschränkt).

Picken wir uns ein Zeitintervall von ti-1 bis ti heraus, wobei i irgendein Index von 1 bis n ist. Wir haben oben gesehen, dass wegen   ti > ti-1   der Propagator   áti,xi | ti-1,xi-1ñ   die Schrödingergleichung erfüllt:

(i h/ d/dti − H) áti,xi | ti-1,xi-1ñ   =   0

wobei ti-1 und xi-1 als fest und ti sowie xi als variabel anzusehen sind (d.h. der Operator H wirkt auf xi ). Die formale Lösung dieser Gleichung lautet
áti,xi | ti-1,xi-1ñ   =   exp [ -i H Δt / h/) ]   áti-1,xi | ti-1,xi-1ñ

mit   Δt = ti - ti-1   . Wegen   áti-1,xi | ti-1,xi-1ñ = δ(xi - xi-1)   ist dieser Ausdruck wieder im Distributionensinn zu verstehen: Man stelle sich statt der Delta-Funktion eine Glockenkurve vor, bilde Integrale über das Ganze (der Propagator ist ja als Integralkern definiert) und betrachte den Grenzfall, bei dem die Glockenkurve unendlich schmal und hoch wird.

Nun ist in der nichtrelativistischen Quantenmechanik (eindimensional) der Hamiltonoperator H gegeben durch   H = p2/2m + V(xi)   mit dem Impulsoperator   p = h/2 π i d/dxi   und dem Potential   V(xi)  . Für sehr kleine Zeitintervalle Δt ist dann

exp [ -i H Δt / h/) ]   =  
  =   exp [ -i (p2/2m + V(xi)) Δt / h/) ]   ≈
  ≈   exp [ -i V(xi)) Δt / h/) ]   exp [ -i (p2/2m) Δt / h/) ]

wie man mit Hilfe der sogenannten Baker-Campbell-Hausdorff-Formel nachweisen kann. Wir verzichten dabei auf eine detaillierte Begründung und nehmen an, dass wir höhere Potenzen von Δt im Grenzfall sehr kleiner Δt-Werte vernachlässigen dürfen. Physikalisch bedeutet das, dass wir den Transfer zwischen kinetischer und potentieller Energie im Zeitintervall Δt vernachlässigen, und dass das Potential V(x) hinreichend gutartig ist, so dass wir das auch dürfen.

Nun kommen einige heuristische Argumente, die streng genommen einer genauen mathematischen Untersuchung bedürfen. Wir wollen uns hier nicht in die Details stürzen, sondern eher anschaulich argumentieren.

Zunächst einmal wollen wir annehmen, dass bei kleinen Zeitintervallen nur diejenigen Propagatoren   áti,xi | ti-1,xi-1ñ   nennenswert zum Gesamtintervall beitragen, bei denen auch xi nahe bei xi-1 liegt (dazu kann entweder der Propagator bei größeren räumlichen Abständen selbst klein sein, oder aber er oszilliert so schnell, dass sich die verschiedenen Propagatorbeiträge im Integral wegheben (destruktive Interferenz) ). Es soll also relativ unwahrscheinlich sein, dass das Teilchen in sehr kurzer Zeit mehr als nur ein kleines Stück Weg zurücklegt. Daher wollen wir in

exp [ -i V(xi)) Δt / h/) ]   exp [ -i (p2/2m) Δt / h/) ]   áti-1,xi | ti-1,xi-1ñ

den Operator V(xi) durch den klassischen Potentialwert V((xi + xi-1)/2) ersetzen. Ob wir das dürfen, hängt letztlich wieder von der Gutartigkeit des Potentials ab.

Bleibt noch der Term   exp [ -i (p2/2m) Δt / h/) ]   áti-1,xi | ti-1,xi-1ñ   zu betrachten (p war der Impulsoperator). Dies ist gerade der Propagator für ein freies Teilchen, den man explizit berechnen kann. Dazu drückt man den Propagator durch ein Fourierintegral aus, so dass der Impulsoperator darin zu einer reellen Zahl wird, und berechnet das Fourierintegral durch analytische Fortsetzung mit Hilfe des Residuensatzes, wobei man die Randbedingung zu berücksichtigen hat, dass wir einen kausalen Propagator betrachten, der nur für ti > ti-1 definiert ist (dies führt zu einer entsprechenden infinitesimalen Verschiebung der Pole im Fourierintegral). Details dazu findet man beispielsweise in "Der Propagator in der Einteilchen-Quantenmechanik, http://www.physik.uni-oldenburg.de/condmat/student/html/qm3_I.1.pdf ". Hier ist das Ergebnis für den freien kausalen Propagator:

exp [ -i (p2/2m) Δt / h/) ]   áti-1,xi | ti-1,xi-1ñ   =   (m / ihΔt)1/2 exp [ i m (xi - xi-1)2 / (2 h/ Δt) ]

Insgesamt ist also unser Propagator für sehr kleine Δt gleich

áti,xi | ti-1,xi-1ñ   =   (m / ihΔt)1/2 exp [ i Δt [ m/2 ((xi - xi-1)/Δt)2 − V((xi + xi-1)/2) ] / h/ ]

Im Exponenten steht die klassische Lagrangefunktion eines freien Teilchens mit v = (xi - xi-1)/Δt und x = (xi + xi-1)/2 , d.h. wir haben für sehr kleine Zeitintervalle Δt für den Propagator die Beziehung

áti,xi | ti-1,xi-1ñ   =   (m / ihΔt)1/2 exp [ i Δt   L( (xi + xi-1)/2 , (xi - xi-1)/Δt) )   / h/ ]

Nun sind wir gerüstet, um uns auch größere Zeitintervalle anzusehen. Dabei führen wir den Grenzwert für unendlich viele Zeitintervalle durch und erhalten:

ψ(t,x)   =   limn → ∞   ∫ dx0 dx1 dx2 ... dxn-1 (m / ihΔt)n/2
exp [ i Δt   L( (x + xn-1)/2 , (x - xn-1)/Δt) )   / h/ ]  
exp [ i Δt   L( (xn-1 + xn-2)/2 , (xn-1 - xn-2)/Δt) )   / h/ ]  
.....  
exp [ i Δt   L( (x1 + x0)/2 , (x1 - x0)/Δt) )   / h/ ]   ψ(t0,x0)

mit   x = xn ,   t = tn   und   Δt = ti - ti-1 = (t - t0) / n  . Das Produkt der exp-Funktionen können wir noch zu einer exp-Funktion zusammenfassen. Außerdem können wir die Definition   ψ(t,x)   =   ∫ dx' á t,x | t',x'ñ ψ(t',x')   für den Propagator verwenden und so den Propagator für größere Zeitintervalle aus der obigen Formel ablesen (dabei setzen wir t' = t0 und x' = x0 ):

á t,x | t',x'ñ   =   limn → ∞   ∫ dx1 dx2 ... dxn-1 (m / ihΔt)n/2
exp [ i Δt / h/ { L( (x + xn-1)/2 , (x - xn-1)/Δt) )   +
  +   L( (xn-1 + xn-2)/2 , (xn-1 - xn-2)/Δt) )   +
+   ...   +
  +   L( (x1 + x')/2 , (x1 - x')/Δt) ) }   ]

mit t > t'. Es werden also zwischen den Punkten x und x' unendlich viele Zwischenebenen eingefügt (genau genommen n-1 Zwischenebenen, woraus dann im Grenzfall unendlich viele werden) und es werden alle Propagationen von x' zur ersten Zwischenebene, von dort zur zweiten Zwischenebene usw. aufsummiert, bis schließlich die Propagation der letzten Zwischenebene zum Punkt x betrachtet wird. Jede Zwischenebene entspricht einer Integration   ∫ dxi   mit i von 1 bis n-1 . Die Propagation von einer Zwischenebene zur nächsten dauert dabei die Zeit   Δt = (t - t')/n   , was im Grenzfall beliebig klein wird. Der Faktor   (m / ihΔt)n/2   sorgt dabei für die richtige Normierung.

Ob sich der Grenzwert für n gegen Unendlich mathematisch sauber durchführen lässt, ist eine schwierige Frage, die weit über den Rahmen dieses Kapitels hinausführt. Immerhin hat man es mit unendlich vielen Integrationen über oszillierende komplexwertige Integranden zu tun. Für die Praxis kann man aber immer auf die obige Darstellung zurückgehen, um beispielsweise numerische Berechnungen mit größeren (aber endlichen) Werten für n durchzuführen.

Man kann sich den obigen Ausdruck noch etwas anders veranschaulichen. Dazu nehmen wir vereinfacht an, dass der Ort nur diskrete Werte annehmen kann, so dass aus den Integralen Summen werden. Wie wir sehen, wird dann im obigen Ausdruck über alle Ortskombinationen summiert, die sich aus den Orten der ersten, zweiten usw. bis zur n-1 -ten Zwischenebene bilden lassen. Jede dieser Ortskombinationen können wir als Vekor   (x', x1, x2, ... , xn-1, x)   schreiben, wobei der Anfangspunkt x' und der Endpunkt x fest vorgegeben sind, und die Orte der Zwischenebenen alle Werte annehmen können. Über alle diese Vektoren wird summiert.

Nun kann man den Vektor   (x', x1, x2, ... , xn-1, x)   auch als Polygonzug (gezackten Weg) zwischen den Punkten x' und x über die Zwischenpunkte xi interpretieren und sagen, dass über all diese Polygonzüge summiert wird. Im Grenzfall unendlich großer n wird aus der Summe über alle Polygonzüge die Summe über alle stetigen Wege zwischen x' und x (an dieser Stelle muss man streng genommen vorsichtig sein, welche Wege genau zugelassen sind -- man denke an fraktale Kurven und ähnliche mathematische Monster; es zeigt sich, dass beim Grenzübergang unendlich kleiner Δt der Betrag   |xi - xi-1|   mindestes so schnell schrumpfen muss wie √Δt ).


Konstruktion des Pfadintegrals.


Schauen wir uns nun das Argument der exp-Funktion an. Es lautet:

i Δt / h/ { L( (x + xn-1)/2 , (x - xn-1)/Δt) )   +
  +   L( (xn-1 + xn-2)/2 , (xn-1 - xn-2)/Δt) )   +
+   ...   +
  +   L( (x1 + x')/2 , (x1 - x')/Δt) ) }  

d.h. für jeden Polygonzug werden die Werte der Lagrangefunktion für jeden Übergang von einer Zwischenebene zur nächsten ausgewertet und mit Δt gewichtet aufsummiert. Im Grenzfall n → ∞ wird daraus das Integral entlang des Weges x(t''), der durch den Polygonzug approximiert wird, also (bis auf den Vorfaktor) das Wirkungsfunktional S[x] für den Weg x(t''):

i / h/   ∫t't dt'' L(x(t'') ,[dx/dt](t'') )   =   i / h/ S[x]

Wir wollen das Integral über alle Orte der unendlich vielen Zwischenebenen nun formal in ein Integral über alle Wege x(t) umschreiben, die vom Ort x' zur Zeit t' zum Ort x zur Zeit t führen. Dieses Integral verstehen wir als Grenzwert der Summe über alle Polygonzüge mit n-1 Zwischenebenen, wobei wir einerseits n gegen unendlich gehen lassen und andererseits wieder kontinuierlich viele x-Werte in den Zwischenebenen zulassen. Man bezeichnet dieses Integral auch als Pfadintegral:

á t,x | t',x'ñ   =   limn → ∞   ∫ dx1 dx2 ... dxn-1 (m / ihΔt)n/2
exp [ i Δt / h/ { L( (x + xn-1)/2 , (x - xn-1)/Δt) )   +
  +   L( (xn-1 + xn-2)/2 , (xn-1 - xn-2)/Δt) )   +
+   ...   +
  +   L( (x1 + x')/2 , (x1 - x')/Δt) ) }   ] =:

  =:   ∫Wege x   D(x)   exp [i S[x] / h/ ]

Dabei soll D(x) im Funktionenraum der Wege x(t) ein geeignetes Maß sein, wie es sich durch die Grenzwertbildung oben ergibt. Irgendwie muss also das Produkt der unendlich vielen Maße   dx1 dx2 ... dxn-1   multipliziert mit dem Normierungsfaktor   (m / ihΔt)n/2   im Grenzfall unendlich großer n das Maß D(x) im Raum der Wege ergeben. Mathematisch ist dieser Übergang zum Maß D(x) ziemlich komplex und voller Fallen -- so sagt ein Satz von A. Weil, dass es im obigen naiven Sinn ein solches Maß nicht gibt (siehe z.B. Markus J. Pflaum: Gibt es in der Mathematik ein Pfadintegral?, Habilitationsvortrag vom 10. Januar 2001, http://www.math.uni-frankfurt.de/~pflaum/publications/PflHabilVortrag.ps ). Man kann versuchen, das Vorgehen zu präzisieren und z.B. das sogenannte Wiener-Maß verwenden. Letztlich läuft es darauf hinaus, dass man nur hinreichend gutartige Pfade (Wege) zulässt. Genau diese Annahme haben wir sowieso an mehreren Stellen in unserer obigen Argumentation bereits verwendet.

Das Feynmansche Pfadintegral

á t,x | t',x'ñ   =   ∫Wege x   D(x)   exp [i S[x] / h/ ]

hat eine recht anschauliche Interpretation: Ein Teilchen, das zur Zeit t' am Ort x' startet und zur Zeit t am Ort x ankommt, probiert alle (ununterscheidbaren) Möglichkeiten (also alle Wege) aus. Jeder dieser Wege trägt mit der Amplitude   exp [i S[x] / h/ ]   zur Gesamtamplitude bei, d.h. das Verhältnis Wirkungsfunktional des Weges zum Planckschen Wirkungsquantum h/ bestimmt die Phase der Amplitude, die zu dem Weg gehört.

Nehmen wir nun an, dass wir relativ große (d.h. makroskopische) Orts- und Zeitabstände betrachten. Dann wird auch das Wirkungsfunktional für diese Wege zumeist sehr viel größer als das Plancksche Wirkungsquantum sein, denn es wird ja die Lagrangefunktion über entsprechend lange Wege aufintegriert. Auch eng benachbarte Wege werden daher meistens Wirkungen besitzen, die sich um deutlich mehr als das Plancksche Wirkungsquantum unterscheiden. Die Amplituden der meisten Wege werden also ganz unterschiedliche Phasen besitzen und sich im Wesentlichen gegenseitig auslöschen (destruktive Interferenz). Lediglich Wege, bei denen benachbarte Wege sich in ihrer Wirkung nur wenig unterscheiden, können sich konstruktiv aufsummieren und zum Gesamtergebnis nennenswert beitragen. Dies ist für Wege der Fall, in deren Nähe die Wirkung stationär wird, sich also bei kleiner Veränderung des Weges kaum ändert.

Solche Wege finden wir am Minimum des Wirkungsfunktionals. Der Weg mit minimaler Wirkung ist aber gerade eine Lösung des klassischen Variationsprinzips und damit eine Lösung der klassischen Euler-Lagrange-Gleichungen. Alle Wege in der unmittelbaren Nähe dieses klassischen Weges können konstruktiv miteinander interferieren, während die anderen Wege destruktiv interferieren und damit bedeutungslos werden. Man kann sagen, das Teilchen nimmt immer eher den klassischen Weg, je größer die Wirkung im Vergleich zum Planckschen Wirkungsquantum ist.

Den klassischen Grenzfall hatten wir weiter oben definiert durch den Grenzfall, dass das Plancksche Wirkungsquantum h gegen Null geht. Dies können wir nun präzisieren:

Damit haben wir eine ganz natürliche Begründung für das mysteriöse Prinzip der kleinsten Wirkung gefunden, mit dessen Hilfe wir oben die klassische Bewegungsgleichung formuliert haben. Und nun wissen wir auch, warum es nützlich war, die klassische Theorie mit Hilfe dieses Prinzips zu formulieren, um den Übergang zur entsprechenden Quantentheorie vorzubereiten.

Umgekehrt wird auch klarer, was es bedeutet, die Quantentheorie zu einer vorgegebenen klassischen Theorie zu konstruieren: Wir müssen alle Wertekombinationen berücksichtigen, die die dynamischen Variablen der Theorie annehmen können, zu jeder dieser Möglichkeiten das Wirkungsfunktional S berechnen (das kennen wir ja aufgrund der vorgegebenen klassischen Theorie) und die Möglichkeit mit der Amplitude   exp [i S / h/ ]   zur Berechnung der Gesamtamplitude im Pfadintegral berücksichtigen. Je näher dabei die betrachteten Wirkungen in die Größenordnung des Planckschen Wirkungsquantums rücken, umso wichtiger werden auch die Möglichkeiten jenseits der klassischen Lösung. In diesem Sinn bedeutet Quantisierung das Berücksichtigen von Möglichkeiten (Fluktuationen) jenseits der klassischen Lösung.

Diese Methode funktioniert auch bei anderen Theorien als der klassischen Mechanik. Wir müssen uns nur über die dynamischen Variablen (Freiheitsgrade) der Theorie klar werden, ein passendes Wirkungsfunktional angeben und schon kann es losgehen. Dies wollen wir in den nächsten Kapiteln schrittweise versuchen, wobei wir sowohl die kanonische Quantisierung als auch Feynmans Pfadintegral-Quantisierung anwenden werden (es sollte ja in beiden Fällen die gleiche Quantentheorie herauskommen). Doch so einfach sich das Konzept anhört -- der Teufel steckt wie so oft im Detail, und es ist gar nicht so einfach, unsere Quantisierungs-Kochrezepte konsistent umzusetzen. Wir sollten also noch auf einige Überaschungen gefasst sein.


Literatur zu dem Thema:


zurück zum Inhaltsverzeichnis

last modified on 20 March 2009