Mit dem Thema Supersymmetrie wage ich mich auf ein Gebiet, das für mich selbst Neuland ist. Es besteht also das Risko, dass ich etwas Falsches erzähle, aber vielleicht gelingt es mir auch, einen Weg zum Verständnis der Supersymmetrie zu finden, wie er von anderen Nicht-Experten ebenfalls nachvollzogen werden kann.
Die Supersymmetrie gehört (anders als Relativitätstheorie, Quantentheorie oder Standardmodell) keineswegs bereits zu den experimentell abgesicherten physikalischen Theorien, sondern sie gehört zu den aktuellen Forschungsgebieten ganz vorne an der Front der Forschung. Es deutet aber sehr viel darauf hin, dass die Supersymmetrie in modernen physikalischen Theorien jenseits des Standardmodells eine Rolle spielen wird. Mehr dazu siehe Das Unteilbare, Kapitel 9: SUSY und andere Ausblicke.
Natürlich braucht man ein solides physikalisches Vorwissen, wenn man sich einem so modernen Thema zuwenden möchte. Ich werde versuchen, die notwendigen Grundlagen hier und da kurz zu erläutern oder zumindest anzugeben, wo man die Details findet. Mehr würde den Rahmen des Kapitels sprengen.
Über Supersymmetrie wurden ganze Bücher und Skripte geschrieben und es wäre sinnlos, das hier alles zu wiederholen. In diesem Kapitel wollen wir sehen, um was es geht und nicht, wie es im Detail geht. Für die Details werde ich dann auf entsprechende andere Texte verweisen.
Motivation:
Zunächst einmal müssen wir uns an die Grundlagen der Quantentheorie erinnern, (Kapitel 4), insbesondere an Kapitel 4.4 über identische Teilchen. Dort hatten wir gesehen, dass in der Quantentheorie zwei identische Teilchen, die an einem Ereignis beteiligt sind, prinzipiell ununterscheidbar sind. Die entsprechenden Wahrscheinlichkeiten sind deshalb unverändert, wenn wir die Rollen der beiden Teilchen vertauschen. Zu den Wahrscheinlichkeiten gehören komplexe Wahrscheinlichkeitsamplituden, deren Betragsquadrat die Wahrscheinlichkeit ergibt, dass das Ereignis eintritt.
Es gibt nun zwei Möglichkeiten: die Wahrscheinlichkeitsamplitude ist entweder symmetrisch oder antisymmetrisch beim Vertauschen der beiden identischen Teilchen. Den symmetrischen Fall haben wir bei Teilchen mit Spin Null (Bosonen), den antisymmetrischen Fall haben wir bei Teilchen mit Spin 1/2 (Fermionen). Man bezeichnet dieses Ergebnis als Spin-Statistik-Theorem oder für den Fermionen-Fall auch als Pauli-Prinzip. Wir haben hier den Fall vor uns, dass eine einfache Regel keine einfache Begründung hat. Die Begründung wurde zuerst von Wolfgang Pauli ausgearbeitet und greift auf nicht-elementare Methoden der relativistischen Quantenfeldtheorie zurück. Mehr dazu siehe Kapitel 4.4 über identische Teilchen.
In Kapitel 4.5 haben wir dann gesehen, wie quantenmechanische Zustände durch Vektoren in einem unendlichdimensionalen Hilbertraum dargestellt werden können. Die Wahrscheinlichkeitsamplituden sind dann Skalarprodukte zwischen dem Zustand, der vorliegt (der also präpariert wurde), und dem Zustand, der die gemessenen physikalischen Größen darstellt. Die Symmetrie der Wahrscheinlichkeitsamplituden überträgt sich dann auf die Symmetrie der Hilbertraumvektoren, die die quantenmechanischen Zustände darstellen. Man braucht für die Beschreibung identischer Bosonen symmetrische Hilbertraumvektoren, für die Beschreibung identischer Fermionen antisymmetrische Hilbertraumvektoren.
Nehmen wir als Beispiel zwei identische Teilchen, bei denen eines davon den Messwertsatz a und das andere den Messwertsatz b tragen soll (z.B. hat ein Teilchen den Impuls p, das andere den Impuls − p ). Die beiden Teilchen werden zusammen durch einen Hilbertraumvektor dargestellt, den wir mit |a,bñ bezeichnen wollen. Dann gilt:
bei Bosonen:
|a,bñ = |b,añ
bei Fermionen:
|a,bñ = − |b,añ
Bei freien Teilchen kann man diese Zweiteilchenzustände als Tensorprodukt von Einteilchenzuständen schreiben. Dieses Produkt muss man dann für Bosonen symmetrisieren, für Fermionen antisymmetrisieren. Bei Fermionen schreibt man für dieses Produkt auch
|a,bñ = |añ Λ |bñ
mit |añ Λ |bñ = − |bñ Λ |añ . In der nichtrelativistischen Quantenmechanik stellt man Zustände oft durch Wellenfunktionen dar. In diesem Fall ist das Tensorprodukt einfach das Produkt der beiden Funktionen, und die antisymmetrische Wellenfunktion zweier Fermionen wäre gegeben durch
(ψ Λ φ)(x,y) = ψ(x) φ(y) − φ(x) ψ(y)
(evtl. mal einem Normierungsfaktor). Weitere Details dazu siehe Die Grenzen der Berechenbarkeit, Kapitel 5.4.2.
Bei Bosonen müsste man rechts statt dem Minuszeichen ein Pluszeichen schreiben.
Die Supersymmetrie schafft nun eine Verbindung zwischen Fermionen und Bosonen, d.h. sie setzt symmetrische und antisymmetrische Vektoren zueinander in Beziehung.
Die supersymmetrische Erweiterung der Poincaregruppe:
Symmetrien werden in der Physik sehr oft durch Lie-Gruppen dargestellt. Beispiele dafür sind die Drehgruppe, die Galileigruppe oder die Poincaregruppe. Diese Gruppen sind zugleich Mannigfaltigkeiten (mit den Gruppenparametern als Koordinaten, beispielsweise den Drehwinkeln), und sie hängen über die Exponentialdarstellung der Gruppenelemente zugleich mit Algebren zusammen (den Lie-Algebren der Generatoren, siehe Kapitel 3.3 und 3.4). Wenn wir also Symmetrien zu Supersymmetrien erweitern, so werden zugleich die Superstrukturen von Gruppen, Mannigfaltigkeiten und Algebren eine Rolle spielen.
Damit es nicht zu theoretisch wird, wollen wir uns gleich den Fall ansehen, der für die Physik am wichtigsten ist: die Poincaregruppe. Diese Gruppe beschreibt die Transformationen in Raum und Zeit im Rahmen der speziellen Relativitätstheorie, also Translationen, Boosts und Drehungen. Wenn wir einen experimentellen Aufbau räumlich verschieben oder um einen festen Winkel drehen oder den Aufbau in ein schwerelos dahingleitendes Raumschiff setzen oder das Experiment zu einer anderen Zeit ausführen -- die physikalischen Grundgesetze dürfen davon nicht beeinträchtigt werden. Mit anderen Worten: Man betrachtet einen physikalischen Prozess und stellt sich anschließend vor, dass derselbe Prozess beispielsweise in einem dahingleitenden Raumschiff stattfindet (alternativ kann man auch den ursprünglichen Prozess aus einem dahingleitenden Raumschiff betrachten). Man führt also mathematisch eine Poincaretransformation (hier einen Boost) der physikalischen Größen durch. Dann muss auch dieser Prozess mit den transformierten Größen physikalisch möglich sein. In Kapitel 3 sind wir ausführlich darauf eingegangen.
Wie muss man nun physikalische Größen wie beispielsweise Teilchenimpulse bei einer Poincaretransformation umrechnen, also transformieren? Das hängt von der physikalischen Größe ab: gerade das Transformationsverhalten prägt entscheidend den Charakter der physikalischen Größe. In jedem Fall muss sich aber die Gruppenstruktur der Poincaretransformationen auf die Umrechnungsvorschrift übertragen. Führt man zwei Poincaretransformationen nacheinander durch, so kann man diese immer durch eine einzige Poincaretransformationen ersetzen. Entsprechend muss man auch die zweifache Transformation der physikalischen Größen durch diejenige Transformation ersetzen können, die zur Ersatz-Poincaretransformation gehört. Man spricht von einer Darstellung der Poincaregruppe. Mehr dazu siehe Die Grenzen der Berechenbarkeit, Kapitel 5.4.2.
In der Quantentheorie braucht man ebenfalls eine Art Darstellung der Poincaregruppe auf den quantenmechanischen Zustandsvektoren, d.h. eine Umrechnungsvorschrift für die Zustandsvektoren bei Boosts, Drehungen oder Translationen. Da beim Bilden von Wahrscheinlichkeiten das Betragsquadrat der Wahrscheinlichkeitsamplitude gebildet wird, überträgt sich die Gruppenstruktur nicht eins-zu eins, sondern es dürfen bei der Umrechnung der Zustandsvektoren zusätzlich komplexe Zahlen mit Betrag Eins auftreten (sogenannte Phasen). So darf z.B. eine 360-Grad-Drehung zu einem Vorzeichenwechsel des Zustandsvektors führen. Man nennt so etwas eine Strahldarstellung der Poincaregruppe. Man hat heute einen vollständigen Überblick über die möglichen Strahldarstellungen der Poincaregruppe. Das Hauptergebnis ist:
Man muss also beispielsweise nicht die elektrische Ladung eines Teilchens kennen, um zu wissen, wie man den Zustandsvektor bei einer Poincaretransformation umrechnen muss. Auch dazu findet man mehr in Die Grenzen der Berechenbarkeit, Kapitel 5.4.2.
Neben den Raum-Zeit-Symmetrien, wie sie durch die Poincaregruppe ausgedrückt werden, gibt es auch innere Symmetrien, beispielsweise Eichsymmetrien. So tragen beispielsweise die Zustandsvektoren von Quarks neben Masse, Impuls und Spin noch eine starke Farbladung (siehe Das Unteilbare, Kapitel 6.3: Wechselwirkungen und das Eichprinzip). Die Farbladungen kann man nun teilweise verändern, ohne dass sich am Gesamtzustand etwas ändert. Man kann beispielsweise in einem Proton die Farbladungen der drei Quarks untereinander vertauschen. Mehr zu Eichsymmetrien siehe Die Grenzen der Berechenbarkeit, Kapitel 5.4.6 und die Kapitel davor.
Es gibt nun das sogenannte Coleman-Mandula-Theorem aus dem Jahr 1967. Es besagt im Wesentlichen, dass innere Symmetrien und Raum-Zeit-Symmetrien, wie sie die Poincaregruppe ausdrückt, nicht gemischt als Symmetrien der Quantentheorie vorkommen können. Es macht also keinen Sinn, eine Eichtransformation der starken Farbladungen mit einer räumlichen Drehung so zu vermischen, dass die Eichtransformation vom Drehwinkel abhängt. Ein Boost oder eine Drehung ist nicht mit einer inneren Symmetrietransformation untrennbar verknüpft, sondern Poincaretransformationen und innere Symmetrietransformationen müssen unabhängig voneinander ausführbar sein, wenn sie Symmetrien der Quantentheorie sein sollen.
Eine wichtige Voraussetzung des Coleman-Mandula-Theorems ist dabei, dass die Raum-Zeit-Symmetrien und die inneren Symmetrien beide durch Lie-Gruppen dargestellt werden, bei denen die Generatoren Elemente einer Lie-Algebra sind. Das ist sowohl bei der Poincaregruppe als auch bei den Eichsymmetrien der Fall. Schauen wir uns das für die Poincaregruppe genauer an:
Bei einer Poincaretransformation wird aus einem Zeit-Orts-Vektor x = (ct, x) der neue Zeit-Orts-Vektor
x' = Λ x + d
Die Lorentzmatrix Λ lässt sich dabei schreiben als (siehe Kapitel 3.2)
|
(Raum- und Zeitspiegelungen lassen wir erst einmal weg). Das ist genau die Exponentialdarstellung, die das Gruppenelement Λ mit den Generatoren im Exponenten verknüpft. In den Kapiteln 3.3 und 3.4 hatten wir gesehen, wie der Vektor a zu Boosts führt, während die Matrix G Drehungen bewirkt. Der Vektor a = α e1 ergibt mit G = 0 beispielsweise einen Boost in 1-Richtung. Man sagt, er ist der Generator dieses Boosts. Analog kann man bei a = 0 die Matrix G so wählen, dass z.B. eine Drehung um die z-Achse entsteht. Dann ist G der Generator dieser Drehung.
Insgesamt gibt es 3 Boostgeneratoren und drei Drehgeneratoren, aus denen man jede Matrix im Exponenten zusammensetzen kann, indem man die Generatoren mit reellen Parametern (Drehwinkeln und Boostparameter) multipliziert und dann addiert. Bezeichnen wir alle 6 Generatormatrizen mit Ai ( i = 1, 2, ... , 6 ) und die reellen Parameter mit λi , so ist
Λ = exp ( ∑i=16 λi Ai )
Hinzu kommen noch 4 Generatoren für Raum- und Zeittranslationen (Verschiebungen), die wir mit Pμ bezeichnen (μ von 0 bis 3), da sie etwas mit dem Viererimpuls zu tun haben. Die 6 Generatormatrizen Ai und die vier Pμ vertauschen nun im Allgemeinen nicht. Das Matrixprodukt Ai Aj ist nicht unbedingt dasselbe wie Aj Ai . Es ist sogar so, dass diese Nicht-Vertauschbarkeit entscheidend für die Gruppenstruktur der Poincaregruppe ist. Die Kommutatoren
[Ai, Aj] := Ai Aj − Aj Ai
sowie die weiteren Kommutatoren mit Pμ legen sogar die lokale Gruppenstruktur der Poincaregruppe in der Nähe der Einheitsmatrix fest. Grund dafür ist die Baker-Campbell-Hausdorff formula:
für festes i und j (also keine Summen), wobei die Punkte höhere Kommutatorterme mit höheren Potenzen in den Parametern λi und λj andeuten. Bei kleinen Parametern (also z.B. kleinen Drehwinkeln oder kleinen Boostparametern) spielen diese höheren Terme keine Rolle und nur der Kommutator [Ai, Ai] bleibt wichtig. Damit legt der Kommutator der Generatoren bei kleinen Gruppenparametern fest, wie aus der Multiplikation zweier Gruppenelemente (Lorentzmatrizen) ein neues Gruppenelement (eine neue Lorentzmatrix) entsteht. Genau das ist die Verknüpfung zwischen Lie-Algebra (das ist der Vektorraum der Generatormatrizen zusammen mit dem Kommutator als multiplikative Struktur) und Lie-Gruppe (die Lorentztransformationen).
Die Lie-Algebra (also die Kommutatoren der Generatoren) legen allerdings nicht die gesamte Struktur der Lie-Gruppe fest. Es gibt verschiedene Lie-Gruppen, die dieselbe Lie-Algebra haben (d.h. die Kommutatoren zweier Generatoren ergeben dieselben Generator-Linearkombinationen). Man kann aber zeigen, dass in der Quantentheorie diese Gruppen gleichwertig sind, denn es wird nur eine Strahldarstellung gesucht. Insofern spielt in der Quantentheorie weniger die Gruppe eine Rolle, sondern das, was die Lie-Algebra über die Gruppe aussagt. Genauso geht man vor, wenn man sich in der Quantenmechanik mit Drehungen befasst: Man schaut sich die Generatoren der Drehgruppe an, deren Darstellung im Hilbertraum die Drehimpulsoperatoren sind. Diese Operatoren sind dann aber nicht mehr Generatoren der Drehgruppe, sondern Generatoren der Gruppe SU(2). So kommt es, dass eine Drehung um 360 Grad auch einen Faktor (−1) bei einem Zustandsvektor bewirken kann. Wer es konkret wissen möchte, findet eine entsprechende Darstellung für die Lorentzgruppe und damit auch für die Drehgruppe in den ersten 7 Seiten von Vorlesungssammlung 1 von H.R. Petry (ITKP, Universität Bonn, .ps, 525 kB).
Halten wir also fest: In der Quantentheorie ist die Lie-Algebra entscheidend. Man muss also die Generatoren und ihre Kommutatoren kennen.
Zurück zum Coleman-Mandula-Theorem. Übersetzt in die Sprache der Lie-Algebren besagt es, dass die Generatoren der Raum-Zeit-Symmetrie (Poincaregruppe) und der inneren Symmetrien immer brav getrennt bleiben. Nie ergibt der Kommutator zweier Poincare-Generatoren einen Generator einer inneren Symmetrie. Nach der Baker-Campbell-Hausdorff Formel von oben zerfällt daher jede Symmetrietransformation in ein Produkt aus innerer und Raum-Zeit-Transformation. Ein räumlicher Drehwinkel bestimmt nie die Stärke einer inneren Symmetrietransformation.
Das ändert sich jedoch, wenn man die Voraussetzung fallen lässt, dass
die Symmetriegruppen Liegruppen sein müssen.
Statt nur antisymmetrische Kommutatoren zuzulassen, kann man
auch symmetrische Antikommutatoren zulassen.
Das ist naheliegend, denn wenn man Quantenfeldtheorie betreibt,
so braucht man neben den Kommutatoren für Quantenfelder bosonischer Teilchen
auch Antikommutatoren für Quantenfelder fermionischer Teilchen.
Warum sollte man also darauf verzichten, sie auch hier in Betracht zu ziehen?
Anmerkung: Wie die Symmetrie oder Antisymmetrie
von Zustandsvektoren mit Kommutatoren oder Antikommutatoren von Quantenfeldern
zusammenhängt, dazu findet man mehr in Kapitel 2 von
Vorlesungssammlung 1 von H.R. Petry (ITKP, Universität Bonn, .ps, 525 kB).
Im Jahr 1975 bewiesen Haag, Lopuszanski und Sohnius, dass die erlaubte Verwendung von Antikommutatoren dazu führt, dass die Poincaregruppe zu einer supersymmetrischen Super-Poincaregruppe erweitert werden kann und dass diese erweiterte Gruppe eine mögliche Symmetrie der Quantentheorie ist.
Man kann die Super-Poincaregruppe als eine Erweiterung der Raum-Zeit-Symmetrie ansehen. Sie operiert in einem größeren Raum als die Poincaregruppe, geht also über die Veränderung von Raum und Zeit hinaus. Man kann sich den Raum, in dem die Super-Poincaregrupe operiert, so vorstellen, dass zur Raumzeit weitere neuartige Dimensionen hinzukommen. Diese zusätzlichen Dimensionen haben aber eine besondere mathematische Struktur, d.h. sie werden nicht durch reelle Parameter dargestellt, sondern durch sogenannte antikommutierende Grassmann-Variablen. Man spricht auch von Grassmann-Dimensionen. Mehr dazu unten im Anhang.
Die Analyse von Haag, Lopuszanski und Sohnius zeigt, dass die neue Super-Lie-Algebra der Super-Poincaregruppe so aussehen muss (die Pμ schreiben wir hier einfach auch als zusätzliche Ai):
[Ai, Aj] := Ai Aj − Aj Ai ∈ LA
[Ai, Qj] := Ai Qj − Qj Ai ∈ LQ
{Qi, Qj} := Qi Qj + Qj Qi ∈ LA
Man spricht auch von einer graduierten Algebra (siehe auch John Baez: Week 212 ).
Für eine genaue Herleitung der Kommutatoren und Antikommutatoren ist nun eine umfangreiche und präzise Analyse der Poincaregruppe und ihrer Strahldarstellungen erforderlich, insbesondere der Spinordarstellungen. Man kann aber auch statt dessen erst einmal ein einfaches Modell betrachten. Eine gute Darstellung findet man z.B. in Stephen P. Martin: A Supersymmetry Primer, http://arxiv.org/pdf/hep-ph/9709356|. Dort wird in Kapitel 3 die einfachste mögliche supersymmetrische Quantenfeldtheorie betrachtet: das masselose wechselwirkungsfreie Wess-Zumino-Modell. Mit Hilfe dieses Modells kann man die Kommutatoren und Antikommutatoren explizit ableiten. Wer Supersymmetrie etwas detaillierter verstehen möchte, wird sich dieses Modell genauer anschauen müssen -- wir wollen das hier nur ansatzweise tun (wer interessiert ist, findet die Details im obigen A Supersymmetry Primer).
Im Wesentlichen kommt heraus, dass die Q-Generatoren etwas mit Fermionen und ihrem Transformationsverhalten bei Drehungen zu tun haben. In einer Quantentheorie werden die Generatoren durch entsprechende Operatoren im Hilbertraum dargestellt. Zu den Q-Operatoren gibt es dann die adjungierten Operatoren Q+. Schematisch (ohne Spinorindices etc.) sehen die wichtigsten Regeln für die Q-Operatoren dann so aus:
Q |Bosonñ = |Fermionñ
Q |Fermionñ = |Bosonñ
Da Bosonen Spin Null haben, verhalten sie sich bei Drehungen sehr einfach. Fermionen verhalten sich wegen ihres Spins 1/2 bei Drehungen komplizierter. Genau dies ist ja der Unterschied zwischen Fermionen und Bosonen. Damit beide Seiten in der ersten Gleichung gleich sein können, muss dieses Verhalten bei Drehungen durch den Q-Operator reproduziert werden, d.h. Q verhält sich bei Drehungen wie ein Fermion. Dadurch wird deutlich, dass Q hier nicht eine innere Symmetrie erzeugt, die abgekoppelt von den Raum-Zeit-Symmetrien ist. Eine Symmetrie zwischen Fermionen und Bosonen muss mit den Raum-Zeit-Symmetrien verkoppelt sein, denn Fermionen und Bosonen verhalten sich bei Poincaretransformationen (speziell Drehungen) unterschiedlich.
(Genau genommen muss man hier zwei verschiedene Spinorindices dranschreiben, d.h. es handelt sich um den Antikommutator zweier verschiedener Komponenten).
Die Gleichung besagt, dass wenn man aus einem Bosonzustand mit gegebenem Viererimpuls p = (pμ) (klein geschrieben im Gegensatz zum groß geschriebenen Impulsoperator) per Q-Anwendung ein Fermion macht oder umgekehrt, dass dieser neue Zustand dann denselben Viererimpuls p hat:
[Pμ, Q] |Boson, pñ =
=
Pμ Q |Boson, pñ −
Q Pμ |Boson, pñ =
=
Pμ |Fermion, p' ñ −
pμ Q |Boson, pñ =
=
p'μ |Fermion, p' ñ −
pμ |Fermion, p' ñ = 0
⇒ p = p'
Da p2 = m2 ist (Faktoren wie c lassen wir weg), haben also Boson und Fermion dieselbe Masse, wenn sie durch Q ineinander überführt werden können! Sie sind massegleiche Superpartner.
(auch hier fehlen Spinorindices bei Q sowie ein Objekt, das die Spinorindices mit dem Lorentzindex μ verbindet (das leisten die Paulimatrizen) -- wir haben es zur Vereinfachung weggelassen). Diese Gleichung berücksichtigt, dass sich Q und Q+ bei Drehungen wie Fermionen verhalten, die man zu einem Spin-1-Objekt verkoppeln kann. Ein Spin-1-Objekt hat aber etwas mit einem Vektor zu tun, und so einer steht rechts. Umgekehrt folgt aus der Gleichung auch, dass sich Q und Q+ wie Fermionen bei Drehungen verhalten müssen. Und daraus folgt, dass sich der Ausdruck Q |Bosonñ wie ein Fermion bei Drehungen verhält -- genau das rechtfertigt die Gleichung Q |Bosonñ = |Fermionñ erst.
Die Gleichung besagt auch, dass Supersymmetrieoperationen (genauer: Supertranslationen) zu einer Translation in der Raumzeit führen. Siehe auch den Anhang ganz unten.
Um das alles im Detail zu verstehen, muss man sich den Zusammenhang zwischen der Poincaregruppe (so transformiert sich die rechte Seite) und der Überlagerungsgruppe der Poincaregruppe (die Gruppe SL(2,C), so transformieren sich Spinoren bzw. Fermionen) ansehen. Mehr dazu im Anhang unten oder in den ersten 7 Seiten von Vorlesungssammlung 1 von H.R. Petry (ITKP, Universität Bonn, .ps, 525 kB).
Anmerkung: In der Natur haben Superpartner offenbar NICHT dieselbe Masse -- sie müssen deutlich schwerer sein als die bekannten Teilchen, denn sonst hätte man sie bereits gefunden. Man nimmt daher an, dass die Supersymmetrie spontan gebrochen ist, d.h. dass der Vakuumzustand nicht supersymmetrisch ist. Eine detaillierte Erklärung würde hier den Rahmen sprengen. In Kapitel 5 von Vorlesungssammlung 1 von H.R. Petry (ITKP, Universität Bonn, .ps, 525 kB) findet man einige Informationen zur spontanen Symmetriebrechung.
Soweit, so gut! Um tiefer einzutauchen wäre es nun an der Zeit, beispielsweise das Wess-Zumino-Modell in Stephen P. Martin: A Supersymmetry Primer, http://arxiv.org/pdf/hep-ph/9709356| in Kapitel 3 genau nachzuvollziehen. Das würde hier zu weit führen, daher hier nur die wichtigsten Zutaten und Ergebnisse:
Man startet in dem Modell mit einem komplexen skalaren masselosen Feld Φ (einem masselosen Boson) und einem masselosen Weyl-Spinorfeld ψ (einem masselosen linkshändigen Fermion, mehr dazu im Anhang unten). Die Lagrangedichte enthält dann keine Massenterme, sondern nur die kinetischen Terme der beiden Felder, so dass sich als Lösungen der klassischen Feldgleichungen ebene Wellen der beiden Felder ergeben, die sich mit Lichtgeschwindigkeit fortbewegen. In einer Quantentheorie entsprechen diese Wellen masselosen Teilchen (Bosonen und linkshändigen Fermionen) mit festem Impuls. Eine Wechselwirkung zwischen Teilchen gibt es nicht. Einfacher kann man es nicht angehen!
Wer Eichtheorien kennt, der weiß, wie es dort weitergeht: Man definiert eine Transformation der Felder (dort der Eichpotentiale Aμ) und fordert, dass sich das Wirkungsintegral der Lagrangedichte (kurz: die Wirkung) durch diese sogenannten Eichtransformation der Felder nicht ändert. Die Transformation darf dabei sogar lokal sein, also vom Raumzeitpunkt x abhängen. Mehr dazu siehe Die Grenzen der Berechenbarkeit, Kapitel 5.4.6 .
Analog wollen wir hier eine Supersymmetrie einführen, die Bosonen und Fermionen miteinander verbindet. Das machen wir so: Wir verändern das skalare Bosonenfeld Φ, wobei diese Veränderung durch einen Parameter Θ gesteuert wird. Dabei ist Θ analog zu einem Drehwinkel oder einem Boostparameter zu verstehen, allerdings mit einem Unterschied: Es handelt sich um eine sogenannte antikommutierende Superzahl (Grassmann-Variable), d.h. wenn man in einem Produkt zwei solche Superzahlen vertauscht, so gibt es einen Vorzeichenwechsel. Genau genommen sind es sogar zwei Parameter, denn Θ ist ein antikommutierender Weyl-Spinor (siehe auch den Anhang unten). Die Veränderung δΦ hängt linear vom fermionischen Spinorfeld ψ ab. Die Kurzschreibweise lautet:
δΦ = Θ ψ
mit einer geeigneten Summation über die Spinorindices. Die Supersymmetrietransformation mischt also zum Bosonenfeld Φ fermionische Anteile hinzu.
Parallel dazu verändern wir auch das Spinorfeld ψ mit demselben Parameter Θ, wobei wir bosonische Anteile hinzumischen wollen. Wie genau das geschehen muss, das müssen wir am Wirkungsintegral der Lagrangedichte ablesen, denn dieses Integral soll sich durch diese parallele Veränderung der Felder Φ und ψ nicht ändern, d.h. die Zusatzterme, die durch das veränderte Φ entstehen, müssen durch die Zusatzterme, die durch das parallel dazu veränderte ψ entstehen, genau aufgehoben werden.
Es zeigt sich, dass die Veränderung des Fermionfeldes ψ nicht einfach multiplikativ vom skalaren Feld Φ abhängen kann. Statt dessen muss sie von der raum-zeitlichen Änderung dΦ/dxμ abhängen (siehe Stephen P. Martin: A Supersymmetry Primer, http://arxiv.org/pdf/hep-ph/9709356|, Seite 16). Schematisch lautet die Formel:
δψ ∼ (W Φ) Θ*
mit dem Weyl-Operator W (siehe Anhang unten). Das ist genau der Grund dafür, dass Supersymmetrie nicht einfach eine innere Symmetrie unabhängig von Raum und Zeit ist! Wichtig ist dabei, dass Θ nicht vom Raumzeitpunkt x abhängt, d.h. wir betrachten globale Supersymmetrietransformationen. Obwohl also Θ unabhängig von Raum und Zeit ist, ist dennoch eine Supersymmetrietransformation zwangsläufig mit Raum-Zeit-Transformationen vermischt.
Mathematisch kann man sich das dadurch erklären, dass fermionische Spinoren eine Differentialgleichung mit ersten Ableitungen nach Raum und Zeit erfüllen (die Diracgleichung bzw. die Weyl-Gleichung, siehe Anhang unten), die bosonischen Felder dagegen eine Differentialgleichung mit zweiten Ableitungen nach Raum und Zeit (die Klein-Gordon-Gleichung). Vermischt man diese Felder, so ist es naheliegend, dass man dabei Ableitungen der Felder nach Raum und Zeit bilden muss.
Man kann auch anders argumentieren: Die Felder Φ und ψ unterscheiden sich im Wesentlichen durch ihr Transformationsverhalten bei räumlichen Drehungen. Bei einer Supersymmetrie-Transformation, die beide Feldsorten vermischt, muss also das Dreh-Transformationsverhalten der einen Feldsorte in die der anderen Feldsorte umgewandelt werden und umgekehrt. Das sorgt für das Ineinandergreifen von Supersymmetrie-Transformation und Raum-Zeit-Transformation (Poincaretransformation).
Die Symmetrietransformationen (also die entsprechende Super-Lie-Algebra) sind aber im obigen naiven Ansatz nicht geschlossen, bilden also keine wohldefinierte Gruppenstruktur bzw. Algebra. Sie tun dies nur für die Felder, für die die Wirkung minimal ist (also für die Lösungen der Feldgleichungen). Man sagt, die Supersymmetrie-Algebra ist nur auf der Massenschale geschlosen (da die Lösungen der Feldgleichungen einer bestimmten Masse -- nämlich Null -- entsprechen).
Um das Problem zu lösen, muss man die Lagrangedichte etwas erweitern: Man braucht ein zusätzliches komplexes skalares Hilfsfeld F (ein sogenanntes Geistfeld), das einen Term F*F zur Lagrangedichte beisteuert, also einen Potentialterm. Da kein kinetischer Term für F hinzukommt, lautet die Lösung der Feldgleichungen für F einfach F = 0. In einer Quantentheorie würde F nur virtuelle Teilchen besitzen, aber keine reellen Teilchen. F spielt also nur die Rolle eines Buchhalters und kann keine F-Wellen oder freie F-Teilchen erzeugen. Letztlich braucht man F, um den zwei komplexen Komponenten von ψ auch zwei komplexe skalare Felder Φ und F entgegensetzen zu können. Nur dann kann man alles so zusammensetzen, dass es passt.
Mit Hilfe des Geistfeldes F kann man die Symmetrietransformationen etwas abändern, so dass sie nun eine geschlossene Struktur bilden. Das Noether-Theorem ermöglicht es anschließend, aufgrund der Invarianz der Wirkung Erhaltungsgrößen zu konstruieren: Superströme und Superladungen. Die Superladungen sind nun die obigen Generatoren der Supersymmetrie (siehe dazu auch Kapitel 5 von Vorlesungssammlung 1 von H.R. Petry (ITKP, Universität Bonn, .ps, 525 kB). Man kann nun Kommutatoren und Antikommutatoren explizit ausrechnen und so die präzise Version der oben nur angedeuteten Beziehungen zwischen Q, Q+ und Pμ konstruieren. All das findet man im Detail in Kapitel 3 von Stephen P. Martin: A Supersymmetry Primer, http://arxiv.org/pdf/hep-ph/9709356|.
Das Ganze kann man nun immer weiter treiben und beispielsweise versuchen, die Lagrangedichte von Eichtheorien oder gar die Lagrangedichte des Standardmodells supersymmetrisch zu machen. Schließlich braucht man dann noch einen Mechanismus, um die Supersymmetrie spontan zu brechen, so dass Teilchen und ihre Superpartner verschiedene Massen bekommen (so ist es ja in der Natur, falls die schweren Superpartner existieren).
Es stellt sich in den Rechnungen heraus, dass aufgrund der erhalten bleibenden Superladung das leichteste Superteilchen stabil sein muss, also nicht weiter in leichtere normale Teilchen zerfallen kann. Dieses Teilchen ist der wichtigste Kandidat für die dunkle Materie, von der es im Universum sechs mal mehr gibt als von der uns bekannten normalen Materie (siehe dazu beispielsweise Zeitpfad, besonders Kapitel 2 und 8.4). Daneben hat die Supersymmetrie viele weitere Aspekte, die für sie sprechen: Sie lindert ganz wesentlich die Divergenzen in der Quantenfeldtheorie, sie ist die maximal mögliche Erweiterung der Raum-Zeit-Symmetrie in der Quantentheorie (siehe oben), und sie deutet eine Vereinheitlichung aller Naturkräfte bei hohen Energien an, wenn man die Stärken (Kopplungskonstanten) der Natürkräfte zu hohen Energien hin extrapoliert und dabei die Supersymmetrie berücksichtigt.
Die Gleichung {Q, Q+} ∼ Pμ von oben sagt aus, dass Supersymmetrietransformationen zu einer Translation in der Raumzeit führen können. Bisher war der Parameter Θ der Supersymmetrietransformation global, also unabhängig vom Raumzeitpunkt x. Man kann sich nun fragen, was geschieht, wenn man analog zu lokalen Eichtransformationen auch zu lokalen Supersymmetrie-Transformationen übergeht, also zulässt, dass Θ vom Raumzeitpunkt x abhängt. Es ist naheliegend, dass dann lokale Supersymmetrie-Transformationen nicht mehr nur zu einer Translation in der Raumzeit führen, sondern dass der Begriff der Parallelverschiebung aus der allgemeinen Relativitätstheorie ins Spiel kommt. Aus dem Operator Pμ, der Ableitungen nach den Raumzeitkoordinaten entspricht, wird eine Art kovariante Ableitung werden. Lokale Supersymmetrie bringt also die Gravitation mit ins Spiel! Das ist ein deutlicher Hinweis darauf, dass man Supersymmetrie braucht, wenn man die Naturkräfte inklusive Gravitation gemeinsam in einer Theorie erfassen möchte. Als Ergebnis erhält man Supergravitationstheorien. Diese Theorien hat man mittlerweile als Grenzfall der hypothetischen M-Theorie erkannt, die möglicherweise ein Kandidat für die universelle physikalische Theorie aller Naturkräfte sein könnte (siehe Das Unteilbare, Kapitel 9: SUSY und andere Ausblicke).
Bleibt zu hoffen, dass in den nächsten Jahren am Beschleuniger im europäischen CERN-Forschungszentrum die Suche nach den Superteilchen Erfolg hat, so dass die Supersymmetrie zu einer etablierten Theorie im Gebäude der Physik wird. Verdient hätte sie es, und die theoretischen Physiker wären ziemlich ratlos, wenn es anders kommt.
Mathematischer Anhang:
Im Folgenden habe ich einfach in loser Folge einige mathematische Bausteine zusammengetragen, die im Zusammenhang mit Supersymmetrie nützlich sind. Die Details kann man ggf. in den angegebenen Quellen nachlesen.
Überlagerungsgruppe der Poincaregruppe, Spinordarstellungen:
Als Basis braucht man unbedingt die Spinordarstellung der Poincaregruppe bzw. der Lorentzgruppe. Das ist ganz analog zur Darstellung von Drehungen bei Spin-1/2-Wellenfunktionen in der gewöhnlichen Quantenmechanik. Die Details stehen u.a. auf den ersten 7 Seiten von Vorlesungssammlung 1 von H.R. Petry (ITKP, Universität Bonn, .ps, 525 kB) sowie im Skript zur Vorlesung Quantentheorie II von Prof. Schütte im SS 1992 (ITKP, Uni Bonn), Schwerpunkt: die Poincaré-Gruppe, Poincaréskript (.ps, 807kb). Hier das Wichtigste:
In der Quantentheorie ist die Lie-Algebra entscheidend, nicht die Lie-Gruppe. Das liegt daran, dass wir nur eine Strahldarstellung der Gruppe auf den Zuständen brauchen, d.h. komplexe Zuastzfaktoren mit Betrag Eins sind erlaubt. Nun gibt es zu jeder Lie-Algebra L eine eindeutige einfach zusammenhängende Gruppe G0, die L als Lie-Algebra besitzt. Jede andere Gruppe G, die dieselbe Lie-Algebra hat, hat G0 als Überlagerungsgruppe, d.h. in der Quantentheorie braucht man nicht nach einer Darstellung von G auf den Zuständen zu suchen, sondern es reicht eine Darstellung der Überlagerungsgruppe G0, um eine Strahldarstellung von G zu erreichen (Feinheiten wie Zentrale Erweiterung etc. lassen wir hier weg).
Wie sieht das bei der Lorentzgruppe aus? Die Überlagerungsgruppe ist die Gruppe SL(2,C), also die komplexen 2-mal-2-Matrizen mit Determinante Eins. Man kann jeder Matrix g aus SL(2,C) über die folgende Gleichung eindeutig eine Lorentzmatrix Λ zuordnen:
|
Hier sind noch einmal die Paulimatrizen:
Ausgeschrieben lautet die Matrix σ(x) also:
Die Gleichung g σ(x) g+ = σ(Λx) ist die entscheidende Gleichung!. Man rechnet leicht nach, dass die so definierte Matrix Λ die Lorentz-Metrik eines Vektors nicht ändert. Außerdem ist gesichert, dass dem Produkt zweier Gruppenelemente g und g' aus SL(2,C) auch das Produkt der entsprechenden Lorentzmatrizen zugeordnet wird, d.h. die Gruppenstruktur wird berücksichtigt. Allerdings ist die Zuordnung von SL(2,C) zu den Lorentzmatrizen nicht eindeutig: Den beiden SL(2,C)-Matrizen g und − g wird dieselbe Lorentzmatrix zugeordnet! Das ist mit dem Begriff Überlagerungsgruppe gemeint.
Nützlich ist auch die folgende Definition für komplexe 2-mal-2-Matrizen:
A~ := ε AT ε− 1 mit
denn mit dieser Definition gilt
A A~ = A~ A = 1 det A
und daher auch
σ(x) σ(x)~ = σ(x)~ σ(x) = 1 det σ(x) = (x0)2 − x2
sowie
g g~ = g~ g = 1 det g = 1
Quantenzustände versucht man nun durch mehrdimensionale komplexwertige Funktionen in der Raumzeit darzustellen, analog zu Wellenfunktionen. Allerdings haben diese Funktionen selbst zumeist keine direkte physikalische Interpretation. Erst ein Skalarprodukt auf diesen Funktionen ergibt eine solche Interpretation, denn nur so können wir Wahrscheinlichkeitsamplituden aufbauen. Um so ein Skalarprodukt zu definieren, geht man oft von einem erhaltenen Strom aus und integriert die Null-Komponente über den Raum (siehe Seite 10 von Vorlesungssammlung 1 von H.R. Petry (ITKP, Universität Bonn, .ps, 525 kB)).
Man muss festlegen, wie die Funktionen bei Poincaretransformationen umgerechnet werden müssen, d.h. man braucht eine Darstellung der Poincaregruppe auf diesen Funktionen. Eine Spinordarstellung kann man nun auf zweikomponentigen Funktionen ξ(x) folgendermaßen definieren (x ist dabei ein Raum-Zeit-Vierervektor, a ist ein Raum-Zeit-Translationsvektor und ξ(x) ist ein Vektor mit zwei komplexen Zahlen):
|
Rechts wird dabei die 2-mal-2-Matrix g auf den zweikomponentigen komplexen Vektor ξ(Λ− 1 (x − a)) angewendet. Dabei ist Tg,a eine Abbildung, die aus einer Funktion ξ eine neue Funktion Tg,a ξ macht, und zwar definiert über die obige Gleichung. Man sagt, die Poincaregruppe (genauer: ihre Überlagerungsgruppe) wird auf diesen Funktionen durch die Abbildung Tg,a dargestellt. Die neue Funktion an der neuen Stelle x ist also gleich der alten Funktion an der Ursprungsstelle Λ− 1 (x − a) , multipliziert mit der Matrix g. Eine Funktion, die sich so verhält, nennt man auch einen Weyl-Spinor. Zum Vergleich: Eine skalare (bosonische) Funktion Φ ist durch folgendes Transformationsverhalten gekennzeichnet:
(Tg,a Φ)(x) := Φ(Λ− 1 (x − a))
d.h. hier braucht man die Überlagerungsgruppe gar nicht erst, sondern man hat direkt eine Darstellung der Poincaregruppe. Während eine Drehung um 360 Grad bei ξ zu einem Vorzeichenwechsel führt, ist das bei Φ nicht der Fall.
Eine andere Darstellungsmöglichkeit auf zweikomponentigen komplexwertigen Funktionen ist
|
d.h. hier wird mit der transponierten, komplex konjugierten und dann invertierten g-Matrix multipliziert. Man spricht von einem konjugierten Weyl-Spinor η. Wichtig ist dabei die Gleichung
(g+)− 1 σ(x)~ g− 1 = σ(Λx)~
Häufig arbeitet man hier auch mit Indexschreibweisen (ungepunktete und gepunktete Indices, die normale und konjugierte Weyl-Spinoren kennzeichnen). Die Matrix ε dient dabei zum Hoch- und Runterziehen von Indices. Dabei wird ε bzw. ε− 1 = − ε analog zur metrischen Matrix eingesetzt. Begründung:
g~ g = 1
⇒
ε gT ε− 1 g = 1
⇒
gT ε− 1 g = ε− 1
⇒
ξT gT ε− 1 g ξ =
ξT ε− 1 ξ
⇒
(g ξ)T ε− 1 (g ξ) =
ξT ε− 1 ξ
d.h. der Ausdruck ξT ε− 1 ξ ändert sich nicht, wenn man ξ durch g ξ ersetzt. Er ist in diesem Sinn SL(2,C)-invariant, verhält sich also bei Poincaretransformationen wie eine skalare Funktion Φ. Analog kann man zeigen, dass sich der Ausdruck ηT ε η nicht ändert, wenn man η durch (g+)− 1 η ersetzt. Persönlich finde ich diese Matrixschreibweise übersichtlicher als die Indexschreibweise mit hoch- und tiefgestellten sowie gepunkteten und ungepunkteten Indices.
Hier noch eine andere interessante Formel in diesem Zusammenhang: Aus g~ g = 1 folgt direkt g~ = g− 1 oder ausgeschrieben ε gT ε− 1 = g− 1 . Transponieren und komplexes Konjugieren ergibt ε g* ε− 1 = (g+)− 1 oder umgeschrieben ε g* = (g+)− 1 ε . Angewendet auf ξ* erhält man
ε (g ξ)* = (g+)− 1 ε ξ*
Das bedeutet: Wenn sich im Ausdruck ε ξ* der Spinor ξ wie ein Weyl-Spinor verhält, so verhält sich der Gesamtausdruck ε ξ* wie ein konjugierter Weyl-Spinor. In diesem Sinn macht die Matrix ε zusammen mit dem komplexen Konjugieren aus einem Weyl-Spinor einen konjugierten Weyl-Spinor.
Um die Weyl-Spinoren irgendwie mit quantenmechanischen Zuständen identifizieren zu können, braucht man eine sogenannte Ausreduktion der Darstellung. Man braucht Unterräume von Weyl-Spinoren, die sich bei Poincaretransformationen nur innerhalb der Unterräume ineinander umwandeln. Insbesondere möchte man diese Unterräume durch eine Masse kennzeichnen können.
Um das zu erreichen, betrachtet man Differentialgleichungen, deren Lösungsräume gerade solche Unterräume ergeben sollen. Dazu definieren wir den Weyl-Operator W und den konjugierte Weyl-Operator W' wie folgt:
W := ∑μ=03 σμ d/dxμ
W' := − ∑μ=03 σμ~ d/dxμ
mit den den Paulimatrizen σμ (inclusive der Einheitsmatrix σ0) und den Ableitungen d/dx0 = d/dx0 sowie d/dxi = − d/dxi (i = 1 bis 3) nach den Raum-Zeit-Koordinaten. Die Definition von σμ~ mit Hilfe der Matrix ε von oben bewirkt, dass σμ~ = σμ ist, also σ0~ = σ0 und σi~ = − σi (i = 1 bis 3).
Man kann nun folgendes nachrechnen (siehe Schütte: Poincaréskript):
W W' = W' W = − ∑μ=03
d/dxμ d/dxμ =:
− ∂2
(das ist bis auf das Vorzeichen der relativitstische Wellenoperator)
W T 'g,a =
Tg,a W
(Intertwining Relation 1)
W' Tg,a =
T 'g,a W'
(Intertwining Relation 2)
Man sieht, wie die beiden Darstellungen und die beiden Weyl-Operatoren miteinander verflochten sind.
Die Operatoren W und W' benutzen wir nun, um bestimmte Teilräume der Weyl- und konjugierten Weyl-Spinoren herauszugreifen. Wir fordern nämlich die Gleichungen
|
Das macht Sinn, denn wenn η eine Lösung der Weyl-Gleichung ist, dann ist auch die Poincare-transformierte Funktion T 'g,a η eine Lösung der Weyl-Gleichung:
W η(x) = 0 ⇒ (W T 'g,a η)(x) = (Tg,a W η)(x) = 0
Analog gilt: Wenn ξ eine Lösung der konjugierten Weyl-Gleichung ist, dann ist auch die Poincare-transformierte Funktion Tg,a ξ eine Lösung der konjugierten Weyl-Gleichung. Die Darstellungen der Poincaregruppe wirken also innerhalb der Lösungsräume der beiden Gleichungen.
Die Lösungen der beiden Gleichungen erfüllen automatisch die relativistische Wellengleichung:
W η(x) = 0 ⇒ W' W η(x) = − ∂2 η(x) = 0
(analog für ξ). Es handelt sich also um Wellen, die sich wie Lichtwellen mit Lichtgeschwindigkeit fortbewegen. Der in der Quantenmechanik zugeordnete Teilchenimpuls ist also der eines masselosen Teilchens. Die Lösungen der beiden Weyl-Gleichungen beschreiben masselose Teilchen.
Für Spinoren, die zur Beschreibung von Zuständen für Teilchen mit Masse geeignet sind, muss man die obigen Gleichungen abwandeln und geeignet kombinieren, denn man kann nicht einfach beispielsweise die Gleichung (W + m) η(x) = 0 mit Masse m fordern. Eine Poincare-transformierte Lösung wäre keine Lösung der Gleichung mehr. Die Ursache dafür liegt darin, dass wegen der obigen Intertwining Relationen sich die Größe W η bei Poincare-Transformationen nicht wie ein konjugierter Weyl-Spinor (also wie η) transformiert, sondern wie ein normaler Weyl-Spinor (also wie ξ):
aus η wird T 'g,a η
aus W η wird W T 'g,a η = Tg,a W η
d.h. in der Gleichung (W + m) η(x) = 0 transformiert sich W η anders als m η . Analog ist es für ξ und W' ξ .
Damit ist aber auch schon klar, was man machen muss: statt (W + m) η(x) = 0 und (W' + m) ξ(x) = 0 muss man die Gleichungen
|
verwenden. Dies ist ein Gleichungssystem für die Funktionen ξ und η. Es führt dazu, dass die beiden Funktionen miteinander verkoppelt werden, so dass sie nicht mehr unabhängig voneinander sind. So kann man η durch ξ ausdrücken und umgekehrt. Meist fasst man die beiden 2-komponentigen Gleichungen zu einer vierkomponentigen Gleichung zusammen, die Diracgleichung genannt wird.
Wendet man W auf die erste und W' auf die zweite Gleichung an, so erhält man
W' W η(x) + m W' ξ(x) = 0
W W' ξ(x) + m W η(x) = 0
Im Massenterm (zweiten Term) können wir nun jeweils die beiden Teilgleichungen der Diracgleichung verwenden und so beispielsweise W' ξ durch − m η ersetzen. Außerdem verwenden wir von oben W W' = W' W = − ∂2 und erhalten:
− ∂2 η(x) − m2 η(x) = 0
− ∂2 ξ(x) − m2 ξ(x) = 0
Die beiden Spinoren erfüllen also die Klein-Gordon-Gleichung, d.h. die Lösungen lassen sich aus ebenen Wellen zusammensetzen, die in der Quantentheorie Teilchen mit bestimmtem Viererimpuls und Masse m beschreiben.
Grassmann-Variablen:
Bei der supersymmetrischen Erweiterung der Poincaregruppe werden die 4 Raumzeit-Dimensionen um 4 Grassmann-Dimensionen erweitert. Eine supersymmetrische Transformation verändert im Superfeld-Formalismus (siehe unten) nicht nur die Raumzeitkoordinaten, sondern auch die Grassmann-Koordinaten. Über Grassmann-Zahlen erfährt man oft nur, dass es sich bei ihnen um geheimnisvolle Größen handelt, die beim Vertauschen einen Vorzeichenwechsel hervorrufen. Versuchen wir, genauer herauszufinden, was dahinter steckt.
Einen Hinweis findet man in Wikipedia: Grassmann number. Grassmann-Zahlen bilden eine Algebra, die von Generatoren erzeugt wird und die man durch Matrizen darstellen kann. Ein Beispiel ist eine Grassmann-Algebra, die von 2 Generatoren erzeugt wird. Nennen wir diese Generatoren Θ1 und Θ2. Die Eigenschaft, Generator zu sein, drückt sich darin aus, dass Θ1 und Θ2 linear unabhängig sind, d.h. es gibt keine reelle Zahl x, so dass Θ1 = x Θ2 wäre (mit komplexen Zahlen x befassen wir uns weiter unten; Achtung: x hat hier noch nichts mit den Vierervektoren der Raumzeit zu tun). Auf den Grassmann-Zahlen ist nun eine Multiplikation definiert, so dass Θ Θ' = − Θ' Θ ist.
Das gilt natürlich auch für die beiden Generatoren, d.h.
ΘiΘj = − ΘjΘi
und somit
ΘiΘi = 0
Daraus folgt, dass man jede Grassmann-Zahl Θ in dieser Algebra schreiben kann als
Θ = x1 Θ1 + x2 Θ2 + x3 Θ1 Θ2
mit reellen Koeffinzienten xi (diese xi haben hier nichts mit den Vierervektoren der Raumzeit zu tun). Die beiden Generatoren und ihr Produkt bilden also eine Basis der Algebra.
Probieren wir aus, ob diese Grassmann-Zahlen tatsächlich antikommutieren. Dabei verwenden wir, dass wegen der Antisymmetrie jeder Term Null ist, der einen Generator doppelt enthält:
Θ Θ' =
=
(x1 Θ1 +
x2 Θ2 +
x3 Θ1 Θ2) *
(x1' Θ1 +
x2' Θ2 +
x3' Θ1 Θ2)
=
=
x1 Θ1 x2' Θ2 +
x2 Θ2 x1' Θ1 =
=
(x1 x2' − x2 x1') Θ1 Θ2
Das ist offensichtlich antisymmetrisch beim Vertauschen von Θ und Θ'.
Man kann leicht eine Matrixdarstellung für die Grassmann-Zahlen mit zwei Generatoren angeben (siehe Wikipedia: Grassmann number):
|
Auch bei mehr Generatoren geht das. Im Grunde kennen wir eine solche Konstruktion schon aus anderen Bereichen. In unserem Beispiel startet man mit einem zweidimensionalen Vektorraum mit zwei Basisvektoren e1 und e2 , die Θ1 und Θ2 entsprechen. Über das antisymmetrische Tensorprodukt definiert man e1 Λ e2 , was gleichbedeutend mit Θ1 Θ2 ist. Mehr dazu siehe Kapitel 2 von Vorlesungssammlung 1 von H.R. Petry (ITKP, Universität Bonn, .ps, 525 kB).
Wie kommt man auf die obigen Matrizen? Nun, man muss Θi als Heranmultiplizieren von links ansehen. Θi macht also aus einer Zahl x die Zahl Θi x sowie aus der Grassmann-Zahl Θj die Grassmann-Zahl Θi Θj. Die Matrizen oben sind nun die Matrixdarstellung dieses Heranmultiplizierens in der Basis 1, Θ1, Θ2, Θ1 Θ2 . Die i-te Spalte gibt dabei in dieser Basis an, was durch das Heranmultiplizieren von links aus dem i-ten Basisvektor wird. So macht Θ1 durch Heranmultiplizieren aus dem ersten Basisvektor (der 1) den zweiten Basisvektor (nämlich Θ1 ), und aus dem dritten Basisvektor (also Θ2 ) den vierten Basisvektor (nämlich Θ1 Θ2 ). Genau das sagt die Matrixdarstellung aus!
Analog ist es mit der Matrix von Θ2 . Aus dem ersten Basisvektor (der 1) wird der dritte Basisvektor Θ2, und aus dem zweiten Basisvektor Θ1 wird Θ2 Θ1 = − Θ1 Θ2 .
Wer es kennt, der sieht vielleicht die Parallele zu den Fermion-Erzeugungsoperatoren in der Quantenfeldtheorie (siehe ebenfalls Kapitel 2 von Vorlesungssammlung 1 von H.R. Petry (ITKP, Universität Bonn, .ps, 525 kB)). So definiert man
a+(v) w := v Λ w
d.h. a+(v) bewirkt ein antisymmetrisches Heranmultiplizieren mit v von links. Wenn man nun ein quantenmechanisches System mit zwei möglichen Einteilchenzuständen e1 und e2 hat, so sind die möglichen fermionischen Zustände für 0, 1 oder 2 Fermionen gegeben durch die 4 Basisvektoren 1 (das Vakuum), e1, e2 und e1 Λ e2 , und man hat die zwei Erzeuger a+(e1) und a+(e2) . Die obigen Matrizen sind dann genau die Matrixdarstellungen für die Erzeuger in dieser Basis aus möglichen fermionischen Zuständen.
Damit ist klar, wie man bei mehr als 2 Generatoren vorgehen muss. Man kann immer eine entsprechende Matrixdarstellung für die Grassmann-Zahlen finden.
Anmerkung:
Auch bei der Matrixdarstellung komplexer Zahlen kann man analog vorgehen.
Die Basisvektoren sind dabei 1 und i, und man kann eine Matrixdarstellung
in dieser Basis für 1 und i finden, indem man sie zugleich als Multiplikationsoperatoren sieht.
So lässt die 1 die beiden Basisvektoren unverändert, während i aus dem ersten Basisvektor (der 1)
den zweiten Basisvektor (also i) macht, und aus dem zweiten Basisvektor (dem i)
dann minus den ersten Basisvektor (also − 1) macht.
Die Matrixdarstellung für das Heranmultiplizieren einer komplexen Zahl x + iy in der Basis aus 1 und i
sieht also so aus:
|
Die Multiplikationswirkung einer komplexen Zahl besteht also in einer Drehstreckung. Mehr dazu siehe Die Grenzen der Berechenbarkeit, Kapitel 5.2.
Die Grassmannzahlen in unserem obigen Beispiel kann man analog als lineare Abbildungen im vierdimensionalen Raum auffassen. Man erkennt, dass die beiden Generatoren Projektionen vornehmen. So projeziert Θ1 die 1- und die 3-Komponente heraus (wirft also die 2- und die 4-Komponente weg) und macht daraus die 2- und die 4-Komponente des neuen Vektors (wenn man von einem reellen Vektorraum ausgeht). Das ist allerdings nicht mehr so anschaulich wie eine Drehstreckung.
Man versucht nun, möglichst viele Teile der Mathematik auf Grassmann-Zahlen zu übertragen, so wie man das auch beim Übergang von reellen zu komplexen Zahlen gemacht hat. So möchte man gerne Funktionen von Grassmann-Zahlen untersuchen. Dazu muss man aber erst einmal festlegen, was man darunter verstehen will.
In unserem obigen Beispiel mit 2 Generatoren hängen die Grassmann-Zahlen von 3 reellen Parametern xi ab. In diesem Sinne wäre eine Funktion der Grassmann-Zahlen einfach eine Funktion der drei Parameter. Das ist aber nicht unser Ziel, denn dadurch hätten wir nichts gewonnen. Insbesondere würde an keiner Stelle die besondere Multiplikationsstruktur der Grassmann-Zahlen eingehen.
Auch Funktionen einer komplexen Zahl z (mit Werten in den komplexen Zahlen) kann man als Funktionen zweier reeller Zahlen auffassen. Auch hier hätte man aber so nichts gewonnen und die besondere Multiplikationsstruktur der komplexen Zahlen wäre nutzlos. Daher macht man in der Funktionentheorie die Einschränkung, dass man holomorphe Funktionen betrachten möchte, also Funktionen, die sich in der Nähe eines Punktes z schreiben lassen als f(z+h) = f(z) + h*f '(z) + ... . Für kleine h ist dann die Abweichung f(z+h) − f(z) durch die Drehstreckung von h mit f '(z) gegeben (siehe Die Grenzen der Berechenbarkeit, Kapitel 5.2). Man bezeichnet die Drehstreckung f '(z) als Ableitung von f an der Stelle z und schreibt auch df(z)/dz . Im Term h*f '(z) geht dabei die multiplikative Struktur der komplexen Zahlen entscheidend ein.
Analog kann man es für Grassmann-Zahlen versuchen. Wir wollen also nur Funktionen betrachten, deren Funktionswerte Grassmann-Zahlen sind und die sich für kleine Grassmann-Zahlen Φ schreiben lassen als
f(Θ + Φ) = f(Θ) + Φ * f '(Θ) + ...
(man könnte auch Λ statt * schreiben, d.h. die antisymmetrische Grassmann-Multiplikation ist gemeint -- d.h. die Reihenfolge ist in der obigen Definition von f '(Θ) wichtig und entspricht einer bestimmten Vorzeichenkonvention). Dabei müsste man noch genauer festlegen, was denn eine kleine Grassmannzahl sein soll. Wir wollen hier nicht auf dabei mögliche Schwierigkeiten eingehen, sondern uns einfach vorstellen, dass in unserem Beispiel die drei Parameter xi klein werden. Die Grassmannzahl f '(Θ) schreiben wir auch als df(Θ)/dΘ und bezeichnen sie als Ableitung.
Schauen wir uns den Spezialfall f(Θ) = Θ * ρ an (dabei ist ρ irgendeine konstante Grassmann-Zahl). Dann ist
f(Θ + Φ) = Θ * ρ + Φ * ρ = f(Θ) + Φ * f '(Θ)
⇒ f '(Θ) = d/dΘ (Θ * ρ) = ρ
Das ist die gewohnte Ableitungsregel, wobei wir aber beachten müssen, dass die Grassmann-Zahl, nach der abgeleitet wird, direkt nach dem Ableitungsoperator d/dΘ kommen muss (ansonsten muss man durchtauschen mit den entsprechenden Vorzeichenwechseln).
In der Funktionentheorie holomorpher Funktionen stellt man fest, dass man immer lokal eine Reihenentwicklung für diese Funktionen angeben kann. Über diese Reihenentwicklung kann man aus einer reellen Funktion auch leicht (zumindest lokal) eine komplexe Funktion machen. Man spricht von analytischer Fortsetzung.
Wie das bei den Funktionen in den Grassmann-Zahlen ist, weiß ich nicht genau. Wie aber soll man eine solche Funktion anders definieren als über eine Reihenentwicklung?! Nur so kann die multiplikative Struktur der Grassmannzahlen auch eingehen. Genauso findet man es auch in den Büchern: Funktionen in den Grassmann-Zahlen sind Reihenentwicklungen, wobei die Reihe nach endlich vielen Termen abbricht, denn höhere Potenzen der Grassmannvariablen sind wegen der Antisymmetrie gleich Null. Ein Beispiel: Eine Funktion einer einzigen Grassmann-Variable Θ ist linear, denn Θ2 = 0 wegen der Antisymmetrie:
f(Θ) = a + b Θ
Eine Funktion von zwei Grassmannvariablen Θ und Θ' kann dagegen auch quadratische Terme enthalten:
f(Θ, Θ') = a + b Θ + b' Θ' + c Θ Θ'
Der letzte (quadratische) Term ist allerdings nur dann ungleich Null, wenn die betrachtete Grassmann-Algebra auch zwei Generatoren Θ1 und Θ2 besitzt. Gäbe es nur einen Generator, so wäre Θ' = x Θ mit einem reellen x , und damit Θ Θ' = x Θ Θ = 0 . Anders ausgedrückt: Eine Funktion von zwei Grassmann-Variablen macht nur dann Sinn, wenn es auch zwei (oder mehr) Generatoren in der entsprechenden Grassmann-Algebra gibt. Gäbe es nur einen Generator, so wäre f(Θ, Θ')   nur eine Funktion einer Grassmann-Variable sowie einer reellen Zahl x. Man kann sich also als Regel merken: Die Zahl der benötigten Generatoren in der Grassmann-Algebra entspricht (mindestens) der Anzahl der Argumente in den betrachteten Funktionen.
Bisher haben wir immer von reellen Zahlen xi gesprochen. Analog zu Vektorräumen können wir aber auch komplexe Zahlen zulassen. Man spricht dann von einer Grassmann-Algebra über den komplexen Zahlen (siehe dazu auch C.C. Noack: Grassmann-Algebren, Quantenelektrodynamik, Universität Bremen). Es ist sinnvoll, in diesem Fall durch Linearkombination zu neuen Generatoren überzugehen. In unserem Beispiel mit den 2 Generatoren definieren wir:
Θa := ( Θ1 + i Θ2 ) / √2
Θb := ( Θ1 − i Θ2 ) / √2
Analog verfährt man bei mehr Generatoren (falls eine gerade Anzahl vorliegt). Man kann nun das komplexe Konjugieren von Grassmann-Zahlen einführen. Wir bezeichnen es mit einem hochgestellten * (analog zum komplexen Konjugieren bei komplexen Zahlen). Es soll die folgenden Eigenschaften haben:
(Θ*)* = Θ
(Θ Θ' )* = Θ' * Θ*
(x Θ)* = x* Θ*
(dabei sind Θ und Θ' Grassmann-Zahlen, x ist eine komplexe Zahl und x* die dazu komplex konjugierte Zahl (d.h. i wird gegen − i ausgetauscht). Außerdem soll für die ursprünglichen Generatoren gelten:
Θ1* = Θ1
Θ2* = Θ2
Man spricht auch von reellen Generatoren. Für die neuen Generatoren gilt: Θb = Θa* . Man spricht in diesem Fall von einer 1-dimensionalen komplexen Grassmann-Algebra, da man Θa und Θa* nicht getrennt zählt. Es sind aber dennoch wie zuvor zwei linear unabhängige Generatoren vorhanden, nämlich Θa und Θa* , und man kann jederzeit zu den alten Generatoren Θ1 und Θ2 zurückkehren.
Es ist interessant, sich die Matrixdarstellung der neuen Generatoren (in der alten Basis) anzusehen:
|
|
Die Matrizen gehen also hier durch komplexes Konjugieren der Matrixelemente ineinander über.
Analog zu den ursprünglichen reellen Generatoren antivertauschen auch
Θa und Θa* :
Θa* Θa = ( Θ1 − i Θ2 ) ( Θ1 + i Θ2 ) / 2 = i Θ1 Θ2 = − Θa Θa*
Die Matrixdarstellung für das Produkt der neuen Generatoren lautet also:
|
Das komplexe Konjugieren der Matrixelemente liefert hier nicht das komplex konjugierte der linken Seite, denn die ändert sich durch komplexes Konjugieren nicht. Die Matrixdarstellung ist also ganz interessant, wenn man sich fragt, was Grassmann-Zahlen eigentlich sind, aber für konkrete Rechnungen doch eher ungeeignet.
Superfelder und die supersymmetrische Erweiterung der Raumzeit:
Um eine Quantenfeldtheorie zu konstruieren, geht man meist von einer klassischen Feldtheorie aus, also von einem Wirkungsintegral einer Lagrangefunktion. Dafür braucht man klassische Felder, die Funktionen in der Raumzeit sind, beispielsweise ein skalares Bosonfeld Φ(x) oder ein Weyl-Spinorfeld ψ(x) oder η(x).
Man kann nun alleine mit diesen Feldern in der Raumzeit arbeiten, um die Aktion der Supersymmetrie darauf darzustellen. So kann man Supersymmetrie-Transformationen definieren, die aus einem skalaren Bosonfeld ein fermionisches Spinorfeld machen und umgekehrt, wobei diese Transformation durch die obigen Grassmann-Zahlen parametrisiert werden. Genau so sind wir weiter oben beim Wess-Zumino-Modell vorgegangen:
δΦ = Θ ψ
Diese Vorgehensweise ist jedoch recht mühsam, da die Supersymmetrie in dem Formalismus nicht eingebaut ist (so wie die elektrischen und magnetischen Felder nicht an den Umgang mit Poincaretransformationen angepasst sind, im Gegensatz zum Feldstärketensor). Man kann jedoch einen Formalismus aufbauen, der an die Supersymmetrie angepasst ist. Er arbeitet mit Superfeldern auf einer Super-Raumzeit.
Betrachten wir dazu noch einmal Darstellungen der Poincaretransformationen auf Feldern, beispielsweise
(Tg,a ξ)(x) := g ξ(Λ− 1 (x − a))
Die Poincare-Transformation des Raumzeit-Argumentes des Feldes induziert dabei (zusammen mit der Multiplikation mit g) eine Darstellung auf dem Feld. Anschaulich muss das so sein, damit z.B. aus einem Wellenpaket nach einer Drehung auch ein räumlich gedrehtes Wellenpaket wird.
Nun kann man versuchen, analog auch Supersymmetrie-Transformationen darzustellen. Dazu definiert man Superfelder auf einer erweiterten Super-Raumzeit. Zu den 4 Raumzeitkoordinaten kommen 4 komplexe Grassmannvariablen hinzu (d.h. wir brauchen eine komplexe Grassmann-Algebra mit 4 Generatoren). Es ist nützlich, diese 4 Grassmann-Variablen in Form eines Weyl-Spinors und eines konjugierten Weyl-Spinors darzustellen.
Der Raum aus 4 Raumzeitkoordinaten und 4 komplexen Grassmannvariablen ist keine übliche Mannigfaltigkeit mehr, sondern ein komplexeres Gebilde (eine Supermannigfaltigkeit). Insofern darf man sich nicht vorstellen, dass die Raumzeit einfach um weitere Dimensionen erweitert wird. Statt dessen wird sie durch ein komplexeres mathematisches Objekt ersetzt, das einerseits die Raumzeit umfasst, das aber aufgrund der Grassmann-Zahlen auch andere algebraische Strukturen enthält. Mehr dazu siehe beispielsweise Jose Miguel Figueroa-o'Farrill: Busstepp Lectures on Supersymmetry, arXiv:hep-th/0109172 v1 21 Sep 2001, ab Seite 31.
Die Superfelder sind nun Funktionen auf dieser Super-Raumzeit, hängen also von den 4 Raumzeitkoordinaten und den 4 Grassmann-Variablen ab. Damit kann man nun die supersymmetrische Erweiterung der Poincare-Transformationen auf diesen Superfeldern definieren, ganz analog zu den Darstellungen der Poincaregruppe vorher. Schematisch könnte eine solche Supersymmetrietransformation S eines Superfeldes Ψ beispielsweise so aussehen (das Beispiel zeigt schematisch eine Supertranslation):
(S Ψ)(x, Θ) ∼ Ψ( x + Θ'Θ , Θ + Θ' )
Die Verwendung von solchen Superfeldern auf der Superraumzeit hat den Vorteil, dass man in den entsprechenden Formeln sofort sieht, ob ein Ausdruck supersymmetrisch ist oder nicht. Analog hatte man ja auch bei den Poincaretransformationen mit kovarianten und kontravarianten Raum-Zeit-Indices eine Formulierung gewählt, bei der man die Transformationseigenschaften sofort ablesen kann. Einstein hatte es da am Anfang noch schwerer, als er noch explizit mit elektrischen und magnetischen Feldern hantierte. Erst die Formulierung mit dem Feldstärketensor ermöglichte es später, effektiv mit relativistischen Transformationen in der Elektrodynamik umzugehen.
So ist es auch in der Supersymmetrie: Man muss sie nicht mit Superfeldern auf einem Superraum formulieren, aber es erleichter die Sache ungemein. Die zusätzlichen Grassmann-Dimensionen des Superraums sind dabei aber wohl eher formaler Natur und haben nach heutigem Wissen wohl keine direkte physikalische Bedeutung.
last modified on 10 October 2006