Kapitel 5
Die allgemeine Relativitätstheorie

1   Gekrümmte Räume (über die Grundlagen der Differentialgeometrie)

11   Höhere Differentialformen und der Integralsatz von Stokes

Höhere Differentialformen und der Integralsatz von Stokes werden in praktisch jedem Mathematikbuch der mehrdimensionalen Analysis in einem umfangreichen Kapitel ausführlich behandelt. Die Darstellungsweise ist jedoch zumeist recht abstrakt und formal, und oft versteht man den eigentlichen Hintergrund nicht wirklich. Der elegante Formalismus erscheint ein bischen wie Zauberei.

Das Thema ist andererseits für Mathematik und Physik sehr wichtig. Ich möchte daher in diesem Kapitel versuchen, den Schwerpunkt auf die Hintergründe und die anschauliche Interpretation zu legen. Längere Rechnungen und Beweise werde ich weglassen (diese findet man dann in den Standard-Lehrbüchern) und an ihre Stelle kurze Beweisskizzen und anschauliche Begründungen setzen. An manchen Stellen kann deshalb die Präzision etwas leiden -- in der umfangreichen mathematischen Literatur kann der Leser die präzise Version dann ggf. nachschlagen.



Co-Tangentialvektoren (1-Formen):

Beginnen wir mit Objekten, die wir bereits aus Kapitel 5.1.5: Co-Tangentialräume und Differentialformen kennen: den Co-Tangentialvektoren, die wir auch als 1-Formen bezeichnet hatten. Eine kurze Wiederholung:

Der Co-Tangentialraum im Punkt p (also T*(p) ) ist der Dualraum zum Tangentialraum T(p), d.h. T*(p) ist der Vektorraum aller Linearformen auf dem Tangentialraum T(p). Das bedeutet: Jedes Element ω(p) des Co-Tangentialraums ist eine lineare Abbildung auf dem Tangentialraum, die jedem Tangentialvektor u(p) die reelle Zahl   ω(p) u(p)   zuordnet. Man kann jedes Element ω des Co-Tangentialraums nach einer Basis dxν|p entwickeln, d.h.

  ω(p)   =   ∑ν   ων(p) dxν|p  

wobei die Basis dxν|p durch die Eigenschaft

  dxν|p d/dxμ|p   =   δνμ  

festgelegt ist. Die Basis wird also wie beim Tangentialraum auch durch eine Koordinatenfunktion f in einer Umgebung von p auf der Mannigfaltigkeit festgelegt. Schreibt man   u(p)   =   ∑μ   uμ(p) d/dxμ|p  , so folgt

  ω(p) u(p)   =   ∑μ   ωμ(p) uμ(p)


Der d-Operator macht aus Null-Formen (Funktionen) 1-Formen:

Man kann jeden Co-Tangentialvektor ω(p) mit einer skalaren Funktion Φ in Verbindung bringen, die in einer Umgebung von p definiert sein muss. Wir schreiben   ω(p)   :=   dΦ(p)  . Das Änderungsverhalten von Φ im Punkt p legt dabei den Co-Tangentialvektor ω(p) fest, d.h.   dΦ(p) angewendet auf einen Tangentialvektor u(p) ergibt die Veränderungsrate von Φ in u(p)-Richtung:

  dΦ(p) u(p)   :=   u(p) Φ   =   dΦ(γ(t)) / dt |t = 0

Dabei ist u(p) der zur Kurve γ gehörende Tangentialvektor mit   p = γ(0)  . Für die Entwicklung nach den Basisvektoren   dxν|p   bedeutet das:

  dΦ(p)   =   ∑ν   dΦ(f -1(x)) / dxν   dxν|p       mit
  dxν|p u(p)   =   df ν(γ(t)) / dt |t = 0   =   uν(p)

( f   ist dabei die Koordinatenfunktion oder Karte auf der Mannigfaltigkeit) oder in Kurzschreibweise

  ω   =   dΦ   =   ∑ν dΦ/dxν   dxν       mit
  dxν u   =   dγν(t) / dt   =   uν

Diese Kurzschreibweise gilt zunächst für einen Punkt p, also lokal. Es kann sein, dass man an verschiedenen Punkten auch verschiedene skalare Funktionen Φ mit entsprechendem Änderungsverhalten in diesen Punkten braucht. Dabei ist zunächst unklar, ob man diese Funktionen zu einer einzigen Funktion zusammensetzen kann. Wir werden uns etwas weiter unten noch genauer ansehen, wann das möglich ist, so dass   ω = dΦ   für alle Punkte p eines Teilgebietes der Mannigfaltigkeit mit einer dort überall definierten skalaren Funktion Φ gilt.

In der Beziehung   ω(p)   =   dΦ(p)   können wir   d   als einen Ableitungsoperator verstehen, denn das Änderungsverhalten von Φ im Punkt legt ω(p) fest. Man spricht bei der d-Ableitung auch von der äußeren Ableitung. Wenn wir skalare Funktionen als Null-Formen bezeichnen, so macht   d   demnach aus einer Null-Form eine Eins-Form. Weiter unten werden wir diese Vorgehensweise auch auf andere Differentialformen erweitern.

Noch eine Bemerkung: Man kann sogar in dem Ausdruck   dxν|p   das   d   vor dem   x   als den d-Ableitungsoperator verstehen, wenn wir unter xν die Koordinatenfunktion   xν = f ν(p)   verstehen, denn es ist
  df ν(p) u(p)   =   u(p) f ν   =   df ν(γ(t)) / dt |t = 0   =   uν(p)   =   dxν|p u(p)
Man sieht, wie die Schreibweisen elegant zusammenpassen.


Kurvenintegrale über 1-Formen:

Um   ω(p)   =   ∑ν   ων(p) dxν|p   auswerten zu können, benötigt man im Punkt p eine Richtung, d.h. eine Kurve γ und den dadurch gegebenen Tangentialvektor u(p). Das Ergebnis ist eine reelle Zahl. Schreibt man   ω(p) = dΦ(p)  , so ist diese Zahl gerade die Richtungsableitung von Φ in Kurvenrichtung. Man könnte nun auf die Idee kommen, die durch die Kurve γ und die 1-Form ω definierten reellen Zahlen entlang der Kurve γ aufzusummieren (genauer: aufzuintegrieren). Dabei setzen wir natürlich voraus, dass ω entlang der Kurve überall definiert ist. Uns interessiert also das Integral

  I γ(T)   :=   ∫ab [ω(γ(t)) u(γ(t))] dt  

wobei natürlich   u(γ(t))   der Tangentialvektor der Kurve γ im Punkt γ(t) ist. Weiterhin soll   T   das Intervall von a bis b sein, also der Parameterbereich, über den integriert wird. Und schließlich wollen wir generell die Kurve in positiver Parameterrichtung durchlaufen, d.h. es soll   a ≤ b   sein. Damit ist die Schreibweise eindeutig definiert.

Was geschieht nun mit diesem Integral, wenn wir die Parametrisierung der Kurve γ verändern? Die Kurvenpunkte auf der Mannigfaltigkeit sind dabei dieselben. Es wird über dasselbe Kurvenstück integriert, aber die Kurve wird mit einer anderen Geschwindigkeit durchlaufen. Eine Einschränkung wollen wir noch machen: die Kurve soll immer noch in derselben Richtung durchlaufen werden, d.h. die Umparametrisierung soll die Orientierung des Kurvenstücks nicht ändern. Wir werden bald sehen, warum das wichtig ist.

Umparametrisierung bedeutet, dass wir vom Kurvenparameter t zu einem neuen Kurvenparameter t' übergehen. Wir stellen uns vor, dass t von t' abhängt, also   t = φ(t')   mit einer (umkehrbaren) skalaren Funktion φ. Die Kurve wird bzgl. der neuen Parametrisierung durch eine neue Funktion ρ(t') beschrieben, wobei   γ(t) = γ(φ(t')) =: ρ(t')   sein soll, d.h.   γ ο φ = ρ  . Da wir die Kurve in derselben Richtung (nur mit anderer Geschwindigkeit) durchlaufen wollen, muss φ eine monoton wachsende Funktion sein, d.h. ein wachsender Parameter t' führt zu einem wachsenden Parameter t. Für die Parametermengen T und T' gilt:   T = φ(T')  . Dabei ist   γ(t) = ρ(t')   gleich der Menge der Kurvenpunkte, die durchlaufen werden.

Analog analog zu oben können wir uns nun das folgende Integral ansehen, das sich auf die neue Kurvenfunktion ρ bezieht:

  I ρ(T')   :=   ∫a'b' [ω(ρ(t')) v(ρ(t'))] dt'  

Dabei ist   v(ρ(t'))   Tangentialvektor zur Kurve ρ im Punkt ρ(t'), und   a = φ(a')   sowie   b = φ(b')  , so dass die Integration im selben Kurvenpunkt startet und endet wie beim Integral   I γ(T)   oben. Da φ monoton wachsend ist, gilt   a' ≤ b'  , so wie wir das für unsere Schreibweise auch verlangt haben.

Es stellt sich nun die Frage, wie die beiden Integrale I γ(T) und I ρ(T') miteinander zusammenhängen.

Um das herauszufinden, wollen wir I ρ(T') etwas umschreiben, indem wir   γ(φ(t')) = ρ(t')   einsetzen:

  I ρ(T')   =   ∫a'b' [ω(γ(φ(t'))) v(γ(φ(t')))] dt'  

Versuchen wir, in diesem Integral den Tangentialvektor v durch den Tangentialvektor u auszudrücken:

  v(ρ(t')) Φ   =  
  =   dΦ(ρ(t'))/dt'   =  
  =   dΦ(γ(φ(t')))/dt'   =  
  =   dΦ(γ(t))/dt   dφ(t')/dt'   =  
  =   [u(γ(t)) Φ]   dφ(t')/dt'   =  
  =   [u(γ(φ(t'))) Φ]   dφ(t')/dt'   =:  
  =:   [dφ(t')/dt'   u(γ(φ(t')))] Φ

Wenn wir eine Einbettung der Mannigfaltigkeit voraussetzen, ist diese Beziehung unmittelbar einsichtig, denn dann können Tangentialvektoren direkt als Ableitung der Kurve schreiben:
  v(ρ(t'))   =   dρ(t')/dt'   =   dγ(φ(t'))/dt'   =   dγ(t)/dt   dφ(t')/dt'   =   u(γ(t))   dφ(t')/dt'   =   u(γ(φ(t')))   dφ(t')/dt'

Physiker würden sogar noch kürzer einfach schreiben:
  dx/dt'   =   dx/dt   dt/dt'

Fassen wir das Ergebnis noch einmal zusammen:

  • Transformation von Tangentialvektoren bei Parametertransformation der Kurve:

    Wir gehen von einer Kurve   γ(t)   aus mit zugehörigen Tangentialvektoren   u(γ(t))  . Nun wechseln wir zu einem neuen Kurvenparameter t', indem wir t als abhängig von t' betrachten:   t = φ(t')  . Die Kurve wird nun bezüglich t' durch die Funktion   ρ(t')   :=   γ(φ(t'))   =   γ(t)   beschrieben. Die zu ρ gehörenden Tangentialvektoren nennen wir   v(ρ(t'))  . Dann gilt:

      v(ρ(t'))   =   dφ(t'))/dt'   u(γ(φ(t')))

Dieses Ergebnis können wir nun im Integranden von   I ρ(T')   einsetzen, wobei wir zusätzlich ausnutzen, dass ω eine lineare Abbildung ist, so dass wir den Faktor   dφ(t')/dt'   herausziehen können. Im letzten Schritt können wir dann die Substitutionsregel für Integrale verwenden:

  I ρ(T')   =   ∫a'b' [ω(γ(φ(t'))) v(γ(φ(t')))] dt'   =  
  =   ∫a'b' [ω(γ(φ(t')))   { dφ(t')/dt'   u(γ(φ(t'))) }]   dt'   =  
  =   ∫a'b' [ω(γ(φ(t')))     u(γ(φ(t'))) ]   dφ(t')/dt'   dt'   =  
  =   ∫ab [ω(γ(t)) u(γ(t)) ] dt   =  
  =   I γ(T)

Das Kurvenintegral ändert sich also bei der orientierungserhaltenden Umparametrisierung nicht.

Physiker würden übrigens die obige Rechnung vermutlich in der folgenden intuitiven Kurzschreibweise durchführen:

  I ρ(T')   =   ∫a'b' [ω   dx/dt'] dt'   =  
  =   ∫a'b' [ω   { dx/dt   dt/dt' }]   dt'   =  
  =   ∫a'b' [ω   dx/dt]   dt/dt'   dt'   =  
  =   ∫ab [ω   dx/dt] dt   =  
  =   I γ(T)

Anmerkung: Hätten wir eine monoton fallende Funktion φ verwendet (d.h. hätten wir die Orientierung des Kurvenstücks geändert), so hätten wir an einer Stelle in der obigen Rechnung die Integrationsgrenzen vertauschen müssen, da wir ja die Schreibweise so festgelegt hatten, dass immer in aufsteigender Parameterrichtung integriert wird. Das hätte zu einem Minuszeichen geführt: Der Wechsel der Orientierung führt zu einem Vorzeichenwechsel im Integral!

Fassen wir zusammen:

  • Kurvenintegrale über 1-Formen sind unabhängig von der Parametrisierung der Kurve:

    Das Integral

      I γ(T)   :=   ∫ab [ω(γ(t)) u(γ(t))] dt  

    (dabei ist T das Integral von a bis b mit   a < b  , t ∈ T und u(γ(t)) ist der Tangentialvektor zur Kurve γ im Punkt γ(t) )   ändert sich nicht, wenn wir eine richtungserhaltende Umparametrisierung der Kurve vornehmen. Das bedeutet:

    Wenn wir t als Funktion eines neuen Kurvenparameters t' betrachten ( d.h.   t = φ(t')   mit streng monoton wachsender Funktion φ ) und die Kurve mit Hilfe des neuen Parameters t' beschreiben (d.h. die Kurve wird durch die Funktion   ρ(t')   :=   γ(φ(t'))   =   γ(t)   beschrieben), so ist

      I γ(T)   =   I ρ(T')     mit

      I ρ(T')   :=   ∫a'b' [ω(ρ(t')) v(ρ(t'))] dt'  

    Dabei ist   v(ρ(t'))   Tangentialvektor zur Kurve ρ im Punkt ρ(t'), und   a = φ(a')   sowie   b = φ(b')  . Da φ als streng monoton steigend vorausgesetzt wurde, ist auch   a' < b'   gesichert, d.h. die Kurve wird auch nach dem Parameterwechsel in derselben Richtung durchlaufen. Als neue Schreibweise führen wir ein:

      I γ(T)   =:   ∫γ(T) ω

    γ(T) ω   hängt dabei nur von dem durchlaufenen Kurvenstück auf der Mannigfaltigkeit ab sowie von der Orientierung, in der es durchlaufen wird. Das Integral hängt nicht von der Geschwindigkeit ab, mit der das Kurvenstück durchlaufen wird (d.h. es ändert seinen Wert bei richtungserhaltenden Umparametrisierungen der Kurve nicht). Der Grund dafür liegt darin, dass man einen skalaren Multiplikationsfaktor am Tangentialvektor (nennen wir ihn c) aus dem Integranden herausziehen kann, also   [ω(γ(t)) (c u(γ(t)))]   =   c [ω(γ(t)) u(γ(t))]   (oben in der Rechnung war c gleich der Ableitung von φ gewesen).

Wir haben oben bereits mehrfach den Begriff der Orientierung kennengelernt. Hier noch einmal eine saubere Definition:

In Kapitel 5.1.9: Abstände und Winkel: die Metrik haben wir bereits ein sehr ähnliches Integral kennengelernt: Die Länge   Lγ(T)   eines Kurvenstücks γ zwischen zwei Punkten   pa := γ(a)   und   pb := γ(b)   (im Metrik-Kapitel hatten wir die Bezeichnung L(γ,a,b) verwendet). Sie ist definiert durch

  Lγ(T)   :=   ∫ab   √ g( u(γ(t)), u(γ(t)) )   dt

(wieder ist u der Tangetialvektor der Kurve und   a < b   ). Auch hier kann man einen Faktor c vor dem Tangentialvektor aus dem Integranden hinausziehen, wobei dann allerdings der Betrag von c vor dem Integranden steht:   √ g( c u(γ(t)), c u(γ(t)) )   =   |c|   √ g( u(γ(t)), u(γ(t)) )  . Die obige Rechnung lässt sich nun analog wiederholen, wobei allerdings das Ergebnis nicht von der Richtung abhängt, in der man die Kurve durchläuft. Daher hängt   Lγ(T)   nicht von der Parametrisierung der Kurve ab, wobei hier auch richtungsändernde Umparametrisierungen erlaubt sind. Man könnte daher analog zu oben die Schreibweise

  Lγ(T)   =   ∫γ(T) √g

einführen. Allerdings: Der Integrand   √g   ist keine Differentialform (1-Form), denn er ist nicht linear im Tangentialvektor u(γ(t)) . Dennoch ist das Integral unabhängig von der Parametrisierung. Es gibt also über die Differentialformen hinaus durchaus weitere sinnvolle Integranden, die zu Parametrisierungs-unabhängigen Kurvenintegralen (oder später Flächenintegralen etc.) führen.


Interpretationen und Schreibweisen (über die scheinbare Doppelnatur von dxμ ):

In der Physik schreibt man das Kurvenintegral

  I γ(T)   =   ∫ab [ω(γ(t)) u(γ(t))] dt  

gerne noch ein wenig um. Dazu zieht man formal das infinitesimale Parameterintervall dt in den Integranden hinein:

  I γ(T)   =   ∫ab [ω(γ(t)) {u(γ(t)) dt}]  

Wenn man sich dt als sehr kleine reelle Zahl vorstellt, ist das ja erlaubt, da ω linear ist. Dann ist   u(γ(t)) dt   gleichsam ein sehr kleiner Tangentialvektor (wobei der Begriff ohne Metrik natürlich noch gar nicht definiert ist).

Anschaulicher wird das, wenn man von einer Einbettung der Mannigfaltigkeit im Rn ausgeht. Dann ist   u(γ(t)) dt   einfach ungefähr gleich dem Vektor, der vom Punkt   γ(t)   zum Punkt   γ(t + dt)   führt. Man könnte auch sagen,   u(γ(t)) dt   ist das kleine Wegstück zwischen den beiden Punkten. Wir wollen dieses Wegstück mit dx bezeichnen, also
  dx   :=   u(γ(t)) dt     =   dγ(t)/dt   dt  
Der Fettdruck soll andeuten, dass dx ein Vektor im Einbettungsraum tangential zur Kurve ist.

Wir wollen nun dx nach der Koordinatenbasis entwickeln. In einbettungsfreier Formulierung war die Zerlegung eines Tangentialvektors u(p) nach einer Koordinatenbasis gegeben durch
  u(p)   =   ∑μ   uμ(p) d/dxμ|p   =   ∑μ   d(f μ ο γ)(t)/dt   d/dxμ|p
mit   p = γ(t)  . Bei einer Formulierung mit Einbettung wird aus   d/dxμ|p   einfach der Vektor   dX(x)/dxμ  , der in die μ-te Koordinatenrichtung im Einbettungsraum zeigt. Dabei ist dann   x = f(p)   und   p = X(x) = f -1(x)  , d.h. X liefert eine Parametrisierung der Mannigfaltigkeit im Einbettungsraum mit Hilfe der Koordinaten x. (siehe Kapitel 5.1.4 über Tangentialvektoren).

Zum (infinitesimalen) Tangentialvektor dx gelangt man nun, indem man einfach mit dem winzigen Intervall dt multipliziert:

  dx   =  
  =   ∑μ   (uμ(p) dt)   dX(x)/dxμ   =  
  =   ∑μ   (d(f μ ο γ)(t)/dt dt)   dX(x)/dxμ   =:  
  =:   ∑μ   dxμ   dX(x)/dxμ

Anschaulich ist   dxμ   die Komponente des kleinen Wegstücks dx in die μ-te Koordinatenrichtung.

Dies können wir nun einsetzen:

  I γ(T)   =  
  =   ∫ab [ω(γ(t)) {u(γ(t)) dt}]   =  
  =   ∫ab   ∑μ   ωμ(γ(t))   (uμ(γ(t)) dt)   =  
  =   ∫ab   ∑μ   ωμ(γ(t))   dxμ

Vorsicht:   dxμ   ist hier weiterhin die Komponente des kleinen Wegstücks dx in die μ-te Koordinatenrichtung, also gleich   uμ(γ(t)) dt  .

Nun hatten wir oben andererseits die Schreibweise

  I γ(T)   =   ∫γ(T) ω   =   ∫γ(T)   ∑μ   ωμ dxμ

eingeführt, die ganz ähnlich aussieht, bei der aber ω und damit auch   dxμ   lineare Abbildungen auf den Tangentialvektoren sind. Nun wird verständlich, wie diese Schreibweise zu verstehen ist: Setze für   dxμ   formal die μ-te Komponente   dxμ   =   uμ(γ(t)) dt   des infinitesimalen Wegstücks dx ein, und du erhälst automatisch die korrekte Formel

  I γ(T)   =   ∫γ(T) ω   =   ∫ab [ω(γ(t)) u(γ(t))] dt  

für das Wegintegral. Das läuft im Grunde darauf hinaus, dass man die lineare Abbildung   dxμ|γ(T)   auf den infinitesimalen Kurven-Tangentialvektor   u(γ(t)) dt   anwendet, um daraus die μte Komponente   dxμ   =   uμ(γ(t)) dt   des infinitesimale Wegstücks dx zu gewinnen.

Da man nun in der Literatur (vor allem in der Physik-Literatur) in der Schreibweise meist nicht zwischen der Abbildung   dxμ|γ(T)   und der Wegstück-Komponente   dxμ   =   uμ(γ(t)) dt   unterscheidet, führen 1-Formen hier manchmal ein merkwürdiges Doppelleben: Erst führt man sie als lineare Abildungen auf den Tangentialvektoren ein, und in Integralen haben sie auf einmal die Bedeutung von gewichtet aufsummierten Wegstück-Komponenten. Ähnlich erging es uns ja bereits bei der Metrik in Kapitel 5.1.9: Abstände und Winkel: die Metrik mit dem Ausdruck   ds2   =   ∑μν   gμν dxμ dxν  . Ich hoffe, die obige Darstellung konnte diese scheinbare Doppelnatur etwas aufklären.

Übrigens wird in der mathematischen Literatur oft der Pullback-Formalismus verwendet, um mit dieser Doppelnatur von   dxμ   umzugehen: Man schreibt   γ*dxμ   :=   uμ(γ(t)) dt   für die Wegstück-Komponente, d.h.   γ*ω   :=   [ω(γ(t)) u(γ(t))] dt  . Man sagt,   γ*   ist der Pullback der Parametrisierungsfunktion γ. Damit wird aus der Differentialform ω, die auf der Mannigfaltigkeit M definiert ist, die in den Parameterraum T zurückgeholte Differentialform   γ*ω   (die dann auf T definiert ist). Man kann sich   γ*   auch als Einsetz-Abbildung veranschaulichen, denn es wird die Parametrisierung γ in ω eingesetzt. Formal gilt dann:

  I γ(T)   =   ∫T γ*ω   =   ∫ab [ω(γ(t)) u(γ(t))] dt  


1-Formen und Metrik (Skalarprodukt):

Wir konnten bisher 1-Formen und Kurvenintegrale über 1-Formen vollkommen ohne den Begriff der Metrik formulieren. Oft hat man es aber ohnehin mit Mannigfaltigkeiten zu tun, die über eine Metrik verfügen. Wie wir in Kapitel 5.1.9: Abstände und Winkel: die Metrik gesehen haben, kann man mit Hilfe der Metrik jeder 1-Form ω(p) einen eindeutigen Tangentialvektor (nennen wir ihn hier   vω(p)  ) zuordnen über die Beziehung

  g( vω(p), u(p) )   :=   ω(p) u(p)

die für alle u(p) erfüllt sein soll. In Komponenten ist   (vω)μ(p)   =   ∑ν   gμν(p) ων(p)   mit   gμν(p)   =   [g− 1(p)]μν  . Wir sprachen vom Hochziehen des Indexes. Oft schreibt man einfach   ωμ(p)   an Stelle von   (vω)μ(p)  .

Wir können die Beziehung   g( vω(p), u(p) )   :=   ω(p) u(p)   nun in das Wegintegral über die 1-Form ω einsetzen:

  I γ(T)   =   ∫γ(T) ω   =   ∫ab [ω(γ(t)) u(γ(t))] dt   =   ∫ab g( vω(γ(t)), u(γ(t)) ) dt

Bei einer positiv definiten Metrik, die durch eine Einbettung induziert wird, ist diese Metrik durch das euklidische Skalarprodukt in n-dimensionalen reellen Einbettungsraum gegeben (siehe Kapitel 5.1.9: Abstände und Winkel: die Metrik):
  g(u(p), v(p))   :=   á u(p), v(p) ñ
so dass wir das Wegintegral schreiben können als

  I γ(T)   =   ∫γ(T) ω   =   ∫ab á vω(γ(t)), dγ(t)/dt ñ dt   =   ∫γ(T) á vω(γ(t)), dx ñ

Diese Schreibweise ist bei Physikern sehr beliebt, da sie sehr intuitiv ist. Man multipliziert an jedem Kurvenpunkt den von außen vorgegebenen Vektor vω mit dem Wegstück dx und integriert über alle Wegstücke. Solche Ausdrücke braucht man beispielsweise, wenn man ausrechnen will, welche Energie man in einem Kraftfeld vω entlang des Weges γ gewinnt oder verliert, wenn die Kraft nur vom Ort abhängt.

Man kann mit Hilfe der Metrik nun weiterhin das sogenannte Linienelement ds (auch Bogenlängenelement genannt) einführen (siehe wieder Kapitel 5.1.9) und mit ihrer Hilfe das Integral über die 1-Form noch weiter umschreiben. Formal schreibt man gerne
  ds   =     √ (∑μν   gμν dxμ dxν)   =     √ (∑μν   gμν uμ uν)   dt   =     √ (g(u,u))   dt
und meint damit, dass das Integral
  Lγ(T)   =   ∫γ(T) ds   =   ∫ab   √ g( u(γ(t)), u(γ(t)) )   dt
die Länge der Kurve γ zwischen γ(a) und γ(b) angibt. Vorsicht: Bei positiv definiter Metrik (d.h. g(u,u) > 0 , wenn u nicht der Nullvektor ist) ist das alles kein Problem und entspricht der anschaulichen Längeninterpretation. Ist die Metrik nicht positiv definit (wie in der Relativitätstheorie), so muss man ggf. hier aufpassen, da g(u,u) gleich Null werden kann. Die Bogenlänge ds erhält in der Relativitätstheorie die Interpretation der Eigenzeit (siehe Kapitel 3.7: Die spezielle Relativitätstheorie: Geschwindigkeit, Zeitdilatation, Vierergeschwindigkeit und Eigenzeit ); das ist die Zeit, die für ein Objekt auf der Raum-Zeit-Kurve γ verstreicht. Für Objekte, die sich mit Lichtgeschwindigkeit bewegen (und die deshalb masselos sein müssen), ist diese Eigenzeit immer gleich Null -- Licht altert nicht!

Im Folgenden wollen wir den Fall g(u,u) = 0 ausschließen. Dann kann man die Bogenlänge auch als spezielle Parametrisierung der Kurve γ ansehen. Wir können also wie oben einen speziellen Parameterwechsel durchführen, bei dem wir
  t'   =   s   =   φ− 1(t)   =   √ g( u(γ(t)), u(γ(t)) )   t  
sowie   ρ(s) = γ(t)   setzen. Rechnen wir damit das Integral auf die Bogenlängenparametrisierung um (sein Wert ändert sich dabei ja nicht, wie wir wissen):

  I γ(T)   =  
  =   ∫ab [ω(γ(t)) u(γ(t))] dt   =  
  =   ∫s(a)s(b) [ω(ρ(s)) u(ρ(s))] ds / √ g( u(ρ(s)), u(ρ(s)) )   =  
  =   ∫s(a)s(b) [ω(ρ(s)) {u(ρ(s)) / √ g( u(ρ(s)), u(ρ(s)) )}]   ds   =  
  =   ∫s(a)s(b) [ω(ρ(s)) v(ρ(s))]   ds

Wie man sieht, ist der neue Tangentialvektor gegeben durch   v = u / √ g(u,u)   (nicht mit vω verwechseln!). Das ist ein Vektor vom Betrag (Metrik) Eins, also ein Einheitsvektor! Die Bogenparametrisierung zeichnet sich also dadurch aus, dass man die Kurve mit Geschwindigkeit Eins durchläuft. Vergleicht man diesen Ausdruck nun mit der Einbettungs-Physiker-Schreibweise

  I γ(T)   =   ∫γ(T) á vω(γ(t)), dx ñ

von oben, so sieht man, dass   dx   =   v ds   ist. Da v die Länge Eins hat, muss dx die Länge ds haben, also die Länge des kleinen Kurvenstücks, über das integriert wird. Man schreibt daher auch   |dx|   =   ds  . Dies macht erneut die anschauliche Bedeutung von dx als kleines Kurvenstück deutlich. Physiker verwenden die Schreibweise   I γ(T)   =   ∫γ(T) á vω, dx ñ   übrigens auch gerne, um die Parametrisierungs-Unabhängigkeit des Integrals intuitiv zu demonstrieren, indem man formal mit dt erweitert und

  I γ(T)   =   ∫γ(T) á vω, dx ñ   =   ∫γ(T) á vω, dx/dt ñ dt

schreibt. Da dabei t eine beliebige Parametrisierung sein darf, kann es offenbar darauf nicht ankommen. Verwendet man die spezielle Bogenlängen-Parametrisierung, d.h.   dt = ds = |dx|  , so zeigt diese Schreibweise sehr schön, dass der Tangentialvektor hier die Länge Eins hat:

  I γ(T)   =   ∫γ(T) á vω, dx ñ   =   ∫γ(T) á vω, dx/|dx| ñ ds

An dieser Stelle noch eine Warnung vor zu unbedachtem Vorgehen: Man kann keineswegs jedes Integral über eine Kurve als Integral über eine 1-Form schreiben. Als Beispiel aus der Physik nehmen wir die Arbeit, die notwendig ist, um sich entlang einer Kurve gegen den Luftwiederstand fortzubewegen. Diese Arbeit ist in Physiker-Kurzschreibweise gegeben durch
  W   =   ∫γ(T) á F, dx ñ
Die Kraft F, die aufgrund des Luftwiderstandes wirkt, ist dabei nicht vom Ort, sondern von der Geschwindigkeit dx/dt abhängig. Es gilt   F   =   c |dx/dt| dx/dt   mit einer (negativen) Konstanten c. Der Luftwiderstand wächst also quadratisch mit der Geschwindigkeit an. Setzen wir dies ein und verwenden   dx   =   dx/dt dt  , so ergibt sich
  W   =   ∫γ(T) á F, dx ñ   =   ∫γ(T) á c |dx/dt| dx/dt, dx/dt ñ dt   =   ∫γ(T) c |dx/dt|3 dt
Hier kann man dt nicht wegkürzen, d.h. das Integral ist nicht invariant bei Umparametrisierungen der Kurve. Mathematiker würden übrigens W schreiben als
  W   =   ∫ab   c   [g( u(γ(t)), u(γ(t)) )]3/2   dt
Natürlich kann man auch in dieser Schreibweise die Parametrisierungs-Abhängigkeit leicht nachweisen.


Integrabilität und d-Ableitung bei 1-Formen (Lemma von Poincaré):

Wir möchten uns nun mit ganz speziellen 1-Formen befassen, die eine besonders wichtige Rolle spielen: den 1-Formen, die sich in dem uns interessierenden Gebiet der Mannigfaltigkeit (nennen wir es G) als d-Ableitung einer (einzigen) skalaren Funktion Φ darstellen lassen (siehe oben):

  ω   =   dΦ

für jeden Punkt im betrachteten Gebiet der Mannigfaltigkeit. Man bezeichnet Φ dann als Stammform (Stammfunktion). 1-Formen, die sich so schreiben lassen, nennt man exakt (warum auch immer).

Für die Komponenten bedeutet das für jeden Punkt p
  ωμ(p)   =   d(Φ ο f -1) / dxμ (f(p))
oder in Kurzschreibweise   ωμ   =   dΦ/dxμ  . Bei einer gegebenen Metrik können wir auch
  vω   =   grad Φ
schreiben (siehe Kapitel 5.1.9: Abstände und Winkel: die Metrik zur Definition des Gradienten). Physiker schreiben bei einer Einbettung dann auch gerne
  ω   =   á grad Φ, dx ñ

Nun weiß man aus der Physik bzw. der klassischen dreidimensionalen Vektoranalysis bereits, dass sich nicht jedes Vektorfeld vω als Gradient einer skalaren Funktion Φ schreiben lässt. Nur Vektorfelder mit verschwindender Rotation lassen sich so schreiben! Diese Bedingung kann man in den Formalismus der Differentialformen übertragen. Dazu versucht man, die skalare Funktion Φ explizit aus ω zu konstruieren (so dass   ω = dΦ   gilt) und schaut während der Rechnung nach, welche Bedingungen für ω gelten müssen, damit das gelingt. Es stellt sich heraus, dass man ein passendes Φ(p) als Integral   ∫γ(T) ω über eine Kurve γ konstruieren kann. Die Kurve startet dabei für t = 0 in einem beliebigen Startpunkt γ(0) = q   im Gebiet G und endet für t = 1 in   γ(1) = p   (d.h. a = 0 und b = 1 wurde gewählt). Bei gegebener Koordinatenfunktion f kann man die Kurve so festlegen, dass ihre Koordinaten eine gerade Linie von f(q) nach f(p) bilden, d.h. es ist
  f(γ(t))   =   f(q)   +   t [ f(p) − f(q) ]  
Das Gebiet G darf dabei natürlich nicht verlassen werden (man sagt, das Gebiet muss sternförmig bezüglich irgendeines Punktes q sein -- es darf also z.B. keine Löcher enthalten). Außerdem soll das Gebiet G topologisch trivial sein, soll also keine Löcher wie ein Doughnut enthalten. Nun muss man nachprüfen, dass   ω(p) = dΦ(p)   für die so konstruierte Funktion Φ gilt. Man findet, dass das genau dann gilt, wenn im Gebiet G die Bedingungen
  dωμ(f −1(x)) / dxν   =   dων(f −1(x)) / dxμ
für alle μ und ν erfüllt sind (dabei ist p = f(x) ). Für Vektorfelder im dreidimensionalen Raum ist dies genau die Bedingung, dass die Rotation des Vektorfeldes verschwinden muss.

Nun kann man die Bedingung noch etwas umformulieren, indem man den d-Operator auch auf 1-Formen geeignet definiert:

  • d-Operator für 1-Formen (Basis-abhängige Definition):

    Für eine 1-Form   ω   =   ∑ν   ων dxν   (die in einer Umgebung von p definiert sein muss) definieren wir dω(p) durch

      dω(p)   :=   ∑ν   dων(p) Λ dxν|p

    In   dων(p)   werden die Koeffizientenfunktionen dabei wie skalare Funktionen behandelt, d.h.
      dων(p)   =   ∑μ   dων(f −1(x)) / dxμ   dxμ|p  
    Das Dachprodukt Λ ist so definiert, dass sich ausgeschrieben

      dω(p)   =   ∑μν   dων(f −1(x)) / dxμ   dxμ|p Λ dxν|p

    ergibt. Kurzschreibweise:   dω   =   ∑μν   dων / dxμ   dxμ Λ dxν
    Eine Basis-unabhängige Definition werden wir weiter unten angeben.

Zur Erinnerung (siehe 5.1.8  Krümmung ): Das Dachprodukt (äußere Produkt) von 1-Formen hatten wir definiert durch

  [ dxμ Λ dxν ] (u, v)   :=   uμ vν   −   uν vμ

(die Argumente p haben wir weggelassen). Das äußere Produkt   dxμ Λ dxν   ist also eine antisymmetrische bilineare Abbildung auf dem Raum der Tangentialvektoren, deren Ergebniswert eine reelle Zahl ist. Aus der Definition geht unmittelbar hervor, dass   dxμ Λ dxν   =   − dxν Λ dxμ   ist. Man bezeichnet   dxμ Λ dxν   (bzw. Linearkombinationen davon) auch als 2-Formen. Der d-Operator macht also aus einer 1-Form eine 2-Form, so wie er oben aus einer 0-Form eine 1-Form gemacht hat. Weitere Details zu 2-Formen folgen weiter unten.

Diese antisymmetrische Definition von dω ist sehr nützlich, denn die Bedingung
  dωμ(f −1(x)) / dxν   =   dων(f −1(x)) / dxμ
von oben lässt sich nun einfach schreiben als   dω(p)   =   0   für alle p aus G. Begründung: Man kann die Doppelsumme über alle μ und ν in dω aufteilen in eine Summe mit μ < ν und eine Summe mit μ > ν (die Terme mit μ = ν sind wegen der Antisymmetrie sowieso gleich Null). Nun benennt man in der zweiten Summe die Indices um (μ in ν und umgekehrt) und vertauscht dxμ und dxν im Dachprodukt, was ein Vorzeichen ergibt. Nun fasst man die beiden Summen wieder zusammen. Ergebnis:

  dω   =   ∑μ < ν   (dων / dxμ   −   dωμ / dxν)   dxμ Λ dxν

Aus   dω = 0   folgt dann die Bedingung   dων / dxμ   −   dωμ / dxν   =   0  . Im dreidimensionalen Raum bedeutet das, dass die Rotation des Vektorfeldes verschwinden muss, wenn man es als Gradient einer skalaren Funktion schreiben möchte. Details sehen wir weiter unten noch genauer. Halten wir zunächst fest:

  • Integrabilitätsbedingung für 1-Formen (Lemma von Poincaré):

    Eine 1-Form   ω(p)   ist dann in einem Gebiet G der Mannigfaltigkeit M exakt (lässt sich also in G als äußere Ableitung

      ω   =   dΦ

    einer Null-Form Φ schreiben), wenn G topologisch trivial und sternförmig ist (d.h. es gibt einen Punkt q in G, so dass bezüglich eines Koordinatensystems f sich jeder Punkt p aus G durch eine gerade Linie von f(q) nach f(p) im Koordinatenraum erreichen lässt) und wenn in G gilt:

      dω   =   0

    (man bezeichnet ein ω mit   dω   =   0   auch als geschlossen). Die Umkehrung gilt ebenfalls, denn wegen der Antisymmetrie des Dachproduktes und wegen der Vertauschbarkeit der partiellen Ableitungen gilt   dω = d(dΦ) = 0  . Man bezeichnet Φ als Stammform (hier auch: Stammfunktion) von ω.

Komplikationen wie nicht-triviale Topologien oder die Notwendigkeit mehrerer Koordinatensysteme haben wir hier erst einmal weggelassen -- das gebiet G soll einfach so klein sein, dass wir uns darum nicht zu kümmern brauchen.

Man sieht, wie elegant die Formulierung mit Differentialformen ist. Diese Eleganz bleibt auch bei höheren Dimensionen erhalten, wie wir bald sehen werden. Zentral ist dabei die Antisymmetrie bei der Definition des d-Operators und bei der Definition der 2-Formen (und später der höheren Formen). Wir werden im weiteren Verlauf an mehreren Stellen sehen, dass diese Antisymmetrie noch weitere sehr elegante Formulierungen ermöglicht.


Der Integralsatz von Stokes für exakte 1-Formen:

Für Kurvenintegrale exakter 1-Formen ω gilt nun eine wichtige Eigenschaft: sie hängen nur vom Anfangspunkt γ(a) und vom Endpunkt γ(b) ab, nicht aber vom Verlauf der Kurve γ dazwischen. Das kann man leicht wie folgt sehen (dabei verwenden wir, dass nach Definition oben   dΦ(γ(t)) u(γ(t))   =   dΦ(γ(t)) / dt   ist, und wir betrachten die Funktion   Φ ο γ   einfach als skalare Funktion einer reellen Variablen, für die der Hauptsatz der Differential- und Integralrechnung gilt):

  ∫γ(T) ω   =   ∫γ(T) dΦ   =   ∫ab dΦ(γ(t)) u(γ(t)) dt   =   ∫ab dΦ(γ(t)) / dt   dt   =   Φ(γ(b)) − Φ(γ(a))   =:   ∫γ(δT) Φ

Man bezeichnet den Zusammenhang   ∫γ(T) ω   =   ∫γ(δT) Φ   auch als Integralsatz von Stokes. Wie wir gesehen haben, ist dieser Satz bei exakten 1-Formen identisch mit dem Hauptsatz der Differential- und Integralrechnung. Die Schreibweise   ∫γ(δT) Φ   soll dabei bedeuten, dass wir Φ über den (orientierten) Rand   γ(δT)   der Kurve γ integrieren, also über Anfangs- und Endpunkt der Kurve mit Vorzeichen summieren. Dabei ist δT der orientierte Rand des Intervalls T (also des Intervalls von a bis b), d.h. δT umfasst die t-Werte a und b inclusive einer Vorzeichenkonvention. Diese Schreibweise wird weiter unten bei höheren Dimensionen noch genauer erklärt und macht dort dann auch mehr Sinn. Halten wir fest:

  • Integralsatz von Stokes für exakte 1-Formen:

    γ(T) dΦ   =   ∫γ(δT) Φ   =   Φ(γ(b)) − Φ(γ(a))

Wichtig dabei ist, dass wir die Metrik an keiner Stelle benötigt haben. Der Integralsatz von Stokes benötigt keine Metrik!

Ein Beispiel aus der Physik (mit Skalarprodukt formuliert): Das statische klassische Gravitationsfeld (nach Newton) F lässt sich als Gradient einer skalaren Funktion Φ (das Gravitationspotential) schreiben:   ω   =   á F, dx ñ   =   á grad Φ, dx ñ   =   dΦ  . Die Arbeit, die das Gravitationsfeld entlang eines Weges γ verrichtet, ist also allein gegeben durch den Potentialunterschied (Höhenunterschied) zwischen Start- und Zielpunkt: ∫γ(T) á F, dx ñ   =   ∫γ(T) á grad Φ, dx ñ   =   ∫γ(T) dΦ   =   ∫γ(δT) Φ   =   Φ(γ(b)) − Φ(γ(a))  . Es kommt also nur darauf an, wieviel man bergauf oder bergab geht, aber nicht auf den genauen Weg. Bei geschlossenen Wegen (d.h. Anfangs- gleich Endpunkt) ist dieses Integral gleich Null, d.h. man kann auf einer Rundreise im Gravitationsfeld keine Energie gewinnen. Hätte das Kraftfeld dagegen einen Rotationsanteil (eine Wirbelstärke analog zu einem sich drehenden Wasserwirbel), so könnte man auf einer Rundreise Energie gewinnen. Dann wäre aber auch dω ungleich Null. So etwas kommt beispielsweise bei elektrischen Feldern vor, die aufgrund eines sich ändernden Magnetfeldes entstehen, z.B. in einem Dynamo.

Man kann den Integralsatz von Stokes bei 1-Formen auch anschaulich gut verstehen: Dazu stellen wir uns wieder vor, dass wir das Kurvenparameter-Intervall von a nach b in viele sehr kleine Stückchen der Größe dt aufteilen. Das zugehörige Kurvenstück geht jeweils von γ(t) bis γ(t + dt) . Das Integral können wir uns dann als Summe über all diese kleinen Kurvenabschnitte vorstellen, wobei jeder Kurvenabschnitt eine Zahl
  dΦ   =   dΦ(γ(t)) / dt   dt   =   Φ(γ(t + dt)) − Φ(γ(t))
zur Summe beiträgt (das zweite Gleichheitszeichen gilt streng genommen erst im Grenzübergang zu infinitesimal kleinen dt). Hier ist dΦ als die kleine Zahl zu verstehen, die der jeweilige Kurvenabschnitt zur Summe (zum Integral) beiträgt. Der Ausdruck dΦ spielt also (wie oben bereits dxμ ) eine Doppelrolle: Zunächst einmal ist er als Linearform auf Tangentialvektoren definiert. Im Kurvenintegral kann man ihn als Veränderung von Φ auf dem kleinen Kurvenstück interpretieren und erhält so automatisch die korrekte Bedeutung des Integrals   ∫γ(T) dΦ  , so wie sie durch die formal saubere Definition   ∫γ(T) dΦ   =   ∫ab dΦ(γ(t)) u(γ(t)) dt   gegeben ist.
Wenn man nun   dΦ   =   Φ(γ(t + dt)) − Φ(γ(t))   über alle Kurvenabschnitte aufsummiert (also dabei den Kurvenparameter in dt-Schritten von a nach b wandern lässt), so heben sich die Φ-Werte aller Zwischenpunkte auf, und man erhält das Ergebnis   Φ(γ(b)) − Φ(γ(a))  . So muss es auch sein, denn das Integral summiert ja alle Veränderungen von Φ entlang der Kurve auf, so dass man am Ende die Gesamtveränderung von Φ entlang der Kurve erhält.


Das Integral   ∫γ(T) dΦ   summiert in kleinen dt-Schritten die einzelnen Treppenstufenhöhen dΦ entlang der Kurve γ (von   t = a   bis   t = b  ) auf, so dass insgesamt der Höhenunterschied der Gesamttreppe herauskommt, also die Differenz der Höhe   Φ(γ(b))   der letzten Stufe zur Höhe   Φ(γ(a))   der ersten Stufe. Genau genommen muss dabei natürlich noch der Grenzübergang zu unendlich kleinen dt vorgenommen werden.


Veranschaulichung von 1-Formen:

Differentialformen haben oft den Ruf, nicht gerade anschauliche Objekte zu sein. Nur in bestimmten Fällen gelingt es, mit ihnen anschauliche Vorstellungen zu verbinden (z.B. wenn eine Metrik vorhanden ist und man sich eine 1-Form als Kraftwirkung entlang eines Wegstücks vorstellen kann, siehe oben). Es gibt jedoch eine recht interessante Möglichkeit, zu einer anderen halbwegs anschaulichen Vorstellung zu gelangen, die nicht auf einer Metrik aufbaut, und die man einigermaßen auch auf höhere Dimensionen übertragen kann (siehe z.B. Dan Piponi: On the Visualisation of Differential Forms, December 1998, http://homepage.mac.com/sigfpe/Mathematics/forms.pdf ). Wir sind in Kapitel 5.1.5. Co-Tangentialräume und Differentialformen bereits darauf eingegangen und wollen hier die wichtigsten Aspekte noch einmal wiederholen (auch im Hinblick auf die Anwendung bei höherdimensionalen Formen).

Als Ausgangspunkt dient uns die Darstellung

  ω(p) u(p)   =   dΦ(p) u(p)   =   u(p) Φ   =   dΦ(γ(t)) / dt |t = 0

von oben, d.h. die Tatsache, dass man jede 1-Form ω(p) lokal durch das Änderungsverhalten einer skalaren Funktion Φ beschreiben kann:   ω(p)   =   dΦ(p)  . Das Änderungsverhalten von Φ in einer kleinen Umgebung von p können wir durch Höhenlinien / Höhenflächen anschaulich darstellen, also in einer n-dimensionalen Mannigfaltigkeit M durch (n − 1) - dimensionale Flächen, auf denen Φ konstant ist -- wir werden zur Vereinfachung auch die (n − 1) - dimensionalen Höhenflächen als Höhenlinien bezeichnen. Diese Höhenlinien nahe bei p sollten also auch eine Veranschaulichung der 1-Form   ω(p)   =   dΦ(p)   liefern.

Wenn das so ist, müssten wir aus den Höhenlinien von Φ nahe bei p auch den Wert von   ω(p) u(p)   ableiten können. Und tatsächlich geht das ganz einfach: Wenn wir in Richtung von u(p) ein kleines Stück vorangehen, so werden wir umso mehr Höhenlinien überschreiten, je schneller sich Φ in dieser Richtung ändert. Dabei zählen wir Höhenlinien positiv, wenn es bergauf geht, ansonsten negativ. Der Wert von   ω(p) u(p)   entspricht also in diesem Bild der Zahl der Höhenlinien (mit Vorzeichen), die man in u(p)-Richtung überschreitet. So ergibt sich anschaulich für   ω(p) u(p)   die Richtungsableitung von Φ im Punkt p in u(p)-Richtung.


In der zweidimensionalen Ebene kann man sich die 1-Form   ω = dx   durch Höhenlinien parallel zur y-Achse veranschaulichen. Diese Höhenlinien gehören zur Funktion   Φ(x,y) = x  , und es gilt   ω = dΦ  . Siehe auch im Internet von Dan Piponi: On the Visualisation of Differential Forms, December 1998.


Nun gilt diese Vorstellung zunächst nur lokal, also nur in einer kleinen (sogar infinitesimalen) Umgebung von p. Wir können uns aber vorstellen, dass wir die Mannigfaltigkeit näherungsweise mit sehr vielen sehr kleinen Umgebungen gleichsam pflastern und in jeder dieser Umgebungen die 1-Form ω durch Höhenlinien einer Funktion Φ darstellen. Dabei ist Φ jeweils nur in dieser winzigen Umgebung definiert, und es kann sein, dass wir in jeder Umgebung eine andere Funktion Φ brauchen.

Schauen wir uns ein einfaches Beispiel an: Die Mannigfaltigkeit M ist die zweidimensionale reelle Ebene R2 mit den beiden Koordinaten x und y, und die 1-Form ω ist gegeben durch   ω = x dy  . Nun ist   dω   =   dx Λ dy   ungleich Null. Nach dem Lemma von Poincare kann es daher keine einzelne skalare Funktion Φ geben, so dass überall   ω = dΦ   gilt. Nur lokal ist das möglich. Dazu wählen wir einen beliebigen Punkt   p = (a,b)   aus und betrachten die Umgebung dieses Punktes. In dieser Umgebung definieren wir die skalare Funktion Φ als   Φ(x,y) = a y   , so dass   dΦ(x,y) = a dy   ist. Damit haben wir erreicht, dass im Punkt   p = (a,b)   die gewünschte Beziehung   ω(a,b) = dΦ(a,b)   gilt.

Schauen wir uns die Höhenlinien von   Φ(x,y) = a y   nahe bei   p = (a,b)   an: Φ steigt nur in y-Richtung an, und zwar mit der Steigung a. Der Anstieg wird also in Umgebungen weiter rechts immer steiler, aber gleichzeitig erfolgt der Anstieg immer in y-Richtung. So etwas ist nur mit lokal definierten Funktionen Φ erreichbar, nicht aber mit einer einzigen Funktion Φ.

Die Höhenlinien liegen also parallel zur x-Achse, und ihre Dichte ist proportional zur Steigung a. Je weiter rechts der Punkt   p = (a,b)   liegt, umso dichter sind die Höhenlinien der dort lokal definierten Funktion Φ. Wenn wir uns nun die gesamte Ebene mit kleinen Umgebungen gepflastert vorstellen und überall die Höhenlinien der entsprechenden Φ-Funktion einzeichnen, so erhalten wir folgendes Bild: Je weiter rechts eine Umgebung liegt, umso mehr waagrechte Höhenlinien enthält sie, weil das lokal definierte Φ stärker in y-Richtung ansteigt. An den Grenzen der Umgebungen kommen also von links nach rechts immer neue Höhenlinien dazu. Wenn wir die Umgebungen unendlich klein werden lassen, so entspricht dies einer bestimmten Entstehungsdichte von nach rechts fortlaufenden Höhenlinien. Diese Entstehung von neuen Höhenlinien ist die Ursache dafür, dass wir nicht die Höhenlinien einer einzigen Funktion Φ in der ganzen Ebene verwenden können. Daraus folgt auch, dass   dω ≠ 0   sein muss, denn sonst gäbe es nach dem Lemma von Poincare eine einzige Funktion Φ mit   ω = dΦ  . Also haben wir: Wenn neue Höhenlinien entstehen, so ist   dω ≠ 0  . Wir werden später sehen, dass wir tatsächlich die Verteilung der Anfangspunkte von Höhenlinien als eine Veranschaulichung der 2-Form   dω   =   dx Λ dy   ansehen können. Mehr dazu weiter unten


In der zweidimensionalen Ebene kann man sich die 1-Form   ω = x dy   durch Linien (blau) parallel zur x-Achse veranschaulichen, bei denen die Dichte dieser Linien nach rechts proportional zu x zunimmt. Die Anfangspunkte der Höhenlinien (rot) liefern eine Veranschaulichung der 2-Form   dω   =   dx Λ dy   (warum kommt später). Siehe auch im Internet von Dan Piponi: On the Visualisation of Differential Forms, December 1998.


Das Höhenlinien-Bild lässt sich auch gut auf Kurvenintegrale von 1-Formen anwenden. Bei einem solchen Kurvenintegral werden einfach die auf dem Weg durchstoßenen Höhenlinien (ggf. mit negativem Vorzeichen beim Abstieg) aufsummiert. Ist   dω = 0   , so gehören die Höhenlinien zum Gebirge einer einzigen Funktion Φ, und es ist egal, auf welchem Weg man von einem Punkt p zu einem Punkt q geht: man muss immer insgesamt denselben Höhenunterschied überwinden. Das Kurvenintegral ist dann wegunabhängig (Integralsatz von Stokes für exakte 1-Formen). Dies ist anders, wenn Höhenlinien neu entstehen können, so dass   dω ≠ 0   ist. Hier kommt es sehr wohl auf den Weg an!

Damit haben wir 1-Formen und Kurvenintegrale im Detail besprochen. Wir wollen nun versuchen, die Begriffe und Ideen auch auf höhere Dimensionen zu übertragen. Dabei wollen wir schrittweise vorgehen und statt 1-Formen zunächst 2-Formen sowie statt Integralen über Kurven nun Integrale über zweidimensionale Flächen betrachten. Wenn wir das erst einmal verstanden haben, ist der Schritt zu beliebigen Dimensionen dann nicht mehr schwer.



2-Formen:

Man kann alle oben für 1-Formen formulierten Begriffe und Zusammenhänge auf 2-Formen (und allgemein auf p-Formen) übertragen. Dabei sind 2-Formen einfach antisymmetrische bilineare Abbildung von den Tangentialräumen in die reellen Zahlen. In dem Ausdruck   ω(p) (u(p), v(p))   ist also ω(p) die 2-Form im Punkt p,   u(p) und v(p) sind Tangentialvektoren aus dem Tangentialraum T(p) , und   ω(p) (u(p), v(p))   ist insgesamt eine reelle Zahl. Die Abbildung ω(p) ist dabei linear in jedem der beiden Argumente, und es gilt   ω(p) (u(p), v(p))   =   − ω(p) (v(p), u(p))   (Antisymmetrie).

Dabei ist die Antisymmetrie entscheidend. Dies haben wir bei der Definition der d-Ableitung und dem Integralsatz von Stokes bereits gesehen. Es wird sich weiter unten noch zeigen, dass man Integrale von 2-Formen über Flächen nur dann unabhängig von der Flächenparametrisierung definieren kann, wenn man die Antisymmetrie der 2-Form verwendet. Nur dann ist das Symmetrieverhalten nämlich verträglich mit der Substitutionsregel für Integrale, bei der die Determinante des Parameterwechsels auftritt.

Wir kennen 2-Formen das bereits aus Kapitel 5.1.8  Krümmung sowie oben von der Definition von dω mit der 1-Form ω . Schauen wir uns die Details noch einmal an:

Aus der Bilinearität der 2-Form ω und der Antisymmetrie folgt (wir lassen die Argumente wie p zur Vereinfachung weg;   u und v sind beliebige Tangentialvektoren):

  ω(u,v)   =  
  =   ∑μν uμ vν ω(d/dxμ, d/dxν)   =  
  =   ∑μ < ν uμ vν ω(d/dxμ, d/dxν)   +   ∑μ > ν uμ vν ω(d/dxμ, d/dxν)   =  
  =   ∑μ < ν uμ vν ω(d/dxμ, d/dxν)   +   ∑ν > μ uν vμ ω(d/dxν, d/dxμ)   =  
  =   ∑μ < ν uμ vν ω(d/dxμ, d/dxν)   −   ∑μ < ν uν vμ ω(d/dxμ, d/dxν)   =  
  =   ∑μ < ν   (uμ vν   − uν vμ)   ω(d/dxμ, d/dxν)   =:  
  =:   ∑μ < ν   ωμν   [ dxμ Λ dxν ] (u, v)

Dabei haben wir verwendet, dass die Terme mit μ = ν wegen der Antisymmetrie gleich Null sind, und wir haben einmal die Indices μ und ν ineinander umbenannt sowie die Antisymmetrie von   ω(d/dxμ, d/dxν)   verwendet, was den Vorzeichenwechsel bewirkt. Zusammengefasst haben wir also:

  • Basisentwicklung von 2-Formen:

    Wegen der Bilinearität und der Antisymmetrie kann man jede 2-Form ω bei einer gegebenen Koordinatenfunktion f nach Basisformen   dxμ Λ dxν   wie folgt entwickeln (die Argumente p haben wir weggelassen):

      dω   =   ∑μ < ν   ωμν   dxμ Λ dxν       mit

      [ dxμ Λ dxν ] (u, v)   :=   uμ vν   −   uν vμ       sowie

      ωμν   :=   ω(d/dxμ, d/dxν)


Der d-Operator verwandelt 1-Formen in 2-Formen:

Wir hatten oben bereits gesehen, dass der d-Operator 1-Formen in 2-Formen verwandelt. Lokal (also in einer Umgebung eines festen Punktes p) geht das immer, d.h. man kann zu einer 2-Form ω(p) immer eine 1-Form π finden, die in einer (kleinen) Umgebung von p definiert ist, so dass   dπ(p) = ω(p)   gilt. Zur Erinnerung hier die Basis-abhängige Definition des d-Operators von oben:

  dπ(p)   =  
  :=   ∑ν   dπν(p) Λ dxν|p   =  
  =   ∑μν   dπν(f −1(x)) / dxμ   dxμ|p Λ dxν|p   =  
  =   ∑μ < ν   [ dπν(f −1(x)) / dxμ   −   dπμ(f −1(x)) / dxν ]   dxμ|p Λ dxν|p   =  
  ω(p)   =  
  =   ∑μ < ν   ωμν(p)   dxμ|p Λ dxν|p       so dass

  ωμν(p)   =   dπν(f −1(x)) / dxμ   −   dπμ(f −1(x)) / dxν

Wann eine solche Beziehung zwischen π und ω über einen Punkt p hinaus in einem Gebiet G gilt, werden wir wieder weiter unten sehen (Integrabilitätsbedingung).

Die obige Basis-abhängige Definition ist leider etwas unanschaulich: Warum definiert man die d-Ableitung gerade so? Wir wollen daher noch eine zweite Basis-unabhängige Definition angeben und zeigen, dass sie zur obigen Basis-abhängigen Definition führt. Dazu schauen wir uns noch einmal die Basis-unabhängige Definition der d-Ableitung bei 0-Formen an:

  dΦ(p) u(p)   :=   u(p) Φ   =   dΦ(γ(t)) / dt |t = 0

mit   p = γ(0)  . Die d-Ableitung der 0-Form Φ ist also so definiert, dass sich mit ihrer Hilfe die Richtungsableitung der Funktion Φ in eine beliebige Richtung ausrechnen lässt, indem man dΦ auf den entsprechenden Tangentialvektor anwendet.

Wie lässt sich das auf 1-Formen übertragen?

Schauen wir uns dazu den Ausdruck   π(p) u2(p)   mit einer 1-Form π an. Durch diesen Ausdruck wird eine skalare Funktion auf der Mannigfaltigkeit M definiert, denn   π(p) u2(p)   ist für jeden Punkt p eine reelle Zahl. Wir wollen diese Funktion mit   π u2   bezeichnen, d.h.   [π u2](p)   :=   π(p) u2(p)  .

Da dπ eine 2-Form werden soll, benötigen wir 2 Tangentialvektoren. Daher ersetzen wir die Kurve   γ(t)   durch eine Flächenparametrisierung   γ(t1, t2)   mit zwei Parametern   t1   und   t2  , d.h. γ ist eine Abbildung von R2 in die Mannigfaltigkeit M. Zur Vereinfachung der Schreibweise schreiben wir   (t1, t2)   =   t  . Wir setzen   p = γ(0) = γ(0, 0)  . Die Tangentialvektoren in ti -Richtung in   t = 0   bezeichnen wir mit   ui(p)  .

Für die Funktion   π u2   können wir nun analog zu Φ die Richtungsableitung beispielsweise in t1-Richtung bilden:

  d[π(γ(t)) u2(γ(t))] / dt1 |t = 0   =   u1(p) [π u2]

Dieser Ausdruck ist linear in u2 (denn die skalare Funktion   π(γ(t)) u2(γ(t))   ist linear in u2) und linear in u1 (so wie auch   dΦ(p) u(p)   linear in u(p) war). Er ist also bilinear in u1 und u2 . Allerdings ist   d1π   noch keine 2-Form, denn sie ist nicht unbedingt antisymmetrisch in u1 und u2 . Außerdem treten noch Ableitungen von u2 darin auf. Wir können aber leicht einen entsprechenden antisymmetrischen Ausdruck konstruieren:

  dπ(p) (u1(p), u2(p))   :=  
  =   u1(p) [π u2]   −   u2(p) [π u1]   =  
  =   d[π(γ(t)) u2(γ(t))] / dt1 |t = 0   −   d[π(γ(t)) u1(γ(t))] / dt2 |t = 0

Dieser Ausdruck leistet das Gewünschte: er ist bilinear und antisymmetrisch in u1 und u2 , und er enthält keine Ableitungen der Tangentialvektoren ui mehr (wie wir gleich noch sehen werden). Hier sehen wir, wie sich in natürlicher Weise die Definition der d-Ableitung von 0-Formen auf 1-Formen übertragen lässt (und analog auf höhere Differentialformen). Besonders für den Integralsatz von Stokes wird sich weiter unten diese Basis-unabhängige Schreibweise noch als nützlich erweisen.

Wir wollen noch zeigen, dass die obige Definition tatsächlich unserer Basis-abhängigen Definition von oben entspricht, und dass die Ableitungen der Tangentialvektoren ui wegfallen:

  d[π(γ(t)) u2(γ(t))] / dt1   −   d[π(γ(t)) u1(γ(t))] / dt2   =  

  =   ∑μ  ( dπμ(γ(t))/dt1   u2μ(γ(t))   +   πμ(γ(t))   du2μ(γ(t))/dt1   +  
          −   dπμ(γ(t))/dt2   u1μ(γ(t))   −   πμ(γ(t))   du1μ(γ(t))/dt2 )   =   ...

Die Ableitungen von πμ rechnen wir mit Hilfe der Kettenregel aus, wobei wir πμ direkt als Funktion der Koordinaten   x = f(γ(t))   auffassen (wir sparen uns also das explizite Einschieben der Koordinatenfunktion f, um die Schreibweise nicht zu überfrachten; die formal saubere Schreibweise findet man weiter oben). Außerdem verwenden wir die Kurzschreibweise
  uμi   =   dγμ/dti   =   df μ(γ(t))) / dti
und lassen die Argumente   γμ(t)   weg. Die Ableitungsterme von   ui   heben sich wegen der Vertauschbarkeit der Ableitungen nach t1 und t2 gegenseitig auf, denn
  du2μ/dt1   =   d(dγμ/dt2) dt1)   =   d(dγμ/dt1) dt2)   =   du1μ/dt2
Wir haben also:

  =   ∑μν  ( dπμ/dxν   dγν/dt1   u2μ   −   dπμ/dxν   dγν/dt2   u1μ )   =  

  =   ∑μν   dπμ/dxν   ( u1ν u2μ   −   u1μ u2ν )   =  

  =   ∑μν   dπμ/dxν   [dxν Λ dxμ] (u1, u2)   =  

  =   dπ(γ(t)) (u1(γ(t)), u2(γ(t)))

Fassen wir zusammen (wobei wir analog zur Basis-abhängigen Definition von oben wieder ω statt π schreiben wollen):

  • d-Operator für 1-Formen (Basis-unabhängige Definition):

    Für eine 1-Form   ω(p)   =   ∑ν   ων(p) dxν|p   definieren wir den d-Operator durch

      dω(γ(t)) (u1(γ(t)), u2(γ(t)))   :=   d[ω(γ(t)) u2(γ(t))] / dt1   −   d[ω(γ(t)) u1(γ(t))] / dt2

    Dabei ist   t   :=   (t1, t2)   und   γ(t)   ist eine Flächenparametrisierung (also eine Abbildung zweier reeller Parameter in die Mannigfaltigkeit M).
    In einer Koordinatenbasis ausgeschrieben ergibt sich daraus die Basis-abhängige Definition von oben:

      dω(p)   =   ∑ν   dων(p) Λ dxν|p   =   ∑μν   dων(f −1(x)) / dxμ   dxμ|p Λ dxν|p

Diese Definition lässt sich leicht auch auf höhere Dimensionen verallgemeinern. Details folgen weiter unten.


Flächenintegrale über 2-Formen:

Gehen wir analog zu den 1-Formen vor:

Um eine 2-Form   ω(p)   auswerten zu können, benötigt man im Punkt p zwei Tangentialvektoren. Eine 2-dimensionale Untermannigfaltigkeit (Fläche) in unserer mindestens 2-dimensionalen Mannigfaltigkeit M liefert in jedem ihrer Punkte zwei solche Tangentialvektoren. Die Anwendung von ω(p) auf diese beiden Tangentialvektoren liefert eine reelle Zahl. Wir können diese Zahlen nun über die Fläche (oder über einen Teil davon) aufsummieren (genauer: aufintegrieren), wobei wir wieder voraussetzen, dass ω dort überall definiert ist.

Wie bei der Kurve wollen wir auch die Fläche (oder einen Teil davon) durch eine Parameterdarstellung kennzeichnen, also durch eine Funktion γ , die jeweils zwei reellen Zahlen (Flächenparametern) t1 und t2 einen Punkt   p   =   γ(t1, t2)   zuordnet. Wir schreiben im Folgenden   t   :=   (t1, t2)  , also z.B.   p   =   γ(t)   Dabei müssen wir noch den Zahlenbereich festlegen, den die beiden Flächenparameter überstreichen sollen. Wir wollen diesen Bereich analog zum eindimensionalen Fall mit   T   bezeichnen, d.h. es gilt   t   =   (t1, t2) ∈ T  , und T ist eine geeignete Untermenge von R2. Dabei bedeutet geeignet, dass T konvex ist oder das diffeomorphe Bild einer solchen Menge ist (konvex heißt, dass gerade Verbindungsstrecken zwischen zwei Punkten von T auch in T liegen). Außerdem soll die Parameterfunktion γ differenzierbar und injektiv sein. Mit anderen Worten: wir wollen über ein vernünftiges zusammenhängendes Flächenstück integrieren und keine Probleme mit Löchern, Überlappungen, unzusammenhängenden Stücken etc. haben. Wir sprechen auch von einem einfachen 2-Flächenstück. Außerdem soll γ so sein, dass für jeden Punkt des Flächenstücks ein zweidimensionaler Tangentialraum existiert, der durch Tangentialvektoren in Richtung der beiden Parameter aufgespannt wird. Die Fläche soll also wirklich zweidimensional sein (auf was man so alles achten muss ... ). Später werden wir solche 2-Flächenstücke zu größeren Untermannigfaltigkeiten zusammensetzen. Dabei wird sich als wichtig erweisen, dass diese Untermannigfaltigkeiten orientierbar sind, also nicht wie das Möbiusband aussehen (Bild siehe weiter unten). Für das Möbiusband sind Flächenintegrale von 2-Formen nicht definiert.

Für das Integral brauchen wir noch ein geeignetes Integrationsmaß dμ(t) auf dem Parameterraum T. Wie üblich verwenden wir das Standardmaß für karthesische Koordinaten im R2 :

  dμ(t)   =   dt1 dt2  

Das uns interessierende Flächenintegral definieren wir nun analog zum Kurvenintegral durch

  I γ(T)   :=   ∫T   [ω(γ(t)) (u1(γ(t)), u2(γ(t)))]   dμ(t)

wobei natürlich   ui(γ(t))   der Tangentialvektor in ti-Richtung ist, d.h. beispielsweise   u1(p) Φ   =   dΦ(γ(t)) / dt1   mit p = γ(t).

Es wäre schön, wenn dieses Integral analog zum eindimensionalen Fall nicht von der Parametrisierung der Fläche abhängen würde. Schauen wir uns also an, was bei einer Umparametrisierung der Fläche geschieht.

Umparametrisierung der Fläche bedeutet, dass wir das Parameterpaar   t   =   (t1, t2)   als Funktion eines neuen Parameterpaars ansehen:
  t   =   (t1, t2)   =   φ(t1', t2')   =   φ(t')  
mit einer umkehrbaren Funktion φ, die von R2 nach R2 geht. So könnte man beispielsweise zu zweidimensionalen sphärischen Koordinaten übergehen, also
  t1   =   t1' cos t2'
  t2   =   t1' sin t2'
verwenden.

Die Fläche wird bzgl. der neuen Parametrisierung durch eine neue Funktion ρ(t') beschrieben, wobei   γ(t) = γ(φ(t')) =: ρ(t')   sein soll, d.h.   γ ο φ = ρ   (ganz analog zum eindimensionalen Fall). Betrachten wir nun das folgende Integral, das sich auf die neue Flächenparametrisierung ρ bezieht:

  I ρ(T')   :=   ∫T'   [ω(ρ(t')) (v1(ρ(t')), v1(ρ(t')))]   dμ(t')

Dabei sind   vi(γ(t'))   die Tangentialvektoren in die neuen Parameterrichtungen ti' im Punkt ρ(t'), und   T'   ist der Parameterbereich der gestrichenen Parameter, so dass die Integration über dieselbe Fläche geht wie beim Integral I γ(T) oben (also   T = φ(T')  ). Wir hoffen natürlich, dass wie oben wieder   I γ(T) = I ρ(T')   gilt. Also versuchen wir, den Nachweis dafür analog zum eindimensionalen Fall zu führen, indem wir wieder I ρ(T') durch Einsetzen von   γ(φ(t')) = ρ(t')   umschreiben:

  I ρ(T')   :=   ∫T'   [ω(γ(φ(t'))) (v1(γ(φ(t'))), v2(γ(φ(t'))))]   dμ(t')

Wir wollen nun wieder die v-Tangentialvektoren durch die u-Tangentialvektoren ausdrücken:

  vi(ρ(t')) Φ   =  
  =   dΦ(ρ(t'))/dti'   =  
  =   dΦ(γ(φ(t')))/dti'   =  
  =   ∑j   dΦ(γ(t)/dtj   dφj(t')/dti'   =  
  =   ∑j   [uj(γ(t)) Φ]   dφj(t')/dti'   =  
  =   ∑j   [uj(γ(φ(t'))) Φ]   dφj(t')/dti'   =:  
  =:   [∑j   dφj(t')/dti'   uj(γ(φ(t')))] Φ

d.h. für die Umrechnung benötigen wir die Jacobimatrix der Umparametrisierungsfunktion φ mit den Matrixelementen   dφj(t'))/dti'  . Physiker würden bei einer Einbettung kürzer einfach schreiben:
  dx/dti'   =   ∑j   dx/dtj   dtj/dti'

Fassen wir das Ergebnis noch einmal zusammen:

  • Transformation von Tangentialvektoren bei Parametertransformation der Fläche:

    Wir gehen von einer Flächenparametrisierung   γ(t)   aus mit zugehörigen Tangentialvektoren   ui(γ(t))  . Nun wechseln wir zu einem neuen Parameterpaar t', indem wir t als abhängig von t' betrachten:   t = φ(t')  . Die Fläche wird nun bezüglich t' durch die Funktion   ρ(t')   :=   γ(φ(t'))   =   γ(t)   beschrieben. Die zu ρ gehörenden Tangentialvektoren nennen wir   vi(ρ(t'))  . Dann gilt:

      vi(ρ(t'))   =   ∑j   dφj(t')/dti'   uj(γ(φ(t')))

Dieses Ergebnis können wir nun im Integranden von   I ρ(T')   einsetzen, wobei wir wieder ausnutzen, dass ω eine bilineare Abbildung ist:

  I ρ(T')   =   ∫T'   [ω(γ(φ(t'))) (v1(γ(φ(t'))), v2(γ(φ(t'))))]   dμ(t')   =  
  =   ∫T'   [ω(γ(φ(t'))) ( ∑j   dφj(t')/dt1'   uj(γ(φ(t'))) ,   ∑k   dφk(t')/dt2'   uk(γ(φ(t'))) )]   dμ(t')   =  
  =   ∫T'   ∑jk   dφj(t')/dt1'   dφk(t')/dt2'   [ω(γ(φ(t'))) ( uj(γ(φ(t'))), uk(γ(φ(t'))))]   dμ(t')   =   ...

Wir würden nun gerne für jeden Summanden die Tangentialvektoren uj und uk in ω so vertauschen, dass   ω(u1, u2)   entsteht, so wie das in   I γ(T)   der Fall ist. Wir wollen dies direkt so vornehmen, dass sich die Vorgehensweise auf den höherdimensionalen Fall übertragen lässt.

Dazu verwenden wir den bekannten Begriff der Permutation: eine Permutation ist eine Umsortierung in einer geordneten Liste natürlicher Zahlen. So kann eine spezielle Permutation beispielsweise aus der Liste   (2, 5, 11, 3)   die neue Liste   (11, 2, 3, 5)   machen. Nun kann man jede Permutation dadurch erzeugen, dass man nacheinander einzelne Zahlen miteinander vertauscht. In dem obigen Beispiel vertauscht man dazu zuerst die Zahlen 2 und 11 mit dem Ergebnis   (11, 5, 2, 3)   (damit ist die erste Zahl schon mal richtig), danach die Zahlen 2 und 5 mit dem Ergebnis   (11, 2, 5, 3)  , und zum Schluss noch die Zahlen 3 und 5 mit dem Ergebnis   (11, 2, 3, 5)  . Wir haben also drei Vertauschungen benötigt, um die Permutation zu erreichen. Man kann nun das Signum (Vorzeichen) einer Permutation definieren: Für eine gerade Zahl von Vertauschungen ist das Signum der Permutation gleich   1 , bei einer ungeraden Zahl von Vertauschungen gleich   − 1 . In unserem Beispiel wäre also das Signum der Permutation gleich   − 1 . Übrigens macht die Signum-Definition natürlich nur Sinn, wenn in der Zahlenliste keine Zahl doppelt vorkommt, denn sonst wäre die Zahl der Vertauschungen nicht eindeutig festgelegt (man könnte ja zwei identische Zahlen miteinander vertauschen, ohne dass sich etwas ändert). Daher definieren wir das Signum für solche Fälle mit mehrfach vorkommenden Zahlen als Null.

In unserem Integranden oben können wir   (j, k)   als Permutation von   (1, 2)   betrachten (j und k sind ja gleich 1 oder 2, und die Terme mit i = j können wir aufgrund der Antisymmetrie von ω sowieso weglassen. Wir schreiben einfach direkt   (j, k)   für diese Permutation. Dann gilt:

  ω(uj, uk)   =   sign(j, k)   ω(u1, u2)  

Dabei ist der Fall j = k wegen sign(j, j) = 0 direkt mit enthalten. Das Verhalten von ω beim Vertauschen der Argumente ist übrigens vollkommen identisch mit dem Verhalten einer Determinante beim Vertauschen der Spalten -- auch im mehrdimensionalen Fall (siehe unten). In diesem Sinn sind Differentialformen gleichsam verträglich mit Determinanten, und genau deshalb ergibt sich auch die Unabhängigkeit von der Parametrisierung, denn bei Umparametrisierungen von Integralen tritt gemäß der Transformationsformel die Jacobideterminante der Umparametrisierung auf. Die Details sehen wir gleich noch genauer.

Man könnte natürlich fragen, ob wir hier nicht mit Kanonen auf Spatzen geschossen haben. Schließlich sind oben nur die beiden Fälle   sign(1, 2) = 1   und   sign(1, 2) = − 1   interessant, und wir hätten alles auch ganz ohne Permutationen und den Signum-Begriff durchführen können. Bei mehr Dimensionen wird es aber immer schwieriger, sich zu Fuß durchzuschlagen. Daher haben wir schon hier alles so formuliert, wie wir es auch bei mehr Dimensionen brauchen. Setzen wir also unser Ergebnis oben ein:

...   =   ∫T'   ∑jk   sign(j, k)   dφj(t')/dt1'   dφk(t')/dt2'   [ω(γ(φ(t'))) ( u1(γ(φ(t'))), u2(γ(φ(t'))))]   dμ(t')   =  
  =:   ∫T'   det( dφ(t')/dt' )   [ω(γ(φ(t'))) ( u1(γ(φ(t'))), u2(γ(φ())))]   dμ(t')   =   ...

Dabei haben wir die Definition der Determinante der Jacobimatrix   dφ(t')/dt'   =   (dφj(t')/dtk')   verwendet, also

  det( dφ(t')/dt' )   :=   ∑jk   sign(j, k)   dφj(t')/dt1'   dφk(t')/dt2'  

In unserem zweidimensionalen Fall ist dann natürlich

  det( dφ(t')/dt' )   :=   dφ1(t')/dt1'   dφ2(t')/dt2'   −   dφ2(t')/dt1'   dφ1(t')/dt2'  

(zum Begriff der Determinante siehe z.B. im Wikipedia-Online-Lexikon http://en.wikipedia.org/wiki/Determinant ). Man kann nun direkt die Transformationsregel für mehrdimensionale Integrale anwenden. Wir wollen hier diese Regel noch einmal kurz motivieren:

Wenn man auf das zweidimensionale Einheitsquadrat mit Flächeninhalt gleich 1 eine 2 x 2 - Matrix A anwendet (d.h. aus jedem Punkt t wird der Punkt   A t   ) , so einsteht ein Parallelogramm, dessen Kanten durch die beiden Spaltenvektoren von A gegeben sind. Wie man in der Vektoranalysis zeigt, hat es den Flächeninhalt   |det(A)|  . Analog ist es auch in höheren Dimensionen. Den Beweis führt man mit Hilfe der vollständigen Induktion, mit der man sich durch geeignete Zerlegung der Matrix A in den Dimensionen nach oben hangeln kann. Weiter unten werden wir für den zweidimensionalen Fall noch einmal explizit zeigen, dass det(A) die Fläche des Parallelogramms ist (Stichwort: Gramsche Matrix).

Nun kann man die Abbildung φ lokal durch die 2 x 2 - Jacobi-Matrix   dφ(t')/dt' annähern. Wendet man daher φ auf ein sehr kleines Quadrat mit Kantenlängen dt1' und dt2' und Flächeninhalt   dμ(t')   =   dt1' dt2'   an, so entsteht daraus ein Parallelogramm mit Flächeninhalt
  dμ(t)   =   dμ(φ(t'))   =   |det( dφ(t')/dt' )|   dμ(t')  
Dies können wir oben verwenden und so im Integral zu den ungestrichenen Integrationsvariablen übergehen. Um dabei keine Vorzeichenprobleme zu bekommen, wollen wir uns auf solche Umparametrisierungen beschränken, die eine positive Jacobi-Determinante   det( dφ(t')/dt' )   haben, so dass wir die Betragsstriche weglassen können. Diese Umparametrisierungen bezeichnen wir als orientierungserhaltend:

  I ρ(T')   =  
  =   ∫T'   det( dφ(t')/dt' )   [ω(γ(φ(t'))) ( u1(γ(φ(t'))), u2(γ(φ(t'))))]   dμ(t')   =  
  =   ∫T   [ω(γ(γ(t)) ( u1(γ(t)), u2(γ(t)))]   dμ(t)   =  
  =   I γ(T)

Das Flächenintegral ändert sich also wieder bei der Umparametrisierung (mit positiver Jacobi-Determinante) nicht. Die Ursache dafür liegt darin, dass aufgrund der Antisymmetrie der 2-Form bei der Umparametrisierung genau die Jacobi-Determinante entsteht, die man für die Transformationsregel (also für die Umrechnung der kleinen Parameter-Flächenstücke im Integral in die neue Parametrisierung) benötigt. Fassen wir zusammen:

  • Flächenintegrale über 2-Formen sind unabhängig von der Parametrisierung der Fläche (solange die Orientierung erhalten bleibt):

    Wir betrachten das (orientierte) Flächenintegral

      I γ(T)   :=   ∫T   [ω(γ(t)) ( u1(γ(t)), u2(γ(t)))]   dμ(t)

    Dabei ist die Parametermenge T eine Teilmenge des R2, die offen und konvex ist oder das diffeomorphe Bild einer solchen Menge ist, und es ist   t   =   (t1, t2)  . γ ist eine (gutartige) Funktion von T in die Mannigfaltigkeit M, die ein Flächenstück γ(t) in der Mannigfaltigkeit M parametrisiert. Weiter ist ω eine 2-Form, ui sind die Tangentialvektoren in ti-Richtung und   dμ(t)   =   dt1 dt2   ist das übliche 2-dimensionale Integrationsmaß.

    Das obige Integral ändert sich bei einer orientierungserhaltenden Umparametrisierung der Fläche nicht. Das bedeutet:

    Wenn wir t als Funktion eines neuen Flächenparameterpaars t' betrachten ( d.h.   t = φ(t')   mit positiver Jacobi-Determinante   det( dφ(t')/dt' )   ) und die Fläche mit Hilfe des neuen Parameterpaars t' beschreiben (d.h. die Fläche wird durch die Funktion   ρ(t')   :=   γ(φ(t'))   =   γ(t)   beschrieben), so ist

      I γ(T)   =   I ρ(T')     mit

      I ρ(T')   :=   ∫T'   [ω(ρ(t')) (v1(ρ(t')), v1(ρ(t')))]   dμ(t')

    Dabei sind   vi   die Tangentialvektoren in die neuen Parameterrichtungen ti', und   T'   ist der Parameterbereich der gestrichenen Parameter, so dass die Integration über dieselbe Fläche geht wie beim Integral I γ(T) oben (also   T = φ(t')  ). Als neue Schreibweise führen wir analog zu den 1-Formen ein:

      I γ(T)   =:   ∫γ(T) ω   =   ∫T   [ω(γ(t)) ( u1(γ(t)), u2(γ(t)))]   dμ(t)

    γ(T) ω   hängt dabei nur von dem durchlaufenen Flächenstück auf der Mannigfaltigkeit ab sowie von der durch die Funktion γ gegebenen Orientierung, in der es durchlaufen wird. Das Integral hängt nicht von der Geschwindigkeit ab, mit der das Flächenstück durchlaufen wird (d.h. es ändert seinen Wert bei orientierungserhaltenden Umparametrisierungen der Kurve nicht). Der Grund dafür liegt darin, dass das Symmetrieverhalten der 2-Form dem einer Determinante entspricht.

In der mathematischen Literator findet man oft andere elegant aussehende Formulierungen für die obige Aussage, die mit Hilfe des sogenannten Pullbacks von Differentialformen formuliert sind -- wir sind bei den 1-Formen oben bereits kurz darauf eingegangen. Im Prinzip kennen wir den Pullback bereits aus Kapitel 5.1.10: Lie-Ableitung und Killingsche Vektorfelder , nur dass die dortige Flussabbildung hier durch die Umparametrisierung φ zu ersetzen ist. Wir wollen hier nicht näher darauf eingehen, da wir dadurch inhaltlich nichts Neues erfahren würden (von dem manchmal etwas kryptischen Formalismus einmal abgesehen). Das Kapitel ist sowieso schon lang genug.


Interpretationen und Schreibweisen:

Versuchen wir, analog zu den 1-Formen vorgehen. Dazu schreiben wir   dμ(t)   =   dt1 dt2  , ziehen die dti unter die 2-Form und verwenden   dxi   :=   ui dti   (anschaulich ist dann   dxi   ein kleiner Tangentialvektor in ti-Richtung):

  I γ(T)   =  
  =   ∫T   [ω(γ(t)) ( u1(γ(t)), u2(γ(t)))]   dμ(t)   =  
  =   ∫T   [ω(γ(t)) ( u1(γ(t)) dt1,   u2(γ(t)) dt2)]   =  
  =   ∫T   [ω(γ(t)) ( dx1, dx2 )]   =  
  =   ∫T   ∑μν   ωμν(γ(t))   dxμ1 dxν2

Hier ist die Ähnlichkeit mit

  I γ(T)   =   ∫γ(T) ω   =   ∫γ(T)   ∑μ < ν   ωμν   dxμ Λ dxν

auf den ersten Blick noch nicht so überzeugend wie bei den 1-Formen. Wenn wir jedoch wie in Kapitel 5.1.9: Abstände und Winkel: die Metrik die Schreibweise
  dxμ Λ dxν   =   dxμ ο dxν   − dxν ο dxμ  
mit dem Tensorprodukt
  [dxμ ο dxν] (u, v)   :=     [dxμ u]   [dxν v]   =   uμ vν
verwenden, so ist
  ω   =   ∑μν   ωμν   dxμ ο dxν
und wir haben

  I γ(T)   =   ∫γ(T) ω   =   ∫γ(T)   ∑μν   ωμν   dxμ ο dxν

Das sieht unserem obigen Ausdruck
  I γ(T)   =   ∫T   ∑μν   ωμν(γ(t))   dxμ1 dxν2
schon sehr ähnlich, wobei die Indices 1 und 2 anzeigen, dass zwei verschiedene Tangentialvektoren zu verwenden sind, da man ja über eine Fläche integriert.
Zum Vergleich: Bei der Metrik   g   =   ∑μν   gμν dxμ ο dxν   und dem entsprechenden Integral
  Lγ(T)   =   ∫γ(T) √ g
integriert man über eine Kurve und hat es deshalb nur mit einem Tangentialvektor zu tun -- daher gibt es hier keinen Index 1 oder 2.

Bei den 1-Formen konnte man bei einer vorhandenen Metrik nun weiter die Bogenlänge einführen und dx als Wegstück der Länge ds ansehen. Bei 2-Formen hätten wir sicher gerne analog so etwas wie ein Flächenstück. Außerdem konnte man 1-Formen im Wegintegral dann sehr schön als Skalarprodukt eines Vektors mit dem Wegstück dx verstehen. Bei 2-Formen geht das offenbar nicht ganz so einfach, aber wir wollen uns im Folgenden ansehen, was sich erreichen lässt.


2-Formen und Metrik (Skalarprodukt):

Wie bei 1-Formen wollen wir uns ansehen, was geschieht, wenn wir auf der Mannigfaltigkeit eine Metrik zur Verfügung haben (siehe Kapitel 5.1.9: Abstände und Winkel: die Metrik ). Kann man analog zum Bogenmaß ein Flächenmaß finden? Lassen sich 2-Formen anschaulich über das Skalarprodukt interpretieren?

Dazu stellen wir uns die Fläche γ(t) eingebettet in den dreidimensionalen euklidischen Raum vor, so dass wir uns die beiden kleinen Wegstücke   dx1   :=   u1 dt1   und   dx2   :=   u2 dt2   (siehe oben) anschaulich als zwei sehr kleine Tangentialvektoren vorstellen können. Wir können uns weiter vorstellen, dass wir die Fläche γ(t) in sehr viele sehr kleine Fast-Parallelogramme mit solchen Kantenvektoren aufteilen können. Diese Kanten haben die Längen
  |dxi|   =   dsi   =     √ (g(ui, ui))   dti

Schauen wir uns zum Vergleich ein Parallelogramm im R2 mit Kantenvektoren a1 und a2 an. In karthesischen Koordinaten (hier geht die Metrik ein!) ist die Fläche dieses Parallelogramms gegeben durch die Determinante der Matrix A mit den Spaltenvektoren a1 und a2, d.h. A hat die Komponenten   Aij = (aj)i   mit den karthesischen Vektorkomponenten (aj)i (genauer müssten wir den Betrag der Determinante nehmen, da die Fläche positiv sein soll).

Es wäre nun ungünstig, karthesische Koordinaten voraussetzen zu müssen. Daher wollen wir det(A) noch etwas umrechnen. Dazu verwenden wir die transponierte Matrix AT, so dass   ATij := Aji   ist. Die Matrix   AT A   hat dann die Komponenten
  (AT A)ij   =   ∑k ATik Akj   =   ∑k Aki Akj   =   ∑k (ai)k (aj)k   =   á ai, aj ñ   =:   Gij
Das vorletzte Gleichheitszeichen ist dabei die Präzisierung der Aussage, dass wir mit karthesischen Vektorkomponenten (aj)i gearbeitet haben, denn nur dann ergibt die Summe über k auch das euklidische Skalarprodukt. Man bezeichnet G als Gramsche Matrix.

Bilden wir nun die Determinante:

  det(G)   =   det(AT A)   =   det(AT) det(A)   =   det(A) det(A)   =   [det(A)]2

d.h. die Fläche des Parallelogramms (gegeben durch det(A) ) ist auch gleich   √ det(G)  . Diese Formulierung hat den Vorteil, dass keine karthesischen Koordinaten mehr gebraucht werden. Außerdem kann man im zweidimensionalen Fall nun direkt verifizieren, dass   √ det(G)   anschaulich die Fläche des Parallelogramms sein muss. Diese Fläche ist nämlich gegeben durch die Länge der Grundseite (also z.B. |a1| ) mal der Höhe des Parallelogramms über dieser Grundseite, also mal   |a2   −   á e1, a2 ñ e1|   mit   e1   =   a1/|a1|  .


Die Fläche des durch die Vektoren a1 und a2 aufgespannten Parallelogramms ist gleich der Länge der Grundseite (also |a1| ) mal der Höhe über der Grundseite, gegeben durch den Vektor   h   =   a2   −   á e1, a2 ñ e1

Rechnen wir das Quadrat dieses Betrages (also der Höhe) aus:

|a2   −   á e1, a2 ñ e1|2   =  
  =   á a2   −   á e1, a2 ñ e1   ,   a2   −   á e1, a2 ñ e1 ñ   =  
  =   á a2, a2 ñ   −   2 á e1, a2 ñ2   +   á e1, a2 ñ2   =  
  =   á a2, a2 ñ   −   á e1, a2 ñ2

und mulitiplizieren es mit dem Betragsquadrat der Grundseite, also mal   á a1, a1 ñ  , so erhalten wir als Quadrat der Fläche den Ausdruck

á a1, a1 ñ   { á a2, a2 ñ   −   á e1, a2 ñ2 }   =  
  =   á a1, a1 ñ   á a2, a2 ñ   −   á a1, a2 ñ2   =  
  =   det(G)

d.h. die Wurzel dieses Ausdrucks entspricht der anschaulichen geometrischen Flächendefinition des Parallelogramms als Grundseite mal Höhe.

Im Folgenden wollen wir nun an Stelle des euklidischen Skalarproduktes des Einbettungsraums wieder die Metrik der Mannigfaltigkeit verwenden, um uns von der Einbettung zu lösen. Dabei setzen wir voraus, dass die Metrik positiv definit ist, um Komplikationen zu vermeiden (für die Relativitätstheorie mit ihrer indefiniten Metrik muss man also bei Bedarf darüber nachdenken, unter welchen Voraussetzungen sich die Überlegungen auch dort anwenden lassen). Damit ist die Fläche   dA   jedes der winzigen Parallelogramme mit Kantenvektoren   dx1   =   u1 dt1   und   dx2   =   u2 dt2   gleich

  dA   :=     √ det( g(dxi, dxj) )   =   √ [det( g(ui, uj) )]   dt1 dt2

in Analogie zur Länge ds eines Kurvenstücks. Achtung: der Faktor   dt1 dt2   steht nicht mehr unter der Wurzel, denn die dt-Faktoren kommen in der Determinante häufiger vor! Und: die Schreibweise   [det(g(ui, uj) )]   bedeutet, dass man die Determinante einer Matrix bildet, die die Matrixelemente   g(ui, uj)   hat.
Wie bei der Kurvenlänge   Lγ(T)   können wir nun auch die Fläche   Aγ(T)   eines Flächenstücks γ(t) definieren über

  Aγ(T)   =   ∫T dA   =   ∫T   √ [det( g( ui(γ(t)), uj(γ(t)) ) ) ]   dt1 dt2

Auch hier ist -- wie bei der Bogenlänge -- der Integrand nichtlinear in den Tangentialvektoren. Es handelt sich also nicht um ein Integral über eine Differentialform. Dennoch ist das Integral unabhängig von der Parametrisierung (und von der Orientierung).

Versuchen wir, das Flächenintegral so zu parametrisieren, dass   dA   als Integrationsmaß verwendet werden kann. Dazu erweitern wir mit der Gramschen Determinante, so dass wir das Flächenelement dA erhalten, und werten das Ergebnis als eine Umparametrisierung der Fläche analog zu oben:

    I γ(T)   =  
  =   ∫T   [ω(γ(t)) ( u1(γ(t)), u2(γ(t)))]   dμ(t)   =  
  =   ∫T   [ω(γ(t)) ( u1(γ(t)), u2(γ(t)))]   √ [det( g( ui(γ(t)), uj(γ(t)) ) ) ]   dμ(t) / √ [det( g( ui(γ(t)), uj(γ(t)) ) ) ]   =  
  =   ∫T   [ω(ρ(t')) ( v1(ρ(t')), v2(ρ(t')))]     dA(t')

Die Umparametrisierung   t = φ(t')   wurde dabei gerade so gewählt, dass
  dμ(t)   =   dμ(φ(t'))   =   |det( dφ(t')/dt' )|   dμ(t')   =   √ [det( g( ui(γ(t)), uj(γ(t)) ) ) ]   dA(t')       ist mit
  dμ(t')   =   dA(t')       und
  |det( dφ(t')/dt' )|   =   √ [det( g( ui(γ(t)), uj(γ(t)) ) ) ]   (d.h. φ muss entsprechend gewählt werden).
Anschaulich legt die spezielle t'-Parametrisierung ein Netz aus kleinen Parallelogrammen über die Fläche, so dass jedes Mini-Paralellogramm auf der Fläche (gegeben durch die Tangentialvektoren   v1 dt1   und   v2 dt2  ) eine Fläche dA aufweist, die identisch ist mit der Fläche   dμ(t')   =   dt1 dt2  . Man könnte sagen, dass das rechteckige Koordinaten-Gitternetz aus dem Parameterraum flächentreu über die Fläche gelegt wird.

Im eindimensionalen Fall konnten wir das Skalarprodukt (die Metrik) weiter dazu verwenden, um unter dem Integral 1-Formen als Skalarprodukt eines Vektors mit den Linienelement dx zu schreiben:
  I γ(T)   =   ∫γ(T) ω   =   ∫γ(T) á vω(γ(t)), dx ñ
Dabei konnten wir dx mit der Bogenlänge in Verbindung bringen:   |dx| = ds  .
Können wir analog auch bei 2-Formen vorgehen und unsere obige Schreibweise
  I γ(T)   =   ∫T   [ω(γ(t)) ( dx1, dx2 )]   =   ∫T   ∑μν   ωμν(γ(t))   dxμ1 dxν2
mit dem Flächenelement dA in Verbindung bringen? Nun, zunächst haben wir natürlich von oben bereits den Zusammenhang   dA   =     √ det( g(dxi, dxj) )  , d.h. dA ist die Fläche des kleinen Parallelogramms mit den Kantenvektoren dx1 und dx2 . Oben haben wir gesehen, wie sich das Integral dann durch Umparametrisierung als Integral über dA schreiben lässt. Wir würden aber gerne noch weitergehen und aus den Kantenvektoren dx1 und dx2 einen Flächenelement-Vektor dA mit Länge dA machen. Dann lässt sich vielleicht der Integrand wieder als Skalarprodukt schreiben, beispielsweise als   á v, dA ñ   mit einem geeigneten Vektor v.

Es stellt sich heraus, dass sich unser Ziel erreichen lässt, wenn die Dimension der Mannigfaltigkeit, in der unsere Fläche liegt, um eins größer ist als die Fläche, über die integriert wird. In unserem Fall ist die Fläche zweidimensional (wir integrieren ja eine 2-Form), d.h. die Mannigfaltigkeit muss dreidimensional sein. Die Rolle des Skalarproduktes übernimmt dann die Metrik der Mannigfaltigkeit.

Wenn die Mannigfaltigkeit nur zweidimensional ist und das Integral über ein zweidimensionales Teilgebiet läuft, so kann man eine Einbettung zu Hilfe nehmen und den Einbettungsraum R3 mit seinem euklidischen Skalarprodukt als Mannigfaltigkeit verwenden. Wir wollen diese beiden Fälle im Folgenden nicht unterscheiden. Wichtig ist lediglich, dass wir im Tangentialraum genau eine Dimension mehr zur Verfügung haben, als die Dimension der Differentialform und damit der Integrationsfläche ist.

Schauen wir uns an, wie sich in diesem Fall das Flächenintegral schreiben lässt. Dazu wollen wir zunächst die 2-Form ω in einer speziellen Weise mit Hilfe der Antisymmetrie umschreiben:

  ω   =   ∑μ < ν   ωμν   dxμ Λ dxν   =  
  =   ω2,3   dx2 Λ dx3   +   ω3,1   dx3 Λ dx1   +   ω1,2   dx1 Λ dx2

(dabei sind wie immer x1, x2 und x3 die Koordinaten auf der Mannigfaltigkeit). Diese Schreibweise lässt sich leicht auf mehr Dimensionen verallgemeinern. Bei 3-Formen im vierdimensionalen Raum wäre z.B. der zweite Summand gegeben durch   ω3,4,1   dx3 Λ dx4 Λ dx1  , d.h. man macht immer eine zyklische Rundreise durch alle Koordinaten-Indices, wobei im i-ten Summanden der Index i nicht vorkommt. Das Verfahren funktioniert immer, wenn man eine (n-1)-Form im n-dimensionalen Raum hat.

Wir können nun das Flächenintegral in dieser Schreibweise ausdrücken:

  ∫γ(T) ω   =  
  =   ∫T   [ω2,3   dx2 Λ dx3   +   ω3,1   dx3 Λ dx1   +   ω1,2   dx1 Λ dx2]   (u1(γ(t)), u2(γ(t)))   dt1 dt2   =  
  =:   ∫T   [Ω1   dA1   +   Ω2   dA2   +   Ω3   dA3 ]       mit

  Ω1   :=   ω2,3     usw. (zyklisch) sowie
  dA1   :=   [dx2 Λ dx3] (u1, u2)   dt1 dt2   =   (u12 u23   − u13 u22)   dt1 dt2     usw. (zyklisch)

Wenn die Mannigfaltigkeit M der euklidische Raum R3 ist, dann können wir in euklidischen Koordinaten xμ die   dAμ   als Komponenten des Vektors

  dA   :=   dx1   x   dx2

ansehen. Dabei ist   x   das Vektor-Kreuzprodukt (siehe z.B. http://de.wikipedia.org/wiki/Kreuzprodukt ). Man kann zeigen, dass dA senkrecht auf auf dx1 und dx2 steht und dass er auch die richtige Länge hat, d.h. diese Länge ist gleich der durch dx1 und dx2 aufgespannten Parallelogrammfläche. Daher bezeichnet man dA auch als Normalenvektor des Flächenelements. Weiter kann man im euklidischen dreidimensionalen Raum auch die Ωμ als Komponenten eines Vektors Ω ansehen und das Flächenintegral schreiben als

  ∫γ(T) ω   =   ∫γ(T) á Ω(γ(t)), dA ñ

Man kann sich vorstellen, dass Ω eine Flüssigkeits-Stromdichte darstellt, und dass   á Ω(γ(t)), dA ñ   den Durchfluss durch das Flächenelement dA ergibt. Dabei wird durch das Skalarprodukt automatisch berücksichtigt, dass der Durchfluss am größten ist, wenn die Fläche senkrecht (also dA parallel) zum Strom Ω steht.

Bleiben wir im euklidischen dreidimensionalen Raum: Man verwendet dort auch gerne die Schreibweise

  dA1   :=   dx2 Λ dx3     usw. (zyklisch)

ohne diese   dAμ   in der Schreibweise von den Komponenten des Flächen-Normalenvektors   dAμ   von oben zu unterscheiden. Das ist analog zur Doppelbedeutung von   dxμ   bei den 1-Formen. Man muss sich einfach merken: In Flächenintegralen werden aus den 2-Formen   dAμ   durch Anwenden auf die beiden Tangential-Vektoren   u1 dt1   und   u2 dt2   die Flächen-Normalenvektor-Komponenten   dAμ   wie oben angegeben, so dass die korrekte Definition des Flächenintegrals für 2-Formen automatisch entsteht.

Interpretiert man die   dAμ   als 2-Formen, so kann man in R3 in euklidischen Koordinaten die 2-Form ω formal als Skalarprodukt schreiben:
  ω   =   á Ω, dA ñ
in Analogie zur 1-Form-Schreibweise   ω   =   á vω, dx ñ  . Gilt für eine 1-Form, dass sie die d-Ableitung einer 0-Form (Funktion) ist, also   ω = dΦ  , so konnten wir gleichwertig auch
  dΦ   =   á grad Φ, dx ñ  
schreiben.
Bei der d-Ableitung einer 1-Form   ω   =   á vω , dx ñ   schreiben wir im euklidischen R3 analog
  d á vω , dx ñ   =   á rot vω , dA ñ  
In euklidischen Koordinaten kann man leicht nachrechnen, dass sich die übliche Definition der Rotation eines Vektorfeldes ergibt.
Etwas weiter unten werden wir auch noch die d-Ableitung einer 2-Form kennenlernen. Hier ein kurzer Vorgriff darauf: Wenn wir im R3 in euklidischen Koordinaten   dV   :=   dx1 Λ dx2 Λ dx3   schreiben, so ergibt diese d-Ableitung die Form
  d á Ω , dA ñ   =   á div Ω , dV ñ  
mit der üblichen Definition der Divergenz eines Vektorfeldes in euklidischen Koordinaten. Die obigen Formeln machen die anschauliche Bedeutung der d-Ableitung vielleicht etwas klarer. Wir kommen unten noch einmal darauf zurück.

Anmerkung:
Für die korrekte Definition von dA und Ω sowie der obigen Beziehungen für Divergenz und Rotation in krummlinigen Koordinaten (z.B. in einer gekrümmten dreidimensionalen Mannigfaltigkeit) muss man sorgfältiger vorgehen und eine koordinaten-unabhängige Definition verwenden (die obige Definition benötigte euklidische Koordinaten). Bei den 1-Formen und dem Gradienten ist uns dies ja bereits gelungen (siehe Kapitel 5.1.9: Abstände und Winkel: die Metrik ). Dafür werden wir den sogenannten Hodge-Sternoperator benötigen. Wir kommen im nächsten Kapitel darauf zurück.


Integrabilität und d-Ableitung bei 2-Formen (Lemma von Poincaré):

Wir möchten uns nun analog zu den 1-Formen mit den exakten 2-Formen ω befassen, also mit den 2-Formen, die sich in jedem Punkt in dem uns interessierenden Gebiet G der Mannigfaltigkeit M als d-Ableitung einer einzigen 1-Form (Stammform) π darstellen lassen:

  ω   =   dπ

Ausgeschrieben bedeutet das (den d-Operator für 1-Formen hatten wir oben bereits definiert; wir lassen die Argumente wie p und x hier weg):

  ω   =   dπ   =  
  =   ∑ν   dπν Λ dxν   =  
  =   ∑ν   ( ∑μ   dπν / dxμ   dxμ )   Λ dxν   =  
  =   ∑μν   dπν / dxμ   dxμ Λ dxν   =  
  =   ∑μ < ν   (dπν / dxμ   −   dπμ / dxν)   dxμ Λ dxν

Für die Komponenten bedeutet das für jeden Punkt p
  ωμν   =   dπν / dxμ   −   dπμ / dxν
Bei karthesischen Koordinaten ist dies die Rotation eines Vektorfeldes.

Wie bei den 1-Formen kann man auch bei den 2-Formen Bedingungen herleiten, die garantieren, dass eine 2-Form ω exakt ist, also eine Stammform π besitzt. Die Idee ist vollkommen analog zu den 1-Formen: Man konstruiert die Stammform π explizit aus ω durch geeigntete Integration über eine Kurve, die genauso wie bei den 1-Formen von einem beliebigen (aber dann festen) Startpunkt q zum betrachteten Punkt p führt, wobei die Koordinaten eine Gerade im Koordinatenraum beschreiben. Daher muss das betrachtete Gebiet wieder sternförmig sein. Nun muss man wieder nachprüfen, ob   ω(p) = dπ(p)   für die so konstruierte 1-Form π gilt. Man findet erneut, dass das genau dann gilt, wenn im Gebiet G die Bedingungen
  dω   =   0
erfüllt ist (die relativ lange Rechnung dazu wollen wir hier überspringen; sie steht in jedem Lehrbuch über Differentialformen). Dabei ist der d-Operator für 2-Formen in in Analogie zu den 1-Formen definiert:

  • d-Operator für 2-Formen:

      dω   =     =  
      =   ∑μ < ν   dωμν Λ dxμ Λ dxν   =  
      =   ∑μ < ν   ( ∑ρ   dωμν / dxρ   dxρ )   Λ dxμ Λ dxν

    Der d-Operator macht also aus einer 2-Form eine 3-Form (Details zu höherdimensionalen Formen folgen weiter unten). Natürlich kann man die Summenterme noch so umordnen und umbenennen, dass eine Summe mit   ∑μ < ν < ρ   entsteht. Wir wollen uns das hier ersparen. Das 3-fache Dachprodukt ist dabei definiert durch die Determinante

      [ dxμ Λ dxν Λ dxρ ] (u, v, w)   :=   det( (u, v, w)μνρ )

    wobei die Matrix   (u, v, w)μνρ   wie folgt aufgebaut ist:
      uμ,   vμ,   wμ
      uν,   vν,   wν
      uρ,   vρ,   wρ

Im dreidimensionalen Raum (euklidische Koordinaten) bedeutet dω = 0 , dass die Divergenz des Vektorfeldes Ω (siehe oben) verschwinden muss. Ein divergenzfreies (also quellenfreies) Vektorfeld lässt sich daher als Rotation eines anderen Vektorfeldes (genannt Vektorpotential) schreiben, wie man als Physiker beispielsweise in der Elektrodynamik lernt. Fassen wir zusammen:

  • Integrabilitätsbedingung für 2-Formen (Lemma von Poincaré):

    Eine 2-Form   ω(p)   ist dann in einem Gebiet G der Mannigfaltigkeit M exakt (lässt sich also in G als äußere Ableitung

      ω   =   dπ

    einer 1-Form π schreiben), wenn G topologisch trivial und sternförmig ist (d.h. es gibt einen Punkt q in G, so dass bezüglich eines Koordinatensystems f sich jeder Punkt p aus G durch eine gerade Linie von f(q) nach f(p) im Koordinatenraum erreichen lässt) und wenn in G gilt:

      dω   =   0

    (man bezeichnet ein ω mit   dω   =   0   auch als geschlossen). Die Umkehrung gilt ebenfalls, denn wegen der Antisymmetrie des Dachproduktes und wegen der Vertauschbarkeit der partiellen Ableitungen gilt   dω = d(dπ) = 0  . Man bezeichnet π als Stammform von ω.

Das Ergebnis sieht also formal genauso aus wie bei den 1-Formen, wobei wir Komplikationen wie nicht-triviale Topologien oder die Notwendigkeit mehrerer Koordinatensysteme wieder erst einmal weggelassen haben. Generell können wir uns merken, dass das obige Ergebnis auch in mehr Dimensionen weiter gilt.


Der Integralsatz von Stokes für exakte 2-Formen:

Bei den 1-Formen hatten wir gesehen, dass das Kurvenintegral über die exakte 1-Form dΦ nur von den Φ-Werten am Anfangs- und Endpunkt des Kurvenstücks γ(T) abhängt (wir sprachen vom Rand γ(δT) des Kurvenstücks):

γ(T) dΦ   =   Φ(γ(b)) − Φ(γ(a))   =:   ∫γ(δT) Φ

Anschaulich konnten wir uns vorstellen, wie man über viele kleine Kurvenstücke die Φ-Veränderungen dΦ entlang der Kurve aufsummiert und so den Φ-Unterschied zwischen Start- und Zielpunkt bestimmt. Die Form der Kurve dazwischen spielt dabei keine Rolle.

Wie wir sehen werden, kann man dieses Ergebnis auch auf exakte 2-Formen (und generell auf alle höherdimensionalen Differentialformen) übertragen. Wir wollen uns bei den 2-Formen ansehen, wie es dazu kommt, und was unter dem Integral über den Rand zu verstehen ist. Dazu betrachten wir ein Rechteck T im Parameterraum, so dass das Bild γ(t) des Rechtecks die Eckpunkte

  p1   =   γ(a1, a2)
  p2   =   γ(b1, a2)
  p3   =   γ(b1, b2)
  p4   =   γ(a1, b2)

besitzt. Die Reihenfolge der Punkte ist so gewählt, dass wir im Parameterraum gegen den Uhrzeigersinn um das Rechteck T herumlaufen (dies hat etwas mit dem Begriff der Orientierung zu tun, auf den wir weiter unten noch eingehen). Übrigens muss das Bild γ(t) des Rechtecks T kein Parallelogramm sein, da die Seiten nicht parallel sein müssen im Sinn der Parallelverschiebung (siehe Kapitel 5.1.7: Torsion ). Wir erinnern uns: ein richtiges Parallelogramm kann ja aufgrund von Torsion eine Lücke (wie eine Schraubenversetzung) aufweisen. Das kann bei unserem Rechteck nicht passieren.


Rechteck T im Parameterraum.


Den Rundweg von p1 über p2, p3 und p4 wieder zurück nach p1 (in dieser Reihenfolge!) wollen wir als   γ(δT)   oder als Rand von γ(T) bezeichnen. Den Rand von T im Parameterraum bezeichnen wir analog als   δT  .

Im 1-dimensionalen Fall oben wird eine Null-Form Φ über den Rand eines Kurvenstücks integriert, d.h. Anfangs- und Endpunkt werden betrachtet. Analog wollen wir nun im zweidimensionalen Fall eine 1-Form ω über den Rand des Rechtecks integrieren, also über den obigen Rundweg   γ(δT)   entlang der Rechteck-Kanten. Um das Randintegral   ∫δγ(T) ω   auszurechnen, teilen wir es in vier Teilintegrale auf, entsprechend den vier Teilwegen entlang der einzelnen Kanten. Die entsprechenden Tangentialvektoren wollen wir wie bisher mit u1 und u2 (ggf. mit Vorzeichen) bezeichnen, je nachdem, ob sie in t1 oder in t2 -Richtung zeigen. Als Kurvenparameter verwenden wir analog entweder   t1   oder   t1  , je nachdem, in welche Richtung wir laufen. Also haben wir:

  ∫γ(δT) ω   =  

  =   ∫a1b1   [ω(γ(t1, a2))   u1(γ(t1, a2))]   dt1   +  
  +   ∫a2b2   [ω(γ(b1, t2))   u2(γ(b1, t2))]   dt1   +  
  −   ∫a1b1   [ω(γ(t1, b2))   u1(γ(t1, b2))]   dt1   +  
  −   ∫a2b2   [ω(γ(a1, t2))   u2(γ(a1, t2))]   dt1   =   ...

Die negativen Vorzeichen berücksichtigen, dass die Kanten 3 und 4 entgegen der Parameterrichtung durchlaufen werden. Wir können nun Term 1 und 3 sowie Term 2 und 4 zusammenfassen und die Differenz jeweils durch ein Integral ausdrücken, so dass aus den Differenzen der eindimensionalen Kantenintegrale ein zweidimensionales Integral über das Rechteck T wird. An dieser Stelle kommt der Hauptsatz der Differential- und Integralrechnung ins Spiel, analog zu den Kurvenintegralen oben! Daran erkennt man, dass der Integralsatz von Stokes eigentlich nur eine geschickte Übertragung dieses Hauptsatzes auf mehrdimensionale Integrale ist. Es ergibt sich:

  =   ∫a1b1   { [ω(γ(t1, a2))   u1(γ(t1, a2))]   −   [ω(γ(t1, b2))   u1(γ(t1, b2))] }   dt1   +  
  +   ∫a2b2   { [ω(γ(b1, t2))   u2(γ(b1, t2))]   −   [ω(γ(a1, t2))   u2(γ(a1, t2))] }   dt1   =  

  =   ∫a1b1   ∫b2a2   { d [ω(γ(t1, t2))   u1(γ(t1, t2))] / dt2 }   dt1 dt2   +  
  +   ∫a2b2   ∫a1b1   { d [ω(γ(t1, t2))   u2(γ(t1, t2))] / dt1 }   dt1 dt2   =   ...

Im ersten Term vertauschen wir die Grenzen b2 und a2 , was ein Minuszeichen bewirkt, und fassen die beiden Integrale zusammen:

  =   ∫a2b2   ∫a1b1   { d [ω(γ(t1, t2))   u2(γ(t1, t2))] / dt1   −   d [ω(γ(t1, t2))   u1(γ(t1, t2))] / dt2 }   dt1 dt2   =   ...

Zur Vereinfachung der Schreibweise wollen wir wieder   (t1, t2)   =   t   sowie   ∫a2b2   ∫a1b1   dt1 dt2   =   ∫T   dμ(t)   schreiben:

  =   ∫T   { d [ω(γ(t)) u2(γ(t))] / dt1   −   d [ω(γ(t)) u1(γ(t))] / dt2 }   dμ(t)   =   ...

Der Integrand ist identisch mit der Basis-unabhängigen Darstellung von   dω(γ(t)) (u1(γ(t)), u2(γ(t))   (siehe oben). Wir haben also:

  =   ∫T   dω(γ(t)) (u1(γ(t)), u2(γ(t))   dμ(t)   =  

  =   ∫γ(T)

Wir haben also mit dieser sehr einfachen Rechnung gezeigt:

  • Integralsatz von Stokes für exakte 2-Formen und rechteckige Parametergebiete:

    Für ein Rechteck T im Parameterraum und eine beliebige auf γ(T) definierte 1-Form ω gilt:

      ∫γ(δT) ω   =   ∫γ(T)

    Dabei muss γ hinreichend gutartig (z.B. injektiv) sein, um Fälle wie das Möbiusband zu vermeiden, bei dem 2 Kanten durch γ verkehrt herum zusammenkleben.

Man kann diesen Satz leicht auf andere Parameterbereiche verallgemeinern. So kann man durch Parametertransformationen aus dem Rechteck andere Integrationsgebiete gewinnen. Man kann auch viele sehr kleine Rechtecke verwenden und das gewünschte Integrationsgebiet damit gleichsam pflastern. Die Kantenbeiträge an den gemeinsamen Kanten der Pflasterstücke heben sich dabei gegenseitig auf, so dass nur die Kantenbeiträge am Außenrand der Pflasterfläche übrig bleiben. Die Pflasterfläche muss dabei noch nicht einmal zusammenhängend sein.

Wie weit man diese Verallgemeinerung treiben kann, wollen wir hier nicht untersuchen. Anschaulich können wir uns vorstellen:

  • Integralsatz von Stokes für exakte 2-Formen auf (berandeten) Untermannigfaltigkeiten:

    Der Integralsatz von Stokes für exakte 2-Formen gilt für alle (ggf. berandeten) Untermannigfaltigkeiten, die man im Prinzip mit einem Rechteckpflaster überziehen kann, d.h. der Parameterbereich ist die Vereinigungsmenge von endlich vielen Rechtecken, so dass sich die Rand-Integralbeiträge der inneren Kanten aufheben (d.h. die Untermannigfaltigkeit muss orientierbar sein).



Eine zweidimensionale Kreisfläche lässt sich mit einem Rechteckpflaster überziehen, z.B. mit Hilfe von Polarkoordinaten (von der kleinen Komplikation im Kreismittelpunkt sei hier abgesehen; ggf. nehmen wir eben in der Mitte eine sehr kleine Kreisfläche heraus). Daher ist die zweidimensionale Kreisfläche eine berandete Untermannigfaltigkeit im obigen Sinn.

Auch hier sind Verallgemeinerungen denkbar, z.B. mehrere verträgliche Pflasterungen, Dreiecke statt Rechtecke oder infinitesimal kleine Rechtecke.

Die letzte Bedingung, dass sich die Rand-Integralbeiträge der inneren Kanten aufheben müssen, bedeutet, dass die Fläche orientierbar sein muss. Für das Möbiusband gilt der Integralsatz von Stokes also nicht. Wir werden uns im n-dimensionalen Fall noch einmal genau ansehen, was es mit der Orientierung und Rändern sowie mit den Vorzeichen der einzelnen Randterme auf sich hat. Für den Moment wollen wir uns mit der Anschauung begnügen, die im zweidimensionalen Fall noch einigermaßen funktioniert.


Das Möbiusband ist eine nicht-orientierbare zweidimensionale Fläche (mit Rand). Man kann es aus einem Papierstreifen basteln, bei dem man ein Ende halb verdreht und dann mit dem anderen Ende zusammenklebt. Das Möbiusband hat nur eine Randlinie und nach einem Umlauf wechselt man von der Innenseite auf die Außenseite und umgekehrt.



Veranschaulichung von 2-Formen und p-Formen:

Wir hatten oben eine Veranschaulichung für 1-Formen angegeben, wie man sie beispielsweise in Dan Piponi: On the Visualisation of Differential Forms, December 1998, http://homepage.mac.com/sigfpe/Mathematics/forms.pdf findet. Dabei haben wir eine 1-Form ω in einer n-dimensionalen Mannigfaltigkeit durch (n − 1) -dimensionale Höhenlinien (Flächen) dargestellt. Dahinter stand die Idee, dass eine um einen Punkt p herum definierte skalare Funktion Φ entlang der Höhenlinien bei p konstant ist, und dass der Wert von   ω(p) u(p)   gleich der Richtungsableitung von Φ in p in u(p)-Richtung ist. Der Wert von   ω(p) u(p)   entspricht dann der Dichte der Höhenlinien in u(p)-Richtung, also der Zahl der Höhenlinien (mit Vorzeichen), die man bei einem kleinen Schritt in u(p)-Richtung durchstößt (die Schrittlänge wird dabei durch u(p) bestimmt). Ein Kurvenintegral über ω zählt demnach die durchstoßenen Höhenlinien (mit Vorzeichen) auf dem Weg.

Wir wollen dieses Bild nun auf 2-Formen übertragen. Eine 2-Form ω in einer n-dimensionalen Mannigfaltigkeit werden wir also durch (n − 2) -dimensionale Flächen darstellen. Wir wollen diese Flächen als Blätter bezeichnen. Der Wert von   ω(p) (u1(p), u2(p))   ist dann durch die Zahl der Blätter gegeben, die von einer kleinen, durch u1(p) und u2(p) aufgespannten Fläche durchstoßen werden. Ein Flächenintegral über ω zählt demnach die von der Fläche durchstoßenen Blätter, wobei noch Vorzeichen ins Spiel kommen können (je nach Orientierung der Tangentialvektoren und der Blätter). Auf Details wollen wir lieber verzichten.

Warum dieses Bild Sinn macht, ist nicht ganz einfach zu begründen -- ich kenne zumindest keine wirklich saubere Begründung. Und: Wenn die Begründungen für Veranschaulichungen zu kompliziert werden, macht die Veranschaulichung selbst oft auch keinen Sinn mehr. Schauen wir uns daher lieber an, wie weit wir mit diesem Bild kommen.

Bei den 1-Formen hatten wir als Mannigfaltigkeit den zweidimensionalen reellen Raum R2 betrachtet. Darin hatten wir uns die 1-Form   ω = x dy   angesehen. Die Höhenlinien zu dieser 1-Form lagen alle parallel zur x-Achse, und nach rechts kamen ständig neue Höhenlinien dazu.

Schauen wir und nun die 2-Form dω an. Wir wollen dazu die Basis-unabhängige Definition des d-Operators verwenden:

  dω(γ(t)) (u1(γ(t)), u2(γ(t)))   =   d[ω(γ(t)) u2(γ(t))] / dt1   −   d[ω(γ(t)) u1(γ(t))] / dt2

In unserem einfachen Fall setzen wir einfach   t1 = x   und   t2 = y   sowie   u1 = d/dx   und   u2 = d/dy  . Also haben wir:

  dω(x,y) (d/dx, d/dy)   =   d[ω(x,y) d/dy] / dx   −   d[ω(x,y)) d/dx] / dy

Rechnen wir die eckigen Klammern auf der rechten Seite für   ω = x dy   aus:
  ω(x,y) d/dy   =   (x dy) d/dy   =   x  
  ω(x,y) d/dx   =   (x dy) d/dx   =   0  
Dieses Ergebnis konnten wir erwarten, denn die Höhenlinien, die ω darstellen, liegen parallel zur x-Achse, und es geht nur in y-Richtung bergauf (und zwar mit der Steigung x). Wir erinnern uns: eine 1-Form angewendet auf einen Tangentialvektor ergibt die Steigung einer lokal definierten skalaren Funktion in die Tangentialvektor-Richtung. Genau dies stellt das Höhenlinienbild ja dar.

Nun nimmt die Steigung in y-Richtung proportional zu x zu. Genau diese Veränderung der Steigung misst der erste Term   d[ω(x,y) d/dy] / dx   (der zweite Term ist sowieso Null). Daher misst der erste Term die Rate, mit der neue Höhenlinien bei wachsendem x hinzukommen, um die Steigung in y-Richtung zu vergrößern. Dies legt die Vermutung nahe, dass   dω(x,y) (d/dx, d/dy)   etwas mit der Anzahl der neu entstehenden (oder verschwindenden) Höhenlinien zu tun hat. Vermutlich kommen auch noch Vorzeichen hinzu, je nachdem, ob Höhenlinien entstehen oder verschwinden. Da die Höhenlinien bei einer n-dimensionalen Mannigfaltigkeit (n − 1) -dimensionale Flächen sind, sind die Anfangs- oder Endkanten dieser Flächen (n − 2) -dimensionale Objekte. Wir wollen diese Anfangs- oder Endkanten als Blätter der 2-Form dω interpretieren. Damit erhält der d-Operator eine recht anschauliche Bedeutung

Diese Interpretation macht sogar den Integralsatz von Stokes anschaulich verständlich: In unserem zweidimensionalen Beispiel   ω = x dy   ist das Integral   ∫G dω   gleich der Zahl der Anfangspunkte für die im Gebiet G neu entstehenden Höhenlinien. Diese Höhenlinien durchstoßen den Rand von G. Daher wird ihre Zahl auch vom Randintegral   ∫δG ω   erfasst, d.h. es muss   ∫G dω   =   ∫δG ω   sein.



Integralsatz von Stokes: Die Anzahl (mit Vorzeichen) der blauen Höhenlinien, die der grüne Rundweg einmal durchstößt, ist gleich die Anzahl der roten Anfangspunkte der Höhenlinien, die der grüne Rundweg umschließt. Dabei tragen aufgrund der Vorzeichen beim Zählen diejenigen Höhenlinien nicht bei, die zweimal (in verschiedener Richtung) durchstoßen werden. Siehe auch im Internet von Dan Piponi: On the Visualisation of Differential Forms, December 1998.


Auch auf p-Formen (Näheres dazu siehe unten) kann man diese Veranschaulichung übertragen: Sie werden durch (n − p) -dimensionale Blätter dargestellt, und p-dimensionale Flächenintegrale entsprechen der Zahl der Blätter, die von der p-dimensionalen Fläche durchstoßen werden, wobei noch Regeln für die Vorzeichen beachtet werden müssen (abhängig von der Orientierung von Blättern und Flächenstück). Wir werden hier allerdings nicht weiter darauf eingehen, zumal unsere Anschauung bei mehr Dimensionen sowieso schnell an ihre Grenzen stößt.

Man muss bei der obigen Veranschaulichung etwas aufpassen (siehe z.B. David Bachman: A Geometric Approach to Differential Forms, http://pzacad.pitzer.edu/~dbachman/forms.pdf ). Die Vorstellung, eine p-Form im n-dimensionalen Raum durch (n − p) -dimensionale Blätter darzustellen, gilt im Allgemeinen nur lokal. Man kann sich vorstellen, dass man die Mannigfaltigkeit in sehr viele sehr kleine n-dimensionale Parzellen einteilt, und in jeder dieser Parzellen (n − p) -dimensionale zueinander parallele Flächen (Blätter) einzeichnet, die durch ihre Dichte den dortigen Wert ω(p) der p-Form ω repräsentieren. Diese parallelen Blätter werden durch diejenigen Tangentialvektoren v(p) aufgespannt, für die   ω(p) v(p)   =   0   gilt (denn ein solcher Tangentialvektor durchstößt dann gar keine Blätter von ω, da er ja parallel zu den Flächen liegt). Man sagt auch, die lokalen Blätter werden vom Kern der p-Form aufgespannt.

Wenn wir nun die Gesamtheit dieser vielen Parzellen der Mannigfaltigkeit betrachten und uns den Grenzübergang zu unendlich kleinen Parzellen vorstellen, so ergeben die sehr vielen lokal definierten Flächen ein sogenanntes Flächenfeld (plane field). Dieses Flächenfeld korrespondiert zu unserer p-Form ω, denn die Richtung der Flächen in einem Punkt p entspricht dem Kern der linearen Abbildung ω(p) (d.h. die Tangentialvektoren mit   ω(p) v(p)   =   0   spannen die Flächen auf), und ihre Dichte legt den Wert von   ω(p) u(p)   fest (entsprechend der Anzahldichte der von u(p) durchstoßenen Flächen).

Bleibt die Frage, ob man all diese in den kleinen Parzellen definierten Flächenstücke nicht an den Parzellengrenzen jeweils zusammenkleben kann, so dass beim Übergang zu unendlich kleinen Parzellen daraus (n − p) -dimensionale Flächen werden, die die gesamte Mannigfaltigkeit durchziehen. Die Mannigfaltigkeit würde durch diese Flächen gleichsam in (unendlich dünne unendlich viele) Schichten zerlegt (man spricht in der englischsprachigen Literator von foliations). Falls das geht, sagt man auch, das Flächenfeld ist integrabel.

Im R2 ist die Antwort auf diese Frage positiv: Dort ist jedes Flächenfeld (oder besser: Linienfeld) integrabel.

Im dreidimensionalen Raum gilt diese Aussage allerdings nicht mehr. Man findet beispielsweise: Ein Flächenfeld im R3, das zu einer 1-Form ω gehört, kann nur dann integrabel sein, wenn   ω Λ dω   =   0   gilt.

Hier ist ein Beispiel für eine 1-Form in R3, die ein nicht-integrables Flächenfeld besitzt (ein solches Flächenfeld nennt man auch Kontaktstruktur (contact structure) ):

  ω   =   x dy + dz

Bei   x = 0   ist dies einfach gleich   dz   , dargestellt durch Flächen senkrecht zur z-Richtung. Je größer x wird, umso wichtiger wird der Term   x dy   , der für sich einem Flächenfeld entspricht, bei dem die Flächen senkrecht zur y-Richtung stehen und mit wachsendem x immer dichter werden (die Grafik dazu hatten wir bereits weiter oben). Zusammengenommen bedeutet das: Je größer x wird, umso mehr kippen die Flächen senkrecht zur y-Richtung, und umso dichter werden sie. In y- und z-Richtung ändert sich dagegen nichts. Die lokal definierten Flächen dieser 1-Form lassen sich nirgends zu global definierten Flächen zusammensetzen, die den Raum in Schichten aufteilen. Das folgende Bild zeigt, dass jeder Versuch zu Überschneidungen in den Flächen führen muss:


Einige Flächen des Flächenfeldes zur 1-Form   ω   =   x dy + dz   . Die Flächen werden auch dichter mit wachsendem Betrag von x, was wir hier nicht dargestellt haben (siehe die Grafiken weiter oben). Siehe auch im Internet den Text von David Bachman: A Geometric Approach to Differential Forms, Kapitel Foliations and Contact Structures.



p-Formen:

Bei den obigen Betrachtungen zu 2-Formen konnten wir sehen, dass sich die meisten Aussagen problemlos auf mehrdimensionale Flächen übertragen lassen. An die Stelle von 2-Formen treten dann die p-Formen, also p-lineare Abbildungen ω von p Tangentialvektoren in die reellen Zahlen. So wie jede 2-Form antisymmetrisch in den beiden Argumenten sein muss, so muss analog jede p-Form antisymmetrisch bei Vertauschung zweier beliebiger Argumente sein. Man nennt eine solche Abbildung total antisymmetrisch oder schiefsymmetrisch oder auch alternierend.
Anders ausgedrückt: Bei Vertauschungen der Argumente verhält sich eine p-Form genauso wie sich eine Determinante mit p Spalten bei Spaltenvertauschungen verhält. Damit stellen wir sicher, dass mehrdimensionale Flächenintegrale über p-Formen wieder unabhängig von der Flächenparametrisierung sind (abgesehen von der Orientierung), und dass der Integralsatz von Stokes auch für p-Formen gilt. Die Details schauen wir uns weiter unten an.

Weiter oben hatten wir uns bereits mit dem Begriff der Permutation beschäftigt. Wenn wir nun in einer p-Form die p Argumente   ui, uj, uk, ...   solange untereinander vertauschen, bis sich die Reihenfolge   u1, u2, u3, ...   ergibt, so führt jede Vertauschung zu einem Vorzeichenwechsel. Das Vorzeichen, das sich so insgesamt ergibt, hatten wir als Signum der Permutation bezeichnet. Es gilt also:

  ω(ui, uj, uk, ...)   =   sign(i, j, k, ...)   ω(u1, u2, u3, ...)


Natürlich kann man auch eine p-Form wieder nach Basisformen   dxμ Λ dxν Λ dxρ Λ ...   entwickeln (mit p verschiedenen Indices):
  ω   =   ∑μ < ν < ρ < ...   ωμ, ν, ρ, ...   dxμ Λ dxν Λ dxρ Λ ...
Dabei ist
  ωμ, ν, ρ, ...   =   ω(d/dxμ, d/dxν, d/dxρ, ...)
und
  [ dxμ Λ dxν Λ dxρ Λ ... ] (u1, u2, u3, ...)
ist die Determinanten mit der Matrix, die in der k-ten Spalte die Einträge   ukμ, ukν, ukρ, ...   hat. Wir verzichten hier auf den etwas mühsamen Beweis dieser Aussagen, da die Ideen dieselben sind wie bei den 2-Formen.


Die äußere Ableitung (d-Operator) kann man auf einer (p − 1) -Form ω in der Basis-abhängigen Schreibweise vollkommen analog zu den 2-Formen definieren:

  dω   =   ∑μ < ν < ρ < ...   dωμ, ν, ρ, ...   Λ   dxμ Λ dxν Λ dxρ Λ ...

Für die Basis-unabhängige Schreibweise schreiben wir wieder   t   :=   (t1, t2, ... , tp)   und verwenden eine Flächenparametrisierung   γ(t)   (also eine Abbildung der p reellen Parameter in die Mannigfaltigkeit M). Die Tangentialvektoren nennen wir wie immer   ui(γ(t))  . Sie entsprechen jeweils der Richtungsableitung in ti-Richtung. Damit haben wir:

  dω(γ(t)) (u1(γ(t)), u2(γ(t)), ..., up(γ(t)))   =  

  =   d[ω(γ(t)) (u2(γ(t)), u3(γ(t)), ... , up(γ(t)))] / dt1   +  
  −   d[ω(γ(t)) (u1(γ(t)), u3(γ(t)), ... , up(γ(t)))] / dt2   +  
  +   d[ω(γ(t)) (u1(γ(t)), u2(γ(t)), ... , up(γ(t)))] / dt3   +  
  −   ....   +  
  +   d[ω(γ(t)) (u1(γ(t)), u2(γ(t)), ... , up − 1(γ(t)))] / dtp   (− 1)p − 1   =  

  =   ∑i = 1p   (− 1)i − 1   d[ω(γ(t)) ({ohne ui(γ(t))})] / dti   =  

  =   ∑i = 1p   (− 1)i − 1   ui(γ(t)) [ω(γ(t)) ({ohne ui(γ(t))})]

Man findet diese Formel beispielsweise in Wikipedia: Exterior derivative, http://en.wikipedia.org/wiki/Exterior_derivative . Dabei ist zu beachten, dass in unserem Fall die dort auftretende Lie-Klammer   [ui, uj] = 0   ist, denn wir können ja die ti als Koordinaten ansehen, so dass in diesen Koordinaten   ui = d/dti   ist. Die Ableitungen d/dti und d/dtj vertauschen aber miteinander, d.h. die ui bilden eine holonome Basis des Tangentialraums. Wäre die Lie-Klammer ungleich Null, so kämen noch Terme mit Lie-Klammern dazu.

In der Formel oben wechselt das Vorzeichen von Term zu Term, und es fehlt im i-ten Term (der Term, in dem nach ti abgeleitet wird) im Argument jeweils der i-te Tangentialvektor (dies soll die Schreibweise   {ohne ui(γ(t))}   ausdrücken). Den Beweis, dass sich daraus die obige Basis-abhängige Form reproduzieren lässt, wollen wir uns hier ersparen (für   p = 2   hatten wir den Beweis weiter oben explizit durchgeführt). Schauen wir uns lieber einige Spezialfälle an:

Für p = 2 erhalten wir unsere alte Formel für die Ableitung einer 1-Form zurück:
  dω(u1, u2)   =   u1 [ω u2]   −   u2 [ω u1]
Die Antisymmetrie in u1 und u2 ist direkt zu sehen. Schauen wir uns den Fall p = 3 an:
  dω(u1, u2, u3)   =   u1 ω(u2, u3)   −   u2 ω(u1, u3)   +   u3 ω(u1, u2)
Die Antisymmetrie bei Vertauschung von u1 und u2 bzw. Vertauschung von u2 und u3 ist wieder direkt zu sehen. Bei Vertauschung von u1 und u3 muss man etwas genauer hinschauen: Der zweite Term ist dabei antisymmetrisch. Erster und dritter Term ergeben nach Vertauschung:
            u3 ω(u2, u1)   +   u1 ω(u3, u2)   =  
  =     − u3 ω(u1, u2)   −   u1 ω(u2, u3)   =  
  =     − { u1 ω(u2, u3)   +   u3 ω(u1, u2) }
d.h. auch hier haben wir Antisymmetrie. Analog kann man auch für höhere p-Werte die Antisymmetrie nachweisen.

Man kann zeigen, dass auch für p-Formen das Lemma von Poincaré gilt, d.h. auf einer sternförmigen Menge folgt aus   dω = 0   die Existenz einer Stammform π mit   dπ = ω  .


Auch die Definition der p-dimensionalen Flächenintegrale lässt sich von 2-Formen problemlos auf p-Formen erweitern. Dazu braucht man p reelle Parameter   t   =   (t1, t2, ..., tp)   aus einem p-dimensionalen reellen Parameterbereich T sowie wie bei den 2-Formen eine Parametrisierungsfunktion γ. Das Flächenintegral ist dann gegeben durch

  I γ(T)   :=   ∫T   [ω(γ(t)) (u1(γ(t)), u2(γ(t)), ... , up(γ(t)))]   dμ(t)

mit   dμ(t)   =   dt1 dt2 ... dtp  . Bei einem orientierungserhaltenden Parameterwechsel (d.h. die Determinante der Jacobimatrix des Parameterwechsels ist positiv) ändert sich der Wert dieses Integrals nicht. Der Beweis verläuft vollkommen analog zum zweidimensionalen Fall.

Ist eine (positiv definite) Metrik vorhanden, so lassen sich die Überlegungen zum Flächenmaß von oben ebenfalls direkt auf p-Formen übertragen. Aus dem Flächenmaß wird dann ein entsprechendes p-dimensionales Volumenmaß. Die Gramsche Matrix G ist dann eine p-mal-p-Matrix mit Komponenten   Gij   =   g(ui, uj) .


Der Integralsatz von Stokes für exakte p-Formen:

Der Integralsatz von Stokes gilt auch im p-dimensionalen Fall (warum, werden wir noch sehen):

  • Integralsatz von Stokes für exakte p-Formen:

    Für eine berandete p-dimensionale orientierbare kompakte Unter-Mannigfaltigkeit G und einer darauf definierten exakte p-Form dω (ω ist die (p − 1) - dimensionale Stammform) gilt:

      ∫δG ω   =   ∫G

    Dabei ist δG der Rand des Integrationsgebietes G, und G ist eine Unter-Mannigfaltigkeit der Mannigfaltigkeit M.

Hier tauchen nun einige Begriffe auf, die noch genauer definiert werden müssen. Man kann dies z.B. tun, indem man die Unter-Mannigfaltigkeit in Teile aufteilt, die jeweils eine Parametrisierung γ besitzen. Den zugehörigen Parameterbereich T teilt man in p-dimensionale Quader auf. Nun zeigt man für einen quaderförmigen Parameterbereich, dass der Satz von Stokes gilt, so wie wir dies bei den 2-Formen für das Rechteck getan haben. Setzt man nun die Quader zusammen, so heben sich die Randterme für die zusammenstoßenden Randflächen auf, da sie jeweils das entgegengesetzte Vorzeichen tragen (das gilt, wenn die Unter-Mannigfaltigkeit orientierbar ist, was man zugleich auch als Definition für den Begriff orientierbar ansehen kann). Es bleiben also insgesamt nur die Terme der äußeren Quader-Randflächen übrig. Der Rand der Unter-Mannigfaltigkeit wird entsprechend durch diese äußeren Quader-Randflächen parametrisiert, wobei man noch aufpassen muss, wie die Mannigfaltigkeit sich aus den verschiedenen parametrisierbaren Teilen zusammensetzt.

Diese Methode ist zwar recht anschaulich, aber technisch kompliziert. Deshalb wird zumeist eine andere Methode angewendet, um die obigen Begriffe zu definieren und den Satz von Stokes zu beweisen. Diese Methode trägt den Namen Zerlegung der Eins. Dazu überdeckt man das Integrationsgebiet G auf der Mannigfaltigkeit mit endlich vielen, hinreichend kleinen, einander teilweise überlappenden offenen Mengen Uk (das geht, da wir das Integrationsgebiet als kompakt vorausgesetzt haben; die Uk sind dabei Untermengen der Mannigfaltigkeit M). Achtung: da die Mengen Uk als offen vorausgesetzt werden, besitzen sie keinen Rand! Damit liegt nun jeder Punkt des Integrationsgebietes G in mindestens einem (randlosen) Uk. Die Uk dürfen dabei ruhig über den Rand des Integrationsgebietes hinausreichen (müssen sie sogar, da sie keinen Rand besitzen). Die Überdeckung der Mannigfaltigkeit mit sich überlappenden offenen Mengen (ohne Rand) ersetzt das obige Aufteilen der Mannigfaltigkeit in nicht-überlappende Teile (ggf. mit Rand). Für praktische Berechnungen wird man natürlich immer die Mannigfaltigkeit in geeignete Teile zerschneiden; für die folgende theoretische Diskussion ist aber das Überdecken mit offenen Mengen einfacher. Dabei werden wir jede der Mengen Uk so klein wählen, dass der von ihr überdeckte Teil von G sich auf einfache Weise parametrisieren lässt -- das ist der Sinn dieser Überdeckung!


Die blaue berandete Mannigfaltigkeit G (die dicke blaue Linie ist der Rand von G) wird von drei offenen (roten) Mengen U1, U2 und U3 überdeckt. Die rote gestrichelte Randlinie gehört dabei nicht mehr zur jeweiligen Menge Uk , d.h. die Uk haben keinen Rand.

Als Nächstes wollen wir die Integrale   ∫G dω   und   ∫δG ω   in Teilintegrale aufteilen, so dass das k-te Teilintegral nur über den Teil von G bzw. δG integriert, der zu dem zugehörigen Uk dazugehört. Das können wir erreichen, indem wir den Integranden mit einer sanften Einschaltfunktion gk versehen, die nur in Uk ungleich Null (genauer: größer als Null) ist. Außerdem soll für jeden Punkt p aus dem Integrationsgebiet G

  ∑k   gk(p)   =   1

gelten (daher kommt der Ausdruck Zerlegung der Eins). Dies stellt eine Art Normierung für die gk dar. Wenn also insbesondere ein Punkt p nur in einem einzigen Uk liegt, so ist dort   gk(p)   =   1  .


In diesem Beispiel wird ein Bereich der reellen Achse von zwei überlappenden Umgebungen überdeckt. Die beiden Einschaltfunktionen g1 und g2 erfüllen dabei im überdeckten Bereich die Bedingung   g1(x) + g2(x)   =   1 .


Wir können nun wie beabsichtigt jede Differentialform ω, die auf dem Integrationsgebiet G definiert ist, in einzelne Summanden

  ω   =   ( ∑k gk )   ω   =   ∑k   ( gk ω )

aufteilen, so dass jeder Summand   gk ω   nur in dem Teil des Integrationsgebietes G ungleich Null ist, der auch gleichzeitig im zugehörigen   Uk   liegt. Da das Integral linear ist, gilt damit auch

  ∫G ω   =   ∫G   ∑k   gk ω   =   ∑k   ∫G   gk ω

(wir werden noch sehen, dass genau genommen durch diese Gleichung das Integral   ∫G ω   erst definiert wird). Wichtig ist nun, dass in den Integralen rechts jeder Integrand   gk ω   nur in dem Teil von G ungleich Null ist, der vom zugehörigen   Uk   überdeckt wird. Wir fordern nun, dass wir die Überdeckung so wählen können, dass jeder von   Uk   überdeckte Bereich von G eine einfache Parametrisierung γ besitzt (genau müssten wir   γk   schreiben, da jeder Bereich seine eigene Parameterfunktion besitzt). Damit meinen wir folgendes:


Der Teil von G (mit Rand), der von eimem Uk überdeckt wird, lässt sich auf einfache Weise durch ein Parametergebiet T und eine Funktion γ parametrisieren. Dabei bildet γ den Parameterbereich mit   t1 < 0   auf das Innere von G ab. Die dicke rote Linie (hier ist   t1 = 0  ) wird auf den Gand von G (dicke blaue Linie) abgebildet. Der Bereich rechts von der roten Linie gehört nicht mehr zum Parameterbereich T dazu, da hier   t1 > 0   ist.


Diese Aussagen definieren im Grunde den Begriff berandete orientierbare Untermannigfaltigkeit erst sauber. Wir erkennen hier die Definition der Mannigfaltigkeit aus Kapitel 5.1.3 Mannigfaltigkeiten wieder. Dabei spielt die Umkehrfunktion γ-1 der Parametrisierung die Rolle der Koordinatenfunktion f, denn wir können den Parametervektor t als Koordinatenvektor des Punktes γ(t) ansehen. Die von den einzelnen   Uk   überdeckten Bereiche von G entsprechen dann den Bereichen der Mannigfaltigkeit mit verschiedenen Koordinatensystemen. Nur eines ist neu: der Begriff des Randes von G. Die obige Überlegung umfasst übrigens auch Gebiete G ohne Rand, denn dann werden einfach ausschließlich offene Parametermengen verwendet.

Da nun jeder Integrand   gk ω   nur in dem Teil von G ungleich Null ist, der vom zugehörigen   Uk   überdeckt wird, und da dieser Bereich eine einfache Parametrisierung γ besitzt (so wie gerade beschrieben), können wir nun jedes Integral   ∫G   gk ω   mit Hilfe dieser Parametrisierung wie gehabt definieren:

  ∫G   gk ω   :=   ∫γ(T)   gk ω

(genauer müssten wir natürlich wieder   γk(Tk)   schreiben, aber wir wollen die Schreibweise nicht überfrachten). In dem Ausdruck rechts ist also die Parametrisierung des von dem jeweiligen   Uk   überdeckten Teils von G konkret einzusetzen, so wie wir das von oben ja kennen. Das Gesamtintegral   ∫G ω   ist dann durch die Summe all dieser Integrale definiert. Dies macht Sinn, da man zeigen kann, dass jede beliebige Überdeckung mit den obigen Eigenschaften (mit zugehörigen Funktionen gk ) denselben Wert für das Gesamtintegral ergibt (der Beweis ist einfach, aber wir wollen ihn hier überspringen).

Wir wollen diese Überlegung nun dazu nutzen, um den Integralsatz von Stokes   ∫δG ω   =   ∫G dω   zu beweisen. Dazu müssen wir die beiden Integrale wie gerade gesehen durch die Zerlegung der Eins aufteilen, die Parametrisierungen konkret einsetzen und die einzelnen Summanden ausrechnen.

Für den links stehenden Ausdruck   ∫δG ω   ist die Zerlegung unmittelbar möglich, denn auch δG ist eine Mannigfaltigkeit, die von den   Uk   überdeckt wird (denn δG ist eine Unter-Mannigfaltigkeit von G). Als Parametrisierungsfunktionen dienen die einzelnen γ-Funktionen, und als Parameterbereiche dienen die Schnittflächen δT der einzelnen T-Mengen, also der Teil von T mit   t1 = 0  . Also haben wir:

  ∫δG ω   =   ∫δG   ∑k   gk ω   =   ∑k   ∫δG   gk ω   =   ∑k   ∫γ(δT)   gk ω

Anmerkung: Falls es keinen Rand von G gibt, so ist einfach   ∫δG ω   =   0   zu setzen.

Analog wollen wir auch das andere Integral   ∫G dω   aufteilen. Zunächst einmal haben wir wieder (wie zuvor beim Integral   ∫G ω  ):

  ∫G dω   =   ∫G   ∑k   gk dω   =   ∑k   ∫G   gk

(im Grunde definiert diese Gleichung ja erst das Integral   ∫G dω  ). Die Summe   ∑k   gk dω   können wir allerdings noch umschreiben: Statt die Zerlegung der Eins (also   1   =   ∑k   gk  ) vor dem d-Operator einzuschieben, können wir sie auch hinter dem d-Operator einschieben:

Einschieben vor dem d-Operator ergab:
  dω   =   (∑k gk)   dω   =     ∑k   gk
Einschieben nach dem d-Operator ergibt wegen der Linearität des d-Operators:
  dω   =     d {(∑k gk)   ω}   =     d (∑k   gk ω)   =     ∑k   d(gk ω)
so dass wir folgendes Ergebnis haben:

  ∑k   gk dω   =     ∑k   d(gk ω)

Wir können das Integral über dω daher auch so schreiben:

  ∫G dω   =   ∫G   ∑k   d(gk ω)   =   ∑k   ∫G   d(gk ω)

Die einzelnen Integrale rechts sind wieder über die Parametrisierung definiert, die jeweils zu dem von   Uk   überdeckten Teil von G gehört, denn nur dort ist   d(gk ω)   ungleich Null (   gk   soll ja in ganz G differenzierbar sein, so dass es in den Überlappungsbereichen an den Grenzen von Uk ohne Ecken auf Null abfällt):

  ∫G   d(gk ω)   =   ∫γ(T)   d(gk ω)

Nun sind wir am Ziel: Wir können den Satz von Stokes   ∫δG ω   =   ∫G dω schreiben als

  ∑k   ∫γ(δT)   gk ω   =   ∑k   ∫γ(T)   d(gk ω)

Wenn wir die Gleichheit für die einzelnen Summanden zeigen können, so wäre damit auch die Gültigkeit dieser Gleichung gezeigt, und wir hätten den Satz von Stokes bewiesen. Versuchen wir also,

  ∫γ(δT)   gk ω   =   ∫γ(T)   d(gk ω)

zu beweisen, indem wir die Integrale mit Hilfe der Parametrisierung konkret ausschreiben. Beginnen wir mit dem Integral auf der rechten Seite und verwenden wir von oben die Basis-unabhängige Formel dür den d-Operator (das Argument γ(t) lassen wir teilweise weg und wir schreiben später   dμ(t)   explizit aus als   dμ(t)   =   dt1 dt2 ... dtp   ):

  ∫γ(T)   d(gk ω)   =  

  =   ∫T   d(gk ω)(u1, ... , up)   dμ(t)   =  

  =   ∫T   ∑i = 1p   (− 1)i − 1   d[(gk ω) ({ohne ui})] / dti   dμ(t)   =  

  =   ∑i = 1p   (− 1)i − 1   ∫T   d[(gk ω) ({ohne ui})] / dti   dt1 dt2 ... dtp   =   ...

Die Integration über die konvexe Parametermenge T bedeutet nun, dass der Parameter ti von einem kleinsten Wert ai bis zu einem größten Wert bi läuft. Wir wollen dieses Integral über ti zuerst ausführen, wobei wir den Hauptsatz der Differential- und Integralrechnung verwenden:

  =   ∑i = 1p   (− 1)i − 1   ∫ dt1 dt2 ... dtp (ohne dti)   ∫aibi   dti d[(gk ω) ({ohne ui})] / dti   =  

  =   ∑i = 1p   (− 1)i − 1   ∫ dt1 dt2 ... dtp (ohne dti)   { [(gk ω) ({ohne ui})]ti = bi   −   [(gk ω) ({ohne ui})]ti = ai }   =   ...

Wir brauchen also für gegebenes i und bei festgehaltenen Werten für die anderen Parameter den Wert von   [(gk ω) ({ohne ui})]   an den Stellen   ti = bi   und   ti = ai  . Diese Parameterpunkte liegen jeweils an der Grenze des Integrationsgebietes T, denn sie entsprechen dem minimalen und maximalen Wert des Parameters ti (bei festgehaltenen Werten für die anderen Parameter). Nun können diese Grenz-Parameterpunkte zu T gehören oder auch nicht. Das bedeutet: Falls Uk kein Randstück überdeckt, ist T offen und die Grenz-Parameterpunkte gehören nicht zu T. Im anderen Fall geht T aus einer offenen Menge T' hervorgeht, bei der alle Punkte mit   t1 > 0   weggeschnitten wurden. Daher gehören dann nur die Grenz-Parameterpunkte mit   t1 = 0   zu T dazu (sie liegen auf der Schnittfläche δT ). Nur für   t ∈ δT   (also auf dem Rand) erlauben wir, dass   gk ω   ungleich Null sein darf! Die anderen Grenz-Parameterpunkte gehören dagegen entweder zu Grenzen der Uk im Inneren von G (dann muss gk gleich Null sein) oder zur Grenze von G (dann muss ω gleich Null sein). Vorsicht: Der Begriff Grenze soll andeuten, dass diese Punkte nicht mehr dazu gehören (anders als der Rand). Möchte man an der Grenze von G aber ω ungleich Null haben, so muss man diese Grenze mit zu G hinzunehmen und so aus ihr einen Rand von G machen. Die Uk und die Parametrisierungen müssen dann so gewählt werden, dass dieser Rand durch die jeweilige Parameter-Schnittfläche mit   t1 = 0   parametrisiert wird. Ein Beispiel: Wenn G das offene Intervall von 0 bis 1 ist, so muss ω bei 0 und bei 1 gleich Null sein. Will man ω an diesen Grenzpunkten ungleich Null haben, so muss man für G das geschlossene Intervall von 0 bis 1 wählen, so dass 0 und 1 zum Rand von G werden. Genau so ist der Integralsatz von Stokes zu verstehen!

Schauen wir uns also die Summe oben an. Falls Uk kein Randstück überdeckt, ist   gk ω   an den Grenz-Parameterpunkten gleich Null, und die ganze Summe ergibt demnach auch Null. Wir werden diesen Fall später einfach dadurch berücksichtigen, dass wir für die Parameter-Schnittfläche δT die leere Menge nehmen.
Falls aber Uk ein Randstück überdeckt, so bleibt in der Summe oben nur der Term mit i = 1 übrig, also der Term mit   t1 = b1 = 0  . Nur dort befinden wir uns nämlich auf dem Rand δT . Hier zeigt sich, wie günstig die Vorgehensweise mit der Zerlegung der Eins und der speziellen Wahl der Parametrisierung ist! Man muss sich (anders als bei der Würfel-Vorgehensweise) nicht ständig mit vielen Termen und Vorzeichen herumschlagen! Schreiben wir also unser Ergebnis auf:

  =   ∫ dt2 ... dtp   [(gk ω) (u2, ... , up)]t1 = 0   =  

  =   ∫δT     [(gk ω) (u2, ... , up)]   dt2 ... dtp   =  

  =   ∫γ(δT)   gk ω

Damit ist also gezeigt, dass   ∫γ(δT)   gk ω   =   ∫γ(T)   d(gk ω)   gilt. Also gilt die Gleichheit auch für die Summe dieser Terme   ∑k   ∫γ(δT)   gk ω   =   ∑k   ∫γ(T)   d(gk ω)   und schließlich auch   ∫δG ω   =   ∫G dω   . Der Integralsatz von Stokes ist damit bewiesen, und alle darin vorkommenden Begriffe sind im Beweisverlauf sauber definiert worden!

Wie wir gesehen haben, ist der Beweis eigentlich recht einfach. Wenn man die Vorüberlegung mit der Überdeckung von G durch die Uk und das zugehörige Ein- und Ausblenden von ω durch die Funktionen gk erst einmal gemacht hat, ist die nachfolgende Rechnung recht kurz und übersichtlich, denn in jedem Teilbereich können wir eine für unsere Zwecke ideal passende Parametrisierung wählen.

Aus dem Beweis kann man noch eine wichtige Informationen ablesen: Die Orientierung von G induziert eine Orientierung des Randes δG. Grund: In jeder von einem Uk überdeckten Teilmenge von G induziert die Parametrisierung (definiert durch die Funktion γ und die Parametermenge T) eine Orientierung (legt also das Vorzeichen des Integrals fest). Dieselbe Parametrisierung können wir aber auch für den Rand δG verwenden, indem wir den Parameterraum auf δT einschränken. Daher induziert sie auch eine Orientierung auf dem Rand δG (legt also das Vorzeichen des Randintegrals fest). Nur mit dieser induzierten Orientierung gilt der Integralsatz von Stokes in der obigen Form (also mit diesem Vorzeichen).

Schauen wir uns die Parametrisierungen unter diesem Blickwinkel noch einmal an: Wenn ein Uk einen Teil von G mit Rand überdeckt, so haben wir diesen Teil von G mit Hilfe der Parametermenge T und der Funktion γ parametrisiert. Der Parametervektor lautet   (t1, t2, ... , tp)   mit   t1 ≤ 0   . Der Rand von G wird dann durch die Parameter   (0, t2, ... , tp)   dargestellt. Wenn wir mit t1 bei negativen Werten starten und den Wert langsam vergrößern, so durchstoßen wir bei   t1 = 0   den Rand von G und verlassen G. Der Tangentialvektor u1 , der auf G einer Ableitung in t1-Richtung entspricht, zeigt also in den Randpunkten von G nach außen. Dies wird in anderen Texten häufig dazu verwendet, um die Orientierung von δG festzulegen. Tatsächlich kommt es auf die anderen Parameter gar nicht an, denn sie verlaufen ja im Inneren und auf dem Rand in derselben Weise. Lediglich der Parameter, der auf dem Rand einen konstanten Wert annimmt, ist entscheidend: er muss von innen nach außen anwachsen und bei einem gewissen maximalen Wert den Rand durchstoßen. Für eine Vollkugel beispielsweise könnten wir Kugelkoordinaten θ, φ und r verwenden. Die Winkel θ und φ parametrisieren die Kugeloberfläche sowie (zusammen mit dem Radius r) das Kugelinnere. Der Radius r entspricht dem Parameter t1 (bis auf eine additive Konstante). Da r den maximalen Wert auf der Kugeloberfläche annimmt (also auf dem Rand der Vollkugel), passen diese Parameter und die durch sie induzierten Orientierungen zu unserer Formulierung des Stokes'schen Integralsatzes.


In diesem Beispiel ist G die dreidimensionale Vollkugel, und δG ist die Kugeloberfläche. Die von den einzelnen Uk überdeckten Kugelteile sind dann so parametrisiert, dass das Kugelinnere den Parameterwerten   (t1, t2, t3)   mit   t1 < 0   entspricht. Der Kugelrand wird dann durch die Ebene   (0, t2, t3)   parametrisiert. Der zu t1 gehörende Tangentialvektor u1 zeigt nach außen, während die anderen beiden Tangentialvektoren u2 und u3 tangential zur Kugeloberfläche liegen (sie spannen also in jedem Punkt den Tangentialraum von δG auf). Auf diese Weise induziert eine Orientierung von G eine Orientierung in δG (mit derselben Parameterfunktion γ ).


Damit sind wir am Ende dieses umfangreichen und sicher nicht ganz einfachen Kapitels angekommen. Ich hoffe, ich konnte dem Leser den Begriff der Differentialformen etwas näher bringen und zeigen, dass man auch einen Satz wie den Integralsatz von Stokes verstehen kann und dass ihm keineswegs ein verschlungener und unzugänglicher Beweis zugrunde liegt. Im nächsten Kapitel wollen wir uns dann noch etwas weiter mit Differentialformen befassen und den Hodge-Stern-Operator und seine Verbindung zu Divergenz und Rotation kennenlernen.


Literatur zu dem Thema:


zurück zum Inhaltsverzeichnis

last modified on 30 December 2008