Kapitel 7
Spezialthemen

1  Was ist Entropie?

Der Begriff der Entropie gilt manchmal als schwierig und unanschaulich. Ein Grund dafür ist sicher, dass man in der klassischen Thermodynamik die Entropie gleichsam hinten herum über die Wärmemenge einführt, und dass man so ihre wahre Natur nicht erfassen kann. Ein weiterer Grund ist vielleicht, dass Entropie in der Physik keine Erhaltungsgröße ist, anders als beispielsweise die Energie. Die Entropie nimmt von sich aus zu, wenn sich ein System auf das thermische Gleichgewicht zubewegt.

Man kann die Entropie aber sehr wohl anschaulich einführen, wenn man von der inneren Natur der Materie (Teilchen und Quanten) ausgeht. So wird die Entropie zum grundlegenden statistischen Begriff der Thermodynamik und erhält zugleich von Anfang an eine anschauliche Bedeutung. Sie bildet dann die Basis, um weitere Begriffe wie beispielsweise die Temperatur präzise zu definieren. Diesen Weg wollen wir hier gehen. Um den Leser nicht zu sehr mit Vorbereitungen auf die Folter zu spannen, ist hier ohne weitere Umschweife die wesentliche Kernidee:

Die anschauliche Bedeutung der Entropie:

Wieviele Möglichkeiten haben die Gasteilchen in einem Gasbehälter, um im Mittel ein bestimmtes großräumiges Erscheinungsbild zu realisiseren, beispielsweise eine bestimmte räumliche Dichteverteilung? Sie haben extrem viele Möglichkeiten dafür! Typisch wäre eine Zahl wie   10 (1020 )   . Um diese Zahl hinzuschreiben, braucht man etwa   1020   Dezimalstellen, die Zahl ist also Lichtjahre lang. Die Entropie für das betrachtete großräumige Erscheinungsbild ist nun gerade diese Anzahl Dezimalstellen, also gleichsam die Länge der Zahl an Möglichkeiten, das großräumige Erscheinungsbild im Detail zu realisieren. Meist versieht man dabei die Entropie zusätzlich noch mit einem Vorfaktor, um handhabbare Entropiewerte und bestimmte phsyikalische Einheiten für die Entropie zu erhalten.


Die Zahl der Möglichkeiten Ω (Omega), ein großräumige Erscheinungsbild im Detail zu realisieren, ist Lichtjahre lang. Die Länge von Ω ist die Entropie des großräumige Erscheinungsbildes (bis auf einen konstanten Vorfaktor).


Diese Idee wollen wir nun präzisiseren und sehen, wie sich mit ihr die gesamte klassische Thermodynamik begründen lässt. Wir werden verstehen können, was Wärme, Temperatur oder Druck eigentlich sind, und warum bestimmte Prozesse (z.B. chemische Reaktionen) einem bestimmten Gleichgewichtszustand zustreben.


Statistische Definition der Entropie über Mikro- und Makrozustände:

Oben war von Möglichkeiten und einem bestimmten großräumigen Erscheinungsbild die Rede. Um die üblichen Begriffe zu verwenden, nennen wir das großräumige Erscheinungsbild Makrozustand und bezeichnen jede der einzelnen Möglichkeiten, diesen Makrozustand mikroskopisch zu realisieren, als Mikrozustand:

  • Ein Mikrozustand des Systems entspricht der genauest möglichen Beschreibung des Systems. So könnte man beispielsweise im Prinzip die exakte Vielteilchen-Wellenfunktion des Gases im Gasbehälter angeben.

  • Ein Makrozustand des Systems fasst sehr viele Mikrozustände statistisch zusammen. Er ist durch einige wenige statistische Zustandsgrößen festgelegt. Sie genügen, um die makroskopischen Eigenschaften des Systems hinreichend genau zu beschreiben. So ist der Makrozustand eines makroskopischen Objektes in bestimmten Fällen bereits durch Energie, Volumen und Teilchenzahl vollständig gekennzeichnet. Im Einzelfall muss man genau festlegen, was man unter den Makrozuständen des jeweiligen Systems verstehen möchte, d.h. man muss geeignete statistische Zustandsgrößen zur Definition der Makrozustände festlegen.

Natürlich ist es kaum möglich, die exakte Wellenfunktion eines makroskopischen Objektes und damit seinen Mikrozustand exakt zu messen, sobald dieser auch nur einige Dutzend Teilchen enthält. Bei der typischen Größenordnung von 1020 und mehr Teilchen ist es vollkommen illusorisch, den Mikrozustand festzulegen, zumal das Objekt ständig im Kontakt mit seiner Umgebung ist und sich der Mikrozustand daher ständig ändert (selbst im leeren Weltraum würde ein Objekt Wärmestrahlung aussenden und absorbieren). Das ist der Grund dafür, jeweils viele Mikrozustände statistisch zu einem Makrozustand zusammenzufassen, den man dann durch geeignete statistische Zustandsgrößen charakterisieren kann. So interessiert der Mikrozustand eines Steines normalerweise nicht, wohl aber seine Temperatur. Damit ist auch klar, was man mit makroskopischem System meint: ein System, das extrem viele Mikrozustände besitzt und bei dem es Sinn macht, jeweils sehr viele dieser Mikrozustände zu Makrozuständen zusammenzufassen. Wir werden noch sehen, dass die Zahl der Mikrozustände exponentiell mit der Zahl der Teilchen (bzw. der Freiheitsgrade) eines Systems anwächst, und dass ihr energetischer Abstand genauso schnell exponentiell schrumpft. Man hat es meist mit einem energetischen Quasi-Kontinuum von Mikrozuständen zu tun. Die Zahl der Mikrozustände übersteigt selbst bei relativ wenigen Teilchen (sagen wir, einigen Tausend) schnell die Zahl der Atome im sichtbaren Universum (diese beträgt weniger als 10100, siehe Wikipedia: Universum). Bei der typischen Zahl von 1020 und mehr Teilchen für makroskopische Körper wird die Zahl der Mikrozustände unvorstellbar groß -- man denke an Zahlen wie   10 (1020 )   . Das sieht harmlos aus, aber wenn man diese Zahl ausschreibt und pro Dezimalstelle etwa 5 mm Platz braucht, dann ist die ausgeschriebene Zahl 5 * 1014 km lang -- das sind etwa 50 Lichtjahre, also mehr als 10 mal weiter als bis zum nächsten Stern. So lang wäre die ausgeschriebene Anzahl der Mikrozustände.

Wir hatten die Anzahl der Mikrozustände, die ein Makrozustand umfasst, oben bereits mit   Ω   bezeichnet. Genau genommen müsste man so etwas wie   Ω(A,B,C,...)   schreiben, wobei A, B, C usw. die Zustandsgrößen sind, die den Makrozustand festlegen -- beispielsweise eine großräumige Dichteverteilung.

Da Ω meist eine extrem große Zahl ist, bietet es sich an, nicht direkt mit Ω zu arbeiten, sondern mit dem Logarithmus von Ω . Der Logarithmus hat den Vorteil, dass Produkte von Ω's zu Summen der Logarithmen werden, beispielsweise wenn man zwei Systeme zu einem Gesamtsystem zusammensetzt. Bei großen Zahlen kann man sagen: Der Logarithmus misst, wieviele Stellen man braucht, um die Zahl aufzuschreiben. Zumindest wäre das beim Zehnerlogarithmus so. Üblicherweise verwendet man aber den natürlichen Logarithmus, der sich vom Zehnerlogarithmus nur um einen Faktor 2,3 unterscheidet, und fügt noch einen weiteren Vorfaktor hinzu: Die Boltzmannkonstante   k   =   1,38... * 10− 23 J/K   =   8,617... * 10− 5 eV/K   . Wenn in einem Makrozustand alle Mikrozustände mit gleicher Wahrscheinlichkeit auftreten, so bezeichnet man den natürlichen Logarithmus von Ω zusammen mit dem Vorfaktor als Entropie S des Makrozustandes. Das ist für ein makroskopisch abgeschlossenes System im thermischen Gleichgewicht der Fall, wie wir noch sehen werden.

Der Grund für den Vorfaktor k liegt darin, dass man die Temperatur später in der Einheit Kelvin angeben möchte, was dazu führt, dass die Entropie die Dimension Energie pro Temperatur hat. Das war historisch die natürliche Dimension der Entropie bei ihrer klassischen Definition über die quasistatische Wärmeübertragung bei fester Temperatur (siehe unten). Fassen wir zusammen:

Entropie:

Treten die erreichbaren Mikrozustände eines Makrozustandes mit gleicher Wahrscheinlichkeit auf, so ist die Entropie S dieses Makrozustandes proportional zum natürlichen Logarithmus der Anzahl   Ω   dieser Mikrozustände definiert. Als Proportionalitätsfaktor wählt man üblicherweise die Boltzmannkonstante   k   =   1,38... * 10− 23 J/K   =   8,617... * 10− 5 eV/K   . Es ist also

  S   :=   k   ln Ω

Die Entropie ist damit ungefähr proportional zur Anzahl Dezimalstellen, die man benötigt, um die riesige Anzahl Ω der Mikrozustände aufzuschreiben (   ln Ω   ist ungefähr 2,3 mal die Stellenanzahl von Ω ).

Weiter unten werden wir die Definition noch für den Fall verallgemeinern, dass die Mikrozustände mit unterschiedlicher Wahrscheinlichkeit auftreten.

Wie groß ist die kleinste mögliche Entropie? Die Formel oben zeigt sofort: Null ist der kleinstmögliche Wert für Entropie (dritter Hauptsatz der Thermodynamik). Dieser Fall tritt ein, wenn der Makrozustand nur einen einzigen Mikrozustand umfasst, denn   ln 1 = 0   (man müsste also beim Zählen der Dezimalstellen wohl mit einer nullten Stelle anfangen). Das geschieht beispielsweise, wenn man einem Festkörper jede thermische Energie entzieht, so dass er in den quantenmechanischen Grundzustand übergeht (siehe beispielsweise das Phänomen der Bose-Einstein-Kondensation weiter unten).

Übrigens: Definiert man den Entropiebegriff auf Basis der klassichen Mechanik statt der Quantenmechanik, so gibt es keine gut definierten Mikrozustände und damit auch keinen Grundzustand. Die Entropie ist dann nur bis auf eine beliebige additive Konstante bestimmt. An die Stelle der Mikrozustände tritt das sogenannte Phasenraumvolumen, das man in kleine Parzellen aufteilt, wobei die Größe dieser Parzellen einmalig beliebig festgelegt werden kann. Die Zahl der Parzellen im erreichbaren Phasenraumvolumen entspricht dann der Zahl der Mikrozustände. Hier kann man nur sinnvoll von Entropiedifferenzen sprechen, aber nicht vom absoluten Wert der Entropie, denn eine andere Festlegung der Parzellengröße führt zu einer anderen additiven Konstante bei der Entropie. Wir verfolgen diesen etwas veralteten Ansatz hier nicht, denn wir wissen ja, dass die Quantenmechanik die fundamentalere Theorie ist.

Ja -- und das wäre es eigentlich schon! Die Definition ist also im Grunde ganz einfach. Nun müssen wir nur noch herausfinden, was sie in verschiedenen Zusammenhängen bedeutet, insbesondere in der Physik makroskopischer Systeme.


Entropie, Unordnung und Information:

Oft verbindet man große Entropie mit großer Unordnung. Das kann hilfreich, aber auch verwirrend sein. Zudem ist der Begriff Unordnung eher intuitiv und nicht sonderlich präzise definiert.

Wenn es nur relativ wenige Mikrozustände gibt, die wir als geordnet ansehen würden, dann ist die Verknüpfung von Entropie und Unordnung hilfreich. Das typische Beispiel ist die unaufgeräumte Wohnung: Hier gibt es sehr viel mehr Möglichkeiten, die persönlichen Habseligkeiten unordentlich in der Wohnung zu verteilen, als sie ordentlich aufzubewahren. In diesem Sinne hat der Makrozustand unaufgeräumte Wohnung sehr viel mehr Mikrozustände als der Makrozustand aufgeräumte Wohnung.

Es kann aber auch Fälle geben, bei denen wir die meisten Mikrozustände als geordnet ansehen würden -- dann ist die Verknüpfung unglücklich. Ein Beispiel ist die Beschreibung von Materie und Gravitation in der allgemeinen Relativitätstheorie mit Berücksichtigung von Quanteneffekten. Ein schwarzes Loch hat hier eine große Entropie, und tatsächlich neigt hinreichend kalte Materie ja durchaus dazu, aufgrund der Gravitation zu verklumpen und ggf. schwarze Löcher zu bilden. Würden wir schwarze Löcher intuitiv als ungeordnet empfinden?
Ein anderes Beispiel ist das spontane Entstehen von Ordnung, wenn wenige große Teilchen (z.B. große organische Moleküle) in einem Meer kleiner Teilchen schwimmen. Die großen Teilchen haben hier häufig die Tendenz, sich eng zusammenzufinden, da so mehr Platz für die Bewegung der kleinen Teilchen entsteht, was in Summe die Gesamtentropie erhöht. Dabei können die großen Teilchen sogar spontan geordnete Strukturen bilden, wenn dies mehr Platz für die kleinen Teilchen schafft -- Entropie schafft hier also Ordnung statt Unordnung! Allerdings beachten wir dabei nur die zunehmende Ordnung (abnehmende Entropie) der großen Teilchen, während uns die erweiterten Bewegungsmöglichkeiten (stark zunehmende Entropie) der kleinen Teilchen nicht weiter interessieren. Solche Prozesse scheinen in der Biochemie lebender Zellen eine nicht unwichtige Rolle zu spielen. Mehr dazu siehe beispielsweise in Peter Weiss: Another Face of Entropy -- Particles self-organize to make room for randomness, im Internet z.B. hier zu finden.

Statt unordentlich ist der Begriff informationsarm für einen Zustand hoher Entropie besser. Ein noch-so-großes schwarzes Loch lässt sich beispielsweise durch nur drei(!) Kenngrößen vollständig beschreiben: Masse, Drehimpuls und Elektrische Ladung (siehe Wikipedia: Schwarzes Loch). Entsprechend enthält der Makrozustand eines schwarzen Lochs nur sehr wenig Information. Schwarze Löcher haben sogar eine Entropie und eine Temperatur -- mehr dazu in Kapitel 7.3.

Wachsende Entropie hat also etwas mit wachsender Zufälligkeit auf der Mikro-Ebene und Informationsverlust auf der Makro-Ebene zu tun, denn immer mehr Mikrozustände können statistisch durch einen Makrozustand beschrieben werden, für den man nur wenige Zustandsgrößen braucht. Wir werden in Kapitel 7.2 noch einmal im Detail auf den engen Zusammenhang zwischen Entropie und Information zurückkommen.


Typische Größenordnung von S und Ω bei makroskopischen Materiemengen:

Wie groß sind typische Entropien für Objekte in unserer täglichen Umgebung? Typische Werte bei Zimmertemperatur und Atmosphärendruck bewegen sich zwischen 50 und 300 Joule pro Kelvin und Mol. Die höchsten Entropiewerte haben Gase, die niedrigsten Festkörper, und zwar umso weniger, je stärker die Atome aneinander gebunden sind (siehe z.B. Thermodynamics of chemical equilibrium: What is entropy?). Division durch die Boltzmannkonstante ergibt für   ln Ω   Werte von der Größenordnung   1025   für ein Mol (etwa   6 * 1023   Teilchen, beispielsweise 2 Gramm Wasserstoff oder 12 Gramm Kohlenstoff). Die Zahl der Mikrozustände pro Makrozustand ist demnach ungefähr   Ω   =   2,718 (1025 )   , ist also von der Größenordnung   10 (1024 )   für etwa 1023 Teilchen bei Zimmertemperatur. Das sind genau die extrem großen Zahlen, die wir oben erwähnt hatten. Also:

Typische Entropien:

Bei Zimmertemperatur (300 K) und Atmosphärendruck liegt die typische Entropie von einem Mol Teilchen (etwa   6 * 1023   Teilchen) bei

  S   =   50   bis   300 J/K

Die entsprechende Anzahl Mikrozustände pro Makrozustand liegt bei der Größenordnung:

  Ω   ∼   10 (1024 )

Ist es Ihnen aufgefallen? Die Entropie ist ja immer für einen Makrozustand definiert. Wo ist der Makrozustand? Offenbar reicht es im Wesentlichen, die Temperatur, die Stoffmenge und Stoffart sowie den Druck (oder das Volumen) anzugeben, um den Makrozustand zu spezifizieren. Warum das so ist, kommt später.


Thermisches Gleichgewicht:

Der entscheidende Schritt bei der Definition der Entropie war: Man fasst viele Mikrozustände geeignet zu Makrozuständen zusammen. Dabei wird es Makrozustände geben, die sehr viel mehr Mikrozustände umfassen als andere Makrozustände. Was bedeutet das?

Schauen wir uns dazu ein System an, das makroskopisch abgeschlossen ist, d.h. es soll nur sehr wenig mit seiner Umgebung in Wechselwirkung stehen (ganz vermeiden kann man das bei makroskopischen Systemen ja nie). Ein Beispiel für ein solches System wäre ein gefüllter Gasbehälter mit einer sehr guten thermischer Isolierung. Nehmen wir nun an, wir starten mit einem Makrozustand, der nur einen kleinen Teil der Mikrozustände umfasst, die für das System prinzipiell unter den gegebenen Randbedingungen erreichbar sind. Beispielsweise könnten wir einen Gasbehälter betrachten, bei dem sich alle Gasteilchen in der rechten Hälfte befinden. Nun überlassen wir das System sich selbst. Das System wird beginnen, sich zufällig im Raum der erreichbaren Mikrozustände zu bewegen, denn bei einem makroskopischen System ist ein Mikrozustand nicht stabil -- das System unterliegt unvermeidlich winzigen äußeren Einflüssen, die es sehr schnell von einem Mikrozustand zum nächsten springen lassen. Man kann sich vorstellen, dass sich das System auf einem Zufallspfad im Raum der erreichbaren Mikrozustände bewegt. Jede Messung am System braucht nun eine gewisse Zeit, so dass man bei dieser Messung immer einen Mittelwert über viele Mikrozustände erhält. Eine andere Interpretation ist die, dass sich ein makroskopisches Quantensystem sowieso nie komplett in einem einzigen Quantenzustand (Mikrozustand) befindet -- dafür müsste man diesen Zustand ja durch Messung erst präparieren, was hoffnungslos ist. Man beschreibt solche Quantensysteme durch eine quantenmechanische Dichtematrix, also durch ein klassisch-statistisches Gemisch von Quantenzuständen (zur Dichtematrix siehe den Anhang weiter unten sowie Kapitel 4.5). Hier ist die Mittelung über viele Mikrozustände schon von Anfang an eingebaut.

Auf dem Zufallsweg durch die erreichbaren Mikrozustände wird das System irgendwann die Mikrozustände verlassen, die zu dem Anfangs-Makrozustand gehören, denn dieser Anfangs-Makrozustand umfasst ja nur einen kleinen Teil der erreichbaren Mikrozustände. Die Gasteilchen werden sich im Gasbehälter verteilen. Da wir davon ausgehen, dass bei einem abgeschlossenen System auf Dauer kein erreichbarer Mikrozustand bevorzugt wird, werden alle erreichbaren Mikrozustände im Lauf der Zeit gleich wahrscheinlich werden, also während der Messzeit gleich häufig auftreten (das ist die statistische Grundannahme für ein abgeschlossenes System). Die Wahrscheinlichkeiten werden damit zugleich auch zeitlich konstant. Sobald dies eingetreten ist, spricht man von thermischen Gleichgewicht. Wie lange es dauert, bis das thermische Gleichgewicht erreicht ist, kann sehr unterschiedlich sein -- es kann Millisekunden oder Jahre dauern. Die Annäherung an das Gleichgewicht erfolgt umgekehrt exponentiell, also erst schneller und dann immer langsamer. Die typische Zeitskala bezeichnet man dabei als Relaxationszeit.

Zum thermischen Gleichgewicht gehört bei einem makroskopischen Körper automatisch das mechanische Gleichgewicht dazu. Das bedeutet, dass sich äußere Parameter wie das Volumen nicht mehr ändern dürfen -- die Energieniveaus der Mikrozustände müssen konstant bleiben (mehr dazu gleich). Im Allgemeinen stellt sich das mechanische Gleichgewicht sehr viel schneller ein als das thermische Gleichgewicht (Drücke gleichen sich meist schneller aus als Temperaturen).

Ein Makrozustand mit vielen erreichbaren Mikrozuständen wird bei einem abgeschlossenen System im thermischen Gleichgewicht wahrscheinlicher auftreten als ein Makrozustand mit nur wenigen Mikrozuständen, denn alle Mikrozustände sind im thermischen Gleichgewicht ja gleich wahrscheinlich. Die Zahl die Mikrozustände zu einem Makrozustand ist demnach ein Maß für die Wahrscheinlichkeit des Makrozustandes im thermischen Gleichgewicht. So ist es sehr unwahrscheinlich, dass wir unser System irgendwann wieder im Anfangs-Makrozustand mit nur wenigen Mikrozuständen vorfinden -- die Gasteilchen werden kaum freiwillig alle in den rechten Teil des Gasbehälters wandern, auch wenn sie es im Prinzip natürlich könnten. In diesem Sinn ist die Ausbreitung der Gasteilchen im gesamten Gasbehälter irreversibel, also mit extrem hoher Wahrscheinlichkeit unumkehrbar.

Bei einem makroskopisch abgeschlossenen System im thermischen Gleichgewicht ist also die Anzahl Ω der Mikrozustände (und damit die Entropie) ein Maß für die Wahrscheinlichkeit des zugehörigen Makrozustandes. Dabei sind die Ω-Zahlen für verschiedene Makrozustände zumeist so extrem groß und zugleich so unterschiedlich, dass ein bestimmter Makrozustand der klaren Favorit ist. Schauen wir uns als Beispiel dazu wieder den Gasbehälter an. Wie wir unten noch sehen werden, ist die Zahl der Mikrozustände proportional zum Volumen hoch N (N = Teilchenzahl, beispielsweise 1020 ). Die Zahl der Zustände, bei denen sich die Gasteilchen nur in der rechten Hälfte des Gasbehälters aufhalten, ist also um den Faktor (1/2)N kleiner als die Zahl der Zustände, bei denen sie das ganze Volumen bevölkern können (hätte man auch mit ganz einfacher Wahrscheinlichkeitsrechnung sehen können: die Wahrscheinlichkeit für die rechte Hälfte ist für jedes der N Teilchen gleich 1/2, für alle N Teilchen also gleich (1/2)N ). Nehmen wir für die Teilchenzahl N den typischen Wert 1020, so ist   (1/2)N   eine unglaublich winzige Zahl: Schreibt man sie aus, so kommen hinter dem Komma erst einmal einige Lichjahre nur Nullen. So unwahrscheinlich ist es, dass sich die 1020 Gasteilchen alle zugleich für die rechte Hälfte des Gasbehälters entscheiden.

Auch kleinere Abweichungen vom thermischen Gleichgewicht sind sehr unwahrscheinlich. Man kann sich überlegen, dass die statistische Schwankungsbreite zwischen Teilchenanzahl rechts und links im Gleichgewicht etwa bei √N liegt. Das bedeutet, dass bei 1020 Teilchen die relative Abweichung bei   √N / N   =   1010 / 1020   =   10− 10   liegt. Es ist also bereits sehr unwahrscheinlich, dass sich rechts 10− 8 Prozent mehr Teilchen als links befinden. Zum Vergleich: Eine relative Schwankungsbreite von   10− 10   würde bei einer Länge von einem Kilometer einer Schwankung von nur 0,1 Mikrometer entsprechen -- das ist weniger als eine Lichtwellenlänge.

Unser Fazit lautet also: Überlässt man ein makroskopisch abgeschlossenes System sich selbst, so nimmt es schließlich im thermischen Gleichgewicht mit extrem hoher Wahrscheinlichkeit den Makrozustand mit der größten Entropie ein. Das ist der zweite Hauptsatz der Thermodynamik. Fassen wir kurz zusammen:

zweite Hauptsatz der Thermodynamik:

Überlässt man ein makroskopisch abgeschlossenes System sich selbst, so geht es mit der Zeit ins thermische Gleichgewicht über, d.h. alle erreichbaren Mirkozustände treten mit gleicher Wahrscheinlichkeit auf. Mit extrem hoher Wahrscheinlichkeit befindet sich das System dann im erreichbaren Makrozustand mit der größten Entropie (also mit den weitaus meisten erreichbaren Mikrozuständen).

Noch eine Bemerkung zu den anderen Makrozuständen, bei denen sich das System (noch) nicht im thermischen Gleichgewicht befindet: Um solche Makrozustände überhaupt angeben zu können, geht man meist von lokalem thermischen Gleichgewicht aus. Das bedeutet: schaut man sich nur kleine Teilvolumina an, so befindet sich das System dort bereits in guter Näherung im thermischen Gleichgewicht. Das lässt sich leicht realisieren, denn die Relaxationszeit, die das System braucht, um ins thermische Gleichgewicht zu gelangen, hängt normalerweise stark vom betrachteten Volumen ab. Lokal stellt sich also meist sehr schnell thermisches Gleichgewicht ein. Nur so kann man statistische Zustandsgrößen wie Temperatur, Druck oder Dichte auch lokal definieren. Der Makrozustand ist dann durch die großräumige Verteilung dieser Größen definiert, beispielsweise durch eine Dichteverteilung. Das obiger Beispiel mit dem Gasbehälter, bei dem sich anfangs alle Gasteilchen in der rechten Hälfte befinden, hat das sehr schön gezeigt, denn er ist (u.a.) durch eine Dichteverteilung charakterisiert: Rechts ist die Dichte konstant positiv, links ist sie Null.


Das mikrokanonische Ensemble -- der Prototyp aller Gleichgewichtsverteilungen:

Wir hatten einen Makrozustand oben als statistische Zusammenfassung sehr vieler Mikrozustände definiert. Dabei müssen wir nun festlegen, welche Mikrozustände wir mit welcher Wahrscheinlichkeit zu einem Makrozustand zusammenfassen wollen. Diese Zusammenfassung von Mikrozuständen zu einem Makrozustand bezeichnet man auch als statistisches Ensemble, statistische Verteilung oder auch als statistische Gesamtheit des Makrozustandes -- ich werde hier alle drei Begriffe synonym verwenden. Beispielsweise war oben der Anfangs- Makrozustand bei dem Gasbehälter durch alle Mikrozustände charakterisiert, bei denen sich die Gasteilchen in der rechten Hälfte befinden.

Wir wollen uns nun den Prototyp einer statistischen Gesamtheit ansehen: das sogenannte mikrokanonische Ensemble. Die gesamte Physik des thermischen Gleichgewichtes lässt sich aus diesem Ensemble ableiten.

Um welchen Makrozustand geht es dabei? Wir betrachten ein makroskopisch abgeschlossenes System im thermischen Gleichgewicht mit einer bestimmten Teilchenzahl N (nur eine Teilchensorte), das ein bestimmtes Volumen V einnimmt und dessen Gesamtenergie sich ein einem sehr kleinen Energieintervall zwischen den Werten   E   und   E + δE   befindet -- diese drei Angaben definieren unseren Makrozustand. Bei Gasen im thermischen Gleichgewicht ist das aureichend. Bei Festkörpern können noch andere Größen wie Magnetisierung oder innere Spannung wichtig sein, aber das wollen wir hier nicht betrachten. Ist das System noch nicht im thermischen Gleichgewicht, so sind weitere makroskopische Größen notwendig, um den Makrozustand zu kennzeichnen, beispielsweise eine ortsabhängige Energie- oder Dichteverteilung (wobei man dann lokales thermisches Gleichgewicht annimmt -- wir hatten es oben bereits kurz angesprochen).

Was bedeutet nun der Begriff klein für das Energieintervall δE ? Er besagt, dass δE sehr viel kleiner als die Gesamtenergie E sein soll. Allerdings soll δE dabei immer sehr viel größer bleiben als der typische Energieabstand zwischen benachbarten Mikrozuständen, so dass noch sehr viele Mikrozustände im Energieintervall liegen. Die Energieintervallbreite δE soll also aus makroskopischer Sicht klein, aber aus mikroskopischer Sicht groß sein -- wir werden das unten noch präzisieren. Da der Energieabstand zwischen den Mikrozuständen aber exponentiell mit der Teilchenzahl N abnimmt, ist das kein Problem: auch sehr kleine Werte für δE (im Vergleich zu E) sind immer noch weit größer als der Energieabstand der Mikrozustände. Übrigens kann man δE auch als die quantenmechanische Unschärfe der Energiemessung interpretieren, die bei einer endlichen Messzeit prinzipiell auftritt. Demnach tragen zum Messergebnis alle Mikrozustände bei, die in dieser Energieunschärfe liegen. Bei einer Messzeit von einer Millisekunde hätte man beispielsweise eine Energieunschärfe von ungefähr   δE = 10− 12 eV   , während die Gesamtenergie E eines makroskopischen Körpers normalerweise weit über 1 eV liegt. Übrigens: Auch in der Quantenelektrodynamik erhält man nur dann konsistente Ergebnisse, wenn man eine solche Energieunschärfe prinzipiell berücksichtigt -- nur so kann man den nicht-messbaren Beitrag sehr energiearmer Photonen korrekt berücksichtigen und die sogenannten Infrarot-Divergenzen vermeiden (siehe Kapitel 4.1.5 -- Weinberg Kapitel 13).

Einige Anmerkungen dazu:

Wir hatten gesagt, dass das System makroskopisch abgeschlossen oder auch makroskopisch isoliert sein soll. Was damit gemeint ist, wissen wir jetzt: E, V und N sollen fest vorgegeben sein, wobei allerdings minimale Energieschwankungen innerhalb des kleinen Energieintervalls δE erlaubt sein sollen, denn man kann ein makroskopisches System nie vollständig isolieren. Deshalb haben wir keine scharfe Energie E vorgegeben, sondern ein sehr kleines Energieintervall. Die Energie darf diesen kleinen Bereich nicht verlassen -- das bedeutet makroskopisch abgeschlossen. Später müssen wir dann untersuchen, welchen Einfluss die Energie-Schwankungsbreite δE auf unsere Ergebnisse hat. Wir werden sehen: Die Zahl der Zustände im Energieintervall ist proportional zur Intervallbreite δE (ist ja klar), aber der Logarithmus dieser sehr großen Zahl (und damit die Entropie) ist fast unabhängig von δE, solange δE makroskopisch klein und mikroskopisch groß ist -- Details dazu weiter unten.

Anmerkung: Später werden wir beim kanonischen Ensemble noch sehen, was geschieht, wenn wir die Forderung nach einem bestimmten Energieintervall aufgeben und statt dessen nur noch eine mittlere Energie (oder gleichwertig dazu eine Temperatur) vorgeben. Ein solches System muss dann nicht mehr makroskopisch abgeschlossen sein, so dass man seine Energiefluktuationen dann realistischer beschreiben kann. Für makroskopische Systeme zeigt sich dabei, dass größere Energiefluktuationen extrem unwahrscheinlich sind. Auch ein solches System kann man daher makroskopisch sehr gut durch das mikrokanonische Ensemble mit seinem strengen Energieintervall beschreiben. Kanonisches und mikrokanonisches Ensemble sind für die thermodynamischen Eigenschaften makroskopischer Systeme gleichwertig -- mehr dazu später.

Welche quantenmechanischen Zustände eignen sich als Mikrozustände? Naheliegend wäre es nach den obigen Überlegungen, die Energieeigenzustände des Systems zu verwenden, denn die Energie wird ja vorgegeben, also (mit einer gewissen Unschärfe) gemessen. Im Prinzip wäre es auch denkbar, andere Quantenzustände als Mikrozustände zu nehmen, die aus einer Superposition von Energieeigenzuständen bestehen. Das würde dann Sinn machen, wenn wir Zusatzinformationen gemessen hätten, die eine solche Superposition festlegen. Das tun wir aber hier nicht -- wir messen lediglich die Gesamtenergie und stellen fest, dass sie zwischen   E   und   E + δE   liegt. Außerdem müsste eine solche Superposition stabil gegen kleine äußere Einflüsse sein, was meist nicht der Fall ist (siehe Anhang unten).

Wenn sich der Mikrozustand des Systems ändert, so geschieht das aufgrund der geringen Wechselwirkung mit der Umgebung -- es könnten beispielsweise energiearme Photonen ausgesendet oder eingefangen werden (Wärmestrahlung). Die Umgebung merkt also im Prinzip etwas davon, dass sich der Mikrozustand ändert, und wir könnten durch eine präzise Messung des Gesamtsystems aus unserem beobachteten System und seiner Umgebung theoretisch herausfinden, wie sich der Mikrozustand des Systems geändert hat. Aber wir interessieren uns nicht für diese vielen prinzipiell unterscheidbaren Messungen, sondern wir messen nur, dass sich die Gesamtenergie mit der Unschärfe δE bei E befindet. Aus Kapitel 4.2 wissen wir, dass wir dann klassisch über alle Mikrozustände mitteln müssen, deren Energie in dem vorgegebenem Intervall liegen. Das genau meinen wir, wenn wir sagen, die Gesamtenergie des Systems liegt in dem Energieintervall. In Anhang 2 unten kann man im Detail nachlesen, wie eine solche klassische Mittelung entsteht, wenn man über die vielen nicht beobachteten Mikrozustände der Umgebung summiert.

Als Mikrozustände unseres Systems verwenden wir also die Energieeigenzustände   |nñ   mit Energie En , wobei alle die Mikrozustände erreichbar sind, deren Energie zwischen   E   und   E + δE   liegt. Die Wahrscheinlichkeit, mit der der Energiezustand   |nñ   zu einer Messung beiträgt, nennen wir Pn .

Im Prinzip sind zunächst einmal alle möglichen Wahrscheinlichkeiten Pn denkbar, sogar mit Zeitabhängigkeit. Sie entsprechen Systemen, die sich nicht im thermischen Gleichgewicht befinden. Das kann sehr kompliziert werden. Wir wollten uns aber hier den einfachen Fall anzusehen: ein System im thermischen Gleichgewicht. Oben haben wir gesehen, dass dann alle Wahrscheinlichkeiten Pn zeitunabhängig und gleich groß werden -- das geht übrigens nur, wenn die Mikrozustände zugleich Energieeigenzustände sind, denn Superpositionen von Energieeigenzuständen ergeben immer eine Zeitabhängigkeit. Bezeichnen wir die Zahl der Mikrozustände mit Energie zwischen E und E + δE mit   Ω(E)   , so ist

  Pn   =   1 / Ω(E)       für En zwischen E und E + δE und   Pn = 0   sonst

Zur Erinnerung: die Intervallbreite δE soll zwar sehr viel kleiner als E sein, aber der Abstand energetisch benachbarter Mikrozustände soll zugleich sehr viel kleiner als δE sein, so dass auch in einem schmalen Energieintervall noch extrem viele Mikrozustände liegen. Die Zahl der Zustände Ω(E) im Energieintervall ist also eine sehr große Zahl. Man kann sich vorstellen, dass die Energien der Mikrozustände extrem dicht beieinanderliegen, so dass man gleichsam ein energetisches Quasi-Kontinuum von Mikrozuständen vor sich hat. Dieses Quasi-Kontinuum besitzt eine Zustandsdichte   ω(E)   im Energieintervall, wobei die Intervallbreite δE so klein sein soll, dass sich diese Zustandsdichte innerhalb des Intervalls kaum ändert. Es soll also in sehr guter Näherung

  Ω(E)   =   ω(E) δE

gelten. Die Zustandsdichte ω(E) behandeln wir in sehr guter Näherung als stetige Funktion der Energie. Wem das merkwürdig vorkommt: Der gewohnte Begriff Dichte (Masse pro Volumen) ist ganz ähnlich zu verstehen: Auch bei der Dichte betrachtet man kleine Volumina δV , die groß genug sind, um sehr viele Teilchen zu enthalten, die aber zugleich klein sind im Vergleich zum betrachteten Gesamtvolumen. Bei 3 Teilchen in einem Volumen macht der Begriff Dichte für Teilvolumina dann natürlich keinen Sinn mehr.

Insgesamt haben wir also:

mikrokanonisches Ensemble:

Wir betrachten ein makroskopisches abgeschlossenes System im thermischen Gleichgewicht mit einer bestimmten Teilchenzahl N, einem bestimmten Volumen V und einer Gesamtenergie im schmalen Energieintervall zwischen   E   und   E + δE   . Dabei ist δE sehr viel kleiner als die Gesamtenergie E, aber sehr viel größer als die winzigen Energieabstände benachbarter Mikrozustände. Die Wahrscheinlichkeit für einen Mikrozustand mit Energie En ist dann im Energieintervall unabhängig von n:

  Pn   =   1 / Ω(E)   =   1 / (ω(E) δE)       für En zwischen E und E + δE und   Pn = 0   sonst.

Dabei ist Ω(E) die Zahl der Mikrozustände im schmalen Energieintervall und ω(E) ist die mittlere Zustandsdichte im Intervall.


Der Logarithmus der Zustandsanzahl im Energieintervall:

Versuchen wir, Ω(E) und dann   ln Ω(E)   (und damit die Entropie des Makrozustandes) grob abzuschätzen und so die Zahlen nachzuvollziehen, die wir oben bereits erwähnt hatten (die Rechnung findet man beispielsweise im Berkeley Physik Kurs, Band 5: Statistische Physik, Kapitel 3.5).

Schauen wir uns dazu ein ideales Gas in einem Würfel mit Kantenlänge L an. In einem ersten Schritt wollen wir herausfinden, wieviele Energieniveaus Φ(E) es unterhalb einer maximalen Gesamtenergie E gibt. Dazu nehmen wir vereinfacht an, dass dann auch jedes der N Gasteilchen maximal einen Energiebetrag   ε := E/N   zur Verfügung hat. Bei Zimmertemperatur ist ε typischerweise 1/40 eV. Wieviele quantenmechanischen Energieniveaus kann ein einziges Gasatom mit einer Energie unterhalb von ε in dem Kasten erreichen? Machen wir es uns einfach und betrachten wir nur Schwingungen der Teilchenwelle in einer Dimension. In diese Dimension der Länge L passen dann n Wellenberge hinein, wobei die Energie der entsprechenden stehenden Teilchenwelle mit n2 anwächst. Das höchste erreichbare n ist dann:

  n   =   L/(πhq)   √(2 M ε)   =   L/(π hqc)   √(2 Mc2 ε)

mit   hq = h/(2π)   und der Teilchenmasse M. Versuchen wir daraus eine besser handhabbare Formel zu machen, in die wir L in Metern, Mc2 in GeV und ε in eV direkt einsetzen können. Dazu verwenden wir den bekannten Wert   hqc   =   200 MeV fm   =   200 * 106 eV * 10−15 m   =   2 * 10−7 m * eV   =   2 * 10−7 m * √( 10− 9 GeV * eV)   =   6,3 * 10−12 m * √(GeV * eV)   . Entsprechend ist   1/(π hqc)   √2   =   7 * 1010 / {m * √(GeV * eV)}   . Also ist

  n   =   7 * 1010 L[m]   √(M[GeV] ε[eV])

Setzen wir also für die Kastenlänge L einen Meter ein, für M die Masse eines Wasserstoffatoms (also 1 GeV) und für ε den obigen Wert von 1/40 eV, so haben wir ungefähr   n = 1010   .

Lässt man auch Schwingungen in den anderen beiden Raumdimensionen zu, so muss man dieses Ergebnis im Wesentlichen hoch 3 nehmen, was die Zahl n auf etwa 1030 erhöht. Die Zahl der Energieniveaus, die ein Teilchen mit einer Teilchenenergie kleiner-gleich ε alle erreichen kann, wollen wir konkret mit φ(ε) bezeichnen. In drei Raumdimensionen würde unser obiges Beispiel grob folgenden Schätzwert liefern (auf Vorfaktoren soll es hier nicht ankommen -- es geht um einen groben Schätzwert für die Größenordnung):

  φ(ε)   =   1030   (L[m])3   ( M[GeV] ε[eV] )3/2

Ein einzelnes Wasserstoffatom hat bei Zimmertemperatur in einem Kubikmeter Volumen also etwa 1030 Quantenzustände zur Verfügung. Auch andere Teilchen in makroskopische Systemen werden sich ähnlich verhalten, d.h. wir gehen generell von der folgenden Annahme aus (wobei wir die unwichtige Abhängigkeit von der Teilchenmasse M in den Vorfaktor integrieren):

Anzahl der Einteilchenzustände bis zu einer Einteilchenenergie ε :

Die Zahl der Einteilchenzustände φ(ε), die ein einzelnes Teilchen mit einer Teilchenenergie kleiner-gleich ε in einem makroskopischen System mit Volumen V erreichen kann, kann man durch folgende Formel grob abschätzen:

  φ(ε)   =   B V εb

Der Exponent b ist von der Größenordnung 1 (beispielsweise 3/2) und daher meistens vernachlässigbar. Wird das Volumen V in einer makroskopischen Einheit gemessen (z.B. Kubikmeter) und die maximale Teilchenenergie ε in einer mikroskopischen Einheit gemessen (z.B. eV), so ist B eine große Zahl (beispielsweise 1030).

Wieviele N-Teilchen-Zustände sind dann in diesem makroskopischen System unterhalb einer Gesamtenergie von   E = N ε   möglich? Um das auszurechnen, machen wir eine Vereinfachung: Den N-Teilchen-Mikrozustand bilden wir einfach, indem wir die N-Teilchen alle irgendwie auf die Einteilchenzustände verteilen. Wir interessieren uns also nicht für Wechselwirkungen zwischen den Teilchen, und wir lassen Aspekte wie die (Anti-) Symmetrie der Wellenfunktion bei identischen Teilchen außer acht. Anders ausgedrückt: Wir betrachten ein ideales Gas aus unterscheidbaren Teilchen. Haben unsere Teilchen beispielsweise Spin 1/2, so wollen wir das Pauli-Prinzip vernachlässigen, d.h. ein Einteilchenniveau darf auch von mehreren Teilchen besetzt sein. Das ist ok, solange wesentlich mehr Einteilchenzustände als Teilchen zur Verfügung stehen, d.h. solange φ(ε) sehr viel größer als N ist. Wenn beispielsweise 1020 Teilchen auf 1030 Einteilchenniveaus verteilt werden sollen, so kommt es nur selten vor, dass Einteilchenniveaus mehrfach besetzt werden müssen. Das ist für typische Gasen bei Atmosphärendruck und Zimmertemperatur der Fall, nicht aber beispielsweise bei der stark komprimierten Sternmaterie eines weißen Zwerges oder eines Neutronensterns -- mehr dazu weiter unten beim Thema ideale Quantengase.

Wieviele Möglichkeiten gibt es nun, die N Teilchen auf die φ(ε) Einteilchenzustände zu verteilen? Das erste Teilchen hat φ(ε) Möglichkeiten, das zweite Teilchen ebenfalls usw., d.h. die Gesamtzahl der N-Teilchen-Zustände unterhalb einer Gesamtenergie E ist ungefähr gleich   [φ(ε)]N   . Dabei haben wir noch eine weitere Vereinfachung vorgenommen: Wir haben die Möglichkeiten weggelassen, bei denen einige Teilchen eine Energie oberhalb von ε = E/N haben, was durch andere energiearme Teilchen ja wieder ausgeglichen werden könnte. All das spielt letztlich keine Rolle, da es uns später nicht um die genaue Zustandsanzahl geht, sondern nur um ihren Logarithmus -- der merkt von solchen Feinheiten überhaupt nichts. Halten wir fest:

Die Gesamtzahl Φ(E) der N-Teilchen-Zustände (Mikrozustände) unterhalb einer Gesamtenergie   E = N ε   in einem typischen makroskopischen System mit Volumen V kann man durch folgende Formel grob abschätzen:

  Φ(E)   =   [φ(ε)]N   =   BN VN εb N

mit ε = E/N . Für b, B, V und ε gilt das bei φ(ε) gesagte (siehe das blaue Kästchen weiter oben).

Die Formel gilt beispielsweise für ein ideales Gas bei Zimmertemperatur. Obwohl die Formel harmlos aussieht, hat sie es in sich, denn die Zahl der Zustände wächst wegen der Teilchenzahl N im Exponenten extrem rasch mit der maximalen Gesamtenergie oder dem verfügbaren Volumen an. Hier sehen wir auch die Proportionalität mit VN, die wir oben in unserem Gasbehälter-Beispiel bereits verwendet haben. Ω(E) hat dieselbe Volumen-Abhängigkeit wie Φ(E) (sieht man anhand der Formel   Ω(E)   =   dΦ/dE δE   , die gleich kommt).

Mit der Anzahl Φ(E) der Zustände bis zur Energie E können wir nun leicht die Anzahl Ω(E) der Zustände im Energieintervall zwischen E und E + δE ausrechnen, wobei wir ausnutzen, dass δE sehr viel kleiner als E ist:

  Ω(E)   =   Φ(E + δE)   − Φ(E)   =   dΦ/dE δE   =  
  =   dΦ/dε   dε/dE   δE   =  
  =   d[φ(ε)]N/dε   d(E/N)/dE   δE   =  
  =   N [φ(ε)]N − 1   dφ(ε)/dε   1/N   δE   =  
  =   [φ(ε)]N − 1   dφ(ε)/dε   δE

Nun bilden wir den Logarithmus dieser Zahl, d.h. wir interessieren uns für die Zahl der Stellen, die man zum Aufschreiben von Ω(E) ungefähr braucht:

  ln Ω(E)   =   ln { [φ(ε)]N − 1   dφ(ε)/dε   δE }   =  
  =   (N − 1) ln φ(ε)   +   ln {dφ(ε)/dε   δE}

Wir wollen nun sicherstellen, dass der zweite Term gegenüber dem ersten Term vernachlässigbar ist -- das ist der Fall, wenn δE sich in einem Bereich befindet, in dem   dφ(ε)/dε   δE   =   d {B V εb} / dε   δE   =   B V b εb − 1   δE   größer als 1 und zugleich klein genug ist (also nicht mit einer Zahl hoch N anwächst). Da b ungefähr gleich 1 ist, ist der Term von der Größenordnung   B V δE   . Die entscheidende Bedingung an δE , die dessen unteres Limit (mikroskopisch groß) festlegt, lautet also:

Misst man die Energien in eV und das Volumen V in Kubikmetern, so ist B beispielsweise von der Größenordnung 1030 und V ist von der Größenordnung Eins. Das Energieintervall δE muss also mindestens 10− 30 eV betragen -- das sind etwa die Energieabstände für die Ein-Teilchen-Zustände im Volumen V, wie wir oben gesehen haben. Klar:   dφ(ε)/dε   δE   ist ja ungefähr die Anzahl der Ein-Teilchen-Zustände im Energieintervall δE . Damit sind zu kleine Argumente im zweiten Logarithmus-Term schon mal vom Tisch.

Zugleich soll δE sehr viel kleiner als E sein. Da   E = N ε   ist, sind wir auf der sicheren Seite, wenn wir für δE maximal die typischen Ein-Teilchen-Energien ε von bis zu einigen eV zulassen. Dann ist nämlich   B V δE   etwa von der Größenordnung 1030, so dass der Logarithmus dieses zweiten Terms für makroskopische Teilchenzahlen N wieder vollkommen vernachlässigbar gegenüber dem ersten Logarithmus-Term ist, der mit N anwächst.

Größe des Energieintervalls δE:

  • Das Energieintervall δE soll mikroskopisch groß sein, d.h. es muss größer sein als die typischen Abstände der Ein-Teilchen-Energieniveaus im makroskopischen System (ein typischer Wert wäre 10− 30 eV). Damit ist δE automatisch extrem groß im Vergleich zu den Energieabständen der N-Teilchen-Mikrozustände, d.h. sehr viele Mikrozustände liegen im Energieintervall.

  • Das Energieintervall δE soll makroskopisch klein sein, also viel kleiner als die Gesamtenergie E. Das ist für Energien unterhalb der typischen Einteilchenenergien ε = E/N gegeben (ein typischer Wert wäre ε = 1/40 eV).

Zum Vergleich: Wenn wir δE als die quantenmechanische Energieunschärfe bei endlicher Messzeit interpretieren, so hatten wir oben bei einer Messzeit von einer Millisekunde eine Energieunschärfe von ungefähr   δE = 10− 12 eV   erhalten. Das passt wunderbar in den geforderten Bereich.

Mit der obigen Forderung an δE haben wir sichergestellt, dass der zweite Logarithmus-Term vernachlässigbar gegenüber dem ersten Logarithmus-Term wird, so dass wir in sehr guter Näherung schreiben können:

  ln Ω(E)   =   (N − 1) ln φ(ε)

Da φ(ε) von der Größenordnung 1030 ist, liegt   ln φ(ε)   irgendwo unter 100 . Die 1 spielt gegenüber N praktisch keine Rolle, so dass wir auch   ln Ω(E)   =   N ln φ(ε)   =   ln [φ(ε)]N   =   ln Φ(E)   schreiben können. Wir können also sagen:

  • ln Ω(E)   ist von der Größenordnung der Teilchenanzahl N des Systems. In sehr guter Näherung gilt:

      ln Ω(E)   =   N ln φ(ε)   =   ln [φ(ε)]N   =   ln Φ(E)  

    Dabei ist Ω(E) die Zahl der Mikrozustände im Energieintervall zwischen E und E + δE , Φ(E) ist die Gesamtzahl der Mikrozustände unterhalb der Gesamtenergie E und φ(ε) ist die Zahl der Einteilchen-Zustände unterhalb der Teilchenenergie ε = E/N im Volumen des makroskopischen Systems. Dabei spielt die Breite des Energieintervalls δE für   ln Ω(E)   und damit für die Entropie praktisch keine Rolle, solange δE im oben genannten Bereich liegt.

Für den Logarithmus spielt es also praktisch keine Rolle, ob wir die Zahl der Zustände im Energieintervall nehmen oder die Zahl der Zustände bis zur Energie E, sofern die Breite des Energieintervalls δE die obige Bedingung erfüllt. Das bedeutet, dass die Anzahl Dezimalstellen dieser beiden extrem großen Zahlen etwa von derselben Größe ist, nämlich von der Größenordnung der Teilchenanzahl N im System. Oben hatten wir gesehen, dass man durchaus Lichtjahre an Platz braucht, um solche Zahlen auszuschreiben. Da spielt es für die Anzahl Stellen keine Rolle, ob man 10 Stellen mehr oder weniger hinschreiben muss. Die Zahlen selber würden sich dabei sehr wohl um einen Faktor 1010 unterscheiden, sind also keineswegs gleich groß. Sie haben nur fast dieselbe Stellenanzahl und damit ziemlich genau denselben Logarithmus. Das ist auch der Grund dafür, warum δE keine Rolle spielt, solange es zwischen sagen wir 10− 30 eV und 1 eV liegt. Variiert man δE in diesem Bereich, so verändert man die Zahl der Zustände Ω(E) in diesem Intervall um einen Faktor bis zu 1030 . Die Zahl der Stellen verändert sich also um bis zu 30 Stellen, was bei 1020 Stellen ziemlich egal ist -- der Logarithmus merkt davon also praktisch nichts. Die Zustandszahl Ω(E) merkt die Änderung sehr wohl. Daher ist auch der oft verwendete Satz, dass fast alle Zustände bis zur Energie E ganz oben zwischen E und E + δE liegen, irreführend, denn Φ(E) kann sehr wohl deutlich größer als Ω(E) sein. Was praktisch gleich groß ist, ist die Stellenanzahl beider Zahlen und damit ihr Logarithmus.

Die obige Formel ermöglicht es uns, die Entropie eines typischen Systems (beispielsweise eines idealen Gases) als Funktion der Energie darzustellen:   S   =   k ln Ω(E)   =   k N ln φ(ε)   =   k N ln (B V εb)   . Hier setzen wir für V einen Kubikmeter ein, messen ε in eV und verwenden b = 3/2, so dass B = 1030 ein vernünftiger Wert ist. Damit erhalten wir   S/(kN)   =   ln (1030 ε3/2)   mit ε in eV. Die folgende Grafik stellt   S/(kN)   bis zu   ε = 1/40 eV   dar, was der typischen Teilchenenergie bei Zimmertemperatur entspricht:



Wärmemenge und Temperatur:

Die wesentliche Eigenschaft der Temperatur ist es, dass zwei Körper, die Wärme austauschen können, schließlich ihre Temperatur aneinander angleichen -- man spricht auch vom nullten Hauptsatz der Thermodynamik. Wärmeaustausch bedeutet Energieaustausch, ohne dass sich die äußeren Parameter der Körper (insbesondere das Volumen oder bei Festkörpern beispielsweise die Scherung oder die Magnetisierung) ändern. Auch ein Austausch von Teilchen soll ausgeschlossen sein. Ab sofort werden wir als Beispiel für äußere Parameter immer das Volumen nehmen, was natürlich besonders bei Gasen sinnvoll ist -- andere äußere Parameter werden analog behandelt. Ein äußerer Parameter ist dabei generell ein Parameter, der die Energieniveaus der Mikrozustände ändert, nicht aber ihre Wahrscheinlichkeiten. Anders ausgedrückt: der Hamiltonoperator des Systems bzw. die Randbedingungen hängen von dem äußeren Parameter ab.

Versuchen wir, eine Größe mit den Eigenschaften einer Temperatur auf Basis unseres mikrokanonischen Ensembles statistisch zu definieren. Dazu betrachten wir zwei isolierte makroskopische Systeme A und A', die jeweils N bzw. N' Teilchen beinhalten, ein Volumen V bzw. V' ausfüllen und eine Energie zwischen E und E + δE bzw. zwischen E' und E' + δE' aufweisen. Wir können uns beispielsweise zwei Gasbehälter mit guter Isolierung vorstellen. Jedes System soll für sich im thermischen Gleichgewicht sein, d.h. sein Makrozustand kann durch unser mikrokanonisches Ensemble oben beschrieben werden und ist durch die Zustandsgrößen (N, V, E) bzw. (N', V', E') gekennzeichnet (die kleinen Energieintervalle lassen wir weg, da sie für den Logarithmus und damit für den Makrozustand ja uninteressant sind, wie wir bereits wissen).

Nun wollen wir eine thermische Verbindung zwischen den Systemen schaffen. Beispielsweise könnten die beiden Gasbehälter eine feststehende gemeinsame Wand aus wärmeleitendem Metall aufweisen. Volumen und Teilchenzahl der beiden Systeme können sich dabei nicht ändern, d.h. die Energieniveaus der Mikrozustände bleiben unverändert. Aber: Die Möglichkeit, Energie zwischen den Systemen auszutauschen, macht neue Mikrozustände für das zusammengesetzte Gesamtsystems zugänglich, die vorher verboten waren! Was sich deshalb ändert, sind die Wahrscheinlichkeiten Pn und Pn' , mit denen die Energieniveaus besetzt sein können.

Man bezeichnet die Energiemenge, die ein System absorbiert, ohne dass dies auf eine geänderte Teilchenzahl oder ein geändertes Volumen zurückgeführt werden kann, als Wärmemenge Q.

Die Wärmemenge Q:
Absorbiert ein makroskopisches System eine makroskopische Energiemenge ΔE , ohne dass dies auf geänderte äußere Parameter (Volumen) und damit geänderte Energieniveaus der Mikrozustände oder eine Änderung der Teilchenzahl zurückgeführt werden kann, so bezeichnet man diese Energiemenge als Wärmemenge Q.

Zur Vereinfachung wollen wir davon ausgehen, dass der Energiefluss langsam abläuft, so dass sich jedes der beiden Teilsysteme A und A' einzeln ständig annähernd im thermischen Gleichgewicht befindet. Man spricht dann von einem quasi-statischen Prozess. Deshalb können wir während des Energieflusses jedes Teilsystem für sich recht gut durch ein mikrokanonisches Ensemble beschreiben, d.h. die jeweils erreichbaren Mikrozustände zwischen E und E + δE bzw. zwischen E' und E' + δE' sind jeweils mit gleicher Wahrscheinlichkeit besetzt, während alle anderen Mikrozustände nicht erreichbar sind. Wir vernachlässigen also alle Mikrozustände des Gesamtsystems, bei denen zwar En + E'n' ungefähr gleich E + E' ist, aber En außerhalb des Energieintervalls bei E und entsprechend auch E'n' außerhalb des Energieintervalls bei E' sind. Man kann zeigen (siehe kanonisches Ensemble weiter unten), dass solche Energiefluktuationen zwischen makroskopischen Systemen extrem selten sind, wenn die Systeme einzeln annähernd im thermischen Gleichgewicht sind.

Die beiden Systeme A und A' bilden zusammen ein makroskopisch isoliertes Gesamtsystem Ag , das eine Gesamtenergie   Eg = E + E'   (mit zugehörigem kleinen Energieintervall) besitzt. Die Makrozustände dieses Gesamtsystems können wir durch die Makrozustände der beiden Teilsysteme charakterisieren, also durch (N, V, E, N', V', E'). Da sich die Teilchenzahlen und die Volumina nicht ändern sollen, lassen wir sie hier weg und schreiben kurz (E, E') für den Makrozustand des Gesamtsystems. Die Angabe der Gesamtenergie Eg genügt also hier nicht, um diesen Gesamt-Makrozustand zu charakterisieren. Daran erkennt man, dass sich das Gesamtsystem aus A und A' noch nicht im thermischen Gleichgewicht befindet. Die Teilsysteme A und A' sind zwar jedes für sich annähernd im thermischen Gleichgewicht und können daher durch E und E' charakterisiert werden, aber sie sind nicht miteinander im Gleichgewicht.

Die Wechselwirkung zwischen A und A' soll nun so gering sein, dass sie die Mikrozustände von A und A' praktisch nicht verändert. Quantenmechanisch bedeutet das, dass wir im Gesamt-Hamiltonoperator   Hg = H + H' + Hint   den Wechselwirkungsanteil Hint für die Zustände vernachlässigen können. Jeder Mikrozustand   |ngñ   des Gesamtsystems Ag setzt sich dann zusammen aus einem Mikrozustand   |nñ   von A und einem Mikrozustand   |n'ñ   von A'. Wir schreiben auch   |ngñ   =   |n,n'ñ   (das kann man als mathematisches Tensorprodukt lesen). Wenn es nun Ω(E) erlaubte n-Werte in A und Ω'(E') erlaubte n'-Werte in A' gibt, so gehören dazu Ω(E) mal Ω'(E') erlaubte Kombinationen von n und n' im Gesamtsystem Ag. Die Zahl der erreichbaren Mikrozustände im Makrozustand (E, E') des Gesamtsystems ist also das Produkt

  Ωg(E,E')   =   Ω(E) Ω'(E')

Das Gesamtsystem beginnt nun wieder, im Raum der erreichbaren Mikrozustände herumzuwandern, wobei sich E und E' langsam ändern können -- die Gesamtenergie   Eg = E + E'   muss allerdings konstant bleiben (bis auf die übliche kleine Energieunschärfe). Dadurch werden neue Mikrozustände für das Gesamtsystem zugänglich, die vorher verboten waren. Auf lange Sicht werden sich dann E und damit auch E' = Eg − E mit extrem großer Wahrscheinlichkeit so einstellen, dass der zugehörige Makrozustand derjenige mit der größten Zustandszahl Ωg(E,E') ist. Das System befindet sich dann im thermischen Gleichgewicht.


Die schmalen Energieintervalle (blaue Linien) in den beiden Systemen A und A' verschieben sich beim Energieaustausch (gelber Pfeil), bis das Produkt der beiden Zustandszahlen Ω und Ω' maximal wird. Die Zustandszahl bei einer bestimmten Energie ist dabei durch die Grauschattierung dargestellt, nimmt also bei wachsender Energie nach oben hin zu (wobei die extrem starke Zunahme bei wachsender Energie hier nur unvollkommen dargestellt wird). Da das Volumen konstant bleibt, verschieben sich die Energieniveaus der Mikrozustände nicht, d.h. die Grauschattierungen bleiben konstant. Was sich ändert, ist die Wahrscheinlichkeit Pn , dass ein Mikrozustand besetzt ist. Die blaue Linie kennzeichnet dabei jeweils die Mikrozustände mit Pn ungleich Null (wir arbeiten hier mit dem mikrokanonischen Ensemble und einem quasistatischen Energieaustausch).


Dass dieser Gleichgewichtszustand mit extrem hoher Wahrscheinlichkeit erreicht wird, erkennt man daran, dass die Funktion Ωg(E,E') für ein bestimmtes E (und damit ein bestimmtes E' = Eg − E ) ein extrem scharfes Maximum besitzt, denn sie verhält sich wie   EN (Eg − E)N   . Die folgende Grafik zeigt diese Funktion (mit willkürlicher absoluter Skalierung, Eg = 1 und E entlang der x-Achse) für N = 1, 2, und 4 :

Man kann sich vorstellen, wie scharf das Maximum für N = 1020 wird. Seine typische Breite beträgt etwa   Emax / √N   (die gesamte Rechnung findet man beispielsweise im Berkeley Physik Kurs, Band 5: Statistische Physik, Kapitel 4.1.1). Ein Makrozustand, bei dem E um mehr als den 10− 10-ten Teil (also etwa ein Zehntel eines Milliardstels) von Emax abweicht, ist demnach im thermischen Gleichgewicht bereits sehr unwahrscheinlich.

Den weitaus wahrscheinlichsten Makrozustand finden wir also, indem wir das Maximum von Ωg(E,E') suchen. Gleichwertig dazu können wir auch das Maximum von   k ln Ωg(E,E')   suchen, also das Maximum der Entropie des Gesamtsystems. Dieses Maximum ist wesentlich weniger scharf ausgeprägt als das Maximum von Ωg(E,E') , da der Logarithmus bei großen Zahlen stark glättend wirkt (siehe die entsprechende Grafik etwas weiter unten). Die Entropie des Gesamtsystems ist dabei gleich der Summe der beiden Entropien der Teilsysteme, wie diese kleine Rechnung zeigt (die Entropie ist also eine sogenannte extensive Größe wie das Volumen):

  Sg(E,E')   =   k ln Ωg(E,E')   =   k ln {Ω(E) Ω'(E')}   =   k ln Ω(E)   +   k ln Ω'(E')   =   S(E)   +   S'(E')

Dabei ist immer   E' = Eg − E   mit vorgegebenem Eg , d.h. wir können als einzigen Parameter die Energie E des ersten Teilsystems wählen und schreiben kurz

  Sg(E)   =   S(E)   +   S'(Eg − E)

Das Maximum finden wir, indem wir die Ableitung nach E gleich Null setzen (dass das wirklich ein Maximum und kein Minimum ist, haben wir oben gesehen, denn Ωg hatte ein Maximum):

  0   =   dSg(E)/dE   =   dS(E)/dE   +   S'(Eg − E)/dE   =   dS(E)/dE   −   S'(E')/dE'|E' = Eg − E

Es muss also im Maximum   dS(E)/dE   =   S'(E')/dE'   sein mit der Nebenbedingung   E' = Eg − E   . Die Gleichung sagt:

Offenbar spielt also die Ableitung der Entropie nach der Energie eine besondere Rolle im thermischen Gleichgewicht. Den Kehrwert dieser Ableitung bezeichnet man als Temperatur T (man nimmt den Kehrwert, damit bei wachsender Energie die Temperatur zunimmt, siehe weiter unten).

Die Temperatur T:
Die Temperatur T eines makroskopischen Systems im thermischen Gleichgewicht bei festem Volumen und fester Teilchenzahl ist definiert als der Kehrwert der Ableitung der Entropie nach der Energie:

  1/T   :=   dS(E)/dE

Genauer müsste man T(E) schreiben, da die Temperatur wie die Entropie natürlich von der Energie des Systems abhängt.

Die Bedingung   dS(E)/dE   =   S'(E')/dE'   für das thermische Gleichgewicht können wir damit schreiben als   1/T(E) = 1/T'(E')   oder kurz als   T = T'   . Die Temperaturen der Teilsysteme sind im thermischen Gleichgewicht gleich groß. Genau das wollten wir haben.

Natürlich können wir 1/T auch durch die Zustandszahl Ω(E) ausdrücken:

  1/T   :=   dS(E)/dE   =   k d ln Ω(E) / dE   =   k 1/Ω(E) dΩ(E)/dE

Rechts steht (bis auf einen Vorfaktor) die relative Wachstumsrate der Zustandsanzahl mit der Energie. Man kann auch sagen: Rechts steht (bis auf einen Vorfaktor), wie schnell die Zahl der Stellen der Zustandsanzahl Ω(E) mit der Energie zunimmt. Die Temperatur ist dann proportional zur Energiezunahme, die man braucht, um die Stellenzahl um eine weitere Stelle zu erhöhen (d.h. um die Zustandsanzahl zu verzehnfachen). Je höher die Temperatur ist, umso weniger schnell wächst die Zahl der Stellen der Zustandsanzahl mit wachsender Energie an. Anschaulich kann man sich vorstellen, dass die Zustandsanzahl bei hoher Temperatur (und damit hoher Energie) bereits so gigantisch ist, dass das prozentuale Wachstum nicht mehr so groß sein kann.

Woher wissen wir, dass die Temperatur im Normalfall mit wachsender Energie zunimmt? Rechnen wir es mit den Formeln oben (insbesondere   Φ(E)   =   BN VN (E/N)b N   ) einfach aus, wobei diese Formeln den erwähnten Normalfall charakterisieren sollen:

  1/T   =   dS(E)/dE   =   k d ln Ω(E) / dE   =   k d ln Φ(E) / dE   =   k 1/Φ(E) dΦ(E)/dE   =  
  =   k 1/EbN   b N EbN − 1   =   k b N   1/E   =   k b   1/ε

oder nach der Einteilchenenergie freigestellt:   ε   =   b k T   . In unserem Gas-Beispiel oben haben wir gesehen, dass bei nur einem Freiheitsgrad pro Gasteilchen (Schwingungen nur in einer Raumrichtung) b = 1/2 ist, bei drei Freiheitsgraden (Raumrichtungen) aber b = 3/2 ist. Wir vermuten, dass allgemein b = f/2 ist mit f = Zahl der Freiheitsgrade pro Gasteilchen (das wollen wir hier nicht genauer begründen). Dann hätten wir   ε   =   f/2 k T   . Das wollen wir festhalten:

Temperatur und Energie pro Freiheitsgrad:
Die Temperatur T eines makroskopischen Systems im thermischen Gleichgewicht mit N Teilchen und festem Volumen nimmt im Normalfall mit der Energie E zu. Die mittlere Energie pro Freiheitsgrad ist bei typischen makroskopischen Systemen (z.B. einem ideales Gas) gegeben durch   1/2 k T   . Beispielsweise ist die mittlere Energie eines Teilchens mit 3 Freiheitsgraden (entsprechend den Bewegungen in drei Raumrichtungen) gegeben durch

  ε   =   3/2 k T  

Jetzt wissen wir, warum der Kehrwert 1/T bei der Definition der Temperatur über die Entropie günstig war, denn so erhält die Temperatur eine sehr anschauliche Bedeutung: sie ist im Normalfall ein Maß für die mittlere Energie pro Freiheitsgrad. Die Boltzmannkonstante k braucht man dabei nur, da man für die Temperatur historisch die Maßeinheit Kelvin festgelegt hat und daher Energieeinheiten in Kelvin umrechnen möchte. Man hätte genauso gut überall in diesem Kapitel k weglassen können -- dann wäre die Entropie einfach eine Zahl (ungefähr 2,3 mal die Stellenzahl der Zustandsanzahl) und die Temperatur würde man direkt in Energieeinheiten angeben. Statt   T = 300 Kelvin   (etwa Zimmertemperatur) würde man dann direkt   T = 1/40 eV   sagen und damit sofort wissen, dass die mittlere Bewegungsenergie eines Gasteilchens 3/2 mal dieser Temperatur ist.

Die Tatsache, dass die Temperatur mit wachsender Energie zunimmt, bedeutet, dass ihr Kehrwert und damit die Steigung der Entropie pro Energiezufuhr mit wachsender Gesamtenergie abnimmt. Man sagt auch, die Entropiekurve S(E) ist konkav, beschreibt also eine Rechtskurve. Genau das haben wir bereits oben in der Entropie-Grafik eines typischen Systems gesehen.

Die Summe von zwei konkaven Kurven ist nun ebenfalls konkav und hat ein Maximum -- noch eine Begründung, warum die Gesamtentropie ein Maximum hat. Umgekehrt gilt: Wäre die Entropiekurve nicht konkav (d.h. würde 1/T nicht mit wachsendem E abnehmen) so gäbe es beim Zusammenbringen zweier solcher Systeme kein Entropiemaximum bei einer bestimmten Energieaufteilung, was zu einer merkwürdigen Situation führt -- die Gesamtenergie würde sich komplett in einem der beiden Teilsysteme sammeln.
Übrigens ist die Entropiekurve auch für unser Spinsystem weiter unten konkav, wobei die Temperatur dort bei höheren Energien negativ wird, weil die Entropiekurve dort sogar wieder abfällt. Der heißere Zustand ist aber immer noch derjenige mit dem kleineren Wert von 1/T, also mit der kleineren Entropiesteigung. Das funktioniert auch bei negativen Temperaturen. Wir kommen gleich noch genauer darauf zurück.

Die folgende Grafik stellt die Entropiesumme   S(E) + S'(Eg − E)   dividiert durch kN für zwei typische gleich große Systeme bis zu   E/N = ε = 1/40 eV   dar, was der typischen Teilchenenergie bei Zimmertemperatur entspricht. Man erkennt schön das recht flache Entropiemaximum. Wer möchte, kann das dargestellte Sg/(kN) auch leicht in die Anzahl Dezimalstellen der Zustandsanzahl umrechnen:   (Stellenzahl von Ωg) = log Ωg = (N/(2,3)) S/(kN)   . Bei einem Mol wäre N = 6 * 1023 und wir hätten ungefähr:   (Stellenzahl von Ωg) = 2 * 1023 S/(kN)   . Wenn also in der Grafik das dargestellte Sg/(kN) nur um 0,01 ansteigt, so vergrößert sich die Stellenzahl von Ωg um 2 * 1021 Dezimalstellen -- Ωg selbst wächst also um den Faktor 10(2 * 1021) , was weit mehr ist als die Zahl der Atome im sichtbaren Universum. Das flache Entropiemaximum entspricht also einem extrem scharfen Maximum in der Zustandsanzahl. Man darf sich also von dem flachen Entropiemaximum nicht täuschen lassen!



Aus der Definition der Temperatur können wir noch einen Zusammenhang zwischen der absorbierten Wärmemenge Q und der Entropieänderung ΔS eines Systems ablesen. Dazu nehmen wir an, dass die absorbierte Wärmemenge Q so gering ist (oder das System so groß ist), dass sich die Temperatur praktisch nicht ändert -- deshalb schreiben wir δQ statt Q (wir schreiben nicht dQ, um anzudeuten, dass man δQ bei allgemeineren Randbedingungen nicht als Differenz zweier Größen verstehen kann, anders als dS oder dE -- so muss beispielsweise bei veränderlichem Volumen die Wärmemenge nicht   δQ = −δQ'   erfüllen -- es muss nur   dE = − dE'   sein -- mehr dazu später). Außerdem hatten wir vorausgesetzt, dass die Absorption der Wärmemenge Q sehr langsam (quasistatisch) abläuft, so dass sich das absorbierende System ständig im thermischen Gleichgewicht befindet und jederzeit durch einen Makrozustand (E,V,N) beschrieben werden kann. Die absorbierte Wärmemenge δQ ist in unserem Fall gleich der zufließenden Energiemenge dE, denn die äußeren Parameter (Volumen etc.) sollen ja konstant bleiben, d.h. die Energieniveaus der Mikrozustände ändern sich nicht. Aus   1/T   =   dS(E)/dE   dolgt dann   dS   =   dE/T   =   δQ/T   .

Zusammenhang zwischen zufließender Wärmemenge und Entropiezunahme:
Ist das absorbierende System im thermischen Gleichgewicht, und ist die absorbierte Wärmemenge δQ so klein, dass sich die Temperatur des Systems praktisch nicht ändert, und erfolgt die Absorption der Wärmemenge so langsam (quasistatisch), dass jederzeit ein thermische Gleichgewicht des Systems gewährleistet ist, so ist die Entropiezunahme des absorbierenden Systems gleich

  dS   =   δQ / T  

Wir fordern nicht, dass sich das absorbierende System im thermischen Gleichgewicht mit anderen Systemen befinden muss, oder dass die Wärmeabsorption umkehrbar (reversibel) ablaufen muss.

Dies entspricht der klassischen Definition der Entropie, als man sie noch nicht über die Zustandsanzahl definierte. Dabei ist die Wärmemenge definiert als die Energiemenge, die bei konstantem Volumen und konstanter Teilchenzahl quasistatisch hinzukommt.

Wir haben aber die Entropie bereits definiert und können daher die Gleichung auch als Definition der Wärmmemenge δQ ansehen. Wächst die Energie eines (im thermischen Gleichgewicht befindlichen) Systems mit Temperatur T quasistatisch um einen Betrag dE, so bezeichnen wir den Anteil   δQ := T dS  , der mit der Entropieänderung dS verbunden ist, als Wärmemenge. Dabei muss die Wärmemenge δQ so klein sein, dass sich die Temperatur T praktisch nicht ändert. Falls das System sehr groß ist, so kann die Wärmemenge δQ durchaus größere Werte annehmen -- dies ist bei einem sogenannten Wärmebad der Fall. Diese Definition werden wir später beibehalten, wenn Volumen oder Teilchen ausgetauscht werden können.

Was geschieht, wenn wir die Bedingung fallen lassen, dass die Wärmeabsorption quasistatisch ablaufen muss, oder dass sich das System überhaupt im thermischen Gleichgewicht befinden muss? Dann können die makroskopischen Zustände nicht mehr ständig durch nur drei Zahlen (E,V,N) beschrieben werden. So kann die absorbierte Energie makroskopisch ungleich verteilt sein. Die Ableitung dS/dE ist dann nicht mehr sauber definiert, denn dS hängt zusätzlich noch davon ab, wie sich die absorbierte Energie dE verteilt. Man kann sich überlegen, dass im Nicht-Gleichgewicht gilt:

Für ein System, das sich nicht im thermischen Gleichgewicht befindet, das aber dennoch bereits eine ausgeglichene Temperatur T aufweist, ist

  dS   >   δQ / T  

Diese Aussage können wir noch verallgemeinern, und zwar dann, wenn das System A im Kontakt mit einem großen Wärmebad A' ist und die Wärme von diesem Wärmebad erhält. Dabei soll das Wärmebad A' so groß sein, dass seine Temperatur T' praktisch konstant bleibt und dass der Energiefluss das thermische Gleichgewicht des Wärmebades nicht stört. Dann ist nämlich   ΔS' = Q'/T'   , wobei weder ΔS' noch Q' besonders klein sein müssen. Nun nimmt die Gesamtentropie zu, d.h. es ist   ΔS + ΔS' > 0   . Freigestellt nach ΔS ist dann   ΔS > − ΔS' = − Q'/T' = Q/T'   , wobei wir   Q = − Q'   verwendet haben (diese Gleichung gilt bei unverändertem Volumen und Teilchenzahl, aber auch bei Volumenaustausch zwischen A und A' bei gleichem Druck p = p' oder Teilchenaustausch bei gleichem chemischen Potential μ = μ' ). In diesem Sinn gilt die obige Gleichung in der Form   ΔS   >   Q / T   sogar für ein System, das sich nicht im Gleichgewicht und auch nicht auf ausgeglichener Temperatur befindet, das aber mit einem großen Wärmebad der Temperatur T (Strich weggelassen) in Kontakt ist und von diesem die Wärme erhält.

Für ein System mit konstantem Volumen und konstanter Teilchenzahl, das sich nicht im thermischen Gleichgewicht befindet und das thermisch mit einem großen Wärmebad der Temperatur T gekoppelt ist, gilt

  ΔS   >   Q / T  

Dabei ist Q die Wärmemenge, die das System aus dem Wärmebad aufnimmt, und T ist die Temperatur des Wärmebades.

Die Formeln enthalten auch den Fall, dass dS > 0 ist, ohne dass überhaupt eine Wärmemenge absorbiert wird. Ein Beispiel ist unser Gesamtsystem Ag , das aus den beiden Teilsystemen A und A' besteht, die noch nicht im thermischen Gleichgewicht miteinander sind. Die Makrozustände dieses Gesamtsystems Ag können wir nicht durch (Eg,Vg,Ng) kennzeichnen, sondern wir müssen (E,V,N,E',V',N') verwenden. Die Entropie kann hier anwachsen, ohne dass das Gesamtsystem Wärme von außen absorbiert. Genau diesen Fall betrachten wir hier ja ständig!

Zurück zu unseren beiden Gasbehältern A und A'. Beide sind jeweils für sich im thermischen Gleichgewicht, aber noch nicht untereinander. Der Energiefluss zwischen den ihnen erfolgt so langsam, dass er ihr thermisches Gleichgewicht der beiden Behälter nicht stört -- so wollten wir es einrichten. Die Gleichung   dS   =   δQ / T   gilt also separat für jeden Gasbehälter, und sie bedeutet, dass sich die Gesamtentropie bei dem Energieaustausch   δQ = dE = − dE'   nach der Formel   dSg   =   dS + dS'   =   dE/T + dE'/T'   =   δQ (1/T − 1/T')   ändert. Wenn also beispielsweise Energie von A' nach A fließt (also dE = δQ > 0 ist), so muss wegen dSg > 0 auch (1/T − 1/T') > 0 sein, d.h. es ist   1/T > 1/T'  : Das heißere System ist also immer dasjenige mit dem kleineren Wert von 1/T, also mit der kleineren Entropiesteigung. Die Energie fließt als Wärme dann vom heißeren zum kühleren System. Das stimmt auch beim Spinsystem unten, bei dem es negative Temperaturen gibt. Im Normalfall sind die Temperaturen aber positiv, so dass der heißere Zustand auch die größere Temperatur hat. Beim Energiefluss von A' nach A wächst nun die Entropie S schneller an, als S' schrumpft, denn S' hat ja den kleineren 1/T-Wert und damit die kleinere Steigung pro Energieänderung. Insgesamt wächst also die Gesamtentropie Sg = S + S' an. Dabei verändern sich auch T und T' langsam, bis sie schließlich gleich werden und dSg = 0 wird. Das thermische Gleichgewicht ist erreicht und es fließen keine makroskopischen Energiemengen mehr.

Schauen wir uns einige Eigenschaften der Temperatur an:

Einen höchsten Temperaturwert gibt es i.a. nicht, denn die mittlere Energie eines Teilchens kann normalerweise beliebig groß werden -- das gilt allerdings nicht für Systeme mit einer nach oben begrenzten Energie, beispielsweise magnetische Spins -- wir kommen gleich darauf zurück.

Gibt es einen kleinsten Temperaturwert? Bei der Entropie wissen wir es von ganz oben: Der kleinste Entropiewert ist Null -- er entspricht einem Makrozustand, der nur einen einzigen Quantenzustand beinhaltet. Das ist der quantenmechanische Grundzustand des Systems, wie er bei der Energie Null vorliegt (wir legen die Energieskala so, dass eine mögliche quantenmechanische Grundzustandsenergie bei Null liegt). Allerdings ist es im Prinzip möglich, dass der Grundzustand entartet ist, d.h. dass es mehrere Zustände mit Grundzustandsenergie gibt. Außerdem stellt sich bei niedrigen Temperaturen das thermische Gleichgewicht nur sehr langsam ein. Es ist also in der Realität durchaus möglich, dass eine kleine Rest-Entropie übrig bleibt -- hier kommt es auf Details an.

Auch die Temperatur wird für verschwindende Energie normalerweise Null, wenn man davon ausgeht, dass kT ungefähr die mittlere Energie eines Teilchens ist. Allerdings muss man hier vorsichtig sein: Die Zahl der Mikrozustände kann in der Nähe des Grundzustandes klein werden, so dass unsere Voraussetzung von einer großen Zustandsanzahl im Energieintervall fraglich wird. Außerdem muss man wieder thermisches Gleichgewicht voraussetzen, was sich bei sehr niedrigen Temperaturen nur sehr langsam einstellt. Deshalb wird es bei sehr kleinen Temperaturen immer schwieriger, die Temperatur noch weiter abzusenken.

Man kann auch direkt mit der Definition der Temperatur argumentieren:   1/T   =   dS(E)/dE   =   k 1/Ω(E) dΩ(E)/dE   . Die Zunahmerate der Zustandsanzahl pro Energiezunahme   dΩ(E)/dE   wird auch in der Nähe des Grundzustandes einen endlichen Wert haben, denn die Zustände haben ja auch dort gewisse definierte Energieabstände. Die Anzahl der Mikrozustände Ω(E) wird jedoch dort sehr viel geringer sein als bei größeren Energien, denn die Teilchen haben nur vergleichsweise wenige Möglichkeiten, die sehr geringen Energie unter sich aufzuteilen (man denke an den Term εbN , der für große N und kleine ε sehr klein wird). Insgesamt wird also der Term   k 1/Ω(E) dΩ(E)/dE   nahe der Grundzustandsenergie sehr groß sein, verglichen mit Werten bei höheren Energien. Entsprechend ist 1/T sehr groß bzw. T sehr klein -- man sagt daher, die Temperatur geht gegen Null (absoluter Nullpunkt). Wenn man es aber ganz genau nimmt, ist die Temperatur bei der Grundzustandsenergie nicht wirklich gut definiert, denn man braucht ja zumindest das kleine Energieintervall δE .


Spinsysteme und negative Temperaturen:

In den Beispielen oben sind wir immer von normalen makroskopischen Systemen ausgegangen. In solchen Systemen haben Atome immer Freiheitsgrade (Schwingungen, Rotationen oder Translationen), die beliebig viel Energie aufnehmen können. Es kann aber Situationen geben, in denen wir diese Freiheitsgrade vernachlässigen können oder wollen und nur Freiheitsgrade betrachten, die nicht beliebig viel Energie aufnehmen können. Ein Beispiel sind die Spins von Atomkernen in einem sehr starken Magnetfeld, wie es bei der Kernspintomographie in der Medizin der Fall ist. Diese Kernspins wechselwirken miteinander, haben aber nur eine extrem schwache Wechselwirkung mit den anderen Freiheitsgraden der Atome, so dass wir diese geringe Wechselwirkung vernachlässigen wollen und die Kernspins in dem starken Magnetfeld als eigenes thermodynamisches System betrachten können. Man kann also eine eigene Spin-Entropie und eine zugehörige Spintemperatur für die Kernspins definieren, die nach relativ kurzer Zeit ein Maximum einnimmt (lange bevor die Gesamtentropie des Systems maximal wird).


Ein System aus N Spins.


Im niedrigsten Energieniveau sind alle N Kernspins parallel zum Magnetfeld ausgerichtet, d.h. für dieses Energieniveau gibt es nur einen einzigen Mikrozustand. Das nächsthöhere Energieniveau hat einen Kernspin umgedreht -- dafür gibt es N Möglichkeiten, also N Mikrozustände. Das nächste Energieniveau hat zwei Spins umgedreht --   N (N − 1) / 2   Zustände. Allgemein gibt es N über n Möglichkeiten (Zustände), von N Spins n Spins umzudrehen, wobei N über n den Binomialkoeffizienten meint. Die maximale Zustandszahl wird erreicht, wenn die Hälfte der Spins umgedreht ist. Danach werden die Zustände pro Energieniveau wieder weniger, bis man bei dem energetisch höchsten Zustand ankommt, bei dem alle Spins umgedreht sind. Bei einem solchen Spinsystem wächst die Zustandszahl also nicht mit EN und Formeln wie   ε = 3/2 k T   gelten nicht. Übrigens haben wir hier einen Fall vor uns, bei dem man das Energieintervall δE gar nicht braucht, denn die einzelnen Energieniveaus sind so stark entartet, dass sie bereits genug Mikrozustände umfassen. Man könnte aber auch gleichwertig dazu sagen: δE wurde gerade so gewählt, dass es der Energie entspricht, die beim Umklappen eines Spins gebraucht wird.

Starten wir mit dem niedrigsten Energiezustand. Wenn man nun Energie in dieses Spinsystem pumpt, so nimmt die Zahl der Mikrozustände pro Energieniveau und damit die Spin-Entropie zunächst zu, bis ein Maximum erreicht wird und sie wieder abnimmt. Trotzdem ist die Kurve S(E) immer noch konkav, d.h. die Steigung der Kurve und damit 1/T (Kehrwert der Spintemperatur T) fällt stetig mit wachsender Energie, wobei die Steigung von positiven Werten schließlich zu negativen Werten übergeht. Entsprechend startet die Spin-Temperatur T von Null bis zu immer größeren positiven Werten, wird schließlich Unendlich und wechselt ihr Vorzeichen, um dann bei negativen Werten schließlich wieder Null zu werden. In diesem Spin-System machen negative Temperaturen also durchaus Sinn, wobei man besser den stetigen Kehrwert 1/T der Temperatur betrachtet. So wird das thermische Gleichgewicht zwischen zwei solchen Spinsystemen erreicht, wenn sie dieselbe (positive oder negative) Temperatur erreicht haben. Der heißere Zustand ist auch hier derjenige mit dem kleineren Wert von 1/T, also mit der kleineren Entropiesteigung. Ein negativer Temperaturwert ist also immer heißer als ein positiver Temperaturwert, denn er hat den kleineren Kehrwert. Die Energie fließt vom System mit negativer Temperatur zum System mit positiver Temperatur. Mehr dazu siehe beispielsweise What Does Negative Temperature Mean? sowie Seminar: Statistische Physik, Negative Temperaturen.


Dargestellt ist hier die Anzahl Möglichkeiten Ω , n von 100 Spins auszuwählen und umzuklappen.
Bei etwa 50 umgeklappten Spins hat man die meisten Möglichkeiten.
Da die Energie hier proportional zu n sein soll, kann man sich die x-Achse auch als Energieachse vorstellen.
Würde man deutlich mehr als nur 100 Spins betrachten, so wäre das Kurvenmaximum deutlich schärfer.



Die Entropie S des 100-Spin-Systems links (hier einfach ohne Vorfaktor gleich dem Zehnerlogarithmus   log(Ω)   gesetzt)
sowie rechts deren Steigung   dS/dE = 1/T   (wobei wir pro umgeklapptem Spin eine Energieeinheit rechnen).


Negative Temperaturen treten bei normalen stabilen Systemen mit Bewegungs-Freiheitsgraden der Teilchen nicht auf. Diese Freiheitsgrade können nämlich beliebig große Energiemengen aufnehmen, so dass es bei wachsender Gesamtenergie immer mehr Möglichkeiten gibt, diese Energie unter den Teilchen aufzuteilen. Die Entropie wächst also bei steigender Energie und ihre Steigung ist damit positiv. Außerdem würde ein System mit negativer Temperatur dazu neigen, seine Entropie unter Energieabgabe zu maximieren. Diese Energie könnte das System auseinanderreißen und es somit instabil machen.


Volumenänderung, Arbeit und Druck:

Oben haben wir zwei Systeme miteinander in einen thermischen Kontakt gebracht, so dass sie Energie austauschen können, ohne dass sich äußere Parameter ändern. Insbesondere bleiben Volumen und Teilchenzahl jeweils konstant.

Das wollen wir nun ändern: Ein Energieaustausch soll jetzt nur möglich sein, indem sich das Volumen der Teilsysteme ändert. Wir können uns zwei Gasbehälter vorstellen, zwischen denen sich eine frei bewegliche, aber thermisch gut isolierte Wand befindet. Wärme und Teilchen können nicht durch diese Wand dringen, aber die Wand kann sich verschieben, wobei keine Reibung auftreten soll. Die beiden Teilsysteme A und A' können gleichsam Volumen austauschen. Das macht natürlich besonders bei Gasen Sinn, weniger bei Flüssigkeiten oder Festkörpern.

Bei der Volumenänderung ändern sich die Energieniveaus der Mikrozustände, wobei sich deren Besetzungswahrscheinlichkeiten Pn und Pn' nicht ändern. Der Energieaustausch zwischen den Systemen findet hier also alleine durch die Veränderung der Energieniveaus der Mikrozustände statt. Den entsprechenden Energiezuwachs eines Systems bezeichnet man als die an dem System verrichtete makroskopische Arbeit W, im Unterschied zur Wärmemenge oben:

Die Arbeit W:
Ändert sich bei einem makroskopischen Systemen ein äußerer Parameter (beispielsweise das Volumen), ohne dass eine Wärmemenge oder Teilchen absorbiert werden, so ändern sich dadurch die Energieniveaus der Mikrozustände, ohne dass sich deren Wahrscheinlichkeiten ändern. Die dadurch aufgenommene Energiemenge ΔE bezeichnet man als die am System verrichtete Arbeit W, d.h. in diesem Fall ist   ΔE = W   .

Es wäre nun naheliegend, analog zu oben vorzugehen und das Maximum der Gesamtentropie bei langsamen Änderungen der Volumenverteilung ohne Wärmefluss zu suchen, um den thermischen Gleichgewichtszustand zu bestimmen. Dabei gibt es aber ein Problem: Die Entropie der Teilsysteme und damit des Gesamtsystems ändert sich hier gar nicht! Man nennt einen solchen Prozess adiabatisch.

Am einfachsten sieht man das, wenn man sich vorstellt, dass der Makrozustand nur ein einziges stark entartetes Energieniveau mit Energie E = En umfasst, das aus Ω(E) Quantenzuständen besteht. Verändert man nun das Volumen, so verschiebt sich nur die Lage dieses besetzten Niveaus bei unveränderter Zustandsanzahl, d.h. der Makrozustand umfasst immer noch dieselbe Anzahl Mikrozustände wie zuvor.


Bei einer adiabatischen Volumenänderung verschieben sich die Energieniveaus der Mikrozustände von A und A', während die Wahrscheinlichkeiten Pn konstant bleiben. Die schmalen besetzten Energieintervalle (blaue Linien) in den beiden Systemen A und A' verschieben sich also zusammen mit den Mikrozuständen, deren Dichte wir durch die Grauschattierungen dargestellt haben. Die Zahl der besetzten Mikrozustände ändert sich dabei nicht, d.h. die Entropien bleiben konstant.


Nun bedeutet konstante Entropie nicht, dass sich in dem System nichts tut. So könnte die bewegliche Wand reibungslos hin- und herschwingen, wobei Energie zwischen den beiden Teilsystemen hin- und herwandert -- die Wandbewegung muss dabei so langsam sein, dass beide Teilsysteme jeweils für sich im thermischen Gleichgewicht bleiben. Man sieht: Der adiabatische Prozess ist thermodynamisch umkehrbar (reversibel), d.h. die Wand kann wie ein Pendel vor- und zurückschwingen. Konstante Entropie bedeutet dabei, dass sich kein thermisches Gleichgewicht einstellt (wenn man es nicht schon hat). So etwas wie Reibungseffekte gibt es bei einem adiabatischen Prozess nicht. Übrigens: Adiabatisch bedeutet mehr als nur reversibel, denn die Entropie der Teilsysteme soll bei dem Prozess konstant bleiben (die Teilsysteme sind also jeweils im thermischen Gleichgewicht und dabei voneinander wärmeisoliert). Bei einem reversiblen Prozess genügt es dagegen, dass die Gesamtentropie konstant bleibt.

Anmerkung: Streng reversible Prozesse gibt es in der Natur nicht, denn jeder real ablaufende Prozess ist mit einer (vielleicht geringen) zeitlichen Entropiezunahme verbunden. Reversible Prozesse stellen einen idealisierten Grenzfall dar, bei dem der Prozess unendlich langsam ablaufen muss. Genau genommen ist ein reversibler Prozess eine kontinuierliche Aneinanderreihung von Gleichgewichtszuständen, bei der es aber keine bevorzugte Zeitrichtung gibt. Man kann nicht sagen, in welche Zeitrichtung ein reversibler Prozess ablaufen muss (wie das Wort reversibel auch sagt). Ein realer (irreversibler) Prozess setzt immer ein gewisses Ungleichgewicht voraus, das durch den Prozess ausgeglichen wird.

Schreibt man die Entropie S als Funktion von E und V (N lassen wir noch weg, da es hier konstant ist), so bedeutet der obige adiabatische Prozess: E verändert sich gerade so mit V, dass S(E,V) konstant bleibt. Man kann daher die an einem System verrichtete Arbeit W von der absorbierten Wärmemenge Q so abgrenzen:

Unterschied von Arbeit und Wärmemenge:

  • Die Arbeit W entspricht einer Energieänderung des Systems aufgrund einer Volumenänderung, wobei sich die Entropie (und die Teilchenzahl) nicht ändert, wenn der Prozess quasistatisch abläuft. Volumenänderung bedeutet dabei mikroskopisch die Änderung der Energieniveaus En und konstante Entropie bedeutet mikroskopisch konstante Wahrscheinlichkeiten Pn .

  • Die Wärmemenge Q entspricht einer Energieänderung des Systems aufgrund einer Entropieänderung, wobei sich das Volumen (und die Teilchenzahl) nicht ändert. Entropieänderung bedeutet dabei mikroskopisch die Änderung der Wahrscheinlichkeiten Pn und konstantes Volumen bedeutet mikroskopisch konstante Energieniveaus En .

Normalerweise hat man einen gemischten Fall vor sich, bei dem die Wand beweglich und zugleich wärmedurchlässig ist. Außerdem tritt bei der Wandbewegung normalerweise Reibungswärme auf, die sich irgendwie im System verteilt. In diesem Fall setzt sich die von einem System aufgenommene Energie ΔE aus einer Wärmemenge Q und der am System verrichteten Arbeit W zusammen, d.h. die Volumenänderung verschiebt die Energieniveaus En der Mikrozustände und zusätzlich ändern sich deren Besetzungswahrscheinlichkeiten Pn. Das nennt man den ersten Haupsatz der Thermodynamik:

Erster Hauptsatz der Thermodynamik (ohne Teilchenaustausch):

  ΔE   =   W + Q  

Dieser Satz gilt immer, auch ohne thermisches Gleichgewicht. Im Grunde ist dieser Satz gleichwertig zum Energieerhaltungssatz, wenn man weiß, dass Zuführung von Wärme auch eine Form der Energieübertragung ist. Bei Teilchenaustausch kommt noch ein weiterer Term WN hinzu, der die Energieänderung aufgrund eines Teilchenstroms darstellt.

Im gemischten Fall mit wärmedurchlässiger beweglicher Wand ohne Teilchenaustausch macht es wieder Sinn, das Maximum der Entropie zu suchen, denn hier kann man E und V als voneinander unabhängige Variablen betrachten und ihren Einfluss auf die Entropie S(E,V) getrennt untersuchen. Eine Änderung in V muss nun nicht mehr zu einer Änderung in E führen, denn eine Wärmeabsorption kann die verrichtete Arbeit ja ausgleichen und so E konstant halten. Die absorbierte Wärmemenge führt dann letztlich zur Entropiezunahme -- mehr dazu etwas weiter unten.

Ändern sich E und V nur wenig, so können wir (bei quasistatischen Prozessen und einem System im thermischen Gleichgewicht) eine kleine Entropieänderung schreiben als:

  dS(E,V)   =   dS/dE dE   +   dS/dV dV

wobei hier jeweils die partiellen Ableitungen der Funktion S(E,V) nach den voneinander unabhängigen Variablen E und V gemeint sind. dS/dE meint also die Ableitung bei konstantem V und dS/dV die Ableitung bei konstantem E (N ist sowieso konstant). Hier können wir die Definition der Temperatur   dS/dE = 1/T   (bei konstantem V) einsetzen und erhalten   dS(E,V)   =   dE / T   +   dS/dV dV   (die Änderungen sollen so klein sein, dass die Temperatur T als konstant angesehen werden kann). Wir könnten uns nun direkt für dS/dV interessieren, analog zu dS/dE. Es ist jedoch nützlich, hier noch die Temperatur herauszuziehen und den Druck so zu definieren:

Der Druck p:
Der Druck p eines makroskopischen Systems im thermischen Gleichgewicht bei konstanter Energie E und konstanter Teilchenzahl N ist definiert als die partielle Ableitung

  p / T   :=   dS(E,V) / dV

Warum das in dieser Form nützlich ist, sehen wir beim Einsetzen:

  dS(E,V)   =   dE / T   +   p dV / T

Jetzt hat nämlich   p dV   die Dimension einer Energie und wir können mit T multiplizieren sowie nach dE freistellen:

  dE   =   T dS   −   p dV

Dabei müssen wir E als Funktion von zwei unabhängigen Variablen S und V sehen:   E = E(S,V)   -- man stellt gleichsam die Formel   S = S(E,V)   nach E frei und erhält damit E als Funktion von S und V (warum das geht, kommt gleich). Entsprechend ist   dE   =   dE/dS dS   +   dE/dV dV   (partielle Ableitungen!) und somit   T = dE/dS   (bei konstantem V, den Kehrwert davon kennen wir schon) und   p = − dE/dV   (bei konstantem S, also ohne Wärmefluss).

Eine kleine Energieänderung dE eines Systems können wir also (bei fester Teilchenzahl) in zwei Anteile aufteilen:

Erster Hauptsatz im Detail (ohne Teilchenaustausch):

  dE   =   δQ   +   δW  

Bei einem System im thermischen Gleichgewicht und einer quasistatischen Energieänderung dE gilt zusätzlich:

  •   δQ   =   T dS   ist die vom System absorbierte Wärmemenge bei konstantem V und sich ändernder Entropie (also ohne Wärmeisolierung). Dabei ist   T = dE/dS   (partielle Ableitung, also bei konstantem V).

  •   δW   =   − p dV   ist die am System verrichtete Arbeit bei konstanter Entropie (also mit Wärmeisolierung) und sich änderndem Volumen. Das negative Vorzeichen bedeutet, dass die Energie wächst, wenn das Volumen zusammengedrückt wird (dV also negativ ist). Dabei ist   p = − dE/dV   (partielle Ableitung, also bei konstantem S).

Wie oben bereits erwähnt, sind δQ und δW (anders als dS oder dE) keine Differenzen von Zustandsgrößen, d.h. man kann nicht von der Wärme oder Arbeit eines Körpers sprechen, wohl aber von seiner Energie oder Entropie. Statt dessen kennzeichnen δQ und δW verschiedene Möglichkeiten, wie eine Energie dE aufgenommen werden kann: durch Umbesetzung der mikroskopischen Energieniveaus oder durch Verschiebung dieser Energieniveaus. Mathematisch kann man durchaus Integrale über δQ und δW bilden -- das Ergebnis hängt aber vom Weg ab, den das System dabei in den thermodynamischen Zustandsgrößen beschreibt. Das meint man, wenn man sagt, δQ und δW sind keine vollständigen Differentiale. Man kann es auch mit Differentialformen ausdrücken (siehe Kapitel 5.1.11 ): Es gibt keine Stammform Q oder W, so dass δQ = dQ oder δW = dW wäre. Oben war Q ja auch einfach eine große Wärmemenge, die absorbiert wurde, also ein großes δQ .

Nun zu der versprochenen Begründung, warum man die Formel   S = S(E,V)   nach E freistellen kann und eine Formel   E = E(S,V)   daraus erhält: Das funktioniert natürlich nur, wenn bei festem V der Zusammenhang zwischen E und S eindeutig (bijektiv) ist. Bei normalen Systemen mit positiver Temperatur ist (bei konstantem Volumen) wachsende Energie mit wachsender Entropie verbunden und umgekehrt, denn     T = dE/dS > 0   . In diesem Fall ist der Zusammenhang zwischen E und S eindeutig und wir können   E = E(S,V)   schreiben. Anders bei unserem Spinsystem oben: Hier muss man sorgfältiger vorgehen und die beiden Bereiche mit positiver und negativer Temperatur unterscheiden -- entsprechend gelten die obigen Formeln für das Spinsystem im Allgemeinen nicht ohne weitere Überlegungen.

Zurück zum thermischen Gleichgewicht zwischen den beiden Teilsystemen A und A', wenn sowohl Energie- als auch Volumenaustausch möglich ist. Die Gesamtentropie muss hier ein Maximum haben, d.h. des muss gelten (wobei wir   dE' = − dE   und   dV' = − dV   verwenden):

  0   =   dSg   =   dS + dS'   =  
  =   dE / T   +   p dV / T   +   dE' / T'   +   p' dV' / T'   =  
  =   dE / T   +   p dV / T   −   dE / T'   −   p' dV / T'   =  
  =   dE (1/T − 1/T')   +   dV (p/T − p'/T')

Diese Gleichung soll für beliebige (kleine) dE und dV gelten. Für dV = 0 folgt sofort T = T', so wie wir das oben ja bereits bei konstantem Volumen hergeleitet haben -- die Temperaturen müssen gleich sein. Setzen wir dies ein, so folgt bei dE = 0 direkt p' = p', d.h. auch die Drücke müssen gleich sein. Das Maximum der Zustandsanzahl des Gesamtsystems ist wie bei der Energie E auch beim Volumen V wieder sehr scharf ausgeprägt, denn die Volumenabhängigkeit von Ωg(E,V,E',V') ist bei konstantem E,E' und typischen Systemen (speziell beim idealen Gas) proportional zu   VN (Vg − V)N   . Relative Druckschwankungen von mehr als 10− 10 Anteilen sind bei 1020 Teilchen also sehr unwahrscheinlich.

Man kann die Gleichgewichtsbedingung auch direkt aus der Energie ableiten, wobei wir verwenden, dass die Gesamtentropie im thermischen Gleichgewicht konstant ist (es ist also dS' = − dS ). Außerdem ist natürlich wieder dV' = − dV (das Gesamtvolumen soll ja konstant sein). Da unser Gesamtsystem abgeschlossen und isoliert sein soll, darf sich die Gesamtenergie makroskopisch nicht ändern. Es muss also gelten:

  0   =   dEg   =   dE + dE'   =  
  =   T dS   −   p dV   +   T' dS'   −   p' dV'   =  
  =   (T − T') dS   −   (p − p') dV

Diese Gleichung muss wieder für alle kleinen Volumen- und Entropieänderungen gelten, d.h. es folgt T = T' und p = p'. Die Bedingung   dEg = 0   kann man nun auch etwas anders interpretieren: Man betrachtet verschiedene gleichartige Systeme mit verschiedener Gesamtenergie Eg, aber gleichem Gesamtvolumen Vg und gleicher Gesamtentropie Sg (und gleicher Teilchenzahl Ng). Die Gesamtenergie hängt davon ab, wie sich Sg und Vg auf die beiden Teilsysteme aufteilen. Dasjenige System, das sich im termischen Gleichgewicht befindet, weist dann die geringste Gesamtenergie   Eg = E(S,V) + E'(Sg − S, Vg − V)   auf, und dEg = 0 kennzeichnet dieses Minimum. Dass es sich um ein Energie-Minimum handelt, kann man sich am obigen Beispiel des Gasbehälters überlegen: Setzt man vereinfacht b = 1, so ist   S = k N ln( B V E / N )   . Freigestellt nach E haben wir also   E = N/(BV) exp( S/(kN) )   . Damit ist   Eg = E + E' = 1/B ( N/V exp( S/(kN) ) + N'/(Vg−V) exp( (Sg−S)/(kN) )   . Bei fester Entropie S ist die Volumenabhängigkeit von E gleich   a/V + a'/(Vg−V)   , so dass bei kleinem V der erste Term groß wird, bei V → Vg dagegen der zweite Term -- dazwischen liegt ein Minimum. Analog ist es bei festem Volumen V: Auch hier hat Eg für irgendein S zwischen 0 und Sg ein Minimum. Beispielsweise hat die Funktion   exp(S) + exp(1 − S)   bei S = 0 und 1 den Wert   1 + e = 3,7   , in der Mitte bei S = 1/2 dagegen den Wert   2 exp(1/2) = 3,3   . Kein sehr scharfes Minimum, aber immerhin ein Minimum.

Es ist sehr lehrreich, sich genauer anzusehen, wie das thermische Gleichgewicht durch Druckausgleich entsteht. Dazu wollen wir uns einen Zustand ansehen, bei dem zwar die Temperatur zwischen beiden Teilsystemen bereits ausgeglichen ist, aber links noch mehr Druck als rechts herrscht, so dass p > p' ist. Die Zwischenwand soll (mit Reibung) langsam beweglich und wärmedurchlässig sein, so dass die Temperatur auf beiden Seiten ständig gleich bleibt: T = T'. Teilchen können die Wand nicht durchdringen.

Die Druckdifferenz führt nun zu einem Volumenaustausch   dV = − dV'   . Außerdem ist ein allgemeiner Energiefluss   dE = − dE'   möglich, denn die Zwischenwand ist ja wärmedurchlässig. Die Gesamtentropie ändert sich also nach der Formel   dSg   =   dS + dS'   =   dE/T + p dV/T + dE'/T + p' dV'/T   =   dV/T (p − p')   . Wenn also p > p' ist, dann muss dV positiv sein, denn dS muss für das abgeschlossene Gesamtsystem ja positiv sein. Das Volumen V vergrößert sich also, während V' schrumpft. Der höhere Druck links schiebt die Wand langsam nach rechts, bis p = p' wird.

Wie sieht der Energiefluss dabei aus? Allgemein ist
  dE   =   δQ + δW
  dE'   =   δQ' + δW'
Die Gleichung   dE = − dE'   ergibt   δQ + δW   =   − δQ' − δW'   oder umgestellt
  δQ + δQ'   =   − δW − δW'  
In unserem Fall mit T = T' ist dann
    δQ + δQ'   =   T dS + T dS'   =   T dSg
− δW − δW'   =   p dV + p' dV'   =   (p − p') dV
so dass wir insgesamt wieder   T dSg   =   (p − p') dV   erhalten -- das hatten wir uns oben schon überlegt. Aber die Formeln zeigen noch mehr: Da dSg positiv sein muss, ist auch   δQ + δQ'   positiv -- es kann also hier nicht   δQ = − δQ'   sein (anders als im Fall ohne Volumenaustausch). Analog ist es mit δW und δW'.
Die Wärmemenge, die ein Teilsystem verlässt, muss bei veränderlichem Volumen nicht genauso groß wie die Wärmemenge sein, die das andere Teilsystem erhält. Dasselbe gilt für die Arbeit. Es gibt keine Wärmemenge oder Arbeit des Systems, nur eine Gesamtenergie. Entsprechend gibt es auch i.a. keinen Wärmefluss oder Arbeitsfluss, nur einen Energiefluss.
Noch etwas sehen wir: In der Formel   δQ + δQ'   =     (p − p') dV   können wir die rechte Seite als die vom System geleistete Arbeit ansehen. Diese wird (beispielsweise durch Reibung bei der Wandbewegung) komplett in Wärme umgewandelt und in Form der Wärmemengen δQ und δQ' den beiden Teilsystemen zugeführt, was dann zur Entropieerhöhung T dSg führt.


Teilchenaustausch und chemisches Potential:

Bisher waren die Teilchenzahlen N und N' in den beiden Teilsystemen immer konstant vorgegeben (wir beschränken uns auf eine Teilchensorte). Wir können die obige Betrachtung aber nun leicht verallgemeinern und auch einen Teilchenaustausch zwischen den Teilsystemen zulassen, also N als variabel betrachten und N' = Ng − N mit festem Ng setzen. So könnte unsere bewegliche wärmedurchlässige Wand beispielsweise porös sein.

Es bietet sich an, die Teilchenzahl wie eine kontinuierliche Variable zu behandeln. Bei so vielen Teilchen kommt es ja nicht so genau darauf an. Auch bei der Dichte eines Gases arbeitet man gerne so, d.h. man vergisst die Teilchenstruktur und stellt sich das Gas gleichmäßig über das Volumen verschmiert vor.

Wie wirkt sich eine Änderung der Teilchenzahl auf die Entropie aus? Beim Gasbehälter hatten wir ungefähr   S = k N ln( B V E / N )   (mit b=1), wobei im Logarithmus eine große Zahl steht. Verändert man N nun um einen kleinen Wert dN (beispielsweise um 1), so merkt der Logarithmus davon praktisch nicht. In erster Näherung wäre also dS proportional zu dN (bei konstantem E und V). Den Proportionalitätsfaktor schreiben wir als   − μ / T   und nennen μ das chemische Potential.

Um es etwas präziser zu machen, wiederholen wir einfach die Diskussion, die wir beim Druck kennengelernt haben:

Die Entropie S betrachten wir im thermischen Gleichgewicht als eine Funktion der Energie E, des Volumens V und der Teilchenzahl N. Ändern sich E, V und N unabhängig voneinander nur wenig und zudem noch quasistatisch, so können die zugehörige kleine Entropieänderung schreiben als

  dS(E,V,N)   =   dS/dE dE   +   dS/dV dV   +   dS/dN dN

wobei hier jeweils die partiellen Ableitungen der Funktion S(E,V,N) nach den voneinander unabhängigen Variablen E, V und N gemeint sind. Mit den Definitionen   dS/dE =: 1/T   und   dS/dV =: p/T   sowie   dS/dN =: −μ/T   ergibt sich

  dS   =   dE / T   +   p dV / T   −   μ dN / T

Jetzt hat auch   μ dN   die Dimension einer Energie und wir können mit T multiplizieren sowie nach dE freistellen:

  dE   =   T dS   −   p dV   +   μ dN

wobei wir E als Funktion von S, V und N sehen:   E = E(S,V,N)   .

Halten wir fest:

Das chemische Potential μ:
Das chemische Potential μ eines makroskopischen Systems im thermischen Gleichgewicht bei konstanter Energie E und konstantem Volumen V ist definiert als die partielle Ableitung

  μ / T   :=   − dS(E,V,N) / dN

Bei konstanter Entropie und konstantem Volumen ist

  μ   =   dE / dN

d.h. das chemische Potential gibt an, wie die Energie im thermischen Gleichgewicht bei langsam wachsender Teilchenzahl und konstanter Entropie zunimmt (ist also der Energiezuwachs pro neuem Teilchen).

Im thermischen Gleichgewicht muss dann wieder μ = μ' gelten.

Schauen wir uns analog zum Druck wieder an, wie dieses Gleichgewicht entsteht. Dazu wollen wir uns diesmal einen Zustand ansehen, bei dem zwar die Temperatur zwischen den beiden Teilsystemen bereits ausgeglichen ist, aber rechts noch wesentlich mehr Teilchen als links sind, so dass μ' > μ ist. Die Zwischenwand soll unbeweglich sein (Druck spielt also keine Rolle), aber sie soll für einzelne Teilchen sowie für Wärme durchlässig sein, so dass die Temperatur auf beiden Seiten gleich bleibt: T = T'. Welche Richtung hat nun der Teilchenfluss?

Die Gesamtentropie ändert sich bei einem Teilchenfluss   dN = − dN'   und einem möglichen zusätzlichen Energiefluss   dE = − dE'   nach der Formel   dSg   =   dS + dS'   =   dE/T − μ dN/T + dE'/T − μ' dN'/T   =   − dN/T (μ − μ')   . Wenn also μ' > μ ist, dann muss dN positiv sein, denn dSg muss für das abgeschlossene Gesamtsystem ja positiv sein. Es fließen also langsam Teilchen von Teilsystem A' nach A. Der Teilchenfluss erfolgt also von größerem zu kleinerem chemischen Potential. Dies war der Grund dafür, oben zu sagen, dass sich rechts mehr Teilchen befinden. Langsam verändern sich durch den Teilchenfluss auch μ und μ', bis sie schließlich gleich werden und dSg = 0 wird. Das thermische Gleichgewicht ist erreicht. Dabei werden auch dS und dS' gleich Null, d.h. dN wird Null -- es fließen keine Teilchen mehr.

Was den Energiefluss betrifft, so können wir die Diskussion von oben bei Volumenaustausch direkt übernehmen, wobei wir diesmal   δW = μ dN   und   δW' = μ' dN'   setzen. Der Druck p wird also durch minus μ ersetzt, und dV durch dN. Wieder sind die Wärmemengen und die Arbeitsmengen der beiden Systeme nicht entgegengesetzt gleich, und wieder wird die vom System geleistete chemische Arbeit in Wärme umgewandelt, was zur Entropiezunahme führt.


thermodynamische Potentiale:

Wir haben oben die Zustandsgrößen S, E, V und N sowie die davon abgeleiteten Größen T, p und μ kennengelernt. Dabei sind S, E, V und N sogenannte extensive Größen, d.h. die Größen zweier Teilsysteme addieren sich, wenn man sie zu einem Gesamtsystem zusammensetzt.

Dagegen sind T, p und μ intensive Größen -- sie addieren sich nicht, denn sie sind die Ableitung einer intensiven Größe (z.B. S) nach einer anderen intensiven Größe (z.B. E). Im thermischen Gleichgewicht nehmen diese intensiven Größen teilweise oder alle (je nach Randbedingungen) identische Werte in den beteiligten Teilsystemen an. Die intensiven Größen sind teilweise sehr nützlich, um die Wechselwirkung von makroskopischen Systemen zu studieren, besonders wenn ein System sehr viel größer als das andere System ist und beispielsweise seine Temperatur deshalb nahezu konstant bleibt. Außerdem lassen sich die intensiven Größen meist sehr gut messen, im Gegensatz beispielsweise zur Entropie S oder der Energie E.

Wenn man ein System durch die extensiven Größen E, V, N sowie S(E,V,N) beschreibt, so kann man diese Größen beispielsweise fest vorgeben (abgeschlossenes System) oder sie quasistatisch variieren und sich für Änderungen dE, dV, dN und dS interessieren -- genau das haben wir oben ständig gemacht. Die Funktion S(E,V,N) können wir für normale Systeme (bei denen S mit E anwächst) invertieren und E als Funktion E(S,V,N) schreiben. Für den Zusammenhang zwischen den totalen Differentialen dE, dV, dN und dS bedeutet das:

  dE(S,V,N)   =   dE/dS dS   +   dE/dV dV   +   dE/dN dN   =  
                        =         T dS         −   p dV         +   μ dN

mit   dE/dS =: T ,   dE/dV =: − p   und   dE/dN =: μ   für die drei partiellen Ableitungen.

Betrachtet man ein System im Kontakt mit einem anderen System, so gleichen sich die intensiven Variablen wie beispielsweise die Temperatur aneinander an. Es ist daher oft nützlich, beispielsweise statt der Entropie S oder der Energie E die entsprechende partielle Ableitung   dE/dS =: T   zur Beschreibung des Systems zu verwenden. Statt eines abgeschlossenen Systems mit vorgegebener Energie E könnte man dann ein System im Kontakt mit einem anderen sehr großen System (Wärmebad) betrachten, das die Temperatur T vorgibt.

Den Übergang von der Variable S zur Variable T könnte man im Prinzip so machen: Die Gleichung   dE/dS = T   definiert die neue Variable T als Funktion von S, V und N, denn E hängt ja von diesen Variablen ab. Wir haben also   T(S,V,N)   . Normalerweise kann man diese Beziehung umdrehen und S als Funktion von T, V und N schreiben:   S(T,V,N)   . Dies kann man nun einsetzen und E als Funktion von T, V und N schreiben:   E( S(T,V,N), V, N)   . Bildet man nun dE, so führt der Term   T dS   zu Produkten wie   dE/dS dS/dT dT   , denn S ist ja nun keine Variable mehr und muss durch Änderungen in T usw. ausgedrückt werden. Es genügt aber eine kleine Abänderung, um den Term   T dS   loszuwerden: Statt E betrachten wir die Funktion   F := E − T S   , d.h. wir ziehen einfach noch das Produkt von alter und neuer Variable ab. Man bezeichnet F auch als freie (Helmholtz-) Energie. In der Chemie ist übrigens der Buchstabe A statt F gebräuchlich.

Das Abziehen von   T S   bewirkt, dass der Term   T dS   in dE wegfällt und durch   − S dT   ersetzt wird -- wir haben also die Änderung dS nach der alten Variable S durch die Änderung dT nach der neuen Variablen T ersetzt:

  dF   =   dE   −   T dS   −   S dT   =  
  =   T dS   −   p dV   +   μ dN   −   T dS   −   S dT   =  
  =   −   p dV   +   μ dN   −   S dT   =  
  =   −   S dT −   p dV   +   μ dN

Da hier nur noch die Änderungen dT, dV und dN stehen bleiben, ist es natürlich sinnvoll, F als Funktion von T, V und N anzusehen, also   F := E − T S   als Funktionsdefinition

  F(T,V,N)   :=   E( S(T,V,N), V, N)   −   T S(T,V,N)

zu verstehen -- das nennt man eine Legendre-Transformation (analog geht man in der klassischen Mechanik von der Lagrangefunktion   L(v,x)   über   p := dL/dv   zur Hamiltonfunktion   H(p,x) = p v − L   über -- mit etwas anderen Vorzeichen, siehe die Grenzen der Berechenbarkeit, Kapitel 5.4.3 ). Das totale Differential   dF(T,V,N)   =   dF/dT dT   +   dF/dV dV   +   dF/dN dN   führt dann durch Vergleich mit   dF   =   −   S dT −   p dV   +   μ dN   von oben zu

  dF/dT = − S
  dF/dV = − p
  dF/dN = μ

Wozu können wir das nun gebrauchen? Besonders nützlich ist die freie Energie, wenn die Temperatur T konstant ist, d.h. wenn es sich um einen isothermen Prozess handelt -- dann ist nämlich die neue Variable fix und demnach dT = 0. Ein Beispiel für einen solchen Prozess liefert ein kleines Teilsystem, das mit einem viel größeren System (einem Wärmebad oder Wärmereservoir) thermisch so eng gekoppelt ist, dass sich seine Temperatur schnell der Temperatur des Wärmebades anpasst. Das Wärmebad soll dabei so groß sein, dass wir dessen Temperatur als konstant ansehen können. Zusätzlich wollen wir davon ausgehen, dass sich die Teilchenzahl nicht ändert: dN = 0. Dann ist bei einer Volumenänderung

  dF   =   −   p dV

d.h. die Änderung der freien Energie ist bei einem isothermen Prozess mit konstanter Teilchenzahl gleich der Arbeit, die am System verrichtet wird. Die freie Energie merkt also bei diesem Prozess nichts von der Wärmemenge, die man braucht, um die Temperatur konstant zu halten.

Schauen wir uns nun den Fall an, dass sich das System noch nicht im thermischen Gleichgewicht befindet. Allerdings müssen wir annehmen, dass bereits ein Temperatur- und Druckausgleich im System stattgefunden hat, damit wir mit einem Wert für T und p auskommen und keine Temperatur- und Druckverteilung brauchen. Das chemische Potential μ könnte dagegen noch vom Ort abhängen, d.h. wir können das System noch nicht durch ein einheitliches μ kennzeichnen. Es könnte also noch Teilchenströme innerhalb des Systems geben, die die Entropie erhöhen können. Die Teilchenzahl soll wieder konstant sein: dN = 0 . Von oben wissen wir, dass in diesem Fall

  dS   >   δQ / T

gilt (Gleichheit gilt bei quasistatischen Vorgängen im thermischen Gleichgewicht). Nun gilt die Gleichung   dE = δQ + δW   ganz allgemein (für dN = 0 ), also auch hier. Da der Druck überall gleich ist, können wir außerdem   δW = − p dV   einsetzen. Freigestellt nach δQ ergibt das   δQ = dE + p dV   und somit   dS   >   δQ / T   =   (dE + p dV) / T   . Hier können wir dE durch dF ausdrücken:   dF = dE − T dS − S dT   ergibt   dE = dF + T dS + S dT   . Eingesetzt ergibt das   dS   >   (dE + p dV) / T   =   (dF + T dS + S dT + p dV) / T   . Hier können wir mit T multiplizieren und auf beiden Seiten den Term   T dS   wegnehmen:   0   >   dF + S dT + p dV   oder umgestellt

  dF   <   − S dT   −   p dV  

Bei einer quasistatischen Änderung (sowie dN = 0 ) haben wir hier ein Gleichheitszeichen, was die Formel von weiter oben ergibt. Was bedeutet diese Gleichung? Sie macht besonders Sinn, wenn wir den Fall dT = 0 sowie dV = 0 betrachten. Die Temperatur soll also durch Kontakt mit dem Wärmebad festliegen, und außerdem halten wir das Volumen fest. Dann gilt nach der Gleichung   dF < 0   und im Gleichgewicht schließlich   dF = 0   . Das System strebt also ein Minimum der freien Energie an. Da Druck und Temperatur bereits ausgeglichen sind, kann dieses Absinken der freien Energie nur noch durch interne Teilchenflüsse (Konzentrationsausgleich) und chemische Reaktionen geliefert werden. Das macht die freie Energie für die Chemie so interessant! Die chemische Reaktion läuft bei konstanter Temperatur und festem Volumen so ab, dass die freie Energie minimal wird. Dabei freiwerdende (oder verbrauchte) Energie wird an das Wärmebad abgegeben bzw. aus diesem entnommen.

Man kann die Voraussetzung, dass die Temperatur die ganze Zeit über durch das Wärmebad festliegen soll, sogar fallenlassen (der Prozess muss also nicht ständig isotherm sein). Wichtig ist nur, dass die Temperatur zu Beginn denselben Wert wie am Schluss hat, d.h. ΔT = 0 . Das System beginnt also in einem Nicht-Gleichgewichtszustand (aber bei überall gleicher Temperatur T des Wärmebades) und steuert dann irgendwie auf das Gleichgewicht zu, bei dem es dann schließlich wieder überall dieselbe Temperatur wie das Wärmebad annimmt. Zwischendurch darf es sich vorübergehend aber durchaus erhitzen oder abkühlen. Dass das geht, sieht man so: Zu Beginn und am Schluss ist F jeweils gleich E − T S (mit unterschiedlichem E und S, aber gleichem T, wobei T zugleich die Temperatur des Wärmebades ist). Die (nicht unbedingt kleine) Änderung von F ist also   ΔF = ΔE − T ΔS   . Nun ist die Summe der Entropieänderungen von System und Wärmebad positiv, denn sie geben die Gesamtentropie an:   ΔS + ΔS' > 0   , oder umgestellt   ΔS > − ΔS'   , wobei ΔS' die Entropieänderung des Wärmebades ist. Also ist   ΔF = ΔE − T ΔS < ΔE + T ΔS'   . Aus Sicht des Wärmebades verläuft der Prozess quasistatisch (das wollen wir so annehmen, da es hinreichend groß sein soll, so dass es sich ständig annähernd im thermischen Gleichgewicht befindet). Es ist also   ΔS' = ΔQ' / T   (T ist ja im großen Wärmebad annähernd konstant). Damit haben wir   ΔF < ΔE + ΔQ'   . Da Volumen und Teilchenzahl konstant sind und demnach die Energieübertragung nur durch Wärme erfolgt, ist   ΔE = −ΔE' = − ΔQ'   und somit   ΔE + ΔQ' = 0   . Also haben wir als Endergebnis   ΔF < 0   .

Fassen wir zusammen:

Die freie (Helmholtz-) Energie F:

Die freie (Helmholtz-) Energie F kann man aus der Energie durch Subtraktion von   T S   erhalten:

  F   :=   E   −   T S

Für eine (nicht unbedingt quasistatische) Änderung von F(T,V,N) gilt:

  dF   ≤   −   S dT −   p dV   +   μ dN  

Im thermischen Gleichgewicht ist F eine Funktion von T, V und N (d.h. S wurde durch T ersetzt), und in der obigen Formel gilt das Gleichheitszeichen für quasistatische Änderungen.

Bei einem isothermen quasistatischen Prozess ohne Teilchenaustausch (also dT = 0 wegen Wärmebad sowie dN = 0 ) gibt also   dF   =   −   p dV   die am System verrichtete Arbeit aufgrund der Volumenänderung an. Ist das System dagegen noch nicht im thermischen Gleichgewicht, aber zusätzlich dV = 0, so ist   dF ≤ 0   . Die freie Energie strebt also bei einem isothermen Prozess mit konstantem Volumen und Teilchenzahl ein Minimum an. Beispielsweise können Konzentrationsausgleiche oder chemische Reaktionen stattfinden, bis das Gleichgewicht und damit das Minimum von F erreicht sind. Dabei kann man die Voraussetzung, dass die Temperatur die ganze Zeit über durch das Wärmebad festliegen soll, sogar fallenlassen (der Prozess muss also nicht ständig isotherm sein). Wichtig ist nur, dass die Temperatur zu Beginn überall denselben Wert wie am Schluss hat, festgelegt durch das Wärmebad. Die freie Energie F wird dann am Schluss (im Gleichgewicht) kleiner sein als zu Beginn.

Vollkommen analog kann man auch bei den anderen Variablen vorgehen. So kann man von V zu − p übergehen und die sogenannte Enthalpie   H(S,p,N) = E + p V   definieren. Nützlich ist sie besonders für isobare Prozesse, bei denen also der Druck konstant bleibt. Das kann man z.B. durch einen beweglichen Gaskolben erreichen, der eine konstante Kraft ausübt.

Oder man macht beides: S durch T ersetzen sowie V durch − p . Hier definiert man die freie Enthalpie   G(T,p,N) = E − T S + p V   . Ein System mit konstanter Temperatur, Druck und Teilchenzahl, das sich noch nicht im thermischen Gleichgewicht befindet, strebt ein Minimum der freien Enthalpie an, d.h. Konzentrationsausgleiche, chemische Reaktionen und Volumenänderungen laufen in die entsprechende Richtung. Dieser Fall kommt in der Chemie sehr häufig vor: die Umgebung gibt den Luftdruck vor und liefert auch das Wärmebad. Wie bei der freien Energie können wir auch hier die Bedingung fallenlassen, dass Druck und Temperatur ständig konstant sein müssen -- sie müssen nur zu Beginn und am Ende des Prozesses gleich dem Außendruck und der Außentemperatur sein. Das weist man ganz analog zur freien Energie nach:
  ΔG   =   ΔE − T ΔS + p ΔV   <   ΔE + T ΔS' + p ΔV   =   ΔE + T ΔS' − p ΔV'   =   ΔE + ΔQ' + ΔW'   =   ΔE + ΔE'   =   0
Wieder haben wir verwendet, dass aus Sicht des Wärmebades der Prozess quasistatisch abläuft, also das thermische Gleichgewicht des Wärmebades nicht sonderlich stört.

Eine weitere nützliche Möglichkeit besteht darin, S durch T sowie N durch μ zu ersetzen und das großkanonische Potential   J(T,V,μ)   =   F − μN   =   E − T S − μ N   einzuführen (hier werden auch oft die Buchstaben Ω oder Φ statt J verwendet, aber die haben wir oben bereits für andere Dinge benutzt). Dann wäre bei quasistatischen Änderungen   dJ   =   dF − μ dN − N dμ   =   − S dT − p dV + μ dN − μ dN − N dμ   =   − S dT − p dV − N dμ   . Daraus liest man für die partiellen Ableitungen ab:   dJ/dT = − S   ,   dJ/dV = − p   und   dJ/dμ = − N   .

Zusammenfassung:
Wie wir gesehen haben, können wir ganz flexibel extensive Variablen (also S, V und N) teilweise oder ganz durch intensiven Variablen (also T, p und μ) ersetzen, die wir beispielsweise durch ein großes Wärmebad vorgeben können. Dazu können wir passende thermodynamische Potentiale definieren. Alle diese Beschreibungen des thermischen Gleichgewichtes sind dabei gleichwertig zueinander und wir können uns die jeweils günstigste aussuchen.

Mikroskopisch macht es einen Unterschied, ob wir beispielsweise E vorgeben oder lieber T. Vorgabe von E führt zum mikrokanonischen Ensemble, Vorgabe von T zum kanonischen Ensemble. Letztlich können wir jedem Dreier-Satz von Variablen ein thermodynamisches Potential und ein statistisches Ensemble zuordnen. Makroskopisch sind aber alle diese Potentiale und statistischen Ensembles gleichwertig. Die Details zu den verschiedenen statistischen Ensembles werden wir uns gleich noch ansehen.


Zustandsgleichungen:

Im Prinzip bezeichnet man alle Gleichungen, bei denen man ein thermodynamisches Potential nach einer Größe partiell ableitet und diese Ableitung in Bezug zu einer anderen Größe setzt, auch als Zustandsgleichungen. So ist die Gleichung   1/T = dS(E,V,N)/dE   eine Zustandsgleichung, die einen Zusammenhang zwischen den Größen T, E, V und N herstellt. Da normalerweise E mit zunehmendem T anwächst, kann man diesen Zusammenhang nach E freistellen und E als Funktion von T, V und N schreiben. Das bezeichnet man auch als kalorische Zustandsgleichung.

Genau diese Rechnung haben wir übrigens oben kurz nach der Einführung der Temperatur bereits gemacht: Wir haben die Gleichung   ε = E/N = b k T   hergeleitet. Bei einem idealen Gas wäre dann   b = 3/2   und wir hätten   E = 3/2 N k T   als kalorische Zustandsgleichung des idealen Gases.

Statt für die Energie interessiert man sich häufig für den Druck, den man ebenfalls als Funktion von T, V und N schreiben möchte. Der Druck war definiert als die partielle Ableitung   p/T = − dS(E,V,N)/dV   . Diese partielle Ableitung wertet man aus und setzt danach die kalorische Zustandsgleichung für E ein, schreibt also E(T,V,N) . Den entstehenden Zusammenhang zwischen p, T, V und N bezeichnet man als thermische Zustandsgleichung. Man kann diese Gleichung auch mit Hilfe der freien Energie F herleiten, sofern diese bekannt ist:   − p = dF(T,V,N)/dV   .

Schauen wir uns als Beispiel wieder das ideale Gas an, wobei wir von oben die Formel   Φ   =   BN VN εb N   für die Zahl der Mikrozustände bis zur Energie E verwenden:

  p/T   =   − dS/dV   =   k d ln Ω / dV   =   k d ln Φ / dV   =   k 1/Φ dΦ/dV   =  
  =   k 1/VN   N VN − 1   =   k N/V

Etwas umgestellt lautet die Formel dann   p V   =   N k T   . Das ist die wohlbekannte Zustandsgleichung des idealen Gases.


Das kanonische Ensemble (Gibbs-Ensemble):

Das mikrokanonische Ensemble, das wir bisher verwendet haben, setzt streng genommen ein makroskopisch isoliertes System voraus, dessen Energie bis auf eine minimale Unschärfe δE fest vorgegeben ist. Wir haben aber dieses Ensemble auch dann verwendet, wenn das System nicht makroskopisch isoliert ist, sondern in (schwachem) Kontakt mit anderen System steht. Dabei haben wir Energiefluktuationen, die außerhalb der vorgegebenen Unschärfe δE liegen, einfach weggelassen. Das ist gerechtfertigt, wenn solche Fluktuationen extrem selten sind. Das ist bei makroskopischen Systemen der Fall, wie wir noch sehen werden. Bei mikroskopischen Systemen stimmt es dagegen nur, falls diese sehr gut von der Außenwelt abgeschirmt sind. Die mikrokanonische Verteilung taugt also nichts für Systeme aus nur wenigen Teilchen, wenn diese in Wechselwirkung mit ihrer Umgebung stehen.

Versuchen wir, eine Alternative zum mikrokanonischen Ensemble zu finden, die makroskopisch dasselbe leistet, die aber dennoch beliebige Energiefluktuationen prinzipiell zulässt. Dabei können wir nun auf die Begriffe zurückgreifen, die wir am Anfang dieses Kapitels noch nicht hatten, insbesondere auf die Temperatur. Wir haben ja bei der Diskussion der thermodynamischen Potentiale oben gesehen: Statt durch E, V und N können wir einen makroskopischen Gleichgewichtszustand auch durch T, V und N kennzeichnen. Wir geben also nicht mehr die Energie (mit ihrem kleinen Intervall) vor, sondern die Temperatur. Man kann sich überlegen, dass man dadurch automatisch den Mittelwert der Energie festlegt. Im Prinzip sind aber beliebige Energiefluktuationen möglich. Bei makroskopischen Systemen sind größere Energiefluktuationen nun extrem selten, wie wir noch sehen werden. Die Energie liegt also fast immer in einem kleinen Energieintervall δE bei ihrem Mittelwert -- eine nachträgliche Rechtfertigung für das mikrokanonische Ensemble.

Wenn wir die Temperatur T statt der Energie E verwenden, so müssen wir nicht mehr fordern, dass unser System makroskopisch abgeschlossen ist. Es kann (und soll) in thermischem Gleichgewicht mit einem großen Wärmebad sein, das dieselbe Temperatur aufweist. Man kann auch sagen: Das Wärmebad gibt die Temperatur vor. Durch die identische Temperatur ist sichergestellt, dass bei konstantem Volumen und fester Teilchenzahl keine makroskopischen Energiemengen übertragen werden können. Mikroskopische Energiefluktuationen zwischen unserem System und dem Wärmebad sind aber möglich. Dieses Bild ist sehr realistisch, denn da man kein makroskopisches System absolut isolieren kann, befindet es sich immer im Kontakt mit der Außenwelt -- selbst wenn es der leere Weltraum mit seiner Wärmestrahlung ist. Diese Außenwelt stellen wir hier als Wärmebad dar.

Die beiden Systeme A und A' sollen also zusammen ein makroskopisch abgeschlossenes System Ag im thermischen Gleichgewicht mit Energie Eg bilden, das durch ein mikrokanonisches Ensemble mit einem entsprechendem sehr kleinen Energieintervall beschrieben wird. Wir brauchen also das mikrokanonische Ensemble als Ausgangspunkt für unser Gesamtsystem! So ganz nutzlos waren unsere Überlegungen dazu also nicht! Dabei soll A' ein makroskopisches Wärmebad mit Temperatur T sein, das sehr viel größer als System A ist, so dass ein Energieaustausch die Temperatur von A' nicht ändert. Ein Volumen- oder Teilchenaustausch soll nicht stattfinden. Wie wir noch sehen werden, muss unser System A dabei nicht unbedingt makroskopisch sein. Es kann auch ein einzelnes Teilchen sein, das im thermischen Gleichgewicht ständig Energie mit dem Wärmebad A' austauscht. Die Temperatur ist dann über das Wärmebad definiert. So kann beispielsweise Ag auch ein Gas in einem Behälter sein, A ist ein einzelnes Gasteilchen in diesem Behälter und A' sind alle übrigen Gasteilchen in demselben Behälter (A und A' müssen also nicht unbedingt räumlich getrennt sein).

Die Wahrscheinlichkeiten Pn , mit der die einzelnen Mikrozustände im Teilsystem A auftreten, ergeben nun wieder eine statistische Gesamtheit, die man als kanonisches Ensemble bezeichnet. Mikroskopisch wird sich dieses Ensemble von dem bisherigen mikrokanonischen Ensemble unterscheiden, aber für ein makroskopisches System A muss es zu identischen makroskopisch Ergebnissen führen, denn wir haben oben ja gesehen, dass man Gleichgewichts-Makrozustände wahlweise durch (E,V,N) bzw. (S,V,N) oder durch (T,V,N) kennzeichnen kann. Versuchen wir, die Wahrscheinlichkeiten Pn für das kanonische Ensemble auszurechnen. Das ist glücklicherweise recht einfach:

Jeder Zustand   |ngñ   des Gesamtsystems Ag setzt sich zusammen aus einem Zustand   |nñ   unseres Teilsystems A und einem Zustand   |n'ñ   des Wärmebades A'. Wir schreiben auch   |ngñ   =   |n,n'ñ   (das kann man als Tensorprodukt lesen). Dabei haben wir die Wechselwirkung zwischen A und A' weitgehend vernachlässigt, so dass wir die Zustände der beiden Teilsysteme einfach auf diese Weise zum Gesamtzustand zusammensetzen dürfen. Entsprechend addieren sich auch die Energien der beiden Zustände einfach zur Energie des Gesamtzustandes:   Eg(n,n')   =   En + E'n'   . Die Wechselwirkung soll nur soweit eine Rolle spielen, dass sie Energiefluktuationen zwischen A und A' ermöglicht, ohne dabei die Quantenzustände der beiden Teilsysteme zu verändern. A und A' dürfen also nicht zu stark miteinander wechselwirken.

Da unser Gesamtsystem durch ein mikrokanonisches Ensemble beschrieben wird, muss die Gesamtenergie   Eg(n,n')   =   En + E'n'   in einem Energieintervall zwischen   Eg   und   Eg + δE   liegen, d.h. es ist

  Eg   <   En + E'n'   <   Eg + δE  

Wir können En subtrahieren und erhalten   Eg − En   <   E'n'   <   Eg + δE − En   . In diesem Bereich muss die Energie E'n' des Wärmebades liegen, wenn wir eine bestimmte Energie En für unser System A sowie das Gesamtenergie-Intervall vorgeben.

Die Wahrscheinlichkeit, dass sich System A im Zustand   |nñ   und Wärmebad A' im Zustand   |n'ñ   befindet, nennen wir Pn,n' . Wenn wir nun n festhalten und über alle n' summieren, die energetisch erlaubt sind, dann erhalten wir die Wahrscheinlichkeit, dass sich System A im vorgegebenem Zustand   |nñ   und Wärmebad A' in irgendeinem energetisch dazu passenden Zustand   |n'ñ   befindet:

  Pn   =   ∑n''   Pn,n'

Energetisch passend sind alle Wärmebad-Zustände   |n'ñ   , deren Energie E'n' die Beziehung   Eg − En   <   E'n'   <   Eg + δE − En   erfüllen. Über diese n' geht die Summe (daher der Strich am Summenzeichen). Man kann auch sagen: Bei gegebenem n ist für alle anderen n' die Wahrscheinlichkeit   Pn,n' = 0   .

Die Summe können wir leicht ausrechnen: Da das Gesamtsystem ein mikrokanonisches Ensemble sein soll, ist   Pn,n'   =   1 / Ωg(Eg)   , und zwar unabhängig von n und n' -- alle Mikrozustände im Energieintervall sind ja im mikrokanonischen Ensemble gleich wahrscheinlich, und   Ωg(Eg)   ist die Zahl der Mikrozustände des Gesamtsystems im Energieintervall. Insgesamt haben wir also   Pn   =   ∑n''   1 / Ωg(Eg)   . Diese Summe enthält   Ω'(Eg − En)   identische Summanden, denn   Ω'(Eg − En)   ist die Zahl der Wärmebad-Zustände im Energieintervall von   Eg − En   bis   Eg + δE − En   , und über diese Zustände wird ja summiert. Also lautet unser Ergebnis:

  Pn   =   Ω'(Eg − En) / Ωg(Eg)

Wir ermitteln also unter den vielen Zuständen   |n,n'ñ   im Gesamtenergie-Intervall (das sind   Ωg(Eg)   Stück) den Anteil derjenigen Zustände, bei denen unser System A im vorgegebenem Zustand   |nñ   mit Energie En ist und das Wärmebad sich in irgendeinem Zustand   |n'ñ   im dazu passenden Energieintervall von   Eg − En   bis   Eg + δE − En   befindet (das sind   Ω'(Eg − En)   Stück). Wichtig ist: Die obige Formel gilt auch für ein nicht-makroskopisches System A, denn die Terme rechts setzen nur voraus, dass das Wärmebad A' und das Gesamtsystem Ag makroskopisch sind.

Bei der mikrokanonischen Verteilung hätten wir nun gesagt: Wir nehmen an, dass alle Pn im schmalen Energieintervall gleich groß sind, also unabhängig von n sind. Rechts hätten wir dann En durch E ersetzt, denn das Energieintervall soll ja sehr schmal sein, so dass En sehr nahe bei E liegt. Damit hätten wir   Pn   =   Ω'(Eg − E) / Ωg(Eg)   gehabt. Nun gilt mikrokanonisch (siehe weiter oben)   Ωg(Eg)   =   Ω(E)   Ω'(Eg − E)   und somit   Pn   =   Ω'(Eg − E) / Ωg(Eg)   =   1 / Ω(E)   für En im Energieintervall bei E. Das wäre genau unsere mikrokanonische Verteilung.

Bei der kanonischen Verteilung wollen wir dagegen alle Energiewerte En zulassen, auch außerhalb des Energieintervalls, dafür aber die Temperatur festlegen. Dabei wollen wir ausnutzen, dass das Wärmebad A' viel größer als unser System A ist. Schauen wir uns dazu den Zähler   Ω'(Eg − En)   an. Das ist die Zustandanzahl des Wärmebades im Energieintervall bei der Energie   Eg − En   . Aus den En können wir später mit Hilfe der Pn eine mittlere Energie   E   für unser System A ausrechnen, und diese Energie wollen wir verwenden, um

  Ω'(Eg − En)   =   Ω'(Eg − E + E − En)   =   Ω'(E' + E − En)  

zu schreiben, wobei   E' := Eg − E   dann eine mittlere Energie für das Wärmebad ist und   E − En   die Abweichung der Mikrozustands-Energie vom Energie-Mittelwert unseres Teilsystems ist (also eine Art Energiefluktuation). Diese Energiefluktuation des kleinen Teilsystems A wird viel kleiner sein als die mittlere Energie E' unseres Wärmebades, das wir uns ja unendlich groß vorstellen können. Wir könnten daher auf die Idee kommen,   Ω'(E' + E − En)   um E' herum in eine Taylorreihe zu entwickeln und nur die lineare oder quadratische Näherung mitzunehmen. Das wäre jedoch ungünstig, denn wir wissen ja von oben, dass die Zustandszahl sehr empfindlich von der Energie abhängt, so dass eine solche Näherung vermutlich nicht ausreichend ist. Viel besser ist es, den Logarithmus dieser Zahl (also die Entropie) um E' zu entwickeln, denn der Logarithmus ist selbst nur relativ wenig energieabhängig. Außerdem wollen wir ja die Temperatur des Wärmebades A' vorgeben, und die ergibt sich automatisch als erste Ableitung des Logarithmus nach der Energie. Also:

  k ln Ω'(E' + E − En)   =   S'(E' + E − En)   =  
  =   S'(E')   +   dS'(E')/dE' (E − En)   +   ...   =  
  =   k ln Ω'(E')   +   (E − En) / T   +   ...

Dabei haben wir   1/T = 1/T' = dS'(E')/dE'   verwendet. Höhere Terme lassen wir nun in sehr guter Näherung weg und teilen durch k:

  ln Ω'(E' + E − En)   =   ln Ω'(E')   +   (E − En) / (kT)   =  
  =   ln Ω'(E')   +   ln ( exp ( (E − En) / (kT) ) )   =  
  =   ln ( Ω'(E') exp ( (E − En) / (kT) ) )

Anwenden der Exponentialfunktion ergibt dann

  Ω'(E' + E − En)   =   Ω'(E')   e(E − En) / (kT)

Das können wir nun im Zähler von Pn einsetzen:

  Pn   =   Ω'(E')   e(E − En) / (kT)   / Ωg(Eg)   =:   e− En / (kT)   / Z

mit   1/Z   :=   Ω'(E') / Ωg(Eg)   eE / (kT)   . Wichtig: Z hängt nicht von En ab, d.h. die En -Abhängigkeit steckt alleine in der Exponentialfunktion. Um Z auszurechnen, brauchen wir die obige Formel für 1/Z glücklicherweise nicht, denn Z ist als Normierungsfaktor bereits durch die Tatsache festgelegt, dass Pn eine Wahrscheinlichkeit ist, so dass die Summe über alle Pn gleich 1 sein muss:   1   =   ∑n Pn   =   1/Z   ∑n e− En / (kT)   und somit

  Z   =   ∑n   e− En / (kT)  

Diese Summe bezeichnet man als kanonische Zustandssumme. Damit haben wir unser Ziel erreicht:

kanonisches Ensemble:

Wir betrachten ein (nicht unbedingt makroskopisches) System A mit vorgegebener Temperatur T (d.h. der Energiemittelwert E wird vorgegeben). Konkret realisiert man diese Vorgabe dadurch, dass sich A im thermischen Gleichgewicht mit einem sehr großen Wärmebad A' der Temperatur T befindet. A und A' bilden dabei zusammen ein makroskopisch abgeschlossenes System Ag mit der Energie Eg , das durch ein mikrokanonisches Ensemble beschrieben wird. Teilchenzahl und Volumen von A und A' sollen konstant sein. Die Wahrscheinlichkeit für einen Mikrozustand mit Energie En im System A ist dann gegeben durch:

  Pn   =   e− En / (kT)   / Z

mit der kanonischen Zustandssumme

  Z   =   ∑n   e− En / (kT)  

Der wesentliche Unterschied zum mikrokanonischen Ensemble ist, dass unser System A nicht unbedingt makroskopisch sein muss, und dass die Wahrscheinlichkeiten Pn nicht mehr nur in einem winzigen Energieintervall ungleich Null sind (und dort konstant), sondern dass sie generell ungleich Null sind und exponentiell abnehmen. Für Energien deutlich oberhalb der Energie   kT   werden die Wahrscheinlichkeiten dann schnell sehr klein. Wir erinnern uns:   kT   entsprach oben einer typischen Einteilchen-Energie.



Woher kommt diese exponentielle Abnahme der Wahrscheinlichkeit? Wenn wir uns die Rechnung oben ansehen, so finden wir den Grund: Die Zustandsanzahl   Ω'(Eg − En)   im Wärmebad nimmt exponentiell ab, wenn wir ihm eine kleine Energiemenge En entziehen (denn die Entropie des Wärmebades nimmt in erster Näherung linear ab, wobei 1/T die Steigung bestimmt). Das Gesamtsystem hat entsprechend weniger Möglichkeiten, dem Teilsystem A diese Energie En zur Verfügung zu stellen.

Die kanonische und die mikrokanonische Verteilung sind also sehr unterschiedlich, was die Wahrscheinlichkeiten   Pn   für die Mikrozustände betrifft. Dennoch sollen sie makroskopisch zu identischen Beschreibungen führen. Wie kann das sein?

Der Hauptgrund ist: Wenn wir uns ansehen, mit welcher Wahrscheinlichkeit die Energie En in einem bestimmten Energieintervall liegt, so sind bei einem makroskopischen System A die kanonische und die mikrokanonische Energieverteilung fast identisch: Beide haben ein extrem scharfes Maximum am Energiemittelwert und sind ansonsten Null oder fast Null. Bei der mikrokanonischen Verteilung hatten wir dies von Hand extra eingebaut. Bei der kanonischen Verteilung ergibt es sich dagegen von selbst: Die Zustände werden bei goßer Teilchenzahl N mit zunehmender Energie sehr schnell immer dichter, und zwar ungefähr mit   EnN   (wir setzen wieder vereinfacht b = 1), wobei die Teilchenzahl N typischerweise bei 1020 liegt. Obwohl die Wahrscheinlichkeit Pn bei größeren Energien abnimmt, nimmt die Zustandsdichte so schnell zu, dass die Wahrscheinlichkeit, einen Zustand in einem höher liegenden Energiebereich zu erwischen, zunächst stark wächst. Irgendwann besiegt eine abfallende Exponentialfunktion aber jedes Polynom, selbst ein so stark wachsendes wie   EnN   . Daher fällt die Wahrscheinlichkeit ab einer bestimmten Energie plötzlich stark ab, denn die Wahrscheinlichkeit Pn wird dann so gering, dass dies durch die wachsende Zustandsdichte nicht mehr kompensiert werden kann.

Mathematisch kann man das so präzisieren: Die Wahrscheinlichkeit, einen Zustand in einem makroskopisch kleinen Energieintervall zwischen E und E + δE zu finden, ist ungefähr gleich der mittleren Wahrscheinlichkeit   P(E) = e− E / (kT)   / Z   für die einzelnen Zustände in diesem Intervall mal der Zustandsanzahl für dieses Intervall, also insgesamt ungefähr proportional zu   EN e− E / (kT)   . Für große N hat diese Funktion ein sehr scharfes Maximum. Bereits bei nur 100 Teilchen ist dieses Maximum schon gut ausgeprägt, wie die folgende Grafik der Funktion   x100 e− x   mit   x = E/(kT)   zeigt:



Man kann sich leicht vorstellen, wie dieses Maximum für wachsende Teilchenzahl N immer schärfer wird, so dass es der mikrokanonischen Wahrscheinlichkeitsdichte für die Energie (nicht aber der Wahrscheinlichkeit für einen Zustand n) immer ähnlicher wird. Das mikrokanonische Energieintervall δE ist dann gleich der Breite des Peaks in der kanonischen Energieverteilung.

Es ist oft viel einfacher, mit der kanonischen anstatt mit der mikrokanonischen Verteilung zu rechnen, da es hier kein Hantieren mit dem Energieintervall gibt: Man summiert immer über alle Mikrozustände. Außerdem gilt die kanonische Verteilung auch für mikroskopische Systeme, solange diese im Gleichgewicht mit einem Wärmebad stehen. Man kann also bei der kanonischen Verteilung sehr schön das Entstehen makroskopischen Verhaltens bei wachsender Teilchenzahl untersuchen.

Dazu muss man allerdings beispielsweise wissen, wie man die Entropie für eine kanonische Verteilung berechnen soll. Das können wir aber noch nicht, denn die Entropie hatten wir bisher nur für ein mikrokanonisches Ensemble definiert, also für ein makroskopisch abgeschlossenes System mit vorgegebener Energie E (bis auf die kleine Unschärfe δE ). Wir müssen also diese Definition erweitern, so dass sie auch für ein kanonisches Ensemble anwendbar ist und makroskopisch dieselben Resultate liefert.

Für ein mikrokanonisches Ensemble war die Entropie definiert als   S   =   k   ln Ω(E)   , wobei Ω(E) die Zahl der Zustände im Energieintervall zwischen E und E + δE ist. Die Wahrscheinlichkeit Pn für einen Mikrozustand war außerhalb dieses Intervalls gleich Null und innerhalb des Intervalls gleich   Pn   =   1 / Ω(E)   =:   P(E)   . Dabei haben wir jetzt für die konstante Wahrscheinlichkeit im Energieintervall die Bezeichnung P(E) eingeführt, so dass wir die Entropie auch schreiben können als

  S   =   k   ln Ω(E)   =   k   ln 1/P(E)   =   − k   ln P(E)  

Je unwahrscheinlicher die einzelnen erreichbaren Mikrozustände sind, umso größer ist die Entropie. Vorsicht: S ist positiv, denn P(E) ist kleiner als 1, so dass   ln P(E)   negativ ist. Beim kanonischen Ensemble wollen wir P(E) nun anders interpretieren: E soll die mittlere Energie des Systems sein, ist also in dem obigen Bild die Position des Peaks. P(E) ist dann die Wahrscheinlichkeit für die Mikrozustände bei dieser mittleren Energie, also bei dem Peak. Das macht Sinn, denn die Energie En eines makroskopischen Systems liegt mit hoher Wahrscheinlichkeit sehr nahe bei der mittleren Energie E, so dass nur die Wahrscheinlichkeit für die Mikrozustände bei dieser Energie für die makroskopische Entropie relevant ist. Umgekehrt ist diese Interpretation von P(E) auch für die mikrokanonische Verteilung korrekt, denn die mittlere Energie liegt dort im Energieintervall, und dort ist   P(E)   die konstante Wahrscheinlichkeit der Zustände, so dass wir unsere ursprüngliche Definition der Entropie zurückgewinnen.

Diese erweiterte Definition der Entropie können wir noch etwas umschreiben. Dazu verwenden wir eine besondere Eigenschaft der Wahrscheinlichkeiten Pn . Man kann zeigen (siehe z.B. Landau, Lifschitz: Lehrbuch der theoretischen Physik, Statistische Physik), dass man bei konstanter Teilchenzahl die Energieabhängigkeit der Wahrscheinlichkeiten Pn im thermischen Gleichgewicht immer in der Form   Pn   =   α eβ En   mit energieunabhängigen Koeffizienten α und β schreiben kann. (dasselbe gilt dann für P(E), denn P(E) ist ja das Pn bei dem En, das bei der mittleren Energie E liegt). Für den Logarithmus folgt dann nämlich   ln Pn   =   ln α   +   β En   , so dass die Additivität der Entropie gewährleistet ist -- sowohl Entropie als auch Energie sind ja additive (extensive) Größen, wenn man Systeme zusammensetzt.

Bei der mikrokanonischen Verteilung wäre dann im Energieintervall   α = 1/Ω(E)   und   β = 0   , bei der kanonischen Verteilung dagegen   α = 1/Z   und   β = − 1/(kT)   . Unsere beiden bisher bekannten Verteilungen haben also die behauptete Energieabhängigkeit. Schreiben wir damit die Entropie nun um, wobei wir auch   E = ∑n Pn En   für den Mittelwert der Energie sowie   1 = ∑n Pn   verwenden:

  S   =   − k   ln P(E)   =   − k   ln (α eβ E )   =  
  =   − k   ( ln α   +   β E )   =  
  =   − k   ( ln α   +   β ∑n Pn En )   =  
  =   − k   ∑n Pn ( ln α   +   β En )   =  
  =   − k   ∑n Pn ( ln Pn )   =  
  =   − k   < ln P >

wobei   < ln P >   der Mittelwert des Logarithmus der Wahrscheinlichkeit ist. Mit   E = < E >   könnte man auch kurz schreiben:

  S   =   − k   ln P( < E > )   =   − k   < ln P >

Fassen wir zusammen:

Entropie (verallgemeinerte Definition):

Treten die Mikrozustände eines Makrozustandes mit der Wahrscheinlichkeit Pn auf, so ist die Entropie S dieses Makrozustandes definiert als

  S   =   − k   ∑n   Pn ( ln Pn )   =:   − k   < ln P >

Im thermischen Gleichgewicht bei konstanter Teilchenzahl ist die Energieabhängigkeit der Wahrscheinlichkeiten allgemein durch   Pn   =   α eβ En   mit energieunabhängigen Koeffizienten α und β gegeben. So ist bei der mikrokanonischen Verteilung   α = 1/Ω(E)   und   β = 0   , bei der kanonischen Verteilung dagegen   α = 1/Z   und   β = − 1/(kT)   . Damit kann man die Entropie auch als

  S   =   − k   ln P(E)  

schreiben. Dabei ist   E   =   < E >   =   ∑n Pn En   die mittlere Energie, und P(E) ist die Wahrscheinlichkeit Pn für einen Mikrozustand bei der mittleren Energie En = E . Im mikrokanonischen Ensemble ist   P(E) = 1/Ω(E)   im Energieintervall, so dass   S   =   − k   ln P(E)   =   k ln Ω(E)   unsere ursprüngliche Definition von oben ergibt.

In Kapitel 7.2 werden wir diese Definition noch einmal aus Sicht der Informationstheorie näher begründen.

Man kann zeigen, dass bei vorgegebener mittlerer Energie   E = < E >   die kanonische Verteilung diejenige mit der größten Entropie ist, während bei vorgegebenem sehr kleinen Energieintervall die mikrokanonische Verteilung die Entropie maximiert. Dies ist sogar ein alternativer Weg, um beispielsweise die kanonische Verteilung herzuleiten: Man startet mit der obigen verallgemeinerten Entropiedefinition und maximiert diese Entropie unter der Nebenbedingung, dass die mittlere Energie vorgegeben ist. Die Temperatur spielt dann die Rolle eines Lagrange-Multiplikators. Allerdings muss man dann noch begründen, warum die obige verallgemeinerte Entropie im thermischen Gleichgewicht überhaupt maximal werden soll. Mehr dazu im nächsten Kapitel 7.2 ).

Wenn man also die Mikrozustände und die Temperatur kennt, so kann man mit der kanonischen Verteilung die Entropie berechnen und damit alle anderen thermodynamischen Größen bestimmen. Einfacher ist es aber, statt der Entropie die freie Energie F zu verwenden, denn oben haben wir gesehen, dass die freie Energie F(T,V,N) das geeignete thermodynamische Potential ist, wenn man die Temperatur als Variable verwenden möchte. Um F zu berechnen, können wir die oben bereits verwendete Formel   S   =   − k   ( ln α   +   β E )   nutzen und die Werte für die kanonische Verteilung einsetzen, also   α = 1/Z   und   β = − 1/(kT)   . Damit ist   S   =   − k   ( ln 1/Z   −   E/(kT) )   =   k ln Z   +   E/T   . Diese Gleichung multiplizieren wir mit T und stellen sie nach     − kT ln Z   frei:   − kT ln Z   =   E   − T S   . Das ist aber gerade die freie Energie F, d.h. wir haben:

Die freie Energie im kanonischen Ensemble:

Im kanonischen Ensemble ist die freie Energie F(T,V,N) durch die Zustandssumme   Z   =   ∑n   e− En / (kT)   gegeben. Im Detail gilt:

  F   =   − k T   ln Z  

Von oben wissen wir, dass wir andere thermodynamische Größen dann als partielle Ableitungen von F berechnen können:

  dF/dT = − S
  dF/dV = − p
  dF/dN = μ

Man berechnet also die Zustandssumme als Funktion von T, V und N und kann dann über die obigen Formeln leicht F, S, p und μ als Funktionen von T, V und N ausrechnen. Über   F = E − T S   kann man dann auch E berechnen. Natürlich kann man alternativ S auch direkt über   S   =   − k   ∑n   Pn ( ln Pn )   und E über   E   =   ∑n   Pn En   berechnen.


Das großkanonische Ensemble:

In manchen Fällen ist es günstig, nicht nur Energiefluktuationen zwischen dem Wärmebad A' und unserem System A bei identischer Temperatur T zuzulassen, sondern auch Teilchenzahlfluktuationen bei gleichem chemischen Potential μ. Die Rechnung geht dann komplett analog zum vorherigen Abschnitt. Diesmal müssen wir allerdings für einen Mikrozustand   |nñ   unseres A-Systems nicht mehr nur durch die Energie En angeben, sondern auch die Teilchenzahl Nn . Die Wahrscheinlichkeit, einen Mikrozustand mit Energie En und Teilchenzahl Nn im System A vorzufinden, ist dann gleich

  Pn   =   Ω'(Eg − En, Ng − Nn)   /   Ωg(Eg, Ng)

Den Logarithmus des Zählers entwickeln wir wieder um E' und N' (wobei N und N' analog zu E und E' die Mittelwerte in den Systemen A und A' angeben):

  S'(E' + E − En, N' + N − Nn)   =  
  =   S'(E',N')   +   dS'(E',N')/dE' (E − En)   +   dS'(E',N')/dN' (N − Nn)   +   ...   =  
  =   k ln Ω'(E',N')   +   (E − En) / T   −   (N − Nn) μ / T   +   ...

Dabei haben wir   1/T = 1/T' = dS'/dE'   sowie   − μ/T = − μ'/T' = dS'/dN'   verwendet. Anwenden der Exponentialfunktion und Einsetzen im Zähler von Pn ergibt

  Pn   =   Ω'(E',N')   e{(E − En)   −   (N − Nn) μ}/ (kT)   / Ωg(Eg)   =:   e{μ Nn − En} / (kT)   / ZG

mit der großkanonischen Zustandssumme   1/ZG   :=   Ω'(E',N') / Ωg(Eg)   e{E − μ N} / (kT)   . Aus der Normierung der Pn folgt hier

  ZG   =   ∑n   e{μ Nn − En} / (kT)  

Zusammengefasst haben wir also:

großkanonisches Ensemble:

Wir betrachten ein (nicht unbedingt makroskopisches) System A mit vorgegebener Temperatur T und vorgegebenem chemischen Potential μ (d.h. der Energiemittelwert E und die mittlere Teilchenzahl N werden vorgegeben). Konkret realisiert man diese Vorgabe dadurch, dass sich A im thermischen Gleichgewicht mit einem sehr großen Wärmebad A' mit Temperatur T und chemischen Potential μ befindet, wobei Teilchenaustausch erlaubt ist. A und A' bilden dabei zusammen ein makroskopisch abgeschlossenes System Ag mit der Energie Eg und der Teilchenzahl Ng , das durch ein mikrokanonisches Ensemble beschrieben wird. Das Volumen von A und A' soll konstant sein. Energie und Teilchenzahl von A und A' dürfen aber um ihre Mittelwerte schwanken. Die Wahrscheinlichkeit für einen Mikrozustand mit Energie En und Teilchenzahl Nn im System A ist dann gegeben durch:

  Pn   =   e{μ Nn − En} / (kT)   / ZG

mit der großkanonischen Zustandssumme

  ZG   =   ∑n   e{μ Nn − En} / (kT)  

Man kann nun wieder zeigen, dass für makroskopische Körper die Teilchenzahl Nn mit hoher Wahrscheinlichkeit sehr nahe an ihrem Mittelwert N liegt, analog zur Energie. Für makroskopische Körper ergibt daher das großkanonische Ensemble wieder dieselben thermodynamischen Größen wie das kanonische oder das mikrokanonische Ensemble zuvor. Die mikroskopischen Teilchenzahl-Fluktuationen spielen makroskopisch keine Rolle.

Oben haben wir gesehen, dass das großkanonische Potential J(T,V,μ) das geeignete thermodynamische Potential ist, wenn man die Temperatur und das chemische Potential als Variable verwenden möchte. Um J zu berechnen, können wir wie bei der kanonischen Verteilung vorgehen. Dabei muss α allerdings durch   eμ Nn / (kT) α   ersetzt werden, was in der Entropie zu einem Zusatzterm führt, d.h.

  S   =  
  =   − k   ∑n Pn ( μ Nn / (kT)   +   ln α   +   β En )   =  
  =   − k   ( μ N / (kT)   +   ln α   +   β E )   =  
  =   − μ/T N   +   k ln ZG   +   E/T

wobei hier die großkanonische Zustandssumme ZG verwendet wird. Diese Gleichung multiplizieren wir wieder mit T und stellen sie nach     − kT ln ZG   frei:   − kT ln ZG   =   E − T S − μ N   . Das ist aber gerade das großkanonische Potential J , d.h. wir haben:

Das großkanonische Potential im großkanonischen Ensemble:

Im großkanonischen Ensemble ist das großkanonische Potential J(T,V,μ) durch die großkanonische Zustandssumme   ZG   =   ∑n   e{μ Nn − En} / (kT)   gegeben. Im Detail gilt:

  J   =   − k T   ln ZG  

Von oben wissen wir, dass wir andere Thermodynamische Größen dann als partielle Ableitungen von J berechnen können:

  dJ/dT = − S
  dJ/dV = − p
  dJ/dμ = − N

Besonders die letzte Gleichung ist interessant, denn sie erlaubt es, die mittlere Teilchenzahl N zu berechnen, was wir gleich auch nutzen werden! Da diese Gleichung so wichtig ist, möchte ich hier noch einmal ihre Gültigkeit direkt nachweisen:

  N   =   − dJ/dμ   =   k T   d/dμ   ln ZG   =   k T   1/ZG   dZG/dμ   =  
  =   k T   1/ZG   ∑n   Nn / (kT)   e{μ Nn − En} / (kT)   =   ∑n   Nn Pn


Zusammenfassung:

Wir haben nun bereits mehrere thermodynamische Potentiale und einige damit zusammenhängende statistische Ensembles kennengelernt. Wer bis hierhin durchgehalten hat, dem ist vermutlich ein allgemeines Prinzip aufgefallen: Wir haben mit drei extensiven Größen begonnen, um einen Gleichgewichtszustand zu charakterisieren: E, V, N . Dazu haben wir ein passendes statistisches Ensemble definiert, bei dem diese drei Größen fest vorgegeben waren: das mikrokanonische Ensemble. Die kleine Energieunschärfe δE diente dabei nur dazu, um sicherzustellen, dass genügend viele Mikrozustände zu diesem Makrozustand gehören.

Man kann nun kleine Fluktuationen in einer oder mehrerer dieser Größen zulassen, wobei der Mittelwert aber vorgegeben bleibt. Das erreicht man durch entsprechenden Kontakt mit einem großen Wärmebad. Damit der Mittelwert der extensiven Größe weiterhin konstant bleibt, muss man eine zugehörige intensive Größe definieren, die man im Wesentlichen als Ableitung der Entropie nach der extensiven Größe festlegt. Diese intensive Größe muss im betrachteten System denselben Wert wie im Wärmebad besitzen, damit das System mit dem Wärmebad im thermischen Gleichgewicht ist und die Mittelwerte konstant bleiben.

Zu den extensiven Größen E, V, N gehören dabei die intensiven Größen T, p, μ . Lässt man beispielsweise durch Kontakt mit einem Wärmebad Fluktuationen in E zu, so müssen Wärmebad und System dasselbe T aufweisen. Ein solches System mit Fluktuationen in E wird durch eine neue statistische Gesamtheit beschrieben: das kanonische Ensemble. Der Logarithmus der entsprechenden Zustandssumme ergibt das zugehörige thermodynamische Potential, das man über eine Legendre-Transformation beim Wechsel von der extensiven Größe E zur intensiven Größe T erhält. Analog kann man auch bei E und N ( --> großkanonisches Ensemble) oder bei V und N vorgehen. So kann man auch leicht ein Ensemble konstruieren, bei dem E und V fluktuieren dürfen -- entsprechend werden T und p durch das Wärmebad vorgegeben.

Für makroskopische Systeme sind alle diese statistischen Gesamtheiten und die entsprechenden thermodynamischen Potentiale gleichwertig, d.h. man kann sich die jeweils günstigste aussuschen. Das liegt daran, dass die Fluktuationen mit sehr hoher Wahrscheinlichkeit winzig sind, so dass es makroskopisch keinen Unterschied macht, ob die extensive Größe fest vorgegeben wird oder im Kontakt mit dem Wärmebad fluktuieren darf, wobei das Wärmebad die entsprechende intensive Größe vorgibt. Lediglich in den mikroskopischen Eigenschaften unterscheiden sich die einzelnen Ensembles -- das mikrokanonische Ensemble kennt keine wirklichen Energiefluktuationen, das kanonische Ensemble schon.


Ideale (Quanten-) Gase:

Man kann das großkanonische Ensemble sehr gut verwenden, um ideale Quantengase zu untersuchen, also ein Gas aus vielen gleichartigen identischen Quantenteilchen ohne direkte Wechselwirkung in einem großen Volumen V. Ganz oben haben wir ein solches Gas bereits betrachtet, als wir die Zahl der Mikrozustände in einem Volumen V abgeschätzt haben. Dabei haben wir uns zunächst angesehen, welche Zustände (stehende Wellen) ein einzelnes Teilchen in dem Volumen V einnehmen kann. Die N-Teilchenzustände haben wir dann einfach gebildet, indem wir die N Teilchen auf die verschiedenen Einteilchenzustände verteilt haben. Quantenmechanisch wäre ein solcher N-Teilchenzustand das Produkt von N Einteilchenzuständen. Bei zwei Teilchen wäre beispielsweise   Ψges = Ψ1 Ψ2   , wobei Ψges die Gesamtwellenfunktion und Ψ1 bzw. Ψ2 die Wellenfunktionen von Teilchen 1 und 2 sind.

Wir haben dabei allerdings etwas vernachlässigt: Auch wenn die Teilchen kaum Wechselwirkung miteinander haben, so gibt es dennoch quantenmechanische (Anti-) Symmetriebedingungen an den N-Teilchenzustand der identischen Teilchen (siehe Kapitel 4.4 ). Sie hängen damit zusammen, dass die N Teilchen ununterscheidbar sind. Bei Fermionen (Teilchen mit Spin 1/2, z.B. Elektronen, Protonen oder Neutronen) ist es beispielsweise nicht erlaubt, dass zwei Fermionen beide denselben Einteilchenzustand einnehmen, d.h. Ψ1 und Ψ2 müssen verschieden sein. Das liegt daran, dass die N-Teilchen-Wellenfunktion bei Fermionen antisymmetrisch sein muss, d.h. wir müssen beispielsweise   Ψges   =   Ψ1 Ψ2 − Ψ2 Ψ1   schreiben. Wäre hier Ψ1 = Ψ2 , so ist Ψges = 0 (das ist kein erlaubter 2-Teilchen-Zustand).

Bosonen (Teilchen mit Spin 0 oder 1, beispielsweise entsprechende Atome) sind dagegen sehr gerne im selben Einteilchenzustand, denn ihre N-Teilchen-Wellenfunktion muss symmetrisch sein, beispielsweise   Ψges   =   Ψ1 Ψ2 + Ψ2 Ψ1   .

Diese Symmetrieeffekte sind unwichtig, solange die mittlere Teilchenzahl in einem Einteilchenzustand deutlich kleiner als Eins ist, denn dann kommt es nur sehr selten vor, dass zwei Teilchen denselben Einteilchenzustand beanspruchen. Das ist bei üblichen Gasen bei Raumtemperatur der Fall, nicht aber beispielsweise bei den dicht gepackten Neutronen in einem Neutronenstern oder den Elektronen in einem weißen Zwerg.

Entscheidend ist also die mittlere Teilchenzahl in einem Einteilchenzustand, also die mittlere Zahl der Teilchen, die im Volumen V dieselbe stehende Welle mit demselben Teilchenspin ausbilden wollen. Diese Teilchenzahl können wir mit dem großkanonischen Ensemble leicht ausrechnen! Wir können nämlich einen Einteilchenzustand mit den darin enthaltenen Teilchen als ein kleines Subsystem A ansehen, das sich in einem großen Wärmebad A' befindet. Dieses Wärmebad besteht aus den anderen Einteilchenzuständen mit den darin enthaltenen Teilchen. Dabei wollen wir voraussetzen, dass sich nur ein kleiner Teil aller Teilchen in dem betrachteten Einteilchenzustand befindet, so dass sich sehr viel mehr Teilchen im Wärmebad A' aufhalten (diese Bedingung muss man bei der sogenannten Bose-Einstein-Kondensation im Auge behalten). Die Wechselwirkung zwischen A und A' ist nur schwach, denn die Teilchen sollen nur wenig miteinander wechselwirken und Symmetrieeffekte gibt es nur innerhalb eines Einteilchenzustandes, also nicht zwischen A und A'.


Den grünen Einteilchenzustand betrachten wir als System A, alle anderen (blauen) Einteilchenzustände als Wärmebad A'. Die Grafik zeigt nun einen Mikrozustand von A, bei dem A mit zwei Teilchen besetzt ist (was natürlich nur bei Bosonen geht). Bei Fermionen könnte A nur mit Null oder einem Teilchen besetzt sein. Alle Teilchen sind gleich dargestellt, d.h. wir geben nicht an, welche Teilchen sich in welchem Einteilchenzustand befinden -- die Teilchen sind ununterscheidbar!


Unser Subsystem A kann nun Teilchen und damit auch Energie mit dem Wärmebad A' austauschen, d.h. Teilchen können unseren Einteilchenzustand betreten und wieder verlassen. Das Subsystem A wird also durch ein großkanonisches Ensemble beschrieben und wir können seine mittlere Teilchenzahl ausrechnen. Schauen wir uns dazu seine Mikrozustände an, die wir bisher mit   |nñ   bezeichnet haben. Dazu passend war En die Energie und Nn die Teilchenzahl dieses Mikrozustandes. Es bietet sich nun an, die Bezeichnungsweise etwas anzupassen, denn ein Mikrozustand von A ist vollständig gekennzeichnet durch den Einteilchenzustand und die Zahl der Teilchen in diesem Einteilchenzustand (die sogenannte Besetzungszahl).

Den Einteilchenzustand können wir hier mit   |pñ   bezeichnen. Dabei ist   p   der Teilchenimpuls, der aufgrund der Randbedingungen im Volumen nur diskrete Werte annehmen kann, und   σ   ist der Teilchenspin in z-Richtung bzw. bei masselosen Teilchen die Helizität. Hinzu kommt die Besetzungszahl dieses Einteilchenzustandes, die wir mit   n(p,σ)   bezeichnen wollen -- es ist also   Nn = n(p,σ)   . Die Energie eines Teilchens im Einteilchenzustand nennen wir   ε(p,σ)   , d.h. die Energie des Mikrozustandes mit   n(p,σ)   Teilchen ist   En = n(p,σ) ε(p,σ)   .

Damit können wir die großkanonische Zustandssumme für A ausrechnen, die wir hier mit   ZG(p,σ)   bezeichnen:

  ZG(p,σ)   =   ∑n   e{μ Nn − En} / (kT)   =  
  =   ∑n(p,σ)   e{μ n(p,σ)   −   n(p,σ) ε(p,σ)} / (kT)   =  
  =   ∑n(p,σ)   { e{μ − ε(p,σ)} / (kT) }n(p,σ)

Für Bosonen sind alle Besetzungszahlen erlaubt und die Summe bildet eine geometrische Reihe, die wir komplett aufsummieren können. Bei Fermionen kann ein Einteilchenzustand dagegen maximal mit einem Teilchen besetzt sein, d.h. in der Summe treten nur die beiden Summanden mit   n(p,σ)   gleich Null und Eins auf:

Bosonen:        ZG(p,σ)   =   1 / ( 1 − e{μ − ε(p,σ)} / (kT) )

Fermionen:     ZG(p,σ)   =   1   +   e{μ − ε(p,σ)} / (kT)

Für die mittlere Teilchenzahl hatten wir oben die Formel   N   =   − dJ/dμ   =   k T   d/dμ   ln ZG   =   k T   1/ZG   dZG/dμ   gefunden. Für unseren Fall ist   N   =   < n(p,σ) >   , d.h. die mittlere Besetzungszahl ist:

Bosonen:

  < n(p,σ) >   =   k T   1/ZG(p,σ)   dZG(p,σ)/dμ   =  
  =   k T   ( 1 − e{μ − ε(p,σ)} / (kT) )   (− 1) / ( 1 − e{μ − ε(p,σ)} / (kT) )2   (− e{μ − ε(p,σ)} / (kT))   / (k T)   =  
  =   e{μ − ε(p,σ)} / (kT)   /   ( 1 − e{μ − ε(p,σ)} / (kT) )   =  
  =   1   /   ( e{ε(p,σ) − μ} / (kT)   −   1 )

Die folgende Grafik zeigt diese Boseverteilung bei   μ = 0   (siehe Anmerkungen weiter unten) für Zimmertemperatur (300 K) und doppelter Zimmertemperatur (600 K) (auf der x-Achse ist die Teilchenenergie ε(p,σ) aufgetragen und auf der y-Achse die mittlere Besetzungszahl   < n(p,σ) >   ):

Fermionen:

  < n(p,σ) >   =   k T   1/ZG(p,σ)   dZG(p,σ)/dμ   =  
  =   k T   1 / ( 1   +   e{μ − ε(p,σ)} / (kT) )   e{μ − ε(p,σ)} / (kT)   / (k T)   =  
  =   e{μ − ε(p,σ)} / (kT)   /   ( 1   +   e{μ − ε(p,σ)} / (kT) )   =  
  =   1   /   ( e{ε(p,σ) − μ} / (kT)   +   1 )

Die folgende Grafik zeigt analog zu oben diese sogenannte Fermiverteilung bei   μ = 4 eV   (das sind typische Werte für Festkörper) für Zimmertemperatur (300 K) und für die Oberflächentemperatur der Sonne (6000 K):

Man sieht, dass bei Zimmertemperatur praktisch jedes Energieniveau unterhalb von 4 eV mit einem Teilchen besetzt ist, darüber aber die Nivaus nur sehr dünn besetzt sind. Bei 6000 K wird diese recht scharfe Stufenfunktion deutlich aufgeweicht, d.h. viele Teilchen springen von den Niveaus unter 4 eV in Niveaus über 4 eV.

Die mittleren Besetzungszahlen für Fermionen und Bosonen unterscheiden sich insgesamt nur durch ein kleines, aber entscheidendes Vorzeichen vor der Eins im Nenner. Den klassischen Grenzfall erreicht man, wenn der Exponent   {ε(p,σ) − μ} / (kT)   deutlich größer als Eins wird, so dass der Term   ± 1   im Nenner unwichtig gegenüber der Exponentialfunktion wird. Der Unterschied zwischen Fermionen und Bosonen verschwindet dann und wir erhalten:

klassischer Grenzfall:

  < n(p,σ) >   =   e{μ − ε(p,σ)} / (kT)       mit     {ε(p,σ) − μ} / (kT)   >>   1

Statt nur die Teilchen eines einzigen Einteilchenniveaus durch ein großkanonisches Ensemble zu beschreiben, kann man auch die Teilchen des gesamten Quantengases durch ein solches Ensemble beschreiben. Dabei stellt man sich das Quantengas wieder in Kontakt mit einem äußeren Wärme- und Teilchenreservoir vor, welches T und μ vorgibt. Das großkanonische Potential J des Gases ergibt sich dann einfach als Summe der großkanonischen Potentiale der Einteilchenniveaus, die wir bereits berechnet haben -- das großkanonische Potential ist ja bei gleichem T und μ eine extensive Größe analog zu E, N und S, wie die Formel   J = E − T S − μ N   zeigt. Man kann sich das aber auch explizit anhand der Wahrscheinlichkeiten überlegen, denn ein Mikrozustand des Gesamtsystems ist eindeutig durch die Besetzungszahlen der Einteilchenniveaus festgelegt -- es spielt in der Quantentheorie bei identischen Teilchen nämlich keine Rolle, welches Teilchen sich in welchem Einteilchenzustand befindet. Die Teilchen sind ununterscheidbar. Der Symmetrieaspekt wird dabei durch die Bedingung an die Besetzungszahlen vollständig berücksichtigt: Bei Fermionen ist jede Besetzungszahl maximal 1, bei Bosonen dagegen unbegrenzt. Die Wahrscheinlichkeit für einen Mikrozustand des Gesamtsystems ist nun gleich dem Produkt der Wahrscheinlichkeiten für die einzelnen Besetzungszahlen der Einteilchenniveaus, und der Logarithmus macht aus dem Produkt eine Summe. Dabei ist nützlich, dass es beim großkanonischen Ensemble keine Nebenbedingung für die Gesamtzahl der Teilchen gibt.

  J   =   ∑p, σ   J(p,σ)   =   − k T   ∑p, σ   ln ZG(p,σ)  

Aus diesem großkanonischen Potential kann man dann alles Weitere berechnen, wie wir bereits wissen. Da die Impulse fast kontinuierlich sind, kann man die Impulssumme durch ein Impulsintegral mit dem Volumen als Normierungsfaktor ersetzen -- bis auf eine Ausnahme: den Grundzustand mit p = 0 muss man beim Bosegas gesondert behandeln, da sich in ihm eine makroskopische Teilchenzahl ansammeln kann. Schauen wir uns diese sogenannte Bose-Einstein-Kondensation etwas genauer an:

Betrachtet man bei Bosonen die Summe aller mittleren Besetzungszahlen oberhalb des Grundzustandes, so stellt man fest, dass bei gegebener Temperatur T und Volumen V sich im Mittel nur eine bestimmte maximale Anzahl Teilchen in diesen Niveaus befinden kann. Es gibt eine maximale Teilchendichte für Teilchen mit Energie größer Null, die im Mittel nicht überschritten werden kann, wobei diese maximale Teilchendichte mit steigendem T anwächst. Steigt bei festem T die Dichte oder sinkt bei fester Dichte die Temperatur, so haben ab einer bestimmten Grenze nicht mehr alle Teilchen in den Energieniveaus oberhalb von Null Platz -- die mittleren Besetzungszahlen für diese Niveaus, so wie sie das thermische Gleichgewicht vorgibt, sind dann einfach zu gering, um alle Teilchen aufzunehmen. Eine makroskopische Teilchenzahl muss sich in diesem Fall in den Grundzustand mit Energie Null begeben, so dass ein makroskopisch besetzter kohärenter Quantenzustand entsteht -- das nennt man Bose-Einstein-Kondensation. Sie findet allerdings erst bei sehr niedrigen Temperaturen im Mikro-Kelvin-Bereich statt, ist also experimentell nicht einfach zu realisieren. Bei Temperatur Null sind schließlich alle Bosonen im Grundzustand. Die Teilchen im Grundzustand tragen dabei weder zur Gesamtenergie noch zum Druck bei -- das Kondensat hat keinen Druck und keine innere Energie. Ganz allgemein findet man beim Bosegas eine Druckverminderung im Vergleich zum klassischen Grenzfall -- die Symmetrie der Wellenfunktionen wirkt ähnlich wie eine anziehende Kraft zwischen den Teilchen.


Bose-Einstein-Kondensation:
Bei gegebener Teilchendichte N/V wächst unterhalb einer kritischen Temperatur Tc
die Zahl der Teilchen Ncond im Grundzustand plötzlich sprunghaft an,
bis bei T=0 schließlich alle Teilchen im Grundzustand sind.
Die genaue Formel lautet:   Ncond / N   =   1   −   (T / Tc)3/2
Siehe auch M.Stingl: Statistische Mechanik, Seiten 176 und 177, u.a. Formel (12.11) .


Bei Fermionen ist eine Ansammlung im Grundzustand aufgrund des Pauli-Prinzips nicht erlaubt, so dass Fermionen bei tiefen Temperaturen die Energieniveaus schrittweise von unten nach oben auffüllen. Man spricht auch von einem entarteten Fermigas. Da die Teilchen dabei auch einen immer größeren Impuls haben, übt ein Fermigas selbst bei Temperatur Null noch einen Druck aus. Ganz allgemein findet man beim Fermigas eine Druckerhöhung im Vergleich zum klassischen Grenzfall -- die Antisymmetrie der Wellenfunktionen wirkt ähnlich wie eine abstoßende Kraft zwischen den Teilchen. Dieser Druck hält beispielsweise einen weißen Zwerg oder einen Neutronenstern gegen die Kraft der Gravitation stabil -- zumindest bis zu einer bestimmten Grenze für die Sternmasse (siehe Zeitpfad, Kapitel 3.3   Sterne entstehen und vergehen ). Erhöht man die Temperatur, so findet man immer mehr Teilchen auch in höheren Energieniveaus, wie die obigen Formeln für   < n(p,σ) >   zeigen. Schließlich nimmt das Gas die Eigenschaften eines klassischen idealen Gases an.

Noch einige Worte zum chemischen Potential μ :

Allgemein hängt μ im Quantengas von T, V und N ab, wobei N die mittlere Gesamt-Teilchenzahl ist (genau genommen hängt μ von T und der Dichte N/V ab). Diesen Zusammenhang kann man beispielsweise aus der Bedingung   ∑p < n(p,σ) >   =   N   ableiten. Will man bei gegebenem T und V eine bestimmte mittlere Gesamtteilchenzahl N realisieren, so muss man μ entsprechend einstellen (so wie man analog T entsprechend einstellen muss, um ein bestimmtes mittleres E zu realisieren). An den mittleren Besetzungszahlen kann man aber immerhin ablesen, welche Werte für μ überhaupt möglich sind, denn alle   < n(p,σ) >   müssen positiv oder Null sein, und zwar für jedes Energieniveau   ε(p,σ)   , wobei diese Energien alle größer-gleich Null sind.

Bei Bosonen ist   < n(p,σ) >   =   1   /   ( e{ε(p,σ) − μ} / (kT)   −   1 )   , d.h. μ muss kleiner-gleich Null sein, so dass   ε(p,σ) − μ   immer größer-gleich Null ist -- der Nenner ist dann positiv.

Bei Fermionen ist dagegen   < n(p,σ) >   =   1   /   ( e{ε(p,σ) − μ} / (kT)   +   1 )   , d.h. der Nenner ist immer positiv und es gibt keine Einschränkungen für μ .

Oben hatten wir gesehen, dass   {ε(p,σ) − μ} / (kT)   >>   1   zum klassischen Grenzfall führt. Diese Bedingung können wir auch als   − μ   >>   kT − ε(p,σ)   schreiben. Da diese Bedingung für alle ε(p,σ) gelten muss, auch für   ε(p,σ) = 0   , muss das chemische Potential im klassischen Grenzfall betragsmäßig große negative Werte im Vergleich zu kT haben:   − μ   >>   kT   .

Man kann sich deshalb vorstellen, dass man immer weiter weg vom klassischen Grenzfall kommt, je größere Werte μ hat. Bei μ = 0 oder gar positiven μ ist man garantiert nicht mehr im klassischen Grenzfall und kann nicht mehr davon ausgehen, dass die mittleren Besetzungszahlen klein gegen Eins sind.

Bei Bosonen ist der größte erlaubte Wert μ = 0 . Je näher μ an Null heranrückt, umso größer wird die mittlere Besetzungszahl für den Grundzustand mit   ε(p,σ) = 0   , bis sie sogar divergiert. Die Grafik zur Bose-Verteilung oben zeigt diese Divergenz sehr schön. Immer mehr Teilchen befinden sich dann im Grundzustand -- wir kennen das schon als Bose-Einstein-Kondensation. Der Wert μ = 0 wird allerdings nur im Grenzfall mit unendlich großem Volumen erreicht, denn nur dann sind auch unendlich viele Teilchen vorhanden, so dass die Besetzungszahl des Grundzustandes divergieren kann. Bei endlichem Volumen bleibt μ immer etwas kleiner als Null und justiert sich gerade so, dass der Grundzustand entsprechend gefüllt ist, bis sich bei T = 0 sogar alle N Teilchen in ihm befinden.

Bei masselosen Bosonen wie den Photonen ist die Lage etwas anders, denn Photonen mit Energie Null gibt es nicht -- es gibt also keine Bose-Einstein-Kondensation bei Photonen. Wir werden uns gleich überlegen, dass für Photonen generell μ = 0 gilt -- es ist also

  < n(p,σ) >   =   1   /   ( eε(p,σ) / (kT)   −   1 )  

mit der Helizität   σ = ± 1   und   ε(p,σ) > 0   . Das bedeutet, dass die mittlere Photonenzahl nicht über ein chemisches Potential gesteuert werden kann, sondern sich alleine aufgrund des thermischen Gleichgewichts ergibt. Die Anzahl der Photonen in einem Hohlraum ist nicht festgelegt -- es können ständig neue Photonen entstehen oder wieder verschwinden, wozu allerdings eine Wechselwirkung mit anderer Materie notwendig ist, beispielsweise mit den Wänden des Behälters, denn Photonen wechselwirken untereinander praktisch gar nicht.
Mathematisch kann man μ = 0 für Photonen beispielsweise an der obigen Herleitung des großkanonischen Ensembles ablesen: Die Wahrscheinlichkeit, einen Mikrozustand mit Energie En und Photonenzahl Nn im System A vorzufinden, ist bei Photonen gleich   Pn   =   Ω'(Eg − En)   /   Ωg(Eg)   also analog zum kanonischen Ensemble, denn man braucht keinen Photonenaustausch zwischen dem System A und dem Wärmebad. Entsprechend fällt die Ableitung nach der Teilchenzahl und damit μ weg. Dennoch werden die Mikrozustände von A auch durch die Teilchenzahl gekennzeichnet, anders als beim kanonischen Ensemble. Das wirkt sich in den Summen über die Mikrozustände wie beim großkanonischen Ensemble aus.
Dass bei Photonen μ = 0 ist, kann man auch direkt an der Entropie ablesen: S(E,V,N) strebt bei vorgegebenem E und V ein Maximum an, indem sich die mittlere Photonenzahl N entsprechend einstellt. Im Entropie-Maximum gilt dann   dS/dN = − μ/T = 0   , d.h. μ muss Null sein.
Auch die Energie zeigt, dass bei Photonen μ = 0 ist: Im thermischen Gleichgewicht (d.h. S ist konstant im Maximum) gilt bei konstantem V die Gleichung   dE = μ dN   . Wenn man das System nun isoliert, also E konstant hält, kann ein Photonenzahlzuwachs dN keine Energieerhöhung dE erzeugen, sondern die Energie E verteilt sich nur auf mehr Photonen. Es ist also dE = 0 , so dass μ = 0 sein muss. Zur Erinnerung: μ ist der Energiezuwachs dE, den ein neues Teilchen bewirkt (dazu einfach dN = 1 setzen).

Bei Fermionen kann dagegen μ im Prinzip beliebig positiv werden. Je größer μ im Vergleich zu kT wird, umso stufenförmiger wird die Fermiverteilung, wie die Grafik oben zeigt. Dabei gibt μ die Position der Stufe an, d.h. bei kleinen T sind die Einteilchenniveaus ungefähr bis zur Energie   ε(p,σ) = μ   besetzt und ein neues Teilchen muss mit der Energie μ an der Stufenkante einsteigen (μ war ja der Energiezuwachs pro neuem Teilchen). Damit ist auch klar: Je größer μ bei festem V wird, umso mehr Teilchen braucht man, um diese Niveaus zu besetzen, d.h. umso größer ist die mittlere Gesamtteilchenzahl N und damit die mittlere Dichte N/V. Bei großen Dichten hat man also auch ein großes μ und damit (bei nicht zu großem T) eine ziemlich stufenförmige Fermiverteilung, also ein weitgehend entartetes Fermigas. Das ist beispielsweise für Elektronen in einem Festkörper bei Zimmertemperatur der Fall.
Bei großen Temperaturen wird die Stufenform der Fermiverteilung immer mehr aufgeweicht und μ wird immer kleiner. Sobald kT den Wert überschreitet, den μ bei T=0 hatte, wird μ schließlich sogar negativ. Das muss auch so sein, denn im klassischen Grenzfall muss μ ja betragsmäßig große negative Werte annehmen (siehe oben).

Natürlich kann man hier noch viel mehr zu idealen Quantengasen sagen. Es würde jedoch zu weit führen, hier weiter ins Detail zu gehen. Mehr dazu findet man in jedem guten Buch der statistischen Physik.

Damit sind wir bei unserem Crash-Kurs durch die statistische Physik am Ende angekommen. Ich hoffe, die Fülle des dargestellten Materials war nicht zu umfangreich und es ist zumindest deutlich geworden, was Entropie eigentlich ist und wie sich mit ihr die thermodynamischen Eigenschaften makroskopischer Körper berechnen lassen. Im nächsten Kapitel werden wir die Entropie noch einmal von einer etwas anderen Seite beleuchten, die ihre wahre Natur noch deutlicher macht: Wir werden sehen, was Entropie mit Information zu tun hat.



Anhang 1: Die quantenmechanische Dichtematrix:

Wir haben oben ein makroskopisches quantenmechanisches System immer durch ein Gemisch von Zuständen   |nñ   beschrieben, wobei Pn die klassische Wahrscheinlichkeit bezeichnet, mit der ein Zustand   |nñ   zum Gesamt-Messergebnis beiträgt. So etwas kann man formal durch eine Dichtematrix beschreiben, und zwar so:

Nehmen wir an, wir wollten den Erwartungswert der Observablen A bei unserem System bestimmen, wobei A wie immer einem hermiteschen Operator mit reellen Eigenwerten   aα   und zugehörigen Eigenzuständen   |αñ   entspricht. Die Eigenwerte   aα   sind dabei die Messwerte, die bei der Observablen A möglich sind. Wenn unser System im Mikrozustand   |nñ   ist, so ist die Wahrscheinlichkeit für den Messwert   aα   gleich   |áα|nñ|2   . Es ist aber nur mit der Wahrscheinlichkeit Pn im Zustand   |nñ   , d.h. die Wahrscheinlichkeit, dass das System in diesem Zustand ist und dass der Messwert   aα   gemessen wird, ist gleich dem Produkt der Wahrscheinlichkeiten, also gleich   Pn   |áα|nñ|2   . Die Summe dieser Produkte über alle Zustände gibt dann die Wahrscheinlichkeit an, dass der Messwert   aα   gemessen wird, wobei uns egal ist, in welchem Zustand sich das System befindet. Die Wahrscheinlichkeit Pα für den Messwert   aα   ist also gleich

  Pα   =   ∑n   Pn   |áα|nñ|2   =   ∑n   áα|nñ Pn án|αñ   =:   áα| ρ |αñ

Im letzten Schritt sehen wir, wie die Dichtematrix ρ entsteht (auch Dichteoperator oder statistischer Operator genannt, siehe Kapitel 4.2 und Kapitel 4.5 ):

  ρ   :=   ∑n   |nñ Pn án|

Die Dichtematrix dient lediglich dazu, die klassischen Mittelungen in kompakter Form zu schreiben. Mehr steckt nicht dahinter! Man kann auch ganz ohne Dichtematrix arbeiten und die klassische Mittelung über die Wahrscheinlichkeiten Pn einfach immer ausschreiben. Das haben wir oben auch getan, denn die Formeln mit der Dichtematrix sind zwar schön kurz, aber man muss sie oft erst entschlüssen, um zu sehen, was dahinter steckt.

Den Erwartungswert   áAñ   für den Messwert von A bei unserem System kann man nun mit Hilfe der Dichtematrix kompakt so schreiben:

  áAñ   =   ∑α   Pα aα   =   ∑α   áα| ρ |αñ aα   =   ∑α   áα| ρ A |αñ   =:   Spur (ρ A)

Wenn man die Wahrscheinlichkeiten Pn für ein statistisches Ensemble kennt, so kann man die Dichtematrix für dieses Ensemble sofort hinschreiben. Die Dichtematrix ρ für das mikrokanonische Ensemble (also feste Teilchenzahl N, festes Volumen V und Energie im Intervall zwischen E und E + δE) ist beispielsweise gleich

  ρ   =   ∑'n   |nñ án|   / (ω(E) δE)  

mit der Zustandsdichte ω(E) , wobei der Strich über der Summe andeutet, dass nur über Zustände mit En zwischen E und E + δE summiert werden darf. Manchmal findet man hierfür auch eine verkürzte Schreibweise mit einer Delta-Funktion in der physikalischen Literatur.

Die Formel   ρ   :=   ∑n   |nñ Pn án|   ist nicht die allgemeinste Form der Dichtematrix, denn sie erfasst insbesondere nicht den Fall, bei dem sich das System in einem reinen Zustand   |ψñ   befindet. In diesem Fall ist nämlich

  Pα   =   |áα|ψñ|2   =   áα|ψñ áψ|αñ   =:   áα| ρ |αñ

so dass die Dichtematrix durch   ρ = |ψñ áψ|   gegeben ist. Ganz allgemein können wir die Dichtematrix immer in der Form

  ρ   =   ∑n m   |nñ án|ρ|mñ ám|   =:   ∑n m   |nñ ρnm ám|

schreiben, wobei wir zweimal die vollständige Basis   |nñ   eingeschoben haben. Ist das System in einem reinen Zustand |ψñ , so ist   ρnm   =   án|ψñ áψ|mñ   , d.h. ρnm ist nicht diagonal und zerfällt in zwei Faktoren. Liegt dagegen ein statistisches Gemisch der Basiszustände vor, so reproduziert   ρnm   =   Pn δnm   unsere Formel von oben, d.h. ρnm ist diagonal, wobei die Diagonalelemente die Wahrscheinlichkeiten der Zustände im statistischen Gemisch angeben. Zwischen diesen beiden Extremfällen sind natürlich auch andere Zwischenformen für ρnm möglich. Dabei kann man sich merken: Je diagonaler ρnm ist, umso mehr liegt ein statistisches Gemisch vor, d.h. umso weniger befindet sich das System in einem reinen Quantenzustand. Dabei muss die Orthonormalbasis   |nñ   natürlich so gewählt sein, dass ρnm so diagonal wie möglich ist.


Anhang 2 (Dekohärenz): Wie entsteht die klassische Mittelung (diagonale Dichtematrix) für ein quantenmechanisches System?

Es erscheint oft ungewohnt, dass man ein quantenmechanisches System durch eine Dichtematrix beschreiben soll -- ist man doch gewohnt, mit reinen Quantenzuständen zu arbeiten. Deshalb ist es sehr nützlich, sich im Detail einmal anzusehen, wie eine klassische Mittelung für ein quantenmechanisches System entsteht, d.h. wie aus einem reinen Zustand eine Dichtematrix wird. Die folgende Darstellung orientiert sich an Franz Embacher: Grundidee der Dekohärenz und an Franz Embacher: Zur Bedeutung der Zahl der Umgebungsfreiheitsgrade.

Entscheidend ist, dass unser System A nicht alleine auf der Welt ist, sondern unvermeidlich in Kontakt mit seiner Umgebung steht, die wir wieder mit A' bezeichnen (analog zum Wärmebad oben). Das Gesamtsystem Ag aus A und Umgebung A' wollen wir durch einen reinen Zustand   |ψg(t)ñ   beschreiben, wobei t die Zeitabhängigkeit dieses Gesamtzustandes darstellt. Warum ein reiner Zustand? Nun, wir wollen ja sehen, wie eine Dichtematrix entsteht, also macht es Sinn, für diesen Zweck von einem reinen Zustand auszugehen.

Nehmen wir weiter an, dass sich zur Anfangszeit t = 0 auch unser System A und seine Umgebung A' jeweils einzeln in einem reinen Zustand befinden. Dann ist der Gesamtzustand das Tensorprodukt dieser beiden Zustände:   |ψg(0)ñ   =   |ψ(0)ñ   |ψ'(0)ñ   (wer möchte, kann sich hier auch ein Produkt von Wellenfunktionen vorstellen). Zur Zeit t = 0 sind daher System A und Umgebung A' unabhängig voneinander. Für spätere Zeiten gilt diese Produktdarstellung nicht mehr, denn es soll eine (schwache) Wechselwirkung zwischen A und seiner Umgebung A' geben. Im Gesamtzustand   |ψg(t)ñ   sind dann später die Anteile von A und Umgebung A' quantenmechanisch miteinander verschränkt, also nicht mehr unabhängig voneinander.

Wir interessieren uns nun ausschließlich für die Eigenschaften von System A, nicht aber für seine Umgebung A'. Eine entsprechende Observable (die wir analog zu oben ebenfalls A nennen -- sorry für die Doppelverwendung des Buchstabens A für das System und die Observable) wirkt dann als Operator nur auf den Teil der Quantenzustände, die zu System A gehören. Die Wahrscheinlichkeit Pα für einen Messwert α der Observable darf also nicht von der Umgebung abhängen, egal wie sie aussieht.

Mathematisch können wir das so ausdrücken: Eine Orthonormalbasis des Gesamtsystems Ag ist durch Produktzustände   |n n'ñ   =   |nñ |n'ñ   gegeben, wobei die Zustände   |nñ   eine Orthonormalbasis für das System A und die Zustände   |n'ñ   eine Basis für die Umgebung A' bilden. Dabei gilt   án n' | m m'ñ   =   δn m δn' m'   . Man kann das Zahlenpaar   (n, n')   gleichsam als Doppelindex ansehen, der die Basiszustände des Gesamtsystems durchnummeriert. Die Matrixelemente der Observable A sehen dann so aus:   án n' | A | m m'ñ   =   án | A | mñ δn' m'   oder kurz   An n', m m'   =   Anm δn'm'   . Die Matrixelemente sind also diagonal im zweiten Indexteil und ansonsten unabhängig von ihm. Wenn wir für   |nñ   als Basis die Eigenvektoren |αñ (zu den Eigenwerten aα) von A wählen, dann ist   áα n' | A | β m'ñ   =   aα   δαβ δn'm'  

Rechnen wir den Erwartungswert für A im Gesamtsystem zur Zeit t aus:

  áψg(t) | A | ψg(t)ñ   =  
  =   ∑α β n' m'   áψg(t) | α n'ñ   áα n' | A | β m'ñ   áβ m' | ψg(t)ñ   =  
  =   ∑α β n' m'   áψg(t) | α n'ñ   aα   δαβ δn'm'   áβ m' | ψg(t)ñ   =  
  =   ∑α n'   áψg(t) | α n'ñ   aα   áα n' | ψg(t)ñ   =  
  =   ∑α     aα   ( ∑n'   |áα n' | ψg(t)ñ|2 )

Da   áψg(t) | A | ψg(t)ñ   der Erwartungswert für die Messwerte der Observablen A ist, gilt zugleich   áψg(t) | A | ψg(t)ñ   =   ∑α     aα   Pα(t)   . Vergleichen wir dies mit unserem Rechenergebnis, so lesen wir ab: Die Wahrscheinlichkeit Pα(t) , im Gesamtsystem für die Observable A zur Zeit t den Messwert aα zu finden, ist gegeben durch

  Pα(t)   =   ∑n'   |áα n' | ψg(t)ñ|2

Es wird hierbei über alle Basiszustände   |n'ñ   der Umgebung summiert. Das ist auch anschaulich klar, denn   |áα n' | ψg(t)ñ|2   ist ja die Wahrscheinlichkeit dafür, im Gesamtsystem zur Zeit t für das Teilsystem A den Messwert aα und zugleich in der Umgebung den Basiszustand mit Quantenzahl n' zu finden. Wenn wir uns nicht für n' interessieren, dann muss man die Wahrscheinlichkeiten für alle n' summieren, denn n' darf irgendeinen Wert annehmen.

Versuchen wir, eine Dichtematrix für das System A aufzustellen, die das obige   Pα(t)   reproduziert. Diese Dichtematrix soll ein Operator sein, der nur im Zustandsraum von System A wirkt, analog zu unserer Observablen. Zum Vergleich: Die Dichtematrix ρg im Gesamtsystem Ag hat die Form   ρg, nn'mm'(t)   =   á n n' |ψg(t)ñ   á ψg(t) | m m' ñ   , denn das Gesamtsystem befindet sich ja im reinen Zustand   |ψg(t)ñ   . Da wir uns nicht für die Umgebung A' interessieren, wollen wir es mit der Idee versuchen, dass wir einfach über n' summieren müssen, d.h. wir bilden die Spur über die Zustände der Umgebung (wir verifizieren gleich, dass wir richtig geraten haben):

Dichtematrix für ein System A im Kontakt mit seiner Umgebung A':

  ρnm(t)   :=   ∑n'   á n n' |ψg(t)ñ   á ψg(t) | m n' ñ

Dabei sind   | n n' ñ   Basiszustände des Gesamtsystems (System A plus Umgebung A' ), wobei sich die gestichenen Indices auf die Umgebung beziehen. Es wird also die Spur über die Umgebungs-Indices gebildet. Der Zustand   |ψg(t)ñ   beschreibt den Zustand des Gesamtsystems. Alle Observablen, die sich nur auf das System A beziehen, lassen sich mit der obigen Dichtematrix berechnen, die das System A quantenmechanisch beschreibt.

Diese Dichtematrix wirkt nur auf den Zuständen des Systems A. Überprüfen wir, dass sie die obige Wahrscheinlichkeit   Pα(t)   reproduziert:

  Pα(t)   =   áα| ρ |αñ   =   ∑nm áα|nñ   ρnm(t)   ám|αñ   =  
  =   ∑nm áα|nñ   ∑n'   á n n' |ψg(t)ñ   á ψg(t) | m n' ñ   ám|αñ   =  
  =   ∑n'   á α n' |ψg(t)ñ   á ψg(t) | α n' ñ

Halten wir fest: Wenn das Gesamtsystem aus System A und Umgebung A' sich zur Zeit t in einem reinen Zustand   |ψg(t)ñ   befindet, dann wird das System A durch obige Dichtematrix   ρnm(t)   beschrieben. Dabei ist noch nicht festgelegt, ob diese Dichtematrix für System A eher einem reinen Zustand oder eher einem statistischen Gemisch entspricht. Wenn beispielsweise zur Anfangszeit t = 0 sich System A und Umgebung A' beide einzeln in einem reinen Zustand befinden, dann ist ja der Gesamtzustand gleich   |ψg(0)ñ   =   |ψ(0)ñ   |ψ'(0)ñ   und die obige Dichtematrix hat die Form

  ρnm(0)   =   ∑n'   á n n' |ψg(0)ñ   á ψg(0) | m n' ñ   =  
  =   ∑n'   án|ψ(0)ñ án'|ψ'(0)ñ   áψ(0)|mñ áψ'(0)|n'ñ   =  
  =   án|ψ(0)ñ áψ(0)|mñ   ∑n'   áψ'(0)|n'ñ án'|ψ'(0)ñ   =  
  =   án|ψ(0)ñ áψ(0)|mñ

so wie wir das bei einer Dichtematrix auch erwarten, die zu einem reinen Zustand gehört.

Um die Dichtematrix genau berechnen zu können, müsste man im Prinzip den Gesamtzustand   |ψg(t)ñ   für jede Zeit t kennen. So genau wollen wir die Dichtematrix aber gar nicht ermitteln, denn wir interessieren uns eher für zeitliche Mittelwerte, wobei die Beobachtungszeit sehr viel länger ist als die typischen mikroskopischen Veränderungszeiten. Das gilt besonders für das thermische Gleichgewicht, bei dem wir uns für kurzzeitige Fluktuationen überhaupt nicht mehr interessieren, sondern die Dichtematrix als zeitlich konstant annehmen.

Machen wir es konkret und verwenden wir für   |nñ   und   |n'ñ   die Energie-Eigenzustände von System A und Umgebung A' mit den Energien En und E'n' . Für das Gesamtsystem Ag haben wir dann die Basis   |n n'ñ   , die aber streng genommen keine Eigenvektoren des Gesamt-Hamiltonoperators   Hg = H + H' + Hint   sind, denn der Wechselwirkungs-Hamiltonoperator Hint zwischen System A und Umgebung A' muss nicht diagonal in dieser Basis sein. Da diese Wechselwirkung aber hier als klein angenommen wird, sind   |n n'ñ   fast Eigenvektoren von   H   (man kann dann beispielsweise Störungstheorie anwenden).

Geben wir die Energie des Gesamtsystems (bis auf eine kleine Energieunschärfe) vor. Dann sind alle Energiezustände   |n n'ñ   erreichbar, die bei dieser Energie liegen. Es kann Energie zwischen dem System A und der Umgebung A' ausgetauscht werden. Letztlich wird der Gesamtzustand   |ψg(t)ñ   zu jedem Zeitpunkt t irgendeinen ziemlich zufälligen Überlapp mit jedem der energetisch erreichbaren Zustände   |n n'ñ   haben, zumindest bei einem makroskopischen Gesamtsystem mit sehr vielen Mikrozuständen. Die Amplitude   á n n' |ψg(t)ñ   erscheint also wie gwürfelt. Ob das wirklich so ist, hängt von den Details der Wechselwirkung   Hint   und von der gewählten Basis   |n n'ñ   ab -- man spricht auch von der bevorzugten Basis. Wir können uns gut vorstellen, dass unserer Energiebasis eine solche bevorzugte Basis ist, denn in realen Systemen im thermischen Gleichgewicht kommt es wirklich zu gleichsam zufälligen Energiefluktuationen zwischen System und Umgebung.

Wenn man die Amplitude   á n n' |ψg(t)ñ   würfelt, so gibt es zwei Aspekte: ihren Betrag und ihre Phase, denn die Amplitude ist ja eine komplexe Zahl (bildlich gesprochen ein Pfeil in der zweidimensionalen Ebene). Bei der Phase ist es einfach: sie wird irgendeinen zufälligen Wert zwischen 0 und 2π haben. Wie sieht es aber mit dem Betrag aus? Die Summe der Betragsquadrate dieser Amplituden über alle n und n' muss Eins sein, denn wir haben es mit einem auf Eins normierten Zustand und mit einer Orthonormalbasis zu tun. Nehmen wir an, es gibt Ω verschiedene n-Werte und Ω' verschiedene n'-Werte. Ω ist also die Dimension des Zustandsraums für das System A und Ω' die entsprechende Dimension für die Umgebung A'. Da zumindest die Umgebung makroskopisch sein soll, ist Ω' eine unvorstellbar große Zahl, wie wir von oben wissen, beispielsweise 10(1020) . Da es Ω mal Ω' Amplituden gibt, deren Betragsquadrate zusammen Eins ergeben müssen, wird jede einzelne Amplitude im Mittel den Betrag   1 / √(ΩΩ')   haben, außer in dem sehr seltenen Fall, dass der Gesamtzustand zufällig einen großen Überlapp mit nur einem Mikrozustand hat (da Ω' riesig ist, sind die Energie-Mikrozustände quasikontinuierlich, so dass dieser Fall äußerst unwahrscheinlich ist).

Was bedeutet das für die Dichtematrix   ρnm(t)   =   ∑n'   á n n' |ψg(t)ñ   á ψg(t) | m n' ñ   ? Für die Diagonalelemente   ρnn(t)   spielt die Phase der Amplituden keine Rolle, d.h. ihre Größenordung kann folgendermaßen grob abgeschätzt werden:

  ρnn(t)   =   ∑n'   á n n' |ψg(t)ñ   á ψg(t) | n n' ñ   =   ∑n'   |á n n' |ψg(t)ñ|2   =   Ω'   1/(ΩΩ')   =   1/Ω

Bei den Nichtdiagonal-Elementen sind die Phasen dagegen wichtig und wir haben näherungsweise für n ungleich m mit der Schreibweise   á n n' |ψg(t)ñ   =:   |á n n' |ψg(t)ñ|   ei θnn'   die folgende Formel:

  ρnm(t)   =   ∑n'   á n n' |ψg(t)ñ   á ψg(t) | m n' ñ   =   ∑n'   |á n n' |ψg(t)ñ|   |á m n' |ψg(t)ñ|   ei (θnn'   −   θmn' )

Diese Summe macht ungefähr folgendes: Sie addiert sehr viele komplexe Zahlen mit Betrag von etwa 1/(ΩΩ') und zufälliger Phase. Man kann sich vorstellen, dass man sehr viele sehr kleine, zufällig ausgerichtete Pfeile aneinanderfügt und sich damit zufällig durch die komplexe Ebene bewegt, so wie bei einer Brownschen Bewegung (random walk). Aus der Statistik weiß man: Macht man N-mal einen Schritt der Länge L in eine zufällige Richtung, so entfernt man sich im Mittel um   L √N   von seinem Ausgangspunkt. In unserem Fall machen wir Ω' Schritte der mittleren Länge 1/(ΩΩ') , entfernen uns also typischerweise um   1/(ΩΩ') √Ω'   vom Nullpunkt. Die komplexe Zahl, die dabei herauskommt, wird also einen mittleren Betrag von   1/(ΩΩ') √Ω'   =   1/Ω 1/√Ω'   haben sowie eine zufällige Phase.

Damit können wir die beiden Fälle zusammenfassen: Bei zufälligen Phasen der Amplituden und einer statistischen Verteilung der Amplitudenbeträge erwarten wir für die Elemente der Dichtematrix von System A ungefähr die folgende Größenordnung:

  ρnm(t)   =   1/Ω   ( δnm   +   Onm(1/√Ω') )

Dabei ist Onm(1/√Ω') eine komplexe Zahl mit irgendeiner zufälligen Phase und einem mittleren Betrag von   1/√Ω'   . Da die Umgebung unvorstellbar viele Mikrozustände n' hat, ist Ω' extrem groß und es bleiben nur noch die Diagonalelemente übrig. Das ist dann die Dichtematrix eines statistischen Ensembles ohne jede Interferenz zwischen den Mikrozuständen. Da Ω gerade die Zahl der erreichbaren Mikrozustände im System A ist, ergibt sich bei unserer Näherung sogar das mikrokanonische Ensemble. Entscheiden ist also, dass das System A in Kontakt mit einer makroskopischen Umgebung A' mit sehr vielen Mikrozuständen ist, und dass die Wechselwirkung mit der Umgebung die Phasenbeziehungen im System A durcheinanderwirbelt.

Die obige Argumentation kann nicht für jede Orthonormalbasis richtig sein, denn man kann ja jederzeit einen Basiswechsel durchführen und damit die diagonale Dichtematrix in eine nichtdiagonale Dichtematrix umrechnen. Daher hatten wir oben von einer bevorzugten Basis gesprochen. Will man herausfinden, welches die bevorzugte Basis ist, so muss man in eine genauere Analyse einsteigen, was aber den Rahmen hier sprengen würde, denn die Details der Wechselwirkung kommen hier ins Spiel.

Um zu sehen, was bei der obigen Argumentation schief gehen kann, schauen wir uns noch einmal den Zeitpunkt t = 0 an, bei dem unser System A und seine Umgebung A' noch jeweils unabhängig voneinander sind und einzeln in einem reinen Zustand sind:   |ψg(0)ñ   =   |ψ(0)ñ   |ψ'(0)ñ   . Dann ist

  á n n' |ψg(0)ñ   =   |á n n' |ψg(0)ñ|   ei θnn'     =   á n |ψ(0)ñ   á n' |ψ'(0)ñ   =   |á n |ψ(0)ñ|   ei θn   |á n' |ψ'(0)ñ|   ei θn'  

d.h. die Phase zerfällt in eine Summe:   θnn'   =   θn + θn'   . Die Phase in   ρnm(0)   ist dann gegeben durch (siehe Formel oben)   θnn' − θmn'   =   θn + θn' − θm − θn'   =   θn − θm   . Hier sehen wir es: Die Phasendifferenz hängt nicht mehr von n' ab, wird also von der Umgebung nicht beeinflusst. Daher laufen wir bei der Summe über n' auch nicht mehr in zufällige Richtungen, sondern immer in dieselbe Richtung, so dass die Nicht-Diagonalelemente der Dichtematrix von derselben Größenordnung sind wie die Diagonalelemente. Halten wir fest:

Bedingung für Dekohärenz:

Die Dichtematrix von System A wird dann diagonal, wenn die Phasendifferenz   θnn'   −   θmn'   zweier Amplituden

  á n n' |ψg(t)ñ   =:   |á n n' |ψg(t)ñ|   ei θnn'       und
  á m n' |ψg(t)ñ   =:   |á m n' |ψg(t)ñ|   ei θmn'  

in zufälliger Weise vom Umgebungsindex n' abhängt.

Ein anschauliches Bild dazu:

Die Amplituden   á n n' |ψg(t)ñ   können wir uns als Pfeile oder Uhrzeiger in der Ebene vorstellen, wobei die Phase   θnn'   der Drehwinkel des Pfeils ist. Die Gesamtheit der Pfeile für alle Werte von n und n' definiert den Mikrozustand des Gesamtsystems. Diese Pfeile können wir in eine Tabelle eintragen, wobei wir die Zeilen mit n und die Spalten mit dem Umgebungsindex n' durchnummerieren. Wir haben also sehr viele Spalten, denn die Umgebung ist makroskopisch.

Zur Zeit   t = 0   ist   θnn'   =   θn + θn'   , d.h. wenn wir in der Tabelle eine Spalte nach rechts gehen, so drehen sich alle Pfeile um denselben Winkel weiter (und strecken sich um denselben Faktor). Die Drehung und Streckung der Pfeile erfolgt in den verschiedenen Zeilen synchron im Gleichschritt, wenn wir in der Tabelle nach rechts laufen. Wenn wir die Drehrichtung zweier Pfeile in derselben Spalte vergleichen, so ändert sich dieser Dreh-Unterschied nicht, wenn wir zu einer anderen Spalte übergehen. Es herrscht Kohärenz zwischen den einzelnen Zeilen und damit zwischen den Zuständen von System A.

Nur ein Gesamtzustand, bei dem System A und Umgebung A' unabhängig voneinander sind, verhält sich so speziell. Ein allgemeiner Gesamtzustand wird diese spezielle Eigenschaft nicht aufweisen. Im Lauf der Zeit bewirkt die Wechselwirkung zwischen System A und Umgebung A', dass die Pfeile der Tabelle aus dem Takt geraten. Wenn wir jetzt nach rechts laufen, so werden sich die Pfeile verschiedener Zeilen nicht mehr in gleicher Weise drehen. Wenn wir jetzt die Drehrichtung zweier Pfeile in derselben Spalte vergleichen, so ändert sich dieser Dreh-Unterschied, wenn wir zu einer anderen Spalte übergehen. Es herrscht Dekohärenz zwischen den einzelnen Zeilen.



In diesem Beispiel besteht das System A aus zwei Zuständen (n = 1 und n = 2), während die Umgebung sehr viele Zustände besitzt (n' = 1, 2, 3, ... ). Zu Beginn ( t = 0 ) ist System A in einer speziellen kohärenten Überlagerung dieser beiden Zustände, denn die Amplituden   á n n' |ψg(t)ñ   (blaue Pfeile) in jeder Spalte sind in diesem Beispiel immer entgegengesetzt gleich, unabhängig von n'. Später jedoch verliert sich diese Köhärenz und die Amplituden für n = 1 und 2 haben keine feste Phasenbeziehung mehr zueinander, da diese nun auch von n' abhängt.


Die Zeit, bis die Pfeile der verschiedenen Spalten aus dem Takt geraten sind, nennt man Dekohärenzzeit. Eine Bowlingkugel hat an der Luft bei Zimmertemperatur eine Deköhärenzzeit von etwa 10− 26 Sekunden. Ein Lichtstrahl kann in dieser Zeit noch nicht einmal einen Atomkern durchqueren, d.h. die Pfeile geraten praktisch sofort aus dem Takt. Sogar im leeren Weltraum weit weg zwischen allen Galaxien wäre die Deköhärenzzeit der Bowlingkugel aufgrund der kosmischen Hintergrundstrahlung immer noch bei 10− 18 Sekunden, entsprechend einem Lichtweg von einem Atomdurchmesser. Ein Staubteilchen von 10 Mikrometern hält dagegen im leeren Weltraum immerhin schon 0,1 Mikrosekunden kohärent durch. Man sieht: Makroskopische Körper sind praktisch immer dekohärent, also nicht durch einen reinen Quantenzustand zu beschreiben. Schrödingers Katze ist entweder tot oder lebendig (siehe Das Unteilbare, Kapitel 3.3 ). Ein freies Elektron bleibt bei Zimmertemperatur im Ultrahochvakuum dagegen immerhin etwa 10 Sekunden kohärent. Nur deshalb sind Quanten-Interferenz-Experimente mit Elektronen überhaupt möglich -- bei Bowlingkugeln wird man dagegen vergeblich nach Interferenzen suchen. Zu den Dekohärenzzeiten siehe Wikipedia: Dekohärenz.

Um das Dichtematrix-Element   ρnm(t)   auszurechnen, müssen wir uns die Zeilen n und m herausgreifen und in jeder Spalte die beiden entsprechenden Pfeile zu einem neuen Pfeil zusammenfassen, indem wir die Pfeillängen multiplizieren und den Dreh-Unterschied der beiden Pfeile als Drehausrichtung des neuen Pfeils verwenden. Diese neuen Pfeile müssen wir nun alle aneinanderhängen, was bei zufälligen Dreh-Unterschieden den Zufallsweg in der komplexen Ebene ergibt und zu einem recht kleinen Gesamtpfeil führt. Für n gleich m gibt es dagegen keine Drehunterschiede und es kommt ein vergleichsweise viel größerer Gesamtpfeil ohne Drehwinkel zustande. Die Länge dieses Pfeils ist die Wahrscheinlichkeit, im System A den Zustand n vorzufinden.


Literatur:


zurück zum Inhaltsverzeichnis

last modified on 02 January 2009