Kapitel 5
Ungelöste Rätsel

6   Mathematische Unendlichkeiten


kurze Wiederholung zum Einstieg:

Es gibt heute ein allgemein akzeptiertes axiomatisches Fundament der Mathematik: die Mengenlehre, so wie sie in den Zermelo-Fränkel-Axiomen festgelegt ist (oft abgekürzt als ZF ). Meist nimmt man noch das Auswahlaxiom hinzu und kürzt dieses Axiomensystem mit ZFC ab, wobei das C für choice steht. Die Details dazu hatten wir in den Kapiteln 4.1 bis 4.4 kennengelernt (speziell in Kapitel 4.2 Die Axiome der Mengenlehre ).

Die Mengenlehre ist extra dazu gebaut, um mit Unendlichkeiten umzugehen. Besonders gut schafft sie das bei der Unendlichkeit der natürlichen Zahlen. Sie kann die Gesamtheit der natürlichen Zahlen viel besser erfassen als die Peano-Arithmetik, die sich nur zählend von Zahl zu Zahl vorwärtshangeln kann. Das liegt daran, dass man in der Mengenlehre über die Menge der natürlichen Zahlen insgesamt sprechen kann, und darüber hinaus sogar über alle Teilmengen der natürlichen Zahlen, also über alle ihre Eigenschaften. Das ist speziell bei der Induktion wichtig und führt dazu, dass alle Modelle der natürlichen Zahlen in der Mengenlehre gleichwertig zueinander sind (siehe Kapitel 4.4 ). So wundert es nicht, dass man im Rahmen der Mengenlehre Dinge über die natürlichen Zahlen beweisen kann, die für die Peano-Arithmetik unentscheidbar sind. Als Beispiel dafür haben wir die Goodsteinfolgen in Kapitel 4.6 kennengelernt.

So wie die Peano-Arithmetik Schwierigkeiten mit der Unendlichkeit der natürlichen Zahlen hat, so hat die Mengenlehre Schwierigkeiten mit der Unendlichkeit von komplizierteren Mengen. Mit der Unendlichkeit der natürlichen Zahlen kommt sie dagegen gut zurecht -- es müssen schon gravierendere Unendlichkeiten sein, die Probleme machen. Die überabzählbare Unendlichkeit des Kontinuums (die reellen Zahlen) ist gravierend genug. So wissen wir aus Kapitel 4.4, dass es abzählbare Modelle für die ZFC-Axiome der Mengenlehre gibt. In diesem Modell wären die reellen Zahlen abzählbar, wobei dies aber innerhalb des Modells nicht erkennbar ist, sondern nur gleichsam von außen. Ein anderes Problem, das mit reellen Zahlen zusammenhängt, ist die Kontinuumshypothese (siehe Kapitel 4.3 ). Nach dieser Hypothese gibt es keine unendliche Menge, die sich nicht komplett durchnummerieren lässt, die sich aber auch nicht eins-zu-eins den reellen Zahlen zuordnen lässt, ohne dass reelle Zahlen übrig bleiben. Es gibt also keine Menge mit einer Mächtigkeit zwischen den natürlichen und den reellen Zahlen. Insbesondere gibt es nach der Hypothese auch keine entsprechende Teilmenge der reellen Zahlen. Kann man das beweisen? Die ZFC-Axiome können dies jedenfalls nicht, denn die Kontinuumshypothese ist dort unentscheidbar! Die Mächtigkeit einer Menge kann man auch als Grad ihrer Unendlichkeit betrachten. Die Mengenlehre ZFC weiß nicht genug über Mengen, um solche Fragen beantworten zu können. Speziell weiß sie auch nicht genug über die Teilmengen der reellen Zahlen, also über die Eigenschaften der reellen Zahlen. ZFC weiß nicht, ob man reelle Zahlen so heraussuchen kann, dass es überabzählbar viele sind, aber nicht genug, um eine Eins-zu-Eins-Zuordnung zu allen reellen Zahlen aufstellen zu können. Nimmt man beispielsweise das überabzählbare Intervall der reellen Zahlen zwischen −π/2 und π/2 heraus, so kann man das problemlos Eins-zu-Eins den reellen Zahlen zuordnen, beispielsweise mit der Tangens-Abbildung   x   →   tan x   . Ein Intervall enthält also schon zuviele reelle Zahlen, um ein Gegenbeispiel zur Kontinuumshypothese zu sein.

In Kapitel 4.3 haben wir einige Möglichkeiten kennengelernt, dieses fehlende Wissen in ZFC durch neue Axiome zu ergänzen. So kann man das Konstruierbarkeitsaxiom hinzufügen, das nur Mengen zulässt, die in einem bestimmten Sinn aus einfacheren Mengen konstruierbar sind (siehe Wikipedia: Constructible universe ). Für solche Mengen ist die Kontinuumshypothese beweisbar, d.h. es gibt keine konstruierbare Menge mit einer Mächtigkeit zwischen den natürlichen und den reellen Zahlen. Außerdem ist das Auswahlaxiom für konstruierbare Mengen automatisch richtig, braucht also nicht gefordert zu werden.

Eine andere Möglichkeit aus Kapitel 4.3 war das Axiom der Determiniertheit, welches das Auswahlaxiom ersetzt (es verträgt sich nämlich nicht mit diesem). Das Axiom hat etwas mit einem unendlichen Spiel zweier Spieler zu tun, die abwechselnd die einzelnen Dezimalstellen (oder Binärstellen) einer Zahl wählen dürfen. Der erste Spieler versucht dabei, zu erreichen, dass die entstehende Zahl zu einer vorgegebenen Menge gehört, während der zweite Spieler das verhindern möchte. Kann der erste Spieler es immer erreichen, dass die entstehende Zahl zur Menge gehört, oder kann der zweite Spieler dies immer verhindern, so spricht man von einer determinierten Menge. So ist jede abzählbare Menge determiniert, denn der zweite Spieler kann mit dem Cantorschen Diagonalverfahren immer verhindern, dass die im Spiel entstehende Zahl zur Menge gehört. Das Axiom der Determiniertheit fordert nun, dass nur determinierte Mengen erlaubt sind. Und wieder kann man in diesen Mengen die Kontinuumshypothese beweisen, d.h. die eine fragliche Menge zwischen den natürlichen und den reellen Zahlen kann auch nicht determiniert sein.

Sowohl das Konstruierbarkeitsaxiom als auch das Axiom der Determiniertheit beschränken die mögliche Komplexität von Mengen, also in gewissem Sinn die möglichen Unendlichkeiten. Man kann aber auch versuchen, diese Unendlichkeiten zuzulassen und eine Art Überblick über sie zu gewinnen (Stichwort deskriptive Mengenlehre, siehe Kapitel 4.3 ). Das kann man beispielsweise mit Hilfe der sogenannten Kardinalzahlen tun. Schauen wir uns das etwas näher an!


Kardinalzahlen:

Kardinalzahlen sind ein Maß für die Mächtigkeit von Mengen. Sie beantworten die Frage, welche von zwei Mengen in einem bestimmten Sinn die größere ist. Das tun sie auch bei unendlichen Mengen, was beispielsweise für die Kontinuumshypothese nützlich ist.

Zum Vergleich: Ordinalzahlen, wie wir sie in Kapitel 4.6 bei den Goodsteinfolgen kennengelernt haben, dienen zur Positionsbestimmung in einer geordneten Menge, die auch größer als die natürlichen Zahlen sein kann. Wichtig ist hier immer die Frage: Welches Element steht weiter rechts, hat also die größere Ordinalzahl? Bei endlichen Mengen gibt es keinen wesentlichen Unterschied zwischen Kardinalzahl und Ordinalzahl, denn die Ordinalzahl (Nummer) des letzten Elementes ist gleich der Gesamtanzahl der Elemente der Menge, also gleich der Kardinalzahl. Bei unendlichen Mengen dagegen entsprechen Kardinalzahlen und Ordinalzahlen zwei unterschiedlichen Konzepten, mit der Unendlichkeit umzugehen. Details siehe weiter unten.

Die Idee, die Mächtigkeit unendlicher Mengen zu messen, kennen wir vom Begriff der Abzählbarkeit her (siehe Kapitel 4.1 ). Wir wollen die Mächtigkeit von unendlichen Mengen so definieren, dass überabzählbar unendliche Mengen wie die reellen Zahlen mächtiger als abzählbar unendliche Mengen sind. Die reellen Zahlen sind also mächtiger als die natürlichen oder die rationalen Zahlen. Das leuchtet ein! Dagegen sollen alle abzählbar unendlichen Mengen gleich mächtig sein. Die natürlichen und die rationalen Zahlen wären demnach gleich mächtig, da man letztere abzählen kann:


     

Das ist gewöhnungsbedürftig, da die natürlichen Zahlen eine Teilmenge der rationalen Zahlen sind. Man kann zu den rationalen Zahlen sogar noch abzählbar viele reelle Zahlen hinzunehmen, beispielsweise die algebraischen Zahlen, die Nullstellen von abzählbar vielen Polynomen sind. Die Mächtigkeit der Menge bleibt dieselbe. Bei unendlichen Mengen kann es also passieren, dass eine unendliche Teilmenge gleich mächtig zur Gesamtmenge ist.

Halten wir diese Idee fest:

Mächtigkeit von Mengen:
  • Zwei Mengen A und B sind gleich mächtig, wenn es eine Eins-zu Eins-Zuordnung (Bijektion) zwischen den Elementen der beiden Mengen gibt.

  • Eine Menge A ist weniger mächtig als eine Menge B, wenn es nur eine Eins-zu Eins-Zuordnung (Bijektion) von A zu einer echten Teilmenge von B gibt, nicht aber zur gesamten Menge B. Es bleiben also zwangsläufig Elemente von B übrig. Man schreibt auch   A < B   .

Im Grunde kennen wir das schon von der Kontinuumshypothese aus Kapitel 4.1 her. Wir haben es hier nur noch einmal explizit aufgeschrieben.

Nun zu den Kardinalzahlen: Sie sind keine Zahlen im engeren Sinn, sondern sie sind Äquivalenzklassen von gleich mächtigen Mengen. Man fasst also alle gleich mächtigen Mengen zusammen und kann sich dann eine davon als typischen Repräsentanten für die Kardinalzahl aussuchen. Nennen wir diesen Repräsentanten A. Dann schreiben wir für die Kardinalzahl aller zu A gleich mächtigen Mengen einfach |A| , d.h. |A| ist die Äquivalenzklasse aller Mengen, die die gleiche Mächtigkeit wie A aufweisen. Oft werden wir auch einfach die Menge A selbst als Kardinalzahl verwenden, wenn sie ein typischer Vertreter der Äquivalenzklasse ist. Meist verwendet man als typischen Vertreter der Äquivalenzklasse die kleinste Ordinalzahl mit der geforderten Mächtigkeit. Für die abzählbaren unendlichen Mengen wählt man beispielsweise die Menge der natürlichen Zahlen N als Repräsentanten. Die Kardinalzahl (Äquivalenzklasse) der abzählbaren unendlichen Mengen wäre dann |N| , aber oft schreiben wir auch einfach N. Halten wir fest:

Kardinalzahlen:
Die Kardinalzahl |A| einer Menge A ist die Äquivalenzklasse aller Mengen, die die gleiche Mächtigkeit wie A besitzen. A kann man dann als Repräsentant dieser Äquivalenzklasse ansehen.

Dabei haben wir eine Feinheit außer Acht gelassen: Streng genommen gibt es die Menge aller Mengen mit gleicher Mächtigkeit wie A formal in der ZFC-Mengenlehre nicht. Daher ist diese Äquivalenzklasse entweder keine Menge (sondern eine Klasse), oder aber man muss gewisse Einschränkungen machen. Das kennen wir bereits von den Ordinalzahlen aus Kapitel 4.6: Auch die Menge aller Ordinalzahlen gibt es nicht.

Warum spricht man bei Kardinalzahlen gerne von verallgemeinerten Zahlen? Bei endlichen Mengen mit n Elementen ist der Fall klar: Man nimmt als Repräsentanten der Äquivalenzklasse die Menge   {0, 1, ... , n−1}   , und diese Menge ist zugleich die Mengendarstellung der Zahl n selbst (siehe Kapitel 4.4 ). Die Kardinalzahl einer endlichen Mengen kann man also durch die Zahl ihrer Elemente repräsentieren. Bei unendlichen Mengen geht das natürlich nicht mehr, aber man kann immerhin analog zu den natürlichen Zahlen formale Rechenoperationen auf den zugehörigen Kardinalzahlen definieren:

Formales Rechnen mit Kardinalzahlen:
Wir starten mit zwei disjunkten Mengen A und B, d.h. A und B sollen keine gemeinsamen Elemente haben. Dann definieren wir:

  |A| + |B|   :=   |A ∪ B|     (∪ meint vereinigt mit)
  |A| * |B|   :=   |A x B|       (x meint das kartesische Produkt, also die Menge aller geordneten Paare (a,b) )
  |A||B|       :=       |AB|       (AB meint die Menge aller Funktionen von B nach A, also die Menge aller Teilmengen von B x A, bei denen jeweils jedem b aus B eindeutig ein a aus A zugeordnet ist (siehe Kapitel 4.2 ) )

Bei endlichen Mengen kann man die ersten beiden Regeln direkt nachvollziehen. Die dritte Regel ist da etwas komplizierter, aber man kann sie auch verstehen: Fügt man in der Menge B ein neues Element hinzu, so ergeben sich |A| Möglichkeiten, diesem neuen Element ein Element von A zuzuordnen, d.h. die Zahl der Funktionen von B nach A ver-|A|-facht sich. Bei unendlichen Mengen sind die obigen Regeln als Definitionen für die linke Seite aufzufassen. Man kann zeigen, dass sie dann die üblichen Rechengesetze erfüllen.

Ein Beispiel: A soll eine unendliche Menge sein, B dagegen eine Menge mit nur einem Element, also |B| = 1. Dann ergeben die obigen Regeln:
  |A| + 1   =   |A ∪ B|   =   |A|  
denn die Mächtigkeit der unendlichen Menge A ändert sich nicht, wenn nur ein Element hinzukommt. Analog ist es bei jeder endlichen Menge B. Daher kann man bei Kardinalzahlen nicht weiterzählen, anders als bei Ordinalzahlen!

Mit dem Auswahlaxiom kann man für die Kardinalzahlen unendlicher Mengen zeigen:

  |A| + |B|   =   |A| * |B|   =   max( |A| , |B| )

Offenbar gewinnt die Menge mit der größeren Mächtigkeit, so dass eine weniger oder gleich mächtige Menge weder bei der Vereinigung noch bei der Paarbildung diese Mächtigkeit weiter erhöhen kann. Das müsste man natürlich noch im Detail nachweisen, wofür man dann wohl das Auswahlaxiom braucht. Wir verzichten hier darauf. Auf jeden Fall folgt, dass bei unendlichen Mengen
  |A| + |A|   =   |A| * |A|   =   |A|
ist. Daher kann man bei unendlichen Mengen weder eine Subtraktion noch eine Division von Kardinalzahlen sinnvoll definieren.
Ein Beispiel für die Regel   |A| * |A|   =   |A x A|   =   |A|   bildet die Menge Q der rationalen Zahlen (Brüche). Jeden Bruch   a / b   kann man nämlich als Zahlenpaar   (a,b)   aus   N x N   auffassen, und die Brüche und damit die Zahlenpaare kann man Eins-zu-Eins den natürlichen Zahlen zuordnen (siehe oben). Damit ist   |Q|   =   |N x N|   =   |N| * |N|   =   |N|   , d.h. Q und N haben dieselbe Mächtigkeit.

Nun sind wir gerüstet, uns noch einmal den Unterschied zwischen Kardinalzahlen und den Ordinalzahlen aus Kapitel 4.6 anzusehen. Ordinalzahlen werden dadurch definiert, dass man den Prozess des Zählens über die Gesamtmenge N der natürlichen Zahlen hinaus formal weiterführt. Dazu definiert man Ordinalzahlen ganz allgemein so: Jede Ordinalzahl ist die Menge aller kleineren Ordinalzahlen, wobei man mit der leeren Menge   0 := {}   anfängt. Die ersten Ordinalzahlen sind also einfach die natürlichen Zahlen in der Mengendarstellung:

  0 := {} ,   1 := {0} ,   2 := {0, 1},   3 := {0, 1, 2}   usw..

Entsprechend ist   ω := N := {1, 2, 3, ... }   dann die Menge all dieser Mengen und damit die erste unendliche Ordinalzahl, wobei die Elemente der Größe nach geordnet sind. Aber es geht noch weiter: Man kann die Ordinalzahl   ω + 1   :=   {1, 2, 3, .... , ω}   definieren, die ein größtes Element besitzt, das in N nicht vorkommt, nämlich die Menge   N = ω   selbst. In diesem Sinn ist   ω + 1   um Eins größer als die Menge   ω = N   , denn sie ist der Nachfolger von ω . Dennoch weisen beide Mengen dieselbe Mächtigkeit (Kardinalzahl) auf, denn man kann eine Eins-zu-Eins-Abbildung zwischen   ω   und   ω + 1   definieren:   N ↔ 1,   1 ↔ 2,   2 ↔ 3,   ... . Offenbar gibt es sehr viele Ordinalzahlen, die dieselbe Mächtigkeit aufweisen, also abzählbare Mengen sind:   ω,   ω + 1,   ω + 2,   ...   . Sogar die Ordinalzahl ε0 ist noch eine abzählbare Menge. Letztlich gelangt man von einer Ordinalzahl, die ja eine wohlgeordnete Menge ist, zur Kardinalzahl, indem man die Ordnung der Menge vergisst. Im obigen Beispiel haben wir vergessen, dass N das größte Element von   ω + 1   ist -- wir stellen es durch die Eins-zu-Eins-Abbildung gleichsam an den Anfang.

Man geht oft so vor, dass man die kleinste Ordinalzahl mit einer bestimmten Mächtigkeit als Repräsentanten der Äquivalenzklasse nimmt, oder sie sogar einfach gleich der Kardinalzahl setzt. Das muss dann immer eine Ordinalzahl ohne direkten Vorgänger sein, denn ein solcher Vorgänger hätte dieselbe Mächtigkeit. Ohne Auswahlaxiom geht das übrigens nicht, da man dann nicht mehr jede Menge wohlordnen kann und sie damit keine Ordinalzahl mehr besitzt. Ohne Auswahlaxiom ist es auch nicht mehr möglich, beliebige Kardinalzahlen in ihrer Größe miteinander zu vergleichen, also bei beliebigen Mengen zu sagen, welche von beiden die Mächtigere ist oder ob sie gleich mächtig sind -- aber das nur am Rande, denn wir wollen das Auswahlaxiom hier voraussetzen.

Gibt es eine größte Kardinalzahl, also eine mächtigste Sorte von Mengen? Schauen wir uns dazu die Potenzmenge einer Menge A an, also die Menge aller Teilmengen von A, wobei auch die leere Menge sowie die Menge A selbst dazugehören.


     

Beispiel für die Bildung der Potenzmenge Pow(z) zu einer Menge z. Die Potenzmenge enthält alle Teilmengen von z einschließlich z selbst sowie zusätzlich die leere Menge. Bei drei Elementen in z ergeben sich so   23 = 8   Elemente von Pow(z). Das Bild kennen wir bereits aus Kapitel 4.2.


Aus Kapitel 4.2 wissen wir: Wenn A endlich ist und n Elemente enthält, so enthält ihre Potenzmenge   2n   Elemente. Die Kardinalzahl dieser endlichen Potenzmenge wäre also   2n   . Verallgemeinern wir dies auf unendliche Mengen, so müsste die Kardinalzahl der Potenzmenge gleich   2|A|   =   |2A|   sein, also gleich die Kardinalzahl der Menge aller Funktionen von   A   nach   {0, 1}   sein. Tatsächlich entspricht jeder solchen Funktion genau eine Teilmenge von A, denn wir können den Funktionswert 0 oder 1 für jedes Element von A so interpretieren, dass er angibt, ob das Element zur Teilmenge dazugehört oder nicht. Halten wir fest:

Kardinalzahl der Potenzmenge:
Die Potenzmenge einer Menge A hat die Kardinalzahl   2|A|  

Nun kann man nach dem Potenzmengenaxiom (siehe Kapitel 4.2 ) zu jeder Menge A die Potenzmenge bilden. Zu jeder Kardinalzahl |A| gibt es also auch eine Kardinalzahl   2|A|   , nämlich die der Potenzmenge. Mit Cantors Diagonalverfahren kann man nun leicht zeigen, dass es auch bei unendlichen Mengen keine Eins-zu Eins-Zuordnung zwischen A und deren Potenzmenge gibt -- es bleiben immer unendlich viele Elemente der Potenzmenge übrig. Daher ist die Potenzmenge von A immer mächtiger als A selbst. Es gibt also keine größte Kardinalzahl, also keine mächtigste Menge.

Kommen wir noch einmal zur Kontinuumshypothese. Die reellen Zahlen haben dieselbe Mächtigkeit wie die Potenzmenge von N, denn man kann jede reelle Zahl durch eine endliche oder unendliche Teilmenge der natürlichen Zahlen kodieren (siehe Kapitel 4.2 ). Das kann man beispielsweise über die Binärdarstellung der reellen Zahl tun, indem man einfach alle Binärpositionsnummern, die eine 1 aufweisen, zusammennimmt -- so gehört zur Binärzahl   0,1011   die Menge   {1,3,4}   , und zu   0,11111...   die Menge   {1,2,3,...} = N   . Für die Vorkommastellen kann man sich eine ähnliche Strategie ausdenken (so könnte man mit geraden und ungeraden natürlichen Zahlen arbeiten, um Vor- und Nachkommastellen unterschiedlich zu kodieren). Es ist also   |R| = 2|N|   und wir können die Kontinuumshypothese so schreiben:

  • Kontinuumshypothese:
    Es gibt keine Kardinalzahlen zwischen   |N|   und   2|N|  

Das kann man auch auf beliebige unendliche Mengen A verallgemeinern:

  • verallgemeinerte Kontinuumshypothese:
    Es gibt keine unendlichen Kardinalzahlen zwischen   |A|   und   2|A|  

Es gibt also nach der Hypothese keine Menge, die in ihrer Mächtigkeit zwischen jeder beliebigen unendlichen Menge A und ihrer Potenzmenge liegt. Diese Hypothese ist unabhängig von den ZFC-Axiomen der Mengenlehre, wie wir wissen, ist also weder beweisbar noch widerlegbar.


unendliche Kardinalzahlen:

Welche Kardinalzahlen gibt es? Zunächst haben wir natürlich die Kardinalzahlen endlicher Mengen, also die natürlichen Zahlen. Die nächstgrößere Mächtigkeit haben dann die abzählbar unendlichen Mengen. Ihre Kardinalzahl ist   |N|   . Häufig benutzt man statt |N| auch die Bezeichnung


     

also den hebräischen Buchstaben Aleph mit Index Null. Da HTML hier je nach Zeichensatz Probleme hat, werde ich statt dessen   Aleph_0   schreiben. Aleph_0 ist also die Mächtigkeit (Kardinalzahl) der abzählbar unendlichen Mengen. Sie ist zugleich die kleinste unendliche (transfinite) Kardinalzahl.

Nun haben wir gerade gelernt, dass es immer größere Kardinalzahlen gibt, und man kann sie sogar der Größe nach ordnen (Auswahlaxiom vorausgesetzt). Dabei gibt es zu jeder Kardinalzahl einen nächstgrößeren Nachfolger, aber wie bei den Ordinalzahlen hat nicht jede Kardinalzahl einen nächstkleineren Vorgänger (warum, kommt gleich). Daher kann man sie nicht mit natürlichen Zahlen komplett der Größe nach durchnummerieren, sondern nur mit Ordinalzahlen, wobei jede Ordinalzahl beim Durchnummerieren gebraucht wird:

  Aleph_0,   Aleph_1,   Aleph_2,   ...   , Aleph_ω,   Aleph_(ω+1),   ...

Die erste unendliche Kardinalzahl   Aleph_0   kennen wir: es ist   |N|   , also die Mächtigkeit der abzählbaren Mengen. Was ist dann   Aleph_1   , also die nächstgrößere Mächtigkeit von Mengen? Das hängt von der Kontinuumshypothese ab: Sie behauptet:

Die Kontinuumshypothese behauptet also, dass die nächstgrößere Mächtigkeit nach den natürlichen Zahlen die reellen Zahlen sind. Wie wir wissen, ist diese Behauptung in der ZFC-Mengenlehre unentscheidbar. Die ZFC-Axiome sagen zwar, dass man die Kardinalzahlen ordnen kann, sagen aber schon bei der zweiten unendlichen Kardinalzahl nicht mehr, ob diese der Mächtigkeit der reellen Zahlen entspricht. Moderne Entwicklungen in der Mengenlehre legen oft   Aleph_2   =   |R|   nahe (siehe unten), d.h. es liegt noch eine Mächtigkeit zwischen den natürlichen und den reellen Zahlen. Denkbar sind aber sogar Modelle mit beispielsweise   Aleph_3   =   |R|   .

Ähnlich ist es wegen der verallgemeinerte Kontinuumshypothese auch bei anderen Kardinalzahlen. Es ist also aufgrund der ZFC-Axiome nicht allgemein entscheidbar, ob die Nachfolger-Kardinalzahl durch Bilden der Potenzmenge erreicht werden kann oder nicht. Dazu legen die ZFC-Axiome den Mengenbegriff nicht hinreichend genau fest. Potenzmengenbildung und Nachfolger-Kardinalzahlen bilden in der ZFC-Mengenlehre zunächst einfach nur zwei verschiedene Konzepte, zu größeren Mächtigkeiten zu gelangen, ohne dass festliegt, wie beide Konzepte miteinander verbunden sind. Geht man von der Gültigkeit der verallgemeinerten Kontinuumshypothese aus, so ist die Nachfolger-Kardinalzahl   Aleph_(α+1)   einer unendlichen Kardinalzahl   Aleph_α   gleich   2Aleph_α   .

Was aber ist dann   Aleph_1   , wenn man sich nicht auf die Kontinuumshypothese stützen möchte? Nun, es ist die nächstgrößere Mächtigkeit von Mengen -- welche auch immer das genau ist. Hier gibt es nur sehr abstrakte Definitionen wie beispielsweise die folgende von Cantor, die sich auf Ordinalzahlen stützt (siehe Peter Ripota: Von aleph-null zu aleph-eins ):

Diese Menge ist dann nämlich die kleinste überabzählbare Ordinalzahl. Mehr zu Ordinalzahlen siehe Kapitel 4.6. Eine andere Definition wäre die folgende (siehe ebenfalls Peter Ripota: Von aleph-null zu aleph-eins ): Gemeint ist mit schwer erreichbar, dass   Aleph_0   nicht ausreicht, um durch Mengenvereinigung zu   Aleph_1   zu gelangen. Genauer: Nimmt man abzählbar-unendlich viele Mengen, die jeweils abzählbar-unendlich sind, und vereinigt sie, so ergibt das noch keine Menge der Mächtigkeit   Aleph_1   (überabzählbar-unendlich). Aleph_0 -viele Mengen der Mächtigkeit Aleph_0 ergeben zusammen keine Menge der nächsten Mächtigkeit Aleph_1 . Man braucht eine Menge der Mächtigkeit Aleph_1 , um zu Aleph_1 zu gelangen! Die genaue Definition lautet (siehe Ralf Schindler: Wozu brauchen wir grosse Kardinalzahlen? ):

Leicht erreichbare (singuläre) und schwer erreichbare (reguläre) Kardinalzahlen:

Eine unendliche Kardinalzahl   κ   nennt man leicht erreichbar (nicht regulär, singulär), wenn man sie als Vereinigungsmenge

  κ   =   ∪i ∈ I   Xi

darstellen kann, wobei die Indexmenge I und die Mengen Xi weniger mächtig als κ sind. Mengen kleinerer Mächtigkeit reichen also aus, um eine leicht erreichbare Kardinalzahl zu erzeugen.

Geht diese Darstellung nicht (weil beispielsweise die Indexmenge I oder ein Xi genauso mächtig wie κ sein muss), so bezeichnet man κ als schwer erreichbar (regulär). Eine leicht erreichbare Kardinalzahl kann man also als weniger mächtige Vereinigung weniger mächtiger Mengen schreiben, eine schwer erreichbare nicht. Man sagt auch, man kann eine schwer erreichbare Kardinalzahl κ nicht mit weniger als κ Schritten erreichen.

Eine unendliche Potenzmenge wäre beispielsweise schwer erreichbar. Die Begriffe singulär und regulär sind historisch bedingt und laufen manchmal Intuition zuwider -- ich versuche daher, sie hier weitgehend zu vermeiden.

Schon die erste unendliche Kardinalzahl Aleph_0 ist demnach schwer erreichbar (regulär). Man kann sie nämlich nur durch   Aleph_0   =   ∪n ∈ N   n   =   N   darstellen, d.h. die Indexmenge I ist hier gleich N und ist somit genauso mächtig wie die dargestellte Kardinalzahl Aleph_0. Man braucht abzählbar unendlich viele endliche Mengen, um eine abzählbar unendliche Mächtigkeit zu erzeugen. Also ist eine Voraussetzung für die obige Darstellung nicht erfüllt. Analog ist es mit Aleph_1 : man braucht überabzählbar viele abzählbare Mengen, so dass die Indexmenge I wieder dieselbe Mächtigkeit wie die dargestellte Kardinalzahl hat. Generell kann man zeigen, dass jede unendliche Nachfolger-Kardinalzahl schwer erreichbar (regulär) ist. Daher kommt auch die Motivation für den Begriff regulär. Allerdings muss nicht umgekehrt jede schwer erreichbare Kardinalzahl eine Nachfolger-Kardinalzahl sein (siehe unten).

Von Aleph_1 aus geht es nun immer weiter: Aleph_2, Aleph_3, Aleph_4, ... . Richtig greifbar sind diese Mächtigkeiten nur mit der verallgemeinerten Kontinuumshypothese, denn dann entsteht die nächste Mächtigkeit immer durch Potenzmengenbildung. Wie bei den Ordinalzahlen gibt es aber auch eine Mächtigkeit, die größer ist als Aleph_1, Aleph_2, Aleph_3 ... , also größer ist als alle Aleph_n mit n aus N. Das ist dann unser   Aleph_ω   , das wir oben in der Liste bereits gesehen haben. Diese Mächtigkeit lässt sich auch mit unendlich vielen Potenzmengen-Schritten nicht erreichen. Man bezeichnet eine Kardinalzahl wie   Aleph_ω   auch als Limeskardinalzahl. Durch Nachfolger-Schritte oder Potenzmengenbildung kann man eine Limeskardinalzahl nicht erreichen:

  • Limeskardinalzahl:
    Eine Limeskardinalzahl ist eine Kardinalzahl ohne nächstkleineren Vorgänger. Für eine Limeskardinalzahl   κ   gilt also: Wenn eine Kardinalzahl   α   kleiner als   κ   ist, so ist auch deren Nachfolger   α+   kleiner als   κ   .

Wie kann man aber nun eine Limeskardinalzahl erreichen? Zumindest bei der ersten Limeskardinalzahl   Aleph_ω   weiß man es: Man kann Sie erreichen, indem man die Vereinigungsmenge aller kleineren Kardinalzahlen bildet:

  Aleph_ω   =   ∪n ∈ N   Aleph_n

Das ist ganz analog zu den Grenz-Ordinalzahlen aus Kapitel 4.6. Die Kardinalzahl   Aleph_ω   ist demnach leicht erreichbar (nicht regulär, singulär), denn hier genügt als Indexmenge die Menge N, und die ist wie auch alle   Aleph_n   weniger mächtig als   Aleph_ω   . Die Motivation für den Begriff singulär wird hier sichtbar: die Nachfolger-Bildung reicht nicht, um die Zahl zu erreichen, und man muss eine Art Sprung machen.

Bleibt die Frage, ob auch größere Limeskardinalzahlen leicht erreichbar sind, also durch Bilden der Vereinigungsmenge aller kleineren Kardinalzahlen mit kleinerer Indexmenge erreichbar sind. Das ist tatsächlich normalerweise der Fall (nämlich dann, wenn sich die Existenz der Limeskardinalzahl in ZFC beweisen lässt, siehe unten). Dennoch könnte man fragen:

Diese harmlos aussehende Frage hat es in sich, wie wir noch sehen werden (siehe z.B. Ralf Schindler: Wozu brauchen wir grosse Kardinalzahlen?, Seite 4). Eine solche Limeskardinalzahl muss irgendwie eine unglaublich gigantische Mächtigkeit von Mengen repräsentieren, wenn weder Nachfolgerschritte (Potenzmengenbildung) noch die Bildung der Vereinigungsmenge aller bisherigen Schritte diese Mächtigkeit erzeugen können. Wie soll man dann an eine solche Kardinalzahl überhaupt noch herankommen? Tatsächlich stellt sich heraus, dass sich die Existenz solcher Kardinalzahlen in ZFC werder beweisen noch widerlegen lässt -- sie liegen außerhalb der Reichweite der ZFC-Axiome. Mehr dazu etwas weiter unten beim Thema unerreichbare Kardinalzahl.

Jede Kardinalzahl ist zugleich auch eine Ordinalzahl (Auswahlaxiom vorausgesetzt), wobei man üblicherweise immer die kleinste aller gleich mächtigen Ordinalzahlen nimmt. So hat Cantor beispielsweise Aleph_1 definiert (siehe oben). Da viele Ordinalzahlen gleich mächtige Mengen sind, ist die nächstgrößere Kardinalzahl normalerweise nicht gleich der nächsten Ordinalzahl. Die Kardinalzahlen bilden also eine Unterklasse der Ordinalzahlen.

Ohne Auswahlaxiom ist die Lage komplizierter, da man dann nicht mehr jede Menge wohlordnen und ihr eine Ordinalzahl zuordnen kann. Entsprechend gibt es dann Kardinalzahlen, die keine Ordinalzahl sind, da man die entsprechenden Mengen nicht wohlordnen kann. Man kann dann nicht immer sagen, welches die größere Kardinalzahl ist, also welches die mächtigere Menge ist. Wir hatten das oben bereits erwähnt. In diesem Kapitel wollen wir aber das Auswahlaxiom allgemein voraussetzen, also ZFC statt nur ZF betrachten.



Die unendlichen Kardinalzahlen bis kurz vor Aleph_(ω+ω) , der Größe nach von links nach rechts sortiert. Der erste Strich links ist Aleph_0, also die Mächtigkeit der abzählbar unendlichen Mengen. Der nächste ist Aleph_1, also die kleinste Mächtigkeit der überabzählbar unendlichen Mengen. Und so geht es Schritt für Schritt immer weiter nach rechts. In der Mitte kommt dann nach unendlich vielen Nachfolgerschritten die Limeskardinalzahl Aleph_ω , also die Vereinigungsmenge aller Vorgängermengen. Danach geht es nach rechts wieder weiter mit Aleph_(ω+1) usw.. Die verallgemeinerte Kontinuumshypothese behauptet, dass jeder Einzelschritt nach rechts der Bildung der Potenzmenge entspricht. Bild siehe Wikipedia: Ordinal number.



unerreichbare Kardinalzahlen:

Die obige Grafik zeigt, wie es nach   Aleph_ω   weitergeht: Es folgt   Aleph_(ω+1)   usw. bis   Aleph_(ω+ω)   . Alle Ordinalzahlen sind als Index möglich! Wir können uns viele Zwischenschritte sparen, wenn wir nur die Index-Ordinalzahlen betrachten, die zugleich eine Kardinalzahl darstellen. Die erste wäre dann   Aleph_ω   =   Aleph_(Aleph_0)   . Noch viel größer wäre dann   Aleph_(Aleph_1)   . Oder gar   Aleph_(Aleph_ω)   =   Aleph_(Aleph_(Aleph_0))   . Uns so kann man den Index immer größer machen, und dessen Index ebenfalls immer größer machen und so fort. Im Grenzfall ensteht so eine unendliche Folge von einem Index mit einem Index mit einem Index .... . Man nimmt einfach die aktuelle Kardinalzahl immer wieder als Position (Index) der nächsten Kardinalzahl. So startet man mit   Aleph_0   , nimmt dann die Kardinalzahl an dieser Position, also   Aleph_(Aleph_0)   , und dann als nächstes   Aleph_(Aleph_(Aleph_0))   und so weiter. Dieses Wachstum kann nur dann theoretisch aufhören, wenn man irgendwann eine Position (nennen wir sie   θ   ) erreicht, an der die Kardinalzahl   θ   steht:

(siehe z.B. Peter Ripota: Von aleph-1 zu theta ). Man sagt auch, θ hat eine Fixpunkteigenschaft. Die Position der Zahl θ verschmilzt in den Tiefen der Unendlichkeit mit der Zahl selbst!

Normalerweise ist natürlich eine Kardinalzahl immer viel größer als ihr Index -- so ist das zumindest bei allen Alephs, die wir bisher betrachtet haben. θ muss also größer als alle Alephs in der Liste sein. Man kann sich vorstellen, dass sie bereits außerhalb der Liste steht. Aber geht das? Kann man die Kardinalzahl   θ   einfach wie angegeben definieren?

Die ZFC-Mengenlehre gibt auf diese Frage keine eindeutige Antwort. Sie sagt, eine solche Kardinalzahl ist denkbar, aber auch ihr Fehlen ist denkbar. Man kann mit den Mitteln der ZFC-Mengenlehre nicht entscheiden, ob es sie gibt. Deswegen nennt man θ auch die erste unerreichbare Kardinalzahl (siehe Peter Ripota: Von theta zu rho oder auch Infinity ).

Man kann sich überlegen, dass θ eine schwer erreichbare Limeskardinalzahl ist -- was unsere Frage von oben nach einer solchen Zahl in gewissem Sinn beantwortet. Sie ist also weder direkter Nachfolger einer nächstkleineren Kardinalzahl, noch kann man sie durch weniger mächtige Vereinigung weniger mächtiger Mengen erreichen. Genau so definiert man auch allgemein den Begriff einer unerreichbaren Kardinalzahl:

unerreichbare Kardinalzahl:

κ ist eine unerreichbare Kardinalzahl genau dann, wenn sie eine überabzählbare schwer erreichbare Limeskardinalzahl ist. Das bedeutet im Detail (siehe oben):

  • κ ist überabzählbar:   κ   >   Aleph_0

  • κ ist schwer erreichbar (regulär):
    Man kann sie nicht als Vereinigungsmenge   ∪i ∈ I   Xi   darstellen, wobei die Indexmenge I und die Mengen Xi weniger mächtig als κ sein müssen. Kurz: Man braucht Mengen der Mächtigkeit κ, um zu κ zu gelangen.

  • κ ist eine Limeskardinalzahl:
    Sie hat keinen nächstkleineren Vorgänger und kann demnach auch nicht durch Potenzmengenbildung erreicht werden: Wenn   μ < κ   ist, so muss auch   2μ < κ   sein,

Sind noch größere unerreichbare Kardinalzahlen als θ denkbar? Natürlich -- und zwar beliebig viele. Eine Möglichkeit, in diese Richtung zu gehen, kann man in Peter Ripota: Von theta zu rho sowie in Infinity nachlesen. Ich muss zugeben, dass meine Intuition hier langsam versagt. Irgendwie hat man immer ein Werkzeug, das einen bis zu einer Mächtigkeit α gebracht hat und das man nun α -mal anwendet, was einen zur Mächtigkeit α' bringt, so dass man das Werkzeug nun α' -mal anwenden kann und so fort. Wenn man dann das Werkzeug nach unendlicher Iteration ausgereizt hat, fordert man die Existenz eines neuen Werkzeuges, indem man sagt, dass dieses neue Werkzeug die Grenzen des alten Werkzeuges überwinden kann. Auch dieses neue Werkzeug kann man nun iterieren, und zwar immer bis zu der Mächtigkeit, die es einem bisher geliefert hat. Tja, und dann definiert man schließlich wieder ein neues Werkzeug, das alle bisherigen Grenzen sprengt. Außerdem ist auch dieses Werkzeug-Erfinden eine Art Iteration, die man auf die Spitze treiben kann. Und so geht es immer weiter. Wichtig ist, dass man immer wieder eine neue Idee braucht, die über alle bisherigen Iterationen hinausgeht. Anders gesagt: Prinzipiell neue Mächtigkeiten erfordern offenbar neue Axiome!

Das bringt uns zurück zu folgender Frage: Warum ist die ZFC-Mengenlehre nicht mächtig genug, um die Existenz einer oder gar mehrerer unerreichbaren Kardinalzahlen zu entscheiden?

Eine anschauliche Begründung wäre: Weder die Potenzmengenbildung noch eine weniger mächtige Vereinigung weniger mächtiger Mengen reichen aus, um die Mächtigkeit einer unerreichbaren Kardinalzahl zu erzeugen. Damit hat die ZFC-Mengenlehre aber keine Werkzeuge mehr, um diese Mächtigkeit gleichsam von unten zu konstruieren. Es bleibt also nichts anderes übrig, als die Existenz entsprechend mächtiger Mengen explizit zuzulassen oder abzulehnen -- beide Alternativen sind möglich.

Eine andere Begründung ergibt sich, wenn man sich Modelle der ZFC-Mengenlehre in der Hierarchie aller Mengen anschaut. Wir werden nämlich gleich herausfinden, dass die Hierarchiestufe Nummer κ in dieser Mengenhierarchie genau dann ein Modell der ZFC-Mengenlehre ist, wenn κ eine unerreichbare Kardinalzahl ist, also eine überabzählbare schwer erreichbare Limeskardinalzahl. Da ZFC nicht seine eigene Widerspruchsfreiheit beweisen kann, kann es auch nicht beweisen, dass es eine Hierarchiestufe Nummer κ gibt, die ein Modell von ZFC ist. Damit kann ZFC auch nicht beweisen, dass die unerreichbare Kardinalzahl κ existiert, denn sonst wäre diese Hierarchiestufe ja ein Modell. Schauen wir uns die Details dazu an:


Das Mengenuniversum V:

Wie kann man die Welt aller denkbaren Mengen systematisch von unten nach oben aufbauen? Man fängt mit der einfachsten Menge an, also mit der leeren Menge. Und dann baut immer neue Hierarchiestufen auf, indem man die Potenzmenge der Vorgängerstufe bildet, also die Menge aller Teilmengen inclusive leerer Menge. Auf diese Weise entsteht eine Hierarchie von immer mächtigeren Mengen, die man auch als von-Neumann-Universum bezeichnet und mit dem Buchstaben V abkürzt. Schauen wir uns das konkret an, wobei wir überall da, wo es geht, die Mengen als natürliche Zahlen schreiben (siehe die Mengendarstellung natürlicher Zahlen oben sowie in Kapitel 4.6 ):

Stufe 0:   V0   :=   {}   =   0
Stufe 1:   V1   :=   {0}   =   1
Stufe 2:   V2   :=   {0, 1}   =   2
Stufe 3:   V3   :=   {0, {0}, {1}, 2}   =   {0, 1, {1}, 2}   =   3 ∪ {{1}}
Stufe 4:   V4   :=   {0, {0}, {1}, {{1}}, {2}, {0, 1}, {0, {1}}, {0, 2}, {1, {1}}, {1, 2}, {{1}, 2},
                            {0, 1, {1}}, {0, 1, 2}, {0, {1}, 2}, {1, {1}, 2}, {0, 1, {1}, 2}}   =  
  =   {0, 1, {1}, {{1}}, {2}, 2, {0, {1}}, {0, 2}, {1, {1}}, {1, 2}, {{1}, 2}, {0, 1, {1}}, 3, {0, {1}, 2}, {1, {1}, 2}, {0, 1, {1}, 2}}
usw.....

Man sieht, wie es immer komplexer wird. Stufe 5 würde schon 32 Mengen enthalten. Insbesondere sind in der Menge der Stufe n immer alle natürlichen Zahlen bis n−1 als Elemente enthalten. Allerdings erhält man so nie eine Menge N, die alle natürlichen Zahlen umfasst. Daher führen wir nach abzählbar unendlich vielen Stufen die Stufe ω ein, in der wir die Vereinigungsmenge aller Vorgängermengen bilden:

Stufe ω:   Vω   :=   ∪n   Vn   =   Vereinigungsmenge aller Vorgängermengen   Vn  

Dabei läuft n über alle natürlichen Zahlen. Diese Menge enthält alle natürlichen Zahlen, und sogar noch viel mehr -- letztlich ist   Vω   die Menge aller endliche Mengen. Dabei ist Vω selbst bereits eine unendliche Menge. Um andere unendliche Mengen wie die aller natürlichen Zahlen zu gewinnen, müssen wir die nächste Stufe erklimmen, also die Potenzmenge bilden. Diese enthält dann alle endlichen oder unendlichen Mengen mit beliebigen Elementen aus   Vω   .

Stufe ω+1:   Vω+1   :=   Pow(Vω)   =   Menge aller Teilmengen von Vω

Eine der Mengen in   Vω+1   ist die Menge N der natürlichen Zahlen. Aber es kommen auch alle Teilmengen der natürlichen Zahlen darin vor. Und so geht es immer weiter. Nach unendlich vielen Einzelschritten mit Potenzmengenbildung folgt dabei immer ein großer Vereinigungsschritt, mit dem man die nächste Ordinalzahl ohne Vorgänger erreicht, beispielsweise   Vω+ω   . Dieses   Vω+ω   enthält alle Mengen, die man in der üblichen Mathematik normalerweise so braucht. Alle ZFC-Axiome bis auf das Ersetzungsaxiom sind in   Vω+ω   erfüllt -- mehr dazu weiter unten.


Wieder das Bild von oben, diesmal interpretiert als die ersten ω+ω -Stufen der Mengenhierarchie. Jeder Strich stellt dabei eine Stufe in der Mengenhierarchie dar, und jeder Schritt nach rechts zum nächsten Strich entspricht der Potenzmengenbildung. Nach unendlich vielen Schritten nach rechts gelangt man zur mittleren Stufe, die der Ordinalzahl ω entspricht. Beim Sprung zu dieser Stufe bildet man die Vereinigungsmenge aller Vorgängermengen. Danach folgen wieder unendlich viele Schritte nach rechts mit Potenzmengenbildung, bis bei der nächsten Stufe wieder die Vereinigungsmenge aller Vorgängermengen gebildet wird, und so fort. Bild siehe Wikipedia: Ordinal number.


Und so geht es immer weiter, wobei der Index schrittweise alle Ordinalzahlen durchläuft. Übrigens: Falls der Eindruck entsteht, dass bei Vω ein anderes Bildungsgesetz als bei Vn angewendet wird -- dem ist nicht so. Das allgemeine Bildungsgesetz für jede Ordinalzahl α lautet:

Stufe α:   Vα   :=   ∪β < α   Pow(Vβ)   =   Vereinigungsmenge der Potenzmengen aller Vorstufen Vβ

d.h.   Vα   besteht aus allen Mengen, die man in weniger als α Schritten aufbauen kann, wobei man in jedem Schritt die Objekte verwendet, die man im Schritt zuvor erzeugt hat.

Ganz am Schluss bildet man dann die große Vereinigungsklasse V, die formal die komplette Mengenhierarchie umfasst (von-Neumann-Universum):

  V   :=   ∪α   Vα

Allerdings ist V eine Klasse und keine Menge mehr, im Gegensatz zu jeder Zwischenstufe   Vα   , die alle für sich Mengen sind. Wir wissen ja, dass man mit der Menge aller Mengen Probleme bekommt. Man kann zeigen, dass V alle Mengen umfasst, die es in der ZFC-Mengenlehre gibt -- unsere Mengenhierarchie hat also keine Mengen übersehen. Genauer gilt: Zu jeder Menge in ZFC gibt es eine Stufe Vα in der Hierarchie, die die Menge enthält. Das folgt aus dem Regularitätsaxiom (Fundierungsaxiom) und der Tatsache, dass jede Stufe Vα transitiv ist, d.h. jedes Element der Stufe ist zugleich auch eine Teilmenge der Stufe (siehe beispielsweise John R. Steel: What is a Woodin Cardinal, Notices of the AMS, Vol 54, No. 9, S. 1146, October 2007, im Internet).

Auch wenn diese Hierarchie schrittweise erzeugt wurde und erst einmal einen ganz soliden Eindruck macht, so muss man sich dennoch klarmachen, dass man es hier mit keiner einfachen Hierarchie nach dem Muster   1, 2, 3, 4, ...   zu tun hat, sondern mit einer Hierarchie nach dem Muster   1, 2, 3, 4, ... , ω ω+1, ...   , bei der mit   "..."   unendlich viele Schritte abgekürzt werden, und dies unendlich oft -- eben so, wie man mit Ordinalzahlen zählt. Man spricht von einer transfiniten Rekursion, ganz analog zur transfiniten Induktion aus Kapitel 4.6. Dabei entstehen Mengen von beliebig großer Komplexität und Mächtigkeit, je weiter man geht. Immerhin genügt ja bereits ein einziger Potenzmengen-Schritt, um aus einer abzählbar unendlichen Menge eine überabzählbare zu machen. Im nächsten Schritt entstehen dann alle Teilmengen der überabzählbaren Menge. Von den reellen Zahlen her wissen wir, dass es sehr komplexe Teilmengen der reellen Zahlen gibt, also wahre mathematische Monster. Was geschieht dann erst bei der transfiniten Rekursion dieses Potenzmengen-Schrittes! Irgendwann werden sich daher die Grenzen der ZFC-Axiome zeigen, denn sie werden diese Komplexitäten nicht beliebig weit erfassen können. Die ZFC-Axiome erlauben es nicht, das Gesamtuniversum V zu definieren, auch wenn das oben formal vielleicht so aussieht: V ist keine Menge mehr.

Das Mengenuniversum V repräsentiert mathematisch so etwas wie das absolut Unendliche, denn es umfasst nach heutigem Wissen alle denkbaren mathematischen Objekte. Die folgende etwas unpräzise Idee über das absolut Unendliche bezeichnet man als Reflection Principle (siehe Infinity ):

Reflection Principle:
  • Das absolut Unendliche ist unbeschreibbar, kann also nicht durch eine Eigenschaft charakterisiert werden, die es von anderen Dingen unterscheidet. Insbesondere kann das absolut Unendliche nicht das einzige Objekt sein, das eine bestimmte Eigenschaft aufweist, denn dann wäre es ja durch diese Eigenschaft charakterisierbar. Jede Eigenschaft, die wir dem absolut Unendlichen zuschreiben, muss also auch einem anderen Objekt zukommen.

Bezogen auf das Mengenuniversum V bedeutet das (siehe John R. Steel: What is a Woodin Cardinal, Notices of the AMS, Vol 54, No. 9, S. 1146, October 2007, im Internet):

Reflection Principle in der Mengenlehre:
  • Wenn wir dem Mengenuniversum V eine bestimmte Eigenschaft zuschreiben, so gibt es irgendwelche Hierarchiestufen Vα , denen diese Eigenschaft ebenfalls zukommt.

Wenn wir beispielsweise sagen, dass V unendlich ist, dann gibt es irgendwelche Vα , die ebenfalls unendlich sind. Die Axiome der Mengenlehre garantieren, dass das erfüllt ist.

Und wenn wir sagen, V ist ein Modell der ZFC-Mengenlehre, dann muss es eine Stufe κ in der Mengenhierarchie geben, so dass   Vκ   ein Modell der ZFC-Mengenlehre ist -- zumindest wenn wir dem Reflection Principle glauben. Was ein solches Modell ist, haben wir in Kapitel 4.4 gesehen: Die ZFC-Axiome müssen für alle Mengen in der Modelldomäne wahr sein und es darf keine Menge fehlen, deren Existenz man mit den Axiomen beweisen kann (und umgekehrt). Generell sind nach Gödels Vollständigkeitssatz alle mit ZFC beweisbaren Aussagen im Modell wahr. Es muss aber nicht jede in dem Modell wahre Aussage auch in ZFC beweisbar sein -- das ist dann Gödels Unvollständigkeitssatz. Eine Aussage ist genau dann in ZFC beweisbar, wenn sie in jedem Modell von ZFC wahr ist.

Ist das Reflection Principle zuverlässig? Kann man in ZFC beweisen, dass es eine solche Stufe κ in der Mengenhierarchie gibt, so dass   Vκ   ein Modell der ZFC-Mengenlehre ist (also insbesondere alle Mengen enthält, deren Existenz sich in ZFC beweisen lässt)? Da aus der Existenz eines Modells der ZFC-Mengenlehre deren Widerspruchsfreiheit folgt, würde das bedeuten, dass die ZFC-Mengenlehre damit ihre eigene Widerspruchsfreiheit bewiesen hätte -- das kann sie nach Gödel aber prinzipiell nicht. Also kann sie auch nicht die Existenz der Modellstufe κ beweisen. (siehe Kapitel 4.4 ). Übrigens ist auch die Voraussetzung, dass V ein Modell ist, wackelig -- intuitiv liegt das zwar nahe, denn V enthält ja irgendwie alles, was in der Mengenlehre denkbar ist, aber beweisen kann man das nicht, denn V ist ja noch nicht einmal eine Menge.

Immerhin legt das Reflection Principle aber nahe, dass Modellstufen   Vκ   von ZFC eine sinnvolle Denkmöglichkeit sind, auch wenn ZFC ihre Existenz nicht beweisen kann. So sind die meisten ZFC-Axiome bereits in den unteren Stufen der Mengenhierarchie erfüllt. Beispielsweise ist das Unendlichkeitsaxiom in der Stufe   Vω+1   erfüllt, da diese Stufe bereits unendliche Mengen enthält (siehe oben). Das Potenzmengenaxiom ist für jede Stufe   Vα   erfüllt, bei der α eine Limeszahl ist, also eine Ordinalzahl ohne Vorgänger. Man kann sich überlegen dass alle ZFC-Axiome bis auf Eines in   Vω+ω   erfüllt sind. Dieses eine problematische Axiom ist das Ersetzungsaxiom, das folgendes behauptet (siehe Kapitel 4.2 ): Das Abbild einer beliebigen Menge unter einer Abbildung F ist wieder eine Menge. Man kann leicht eine Abbildung konstruieren, die aus   Vω+ω   hinausführt, beispielsweise indem man jede gerade Zahl   2n   auf   ω + n   abbildet (siehe auch A. Shenitzer und J. Steprans: The Evolution of Integration, The American Mathematical Monthly, January 1994, Vol 101, No. 1, pp. 66-72, im Internet). Erst bei einer Stufe   Vκ   mit einer überabzählbaren schwer erreichbaren Limeskardinalzahl κ kann man alle Abbildungen F einfangen, so dass   Vκ   ein Modell von ZFC wird. Da ZFC die Existenz eines Modells seiner selbst weder beweisen noch widerlegen kann, kann ZFC auch die Existenz von κ nicht entscheiden, wie der Begriff unerreichbar ja auch sagt. Damit ist die Existenz dieser Stufe aber immerhin denkbar, führt also zu keinen (neuen) Widersprüchen. Und schon sind wir beim Thema Erweiterungen der ZFC-Mengenlehre!


Erweiterungen der ZFC-Mengenlehre:

Niemand hindert uns daran, die Existenz von Mengen mit gewissen unerreichbaren Mächtigkeiten κ einfach zu fordern -- wie beispielsweise die Existenz von θ weiter oben. Das ist eigentlich nichts Ungewöhnliches, denn die ZFC-Mengenlehre macht auch nichts anderes: Sie fordert über das Unendlichkeitsaxiom und das Potenzmengenaxiom ebenfalls gewissen Unendlichkeiten (siehe Kapitel 4.2 ). Offenbar sind aber noch weitere Unendlichkeiten im Mengenuniversum denkbar, die damit nicht erfasst werden. Warum sollten wir auf diese Unendlichkeiten verzichten? Wir können sie bei Bedarf durch geeignete neue Axiome mit hinzunehmen und so die ZFC-Mengenlehre erweitern! Die Ausdruckskraft der Mengenlehre wird dadurch verbessert, denn sie kann nun auch über Mächtigkeiten von Mengen sprechen, die zu gigantisch für ZFC waren. Gödel hoffte, dass man durch solche Axiome vielleicht eine Erweiterung der Mengenlehre schaffen könnte, die die Kontinuumshypothese entscheiden würde. Insbesondere hoffte er, dass man die Komplexität eines möglichen Gegenbeispiels zur Kontinuumshypothese auf diese Weise irgendwie einfangen und genauer spezifizieren könnte (wenn man es schon nicht konstruieren kann, wie Gödel gezeigt hatte). Da die Kontinuumshypothese in ZFC unentscheidbar ist, muss die Komplexität eines Gegenbeispiels ja jenseits der Ausdruckskraft von ZFC sein.

Wie man heute weiß, lässt sich Gödels Idee so leider nicht durchführen. Man konnte mit Hilfe vom Modellerweiterungen (Forcing-Methode) zeigen, dass große Kardinalzahlen die Kontinuumshypothese nicht entscheiden können. Die Kontinuumshypothese ist also eine Nummer zu schwer für unerreichbare Kardinalzahlen.

Andererseits ist die ZFC-Mengenlehre nach heutigem Wissen vermutlich stark genug, um alle natürlicherweise in der Zahlentheorie auftretenden Fragen über natürliche Zahlen entscheiden zu können. Man sagt, ZFC scheint bezüglich natürlicher arithmetischer Aussagen vollständig zu sein. Mit natürlich meint man Probleme, die man nicht extra als unabhängig von der ZFC-Mengenlehre konstruiert hat, sondern die man ohne Rücksicht auf die Mengenlehre in der üblichen Zahlentheorie untersucht. Gibt es vielleicht natürliche Aussagen, die in ihrer Komplexität zwischen den typischen zahlentheoretischen Problemen und der Kontinuumshypothese liegen? In ZFC alleine wären diese Aussagen dann unentscheidbar, aber die Hinzunahmen geeigneter unerreichbarer Kardinalzahlen würden sie vielleicht entscheidbar machen.

Solche Aussagen gibt es! Schauen wir uns zum Vergleich noch einmal die Kontinuumshypothese an: Sie behauptet, dass es eine Teilmenge der reellen Zahlen mit einer bestimmten einfachen Eigenschaft gibt. Diese Frage nach einer Teilmenge der reellen Zahlen macht die Aussage so komplex, denn Teilmengen der reellen Zahlen können wahre mathematische Monster sein. Weniger komplex sind Aussagen der Form es gibt reelle Zahlen x, so dass ... oder für alle reellen Zahlen x gilt: ... . So etwas nennt man projektive Aussagen. Bei projektiven Aussagen muss jeder in der Aussage vorkommende Quantor auf die reellen Zahlen beschränkt sein, darf also nicht nach Teilmengen der reellen Zahlen fragen, so wie es die Kontinuumshypothese tut. Man kann auch sagen, dass projektive Aussagen aus Sicht der reellen Zahlen von erster Ordnung sind.

Über eine projektive Ausage kann man eine projektive Mengen definieren, nämlich einfach die Menge aller reellen Zahlen, für die die projektive Aussage gilt. So bilden beispielsweise die rationalen Zahlen eine projektive Menge. Auch ein Intervall zwischen zwei reellen Zahlen ist eine projektive Menge. Letztlich sind alle reellen Zahlenmengen, die man als Mathematiker so im täglichen Leben braucht, projektive Mengen. Nicht-projektive Mengen treten eher als pathologische mathematische Monster auf, beispielsweise beim Banach-Tarski-Paradoxon, bei dem man per Auswahlaxiom eine Vollkugel vom Volumen 1 punktweise in vier Punktwolken zerlegt, die man dann über Verschiebungen und Drehungen zu zwei Vollkugeln mit zusammen doppeltem Volumen zusammensetzen kann. Die vier Punktwolken sind Beispiele für solche pathologischen unanschaulichen Mengen. Insbesondere sind sie nicht-Lebesque-messbare Mengen, d.h. sie haben kein Volumen.

Es wäre nun wünschenswert, wenn alle natürlicherweise auftretenden Aussagen über projektive Mengen in der ZFC-Mengenlehre entschieden werden könnten, also eindeutig wahr oder falsch wären. Das ist leider zunächst nicht der Fall. Man stellt aber empirisch fest, dass sie alle gleichwertig sind zu Aussagen über die Existenz gewisser unerreichbarer Kardinalzahlen. Die Erfahrung zeigt also: Die typischen Fragen über alltägliche (also projektive) reelle Zahlenmengen sind gleichwertig zu Aussagen über die Mächtigkeit von Mengen, die zu groß für die ZFC-Mengenlehre sind. Man kann also große Kardinalzahlen dazu verwenden, die natürlichen Aussagen über projektive Mengen nach der Mächtigkeit der Kardinalzahlen zu ordnen. Besonders wichtig ist dabei das folgende Ergebnis aus dem Jahr 1988 (was Woodin-Kardinalzahlen sind, kommt etwas später):

Projektive Determiniertheit (PD) und Woodin-Kardinalzahlen:
  • Wenn es unendlich viele unerreichbare Woodin-Kardinalzahlen gibt, so ist jede projektive Menge determiniert, d.h. es gilt projektive Determiniertheit (PD). Fordert man umgekehrt, dass jede projektive Menge determiniert ist, so folgt die Existenz der Woodin-Kardinalzahlen.

Projektive Mengen haben viele wünschenswerte Eigenschaften, wenn sie determiniert sind. So sind sie beispielsweise Lebesque-messbar, d.h. nicht-messbare Monstermengen wie beim Banach-Tarski-Paradoxon sind für projektive Mengen ausgeschlossen. Das Auswahlaxiom wäre für projektive Mengen damit weitgehend entschärft -- es wird für diese Mengen praktisch nicht mehr benötigt. Man geht heute davon aus, dass man die ZFC-Mengenlehre möglichst so erweitern sollte, dass projektive Mengen determiniert sind (mehr dazu weiter unten).

Von oben wissen wir, dass es unter determinierten Mengen kein Gegenbeispiel zur Kontinuumshypothese gibt. Wenn also jede projektive Menge determiniert ist, dann kann es unter ihnen kein Gegenbeispiel zur Kontinuumshypothese mehr geben. Projektive Aussagen über reelle Zahlen können also dann keine reellen Zahlenmengen erzeugen, deren Mächtigkeit zwischen den natürlichen und den reellen Zahlen liegt.

Natürlich kann man reelle Zahlenmengen definieren, die komplizierter als die projektiven Mengen sind. Auch bei diesen Mengen kann man zeigen, dass die Existenz von bestimmten unerreichbaren Kardinalzahlen gleichwertig zur Determiniertheit dieser Mengen ist, so dass damit allzu schlimme mathematische Monstermengen verhindert werden. Je komplizierter die Menge ist, umso größer müssen die geforderten Kardinalzahlen sein, um Determiniertheit sicherzustellen.

Wie definiert man eigentlich solche unerreichbaren Kardinalzahlen wie beispielsweise die Woodin-Zahlen? Im Wesentlichen benutzt man sogenannte elementare Einbettungen

  j :   V   →   M

die einen Bezug zwischen unserem Mengenuniversum V und einem (möglicherweise kleineren) Mengenuniversum M herstellt. Man sagt auch, M ist eine hinreichend robuste transitive Unterklasse des Gesamtuniversums V. Dabei soll j alle Relationen zwischen Mengen erhalten -- wenn also beispielsweise A Untermenge von B ist, so muss auch j(A) Untermenge von j(B) sein. Und natürlich soll j nicht einfach die identische Abbildung sein, d.h. sie muss auch irgendetwas verändern. Insbesondere soll sie auch bestimmte Ordinalzahlen verändern. Im Grunde lotet j die Freiheiten aus, die man bei der Festlegung des Mengenuniversums noch hat. Wenn man nun mit Hilfe von j bestimmte unerreichbare Kardinalzahlen definiert, so sind diese umso größer (stärker), je ähnlicher die beiden Mengenuniversen M und V werden. Je größer die unerreichbaren Kardinalzahlen werden, umso genauer legen sie also die Struktur des Mengenuniversums fest. Das legt nahe, dass große Kardinalzahlen eine sinnvolle Erweiterung der ZFC-Axiome sind, denn ZFC alleine legt das Mengenuniversum V und damit j nicht allzu weit fest, wie wir wissen.

Optimal wäre es natürlich, denn   V = M   wäre, d.h. wenn es eine elementare Einbettung j von V nach V gäbe. Dann wäre das Mengenuniversum festgelegt. Man spricht hier vom Wholeness-Axiom. Aber wir ahnen es schon, dass das wohl nicht möglich sein wird, denn es wäre ja so etwas wie die Definition des absolut Unendlichen.

Damit sind wir nun gerüstet für die Definition der Woodin-Kardinalzahlen -- nur, damit man sie mal gesehen hat und ein Gefühl für die Komplexität solcher Definitionen bekommt (mehr dazu siehe John R. Steel: What is a Woodin Cardinal, Notices of the AMS, Vol 54, No. 9, S. 1146, October 2007, im Internet):

Woodin-Kardinalzahlen:

Eine Kardinalzahl   δ   ist eine Woodin-Kardinalzahl, wenn die folgende Bedingung erfüllt ist:

Für alle Teilmengen A der entsprechenden Mengenhierarchiestufe   Vδ   muss es eine kleinere Kardinalzahl   κ < δ   geben, die A-stark in δ ist (d.h. κ ändert sich, obwohl sich alle nieder-hierarchischen Anteile von A nicht ändern).

Genauer bedeutet das: Für alle Kardinalzahlen   β < δ   muss es eine elementare Einbettungen   j   geben, so dass   A   und   j(A)   dieselbe Schnittmenge mit   Vβ   haben und so, dass   κ   ein kritischer Punkt von   j   ist, d.h.   κ   ist die kleinste Kardinalzahl, die von   j   nicht mehr auf sich selbst abgebildet wird. Es gilt sogar   κ < j(κ)   .

Kann man das verstehen? Versuchen wir es: Wir schauen uns die Hierarchiestufe   Vδ   zur Woodin-Kardinalzahl   δ   an und greifen uns irgendeine beliebig große Teilmenge   A   davon heraus (sie darf auch gleich   Vδ   sein). Von dieser Teilmenge   A   schauen wir uns dann irgendeinen tieferliegenden Anteil an, nämlich die Schnittmenge mit einer niedrigeren Hierarchiestufe   Vβ   . Wir können nun dazu immer eine Einbettung   j   hinbekommen, die diesen tieferliegenden Anteil nicht ändert, egal wie nahe wir mit   β   an   δ   heranrücken oder wie groß wir A machen. In diesem Sinn ist fast ganz   Vδ   als Mengenuniversum festgelegt -- den nicht festgelegten Teil können wir beliebig schrumpfen lassen, indem wir mit β an δ heranrücken, aber er verschwindet nie ganz. Trotzdem aber tut diese Abbildung   j   unterhalb der Woodin-Mächtigkeit   δ   etwas, denn dort soll es eine Mächtigkeit   κ   geben, die durch   j   vergrößert wird. Zugegeben, das ist recht abstrakt, aber es geht hier ja auch um abstrakte Fragen zu komplexen Unendlichkeiten. Unmittelbar einsichtig als naheliegendes Axiom scheint das allerdings nicht zu sein. Es sind vielmehr die Auswirkungen, die hier zählen. Es war daher ein hartes Stück Arbeit, Woodin-Kardinalzahlen als eine mögliche sinnvolle Ergänzung zu ZFC herauszustellen.

     


Wie hängt das Ganze nun mit der Wahrheit von projektiven Aussagen über die reellen Zahlen zusammen? Nehmen wir dazu an, ein Vα ist ein Modell der ZFC-Mengenlehre -- so ein Modell brauchen wir ja, um den Wahrheitsbegriff zu definieren. Genauer ist es sogar so, dass Vα eine hinreichend elementare abzählbare Substruktur enthalten muss, die ein transitives Modell von ZFC ist (siehe Kapitel 4.4 ). Insbesondere enthält das Modell dann die obige Mengendarstellung der natürlichen Zahlen. Wir wollen nun dieses Modell erweitern (Forcing). Dabei kommen keine neuen natürlichen Zahlen hinzu, d.h. die Wahrheit von Aussagen über natürliche Zahlen ändert sich durch die Erweiterung nicht. Was aber geschieht mit Aussagen über reelle Zahlen? Immerhin starten wir ja mit einem abzählbaren Modell, so dass durch die Erweiterung neue reelle Zahlen hinzukommen können.

Es zeigt sich, dass die Wahrheit von bestimmten projektiven Aussagen über reelle Zahlen sich durch die Erweiterung nicht ändert. Diese Aussagen haben die Form

Solche Aussagen merken also von neu hinzukommenden reellen Zahlen offenbar nichts. Das kann bei komplizierteren projektiven Aussagen über reelle Zahlen aber im Prinzip anders sein -- es müssen nur hinreichend komplexe mathematische Monstermengen aus reellen Zahlen hinzukommen.

Man kann erreichen, dass sich die Wahrheit von allen projektiven Aussagen über reelle Zahlen durch eine Modellerweiterung nicht ändert (man sagt dann, das Modell ist projektiv absolut). Die Methode dazu kennen wir bereits: Wir fordern, dass sowohl das Modell Vα als auch seine Erweiterungen unendlich viele Woodin-Kardinalzahlen enthalten. Das sind dann keine Modelle von ZFC allein mehr, sondern Modelle einer erweiterten Version der Mengenlehre, die ein Zusatzaxiom erfüllt -- nämlich die Existenz von Woodin-Kardinalzahlen. In dieser erweiterten Mengenlehre ist der Begriff der reellen Zahlen also umfassender festgelegt als in der ZFC-Mengenlehre, denn die Wahrheit von projektiven Aussagen über reelle Zahlen ändert sich nicht bei Modellerweiterungen. Man spricht auch von Stabilisierung dieses Teils des Mengenuniversums -- ein wichtiges Kriterium bei der Suche nach neuen Axiomen zur Erweiterung von ZFC.

Es liegt nun nahe, dass man sich ein möglichst kleines Modell als Startpunkt aussuchen sollte, welches aber alle reellen Zahlen sowie unendlich viele Woodin-Kardinalzahlen enthält. Die Wahrheit von projektiven Aussagen über reelle Zahlen ändert sich dann beim Erweitern des Modells nicht. Die über diese Aussagen definierten projektiven reellen Zahlenmengen sind dann determiniert, verhalten sich also einigermaßen gesittet. Die Erfahrung zeigt, dass die Wahrheit aller natürlicherweise auftretenden projektiven Aussagen über reelle Zahlen dann festliegt. In diesem Sinn gelingt es mit Hilfe der Woodin-Kardinalzahlen und der dazu gleichwertigen projektiven Determiniertheit, die Eigenschaften der reellen Zahlen weitgehend einzufangen -- zumindest was projektive Aussagen betrifft. Man sagt auch, die projektive Determiniertheit ist für projektive Mengen empirisch vollständig.

Nun ist die Kontinuumshypothese leider keine projektive Aussage -- sie ist komplexer, denn sie spricht nicht direkt über reelle Zahlen, sondern sie verneint die Existenz einer bestimmten Teilmenge der reellen Zahlen. Die Woodin-Kardinalzahlen sorgen dann zumindest schon einmal dafür, dass keine projektive Aussage über reelle Zahlen ein Gegenbeispiel zur Kontinuumshypothese erzeugen kann (siehe oben). Aber es könnte ja immer noch kompliziertere reelle Zahlenmengen geben, deren Mächtigkeit zwischen den natürlichen und den reellen Zahlen liegt. Die Woodin-Kardinalzahlen verbieten das nicht.

Wie komplex ist denn die Kontinuumshypothese? Zum Vergleich: Arithmetische Aussagen sprechen über natürliche Zahlen (enthalten aber keine Quantoren über Teilmengen der natürlichen Zahlen). Die nächste Stufe sind die projektiven Aussagen -- sie sprechen über reelle Zahlen (enthalten aber keine Quantoren über Teilmengen der reellen Zahlen). Da man reelle Zahlen auch als Teilmengen der natürlichen Zahlen auffassen kann, sprechen projektive Aussagen auch über Teilmengen der natürlichen Zahlen   N = Aleph_0   . Damit ist klar: Die nächste Stufe (bezogen auf die Mächtigkeit der Mengen) sind dann Aussagen, die über Teilmengen von   Aleph_1   sprechen (wobei wir nicht   Aleph_1 = R   setzen, da wir neutral bleiben wollen, was die Kontinuumshypothese betrifft). Die Kontinuumshypothese kann nun genau so formuliert werden, fällt also in diese Komplexitätsklasse.

Bei Aussagen dieser Komplexität können wir nicht dasselbe erreichen wie bei den projektiven Aussagen. Große Kardinalzahlen können nicht verhindern, dass der Wahrheitswert dieser Aussagen in verschiedenen Modellerweiterungen unterschiedlich sein kann (siehe Gödels Idee weiter oben). Was also ist zu tun? Nun, man könnte sich auf diejenigen Modellerweiterungen beschränken, die den Wahrheitswert dieser Aussagen unverändert lassen. Man kann zeigen, dass das genau diejenigen Modellerweiterungen sind, bei denen jede sogenannte stationäre (d.h. in gewissem Sinn dicke) Menge bei der Erweiterung stationär bleibt. Man spricht vom Bounded Martin's Maximum.

Und nun sind wir ganz weit vorne an der Front der Forschung: Im Jahr 2002 konnte Todorcevic zeigen, dass bei dieser Einschränkung der möglichen Modellerweiterungen die Kontinuumshypothese in diesen Modellen falsch ist, und dass man in gewissem Sinn eine Menge definieren kann, deren Mächtigkeit zwischen den natürlichen und den reellen Zahlen liegt. Die Formulierung in Ralf Schindler: Wozu brauchen wir grosse Kardinalzahlen? lautet etwa so (wenn ich sie richtig verstanden habe):

Was wollen uns diese Worte sagen? Die Bijektion f bedeutet, dass die Menge der reellen Zahlen die Mächtigkeit   Aleph_2   hat, so dass nach den natürlichen Zahlen   Aleph_0   noch Platz für die Mächtigkeit   Aleph_1   ist. Eine solche Menge mit Mächtigkeit   Aleph_1   wird dann als Punktmenge in der reellen Ebene angegeben. Sie enthält alle die Punkte   (x,y)   , bei denen der x-Koordinate über die Bijektion   f   eine kleinere oder gleich große Ordinalzahl aus   Aleph_2   zugeordnet ist als der y-Koodinate. Zugegeben, das ist ziemlich abstrakt, und f wird auch nicht konkret angegeben. Aber viel konkreter kann ein solches Gegenbeispiel auch gar nicht sein (projektive Aussagen gehen ja nicht; mehr dazu auch im nächsten Kapitel).

Bisher hatte jede Zusatzforderung an die ZFC-Mengenlehre üblicherweise dazu geführt, dass die Kontinuumshypothese stimmte. Die Zusatzforderungen wirkten sich wie Restriktionen aus, die die Komplexität von Mengen soweit beschränkten, dass kein Gegenbeispiel mehr möglich war. Nun ist es dagegen gelungen, durch Zusatzforderungen solche Modelle herauszufiltern, in denen es mindestens ein Gegenbeispiel gibt, das sogar halbwegs konkret ist.

Was hat die obige Einschränkung der Modellerweiterungen mit unerreichbaren Kardinalzahlen zu tun? Nun, man kann offenbar zeigen, dass sich auch einige offene Fragen bei unerreichbaren Kardinalzahlen so klären lassen. Und nicht nur solche Fragen -- auch viele weitere interessante Aussagen werden entschieden. Übrigens kann man unsere obige Forderung nach Woodin-Kardinalzahlen problemlos hinzunehmen, so dass dann wieder alle projektiven Mengen determiniert sind und auch alle natürlichen projektiven Aussagen entschieden werden. Das ergibt dann eine umfassende und aussagekräftige Theorie, in der viele Aussagen entschieden werden, ohne dass dies einfach nur durch Ausschluss komplizierter Mengen geschieht. Diese Theorie sagt dann, dass ein Gegenbeispiel zur Kontinuumshypothese nicht durch eine projektive Aussage über reelle Zahlen entstehen kann, findet aber dennoch einen Weg, ein Gegenbeispiel zu definieren.

Auch andere moderne Erweiterungen der ZFC-Mengenlehre mit möglichst großer Aussagekraft führen zu ähnlichen Resultaten. Es sieht also heute so aus, als ob die Kontinuumshypothese besser falsch sein sollte. Das bedeutet, dass Modelle, in denen sie wahr ist, eher einen einschränkenden Charakter haben, während Modelle, in denen sie falsch ist, mehr Raum für kompliziertere Konstrukte lassen. Bei dieser Argumentation darf man aber nie vergessen: Die Kontinuumshypothese ist im Rahmen der ZFC-Mengenlehre nicht an-sich wahr oder falsch. Sie ist denkbar, und auch ihr Gegenteil ist denkbar. Eine mathematische Denkwelt, in der sie nicht gilt, scheint aber möglicherweise reichhaltiger zu sein als eine, in der sie gilt. Ob man diesen Reichtum gebrauchen kann, ist momentan noch offen. Vielleicht braucht man ihn, um beispielsweise das P=?NP-Problem zu lösen (siehe Kapitel 5.1)?! Auch aus der theoretischen Physik sind viele Beispiele bekannt, bei denen zuvor scheinbar rein abtrakte mathematische Begriffe plötzlich Nutzen gestiftet haben -- man denke an die Differentialgeometrie, die das zentrale Werkzeug der allgemeinen Relativitätstheorie geworden ist, oder an den unendlichdimensionalen Hilbertraum, den man in der Quantentheorie braucht. Die Natur wird eben auch immer abstrakter, je tiefer man in ihre Strukturen vordringt!


Schlussbemerkung:
Da das Thema recht komplex ist und da ich kein Experte auf dem Gebiet bin, sind kleinere Ungenauigkeiten in diesem Kapitel wohl unvermeidlich -- ich wollte ja keinen mathematischen Fachartikel schreiben. Bei groben Fehlern wäre ich aber sehr dankbar für eine entsprechende Nachricht. Die Emailadresse steht auf der Startseite der Homepage. Danke!


Literatur:


zurück zum Inhaltsverzeichnis

last modified on 14 March 2009