Warum kennt man die Lichtgeschwindigkeit exakt?

Der Wert der Lichtgeschwindigkeit beträgt 299792458 $\frac{\text{m}}{\text{s}}$. Sucht man nach der Messunsicherheit, so findet man, dass es keine gibt, das heißt, dass der Wert exakt ist.

Wie kann das sein?

Früher war es anders. Zunächst war der Meter nämlich definiert als die Länge des Urmeters (ein Maßstab, dessen Länge dem zehnmillionsten Teil der Entfernung vom Nordpol zum Äquator entsprechen sollte). Dadurch musste man bei der Lichtgeschwindigkeit als abgeleiteter Größe eine Unsicherheit angeben.

Die Unsicherheit wurde kleiner, als man bei der Definition des Meters statt auf das Urmeter auf die Wellenlänge von Licht zurückgriff, die von einem bestimmten Krypton-Isotop bei einem bestimmten elektronischen Übergang ausgesandt wird. Dadurch wurden die Messungen nämlich genauer, außerdem war die Definition nun unabhängig von einem bestimmten, veränderlichen Gegenstand (dem Urmeter) und nur noch abhängig von einer Naturkonstanten (wenn auch mit einer, die mit den Eigenschaften eines bestimmten Atoms verknüpft war).

Bei der letzten Reform dann wurde die Lichtgeschwindigkeit nicht mehr als die abgeleitete Größe, sondern als die fundamentale Größe verwendet. Die Lichtgeschwindigkeit wurde also nicht mehr ausgehend von der Strecke (in Meter) und der Zeit (in Sekunden) gemessen, wobei Unsicherheiten entstehen. Statt dessen wurde der Meter ausgehend von der Lichtgeschwindigkeit definiert, und zwar als die Strecke, die Licht in 1/299792458 Sekunde zurücklegt. Die Lichtgeschwindigkeit ist also per definitionem 299792458 $\frac{\text{m}}{\text{s}}$. Weil es sich um eine Definition handelt, ist der Wert exakt.

Vorschläge für neue Fragen sind herzlich willkommen.