Wissen ist ein Privileg. Die Weitergabe eine Pflicht. |
[Künstlername AlexD, daher auch adf als Autorenkürzel] |
Mathematik ist wie Sprache
Ursprünglich wurde Sprache von Menschen erschaffen, um ihre Absichten verständlich kundzutun. Die Aussagen bezogen sich auf die ge- und erlebte Realität. Wenn jemand heute sagt oder schreibt, er fährt morgen nach Köln oder er war gestern in Hamburg, so sind diese Aussagen gut verständlich und bilden die Realität ab. Wenn jemand in einem Science-Fiction-Roman schreibt, er durchbricht mit seinem Raumschiff die Lichtmauer und fliegt in eine andere Galaxis oder lässt sich irgendwo hin beamen, dann ist das auch anwendbare Sprache. Das einzige Kriterium, welches bei der Sprache eine Rolle spielt, ob diese richtig oder falsch ist, ist die Grammatik. Es gibt Sprach- respektive Schreibregeln. Die Grammatik bewertet jedoch nicht die Sprachinhalte. Ob jemand mit dem Flugzeug real nach Köln fliegt oder sich von Frankfurt nach Köln beamt, ist grammatikalisch ohne Bedeutung. Grammatik prüft und bewertet keine Inhalte. Mathematik ist wie Sprache. Anfangs konnte Mathematik nur Addieren und Subtrahieren. Daraus folgte die Multiplikation als Darstellungsmöglichkeit der Addition. „Verwandt“ mit der Summenbildung ist die Umkehrfunktion der Multiplikation, das Teilen. Es lassen sich gemäß der Grundrechenarten (Addition, Subtraktion, Multiplikation, Division), gut verständlich, so genannte »mathematische Reihen« bilden. Des Weiteren Funktionen, Extrem- und Grenzwerte dieser, verständlich verstehen. In diesem Zusammenhang wird die Mathematik ergänzend zu den Grundrechenarten mittels Differential- und Integralrechnung erweitert, ohne das hier explizit zu erörtern. Als diesbezügliche »Mathematik-Erweiterer« sind hier historisch Gottfried Wilhelm Leibniz (1646 – 1716), Isaac Newton (1643 – 1726) und Leonhard Euler (1707 -1783) zu nennen. Ohne auf weitere mathematische Teilgebiete einzugehen, lassen sich beispielsweise auch geometrische Eigenschaften mathematisch verständlich abbilden. Die so entstandene Mathematik hatte und hat einen festen Bezug zur Realität und wird benutzt, um beispielsweise reale Anwendungen zu optimieren. Die Optimierungsgedanken respektive Optimierungswünsche waren und sind „sinnerfahrbar“ sprich phänomenologisch begründet. Siehe das einfach zu verstehende Beispiel: Wie muss ein Rechteck aussehen, das bei einem gegebenen Umfang einen maximalen Flächeninhalt hat? Dieser Teil der Mathematik und deren Anwendungen entsprechen der realitätsorientierten Wortsprache, die benutzt wurde und benutzt wird, um die machbare Realität zu beschreiben. So wie jemand, der mit Worten ausdrückt, das er morgen von Bonn mit dem Fahrrad nach Berlin fährt. Was dann in der erweiterten Mathematik (Moderne Mathematik) mitunter folgte, war zwar axiomatisch richtig, was, in Analogie zur Sprache, der richtigen Grammatik entsprechen würde, aber keinen Bezug mehr zur Realität hat, wie, dass sich jemand irgendwo hin beamt. Wenn Euklid (…lebte wahrscheinlich im 3. Jahrhundert v. Chr.) noch nach plausibler Anschauung für mathematische Grundlagen suchte und somit eine interdisziplinäre Verbindung herstellte, die man als richtig oder falsch bewerten konnte, so stellt sich in der modernen Mathematik die Frage nach richtig oder falsch nicht. Euklids Definitionen sind explizit, sie verweisen auf außermathematische Objekte der „reinen Anschauung“, wie Punkte, Linien und Flächen. "Ein Punkt ist, was keine Breite hat. Eine Linie ist breitenlose Länge. Eine Fläche ist, was nur Länge und Breite hat." Als David Hilbert (1862 – 1943) im 20. Jahrhundert erneut die Geometrie axiomatisierte, verwendete er ausschließlich implizite Definitionen. Die Objekte der Geometrie hießen zwar weiterhin „Punkte“ und „Geraden“ doch sie waren lediglich Elemente nicht weiter explizierter Mengen. Angeblich soll Hilbert gesagt haben, dass man jederzeit anstelle von Punkten und Geraden auch von Tischen und Stühlen reden könnte, ohne dass die rein logische Beziehung zwischen diesen Objekten gestört wäre. Das bedeutet: Axiomatik prüft und bewertet keine Inhalte beispielsweise in Hinblick auf machbare Realisierungen. Des Weiteren, Mathematik kann (und will auch) nicht zwischen Staub und Staubsauger unterscheiden. Inwieweit axiomatisch begründete Abstraktionen (in Sprachanalogie wie Beamen, Zeitreisen etc.) insbesondere realphysikalische Objekte und deren wahrnehmbare Wechselwirkungsphänomene beschreiben, steht auf einem ganz anderen Blatt. Mathematik schafft keine neuen Erkenntnisse und ersetzt auch nicht die Realität. Es mag sein, dass von dem Gedanken an beispielsweise Zeitreisen oder Beamen (Teleportation) eine große Strahlkraft ausgeht, dennoch ist festzustellen, dass rationale Wissenschaftler dies ausschließen. Es ist auch davon auszugehen, das, insbesondere im Hinblick auf die Physik, Menschen aller möglichen Bildungsgrade erwarten, dass diejenigen die Mathematik anwenden, wissen was real ist und was nicht. Hier liegt jedoch ein fatales Mißverständnis vor. Schon Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte." Ernst Mach (1838 - 1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882 Fragmentarischer Rückblick Um eine Idee von der Entwicklung der »Modernen Mathematik« zu bekommen, sei das Folgende erwähnt. Exemplarisch über Johann Carl Friedrich Gauß (1777 – 1855), Georg Friedrich Bernhard Riemann (1826 – 1866), der u.a. den Begriff der Metrik einführte …welcher modern bedeutet: Eine Metrik ist ein Skalarprodukt auf dem Tangentialraum einer Mannigfaltigkeit, die in differenzierbarer Weise vom Punkt abhängt. Die euklidische Metrik ist dabei lediglich ein Spezialfall… Geometrie ist im Riemannschen Sinne »innere Geometrie«, deren Objekte Größen sind, die nur von den lokalen Eigenschaften einer Metrik abhängen… folgen Felix Christian Klein’s (1849 – 1925) Ausführungen …beispielsweise zu Veränderungen der Lage - Drehungen, Spiegelungen, Verschiebungen, …diese sind die Wirkung einer Gruppe, die er als „Transformationsgruppe“ bezeichnet. Die geometrischen Objekte sind Invarianten gewisser Gruppen, die auf Mengen operieren. Mit Rückführung der Geometrie auf die Algebra konnte man Geometrien klassifizieren, indem man eine Grundmenge und die darauf operierende Gruppe angab. Zwischen 1870 und 1920 wurden die mathematischen Axiome neu geschrieben (Richard Dedekind, Georg Cantor), es entstanden die Differentialgeometrie (Poincare, Minkowski) und neue Algebren mit bisher unerforschten Symmetrien (Tensorkalkül, Lie-Algebra). Die »vierdimensionale "physikalische Raumzeit“« wurde nicht – wie viele glauben - von Albert Einstein entwickelt sondern vom Mathematiker Hermann Minkowski (1864-1909). Minkowski hielt am 21. September 1908 in Köln auf der 80. Versammlung der Deutschen Gesellschaft der Naturforscher und Ärzte seinen Vortrag »Raum und Zeit«. In diesem Vortrag führt Minkowski die mathematischen Notationen ein, mit denen die Spezielle Relativitätstheorie Einsteins zur Allgemeinen Relativitätstheorie erweitert werden kann. Aufgrund des Relativitätsprinzips und der daraus folgenden Invarianz gegenüber Lorentztransformationen trägt in diesem Denkmodell nicht nur Masse, sondern auch jede Form von Energie zur Krümmung der Raumzeit bei. Dies gilt einschließlich der mit der Gravitation selber verbundenen Energie. Daher sind die »Einstein’schen Feldgleichungen« nichtlinear. Sie lassen sich im Bereich schwacher Krümmung durch lineare Gleichungen annähern, in denen sich das Newtonsche Gravitationsgesetz wieder finden lässt. Ausgehend von der Suggestion, dass es sich um etwas „irgendwie“ Reales handeln muß, da die Raumzeit ja auch „irgendwie“ die Realität – beschreibt, wurde der Mythos geboren, das die Relativitätstheorie zwar richtig aber nicht zu verstehen sei. Tatsache ist jedoch: Die Raumzeit ist nicht sinnlich erfahrbar und auch nicht apparativ meßbar. Die Raumzeit ist ein rein mathematisches Konstrukt. Für »Deutschlesende« am Rande bemerkt: Vergleiche exemplarisch die deutschen und englischen Wikipedia-Ausführungen zur Raumzeit. Vergleiche die deutschen und englischen Ausführungen zum Minkowski-Raum. Und vergleiche die deutschen und englischen Ausführungen zur Lorentz-Transformation. Hier fällt auf, dass der „Laie“ mittels der deutschen Wikipedia, im wahrsten Sinne des Wortes, unzureichend informiert wird. Es ist kaum zu glauben, dass die »Galionsfiguren der Raumzeit«, der deutsche Albert Einstein und der deutsche Hermann Minkowski waren. Wie auch immer, die ersten Experimente zur Atom- und Quantenphysik ließen sich gut mit den bis dahin rein abstrakten mathematischen Formalismen verbinden, was erst zur bekannten Symbiose führte, welche sich sodann im Zuge der Begeisterung für mathematische Möglichkeiten letztendlich von der Realphysik abspaltete und diese, im Zuge der Standardmodelle der Theoretischen Denkmodellphysik, beherrschend wurde. Von da an musste die Natur der Mathematik genügen. William Thurston (1946 – 2012) griff die Ideen von Felix Christian Klein auf. In seiner grundlegenden Definition einer Modellgeometrie verbindet er einen topologischen Raum mit der Wirkung einer Lie-Gruppe, welche gewissen Maximalitätsbedingungen genügt. Dieses Werkzeug führte zur vollständigen Charakterisierung aller möglichen Geometrien in der Dimension 3 und zur Klassifizierung aller kompakten, 3-dimensionalen Mannigfaltigkeiten. Lie-Gruppen und Lie-Algebren wurden um 1870 von Sophus Lie (1842 – 1899) in der Lie-Theorie zur Untersuchung von Symmetrien in Differentialgleichungen eingeführt. Unabhängig von Lie entwickelte Wilhelm Killing (1847 – 1923) ähnliche Ideen zum Studium nichteuklidischer Geometrien. Hermann (Klaus Hugo) Weyl (1885 – 1955) veröffentlichte 1913 das Buch »Die Idee der Riemannschen Fläche«, in dem u.a. das moderne Konzept der Mannigfaltigkeiten erstmals systematisch eingesetzt wurde. In seinem Aufsatz »Gravitation und Elektrizität« von 1918 führt er erstmals das Konzept einer Eichtheorie ein, zunächst nicht in der heutigen Form, sondern durch einen lokal veränderlichen Skalenfaktor. In Weyl’s Vorlesungen »Raum, Zeit, Materie« entwickelt er systematisch den Riccischen Tensorkalkül und benutzt die Parallelverschiebung (Levi-Civita) von Vektoren als fundamentalen Begriff. Das Eichprinzip wurde seit seiner Entdeckung lange nur als Nebeneffekt angesehen, der einige Rechnungen vereinfachen kann, aber ansonsten nur wenig Bedeutung hat. Die eigentliche Bedeutung des Eichprinzips wurde erst 1918 von Hermann Weyl erkannt, der mit Hilfe einer Eichtheorie (Invarianz unter Änderung der Längenskala) versuchte, Maxwells Theorie mit der allgemeinen Relativitätstheorie zu vereinen. Dieser Versuch scheiterte, aber Weyl begründete damit eine ganz neue Herangehensweise an physikalische Probleme. Hermann Weyl ist der Begründer der Eichtheorien im heutigen Sinn. 1954 veröffentlichten Robert L. Mills (1927 – 1999) und Chen Ning Yang (1922 -) eine Arbeit, in der sie die Eichinvarianz der Elektrodynamik verallgemeinerten und dadurch eine Theorie der schwachen und starken Wechselwirkung schufen. In den 1960ern erkannte man, dass alle bisher beobachteten Wechselwirkungen von Elementarteilchen durch Eichtheorien beschrieben werden können. Schritt für Schritt wurden in der Folge Realobjekte zur Beschreibung der Materie und deren Wechselwirkungen bezüglich der beobachtbaren Phänomene, wie Gravitation und Elektromagnetismus, abgeschafft und rein mathematisch durch »axiomatische Entitäten« ersetzt. Ein Beispiel soll das daraus entstehende Problem der Anschauung verdeutlichen.
Ein Fragment des Wissens-Horrorszenarios frühzeitig indoktrinierter Physikstudenten
Didaktischer Bullshit zum Thema des »quantenmechanischen Spins«
Tatsachen zum »quantenmechanischen Spin« sind... Wolfgang Pauli schlug 1924 vor einen »quantenmechanischen Freiheitsgrad« für das Elektron einzuführen, der zwei Werte annehmen kann, um die Emissionsspektren von Alkalimetallen beschreiben zu können. Ralph Kronig (1904 - 1995), ein Assistent Alfred Landés, schlug 1925 vor, dieser unbekannte Freiheitsgrad werde von der Eigenrotation des Elektrons hervorgerufen. Aufgrund der Kritik Paulis an dieser Idee blieb Kronigs Vorschlag jedoch unveröffentlicht. Ebenfalls 1925 postulierten Samuel Abraham Goudsmit und George Eugene Uhlenbeck den Elektronenspin zur Erklärung der Linienaufspaltung in den Spektren sowie des anomalen Zeeman-Effekts. Halten wir fest: Bis zu diesem Punkt war die Grundlage der Überlegungen eine phänomenologische Betrachtung. Da dies nicht gelang wurde nun rein axiomatisch vorgegangen. Im Jahre 1927 formulierte Pauli einen Formalismus für den quantenmechanischen Spin des Elektrons. Mit Hilfe der Pauli-Matrizen konnte er Elektronen-Wellenfunktionen als 2-komponentige Spinoren darstellen. 1928 stellte Paul Dirac eine relativistische Bewegungsgleichung für das Elektron auf. Die nach ihm benannte Dirac-Gleichung beschreibt u.a. den halbzahligen quantenmechanischen Spin. In all diesen rein mathematischen Beschreibungen existiert keine phänomenologische Grundlage mehr. Die Folge: Der quantenmechanische Spin («QM-Spin«) "existierte" dann spätestens seit 1930 betrachtungsinkonsistent und ohne "Spin-Phänomenologie" rein mathematisch. Denn der "QM-Drehimpuls" hat mit dem, was man sich unter diesem Namen als mechanische Größe vorstellen kann, nichts mehr gemein. Er entsteht aus keiner Bewegung, sondern aus dem Zusammenwirken eines räumlichen Vektors mit den Dirac-Matrizen in dem Raum ihrer vier abstrakten Dimensionen. Mit anderen Worten: Die Quantenmechanik (QM) "arbeitet", trotz besseren Wissens, oft in Illustrationen und semantischen Ausführungen mit einer falschen Suggestion mittels des Begriffes Spin (Eigenrotation), doch der assoziierte QM-Formalismus beschreibt keine solche realphysikalische Rotation. "Einfach" ausgedrückt: Der quantenmechanische Spin hat nichts mit einer Rotation zu tun und ist sozusagen nichts weiter als eine notwendige aber vollkommen unbegründete (sprich ohne realphysikalische Anschauung) Quantenzahl, die im Rahmen der herrschenden Physik rein mathematisch generiert wird (vierkomponentiges Dirac-Spinorfeld mit vier Dirac-Matrizen). Ist die Quantenmechanik unverständlich? Eine weit verbreitete und gern geäußerte Schutzbehauptung besagt, dass die Quantenmechanik (QM) zwar unverständlich, irgendwie "seltsam" sei, aber wissenschaftlich betrachtet, sehr voraussagepräzise ist. Das hat(te) für die »QM-Bewahrer« den Vorteil, dass sich nahezu niemand aufgerufen fühlt(e), sich kritisch mit Annahmen und Aussagepostulaten der QM zu beschäftigen. Erst einmal, die Quantenmechanik ist aus mathematischer Sicht nicht "seltsam". Es gibt im großen »Spektrum der Mathematik« deutlich schwierigere, komplexere und vor allen Dingen deutlich abstraktere Themenfelder. Siehe beispielsweise »Differentialtopologie« und »Abstrakte Algebra«. Mathematische Hintergründe, ursprünglicher Sinn und Zweck, willentlicher Verzicht auf Anschauung Gemäß dem Satz von Weierstraß lassen sich „beliebige“ Kurven durch „Sinus-Kosinus-Funktions-Kombinationen“ zumindest abschnittsweise nähern. Wenn die Funktion in einen neuen (Teil-)Abschnitt wechselt, werden im Grenzübergang die einzelnen Abschnitte immer kürzer und "schrumpfen" schließlich auf Punkte zusammen. Die Funktion wird punktweise angenähert. In diesem Grenzfall ist wieder das ursprüngliche Bild der differenzierbaren Mannigfaltigkeit erreicht, in dem jetzt die Eigenbasis des Bewegungsraums die Bausteine aus den Sinus- und Kosinus-Funktionen sind. Ohne auf weitere mathematische Fragen einzugehen folgt, dass jede mathematische Funktion f(t) durch eine so genannte Fourier-Reihe dargestellt werden kann. Räume mit dieser Struktur werden als Hilbert-Räume bezeichnet. Im 20. Jahrhundert wurde dieser Ansatz erst in die Atomspektroskopie und dann allgemein in Quantenfeldtheorien eingeführt. So wie ein Klang in dem Grundton x und die Obertöne 2x, 3x, 4x ... darstellbar ist, wird in der Quantenfeldtheorie der Zustand eines Teilchens (z.B. eines Elektrons) in einen Grundzustand x und höhere Zustände zerlegt. Am Anfang steht also die qualitative Zerlegung in Grundelemente, dann folgt für jedes Grundelement die Zerlegung in die „Obertonreihe“ (Fourier-Reihe). Insgesamt können nun Wahrscheinlichkeiten definiert respektive (interpretiert) gemessen werden, mit denen sich das Elektron in einem der möglichen Zustände befindet. Wenn man genauer hinschaut folgt hier die ganzzahlige Quantisierung banalerweise aus der mathematischen Darstellung. Der Formalismus ermöglicht nun die vermeintliche „Bequemlichkeit“ sich nicht realobjekt-inhaltlich mit der Phänomenologie der Quantisierung auseinandersetzen zu müssen um Ergebnisse zu erhalten. Kopenhagener Deutung von 1927 Im Zuge der Kopenhagener Interpretation der Quantenmechanik ist der Realitätsverlust methodisch und gewollt. Gemäß der Kopenhagener Deutung von 1927 ist der Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell indeterministischen (unvorhersagbaren) Charakters von quantenphysikalischen Naturvorgängen. Des Weiteren "ersetzen" die »Objekte des Formalismus« die Realität, ohne selbst eine Realität zu besitzen. Die Kopenhagener Deutung zeichnet sich durch die Bequemlichkeit aus, die sie ihren »Gläubigen« liefert. Der Welle-Teilchen-Dualismus gestattet(e) ein "Umsteigen" auf die "Welle" mit einer e-Funktion mit komplexem Exponent, welcher gemäß Fourier-Theorems es wiederum gestattet »ALLES« stückweise monotone, also auch jedes experimentelle Ergebnis, formal mathematisch darzustellen. Die statistische Deutung hält von der Mühe ab, den physikalischen Prozeß zu erkunden, Anschaulichkeit und Phänomenologie werden ausgeblendet. Bevor nachvollziehbar erörtert wird, warum der »große Glaube« an die Bedeutung der Quantenmechanik (QM), QM assoziierter Quantenfeldtheorie (QFT), daraus folgend die Quantenelektrodynamik (QED), sowie im Rahmen des Standardmodells der (Elementar-)Teilchenphysik (SM) die Quantenchromodynamik (QCD) und die Elektroschwache Theorie weit verbreitet ist, sollen drei Heroen der ersten Stunde der QM zu Wort kommen. Exemplarisch drei QM-Heroen "im Nachgang" Der QM-Mitbegründer Erwin Schrödinger (1887 - 1961) bemerkte rückblickend: „Ich wende mich nicht gegen ein paar spezielle Aussagen der heutigen Quantenphysik (1950er Jahre), ich wende mich sozusagen gegen die gesamte Quantenphysik, ich wende mich gegen ihre grundlegenden Ansichten, die vor 25 Jahren geprägt wurden, als Max Born seine Wahrscheinlichkeitsinterpretation vorlegte, die von fast allen akzeptiert wurde.“ ...Hätte ich gewusst, dass wir diesen verdammten Quantensprung nicht loswerden, hätte ich mich nie auf dieses Geschäft eingelassen! Quelle: »Dr Faustus of Modern Physics« Der Mathematiker, John von Neumann (geb. Neumann János 1903 - 1957) publizierte 1932 sein opus magnum über die Mathematischen Grundlagen der Quantenmechanik. Das Datum der Publikation dieses Buchs hielt Carl-Friedrich von Weizsäcker für den Beginn der „Machtübernahme“ der Mathematik in der theoretischen Physik. Doch schon vor diesem Datum befielen von Neumann Zweifel an seiner Theorie. Dann im Jahr 1935 wies er nach, dass jede Theorie der Quantenmechanik, die auf dem »Hilbertraum« als Bezugsbasis entwickelt wird, physikalisch inakzeptabel ist. Jeden klaren Kommentar in der Öffentlichkeit darüber vermied er sein Leben lang, obwohl er zusammen mit F. J. Murray in einer Serie von mathematisch höchst innovativen Publikationen zur Algebra (Von-Neumann-Algebren) nachwies, wie eine zutreffende Fassung der Quantenmechanik zu gestalten sei. Im wahrlich umfangreichen Bestand an Publikationen zur Quantentheorie findet man zu von Neumanns Dilemma kaum eine substantielle Notiz. Erst 44 Jahre nach seinem Tod im Jahr 1957 kann die Fachöffentlichkeit aus mehreren privaten Äußerungen erfahren, warum von Neumann niemals sein berühmtes Buch von 1932 widerrufen oder zurückgezogen hat. Das Motiv war einfach: Seine »Falsifikation« hätte niemand der Fachkollegen ernst genommen, da der »Hilbertraum« weltweit längst zum Grundbestand der Quantentheorie gehört. Aber auch gravierende thermodynamische Einwände spielten eine Rolle, mit denen sich außer von Neumann keiner der großen Quantenheroen in ihren Lehrbüchern befasste."... Interessanterweise war es Albert Einstein (1879 - 1955), der die Quantenmechanik "schon früh" - nachvollziehbar argumentativ begründet - als unbrauchbar identifizierte sprich widerlegte: ..."die ψ-Funktion ist als Beschreibung nicht eines Einzelsystems, sondern einer Systemgemeinschaft aufzufassen. Roh ausgesprochen lautet dies Ergebnis: Im Rahmen der statistischen Interpretation gibt es keine vollständige Beschreibung des Einzelsystems. Vorsichtig kann man so sagen: Der Versuch, die quantentheoretische Beschreibung der individuellen Systeme aufzufassen, führt zu unnatürlichen theoretischen Interpretationen, die sofort unnötig werden, wenn man die Auffassung akzeptiert, daß die Beschreibung sich auf die Systemgesamtheit und nicht auf das Einzelsystem bezieht. Es wird dann der ganze Eiertanz zur Vermeidung des ‘Physikalisch-Realen’ überflüssig. Es gibt jedoch einen einfachen physiologischen Grund dafür, warum diese naheliegende Interpretation vermieden wird. Wenn nämlich die statistische Quantentheorie das Einzelsystem (und seinen zeitlichen Ablauf) nicht vollständig zu beschreiben vorgibt, dann erscheint es unvermeidlich, anderweitig nach einer vollständigen Beschreibung des Einzelsystems zu suchen, dabei wäre von vornherein klar, daß die Elemente einer solchen Beschreibung innerhalb des Begriffsschemas der statistischen Quantentheorie nicht enthalten wäre. Damit würde man zugeben, daß dieses Schema im Prinzip nicht als Basis der theoretischen Physik dienen könne. Die statistische Theorie würde - im Fall des Gelingens solcher Bemühungen - im Rahmen der zukünftigen Physik eine einigermaßen analoge Stellung einnehmen wie die statistische Mechanik im Rahmen der klassischen Mechanik."... A. Einstein, Qut of my later years. Phil Lib. New York 1950 Seite 498 Einsteins unschlagbare Argumente wurden und werden bis heute "schlicht" ignoriert. Einsteins kritische Äußerungen, insbesondere zur Quantenmechanik, führten letztendlich zu seiner Isolation. Er war zwar später ein "Medienstar" aber wissenschaftlich ohne weitere Bedeutung. Claes Johnson (Professor für Angewandte Mathematik) beschreibt das in seinem Buch »Dr Faustus of Modern Physics« u.a. wie folgt, "Einstein: Die Ikone der modernen Physik Die Beziehung zwischen der modernen Physik und Albert Einstein kann wie folgt zusammengefasst werden: Einstein initiierte die Entwicklung der modernen Physik als (inkompatible) Kombination von Quantenmechanik und Relativitätstheorie, als Patentangestellter im Alter von 25 Jahren. Die Physik-Community nutzte Einstein als Ikone der modernen Physik und beurteilte ihn im Alter von 45 Jahren senil zu sein und nicht verstehen zu können, welche Aladdin-Lampe er berührt hatte. Dies ist eine klassische griechische Tragödie, deren Erfolg untrennbar mit dem Scheitern verbunden ist und deren Scheitern letztendlich das Spiel ausmacht. Es ist eine wahre Geschichte über einen Doktor Faustus, der seine junge Seele an Luzifer den Teufel verkauft, um Zugang zur Magie der Wissenschaft zu erhalten, und den Preis dafür zahlt, der Hölle bereits auf dieser Welt gegenüberzutreten, wenn die Wissenschaft, die er am meisten schätzt im Leben von ihm genommen wurde." Ein "kurioser" Hauptgrund, warum sich die Standardmodelle der Kosmologie und der Teilchenphysik, trotz immenser Widersprüche und beliebiger mathematisch formulierter Abstraktionen, konkurrenzlos etablieren konnten, ist die Tatsache, dass es wortwörtlich keine praktischen Anwendungen gibt, die sich daraus ableiten lassen. Anders formuliert: Niemand fordert(e) eine praktische Anwendung für deren Existenzberechtigung. Mythos »Theorieschaft« [Theorie schafft] Praktisch orientierte Ägypter, Römer und Griechen erschufen lange vor Einführung der Integral- und Differentialrechnung, lange vor theoretischen Modellen zur Tragfähigkeit und Biegemöglichkeit von Balken und Säulen, komplexe Bauwerke, deren Fragmente teils auch heute noch zu besichtigen sind. Nicht die Theorie zum Halbleiter schuf den Halbleiter, der Halbleiter als elektrotechnisches Bastel- und Tüftler-Objekt ließ Spielraum für theoretische Betrachtungen. Funktionierende Technik als Innovation Angewandter Physik bedarf und bedurfte versuchsfreudiger „Macher“, (Miß-)Erfolge (trial & error) zeigten den Weg. Physik und Philosophie - Thesen und Realität „Die Physik beantwortet Wie-Fragen, die Philosophie beantwortet Warum-Fragen“ wird populärwissenschaftlich behauptet und gedacht. Naja, Philosophen äußern Meinungen, selten bis nie handelt es sich um Antworten, die inhaltlich über willkürliche, subjektive Bewertungen hinausgehen. Im Rahmen der Angewandten Physik gibt es praktische Antworten, die im Ergebnis beispielsweise Speichermedien, Kommunikation und realen Transport möglich machen. In der Modernen Theoretischen Denkmodell-Physik gibt es seit mehr als 100 Jahren keine Antworten mehr, die phänomenologisch basierend begründet sind, sofern man anschauliche Realphysik fordert. Um übergeordnet verstehen zu können, warum sich das Standardmodell der (Elementar-)Teilchenphysik (SM) und das Kosmologische Standardmodell (ΛC[old]D[ark]M[atter]-Modell) ohne große Gegenwehr etablieren konnten, ist zu bemerken, dass diese Modellbetrachtungen für die Realphysikforschung sprich Material- und Anwendungs-Forschung keinerlei Bedeutung hatten und haben. Das gilt sowohl für die „Diagnostik“ (Materialuntersuchungen), als auch für die Konstruktion von (Material-)Anwendungen. Relativitätstheorie und GPS Ein »falscher Behauptungsklassiker« ist die zwingende Anwendung der Relativitätstheorie (Stichworte Zeitdilatation, Längenkontraktion, gravitativer Einfluß) zum „Funktionieren der Realität“, konkret: Die Relativitätstheorie sei evident für das GPS. Claes Johnson ist Professor für Angewandte Mathematik am KTH Royal Institute of Technology in Stockholm. Auch er hat sich mit der Frage: „Hängt GPS von der Relativitätstheorie ab?“ 2019 explizit beschäftigt. Seine Antwort, die jeder, auch ohne großes mathematisches oder physikalisches Verständnis im Ergebnis verstehen kann, lautet sinngemäß: Nein, denn mit der Anzahl der verwendeten Satelliten, die sich kontinuierlich synchronisieren, sind jedwede Abweichungen stetig aktualisiert korrigiert. Siehe: Does GPS depend on Theory of Relativity? Auch wenn das hier der eine oder andere nicht verstehen kann respektive verstehen will, es geht hier nicht um die Frage, ob relativistische Effekte bei Positionsbestimmungen auftreten und eine signifikante Rolle spielen, es geht einzig um die praktische GPS-Situation. …Claes Johnson geht in seinen Ausführungen explizit von vier Satelliten aus, diese korrigieren alle denkbaren Abweichungen, gleichgültig wo diese herstammen und wie sich diese manifestieren. Bedeutet: Auch ohne jegliche Kenntnis der Relativitätstheorie und deren Effekte existiert und funktioniert GPS. Aphoristisch: Die GPS-Konstrukteure waren und sind »Relativitätstheorie befreit«. Tatsache ist: Theoretische Modelle hink(t)en stets der (meßbaren) Realität hinterher. Der Mythos, dass hochkomplexe, mathematische Theorien die Wirklichkeit beschreiben und Neues generieren konnten und können, lebt. Dass jedoch die Voraussagefähigkeiten der theoretischen Modelle, bei genauer Sicht, Ergebnisse von immer wieder (neu) durchgeführten Nachkorrekturen sind, erschließt sich den meisten Interessierten nicht. Realobjekt-Interpretationen werden im Rahmen der Standardmodelle aus mathematisch formalisierten Konzepten geboren. Theoretisches wurde über Jahrzehnte immer wieder genaueren Meßergebnissen angepasst. Sei es durch Zusatzrechnungen, neue Quantenzahlen, neue Wechselwirkungspostulate und neue Substrukturthesen, sowie extrem zeitintensiven, iterativ-algorithmisch nachkorrigierten Ergebnissen mittels Cluster-Rechenanlagen respektive »Super-Computern«, die nicht selten Jahre rechnen, um selbstprophetisch bekannte Meßwerte axiomatisch zu reproduzieren.
↓ führt zu ungefähr 700 Feynman-Diagrammen ↓ Lösung eines linearen Gleichungssystems mit nicht konstanten Koeffizienten ↓ Größenordnung: Gleichungssystem mit 25 Millionen Gleichungen ↓ liefert Lösungen für 4 Millionen Integrale ↓ "Ergebnis" Reihen-Entwicklung der Vakuumpolarisation In Wirklichkeit ist das phänomenologisch unbegründete „Ergebnis“ selbstprophetisch, denn der verwendete Algorithmus enthielt bereits eingekapselt respektive bestimmt(e) die Lösung.
Siehe des Weiteren exemplarisch...
Da die Ergebnisse von den vom Autor vorgegebenen Anfangsparametern sowie den theoretischen Modellerwartungen im Hinblick auf ergebnisorientierte, experimentelle Werte abhängig sind, stellt sich hier, auch ohne jegliche Kenntnis der Berechnungs-Details, die zentrale Frage, ob der Autor - stellvertretend für alle Autoren dieser Art von "Berechnungen" - nicht realisiert, das die so erzielten Ergebnisse selbstprophetisch sind respektive einen methodischen Selbstbetrug abbildenSB.
Renormierung und Regularisierung (Fragmentarisches zum Grundverständnis) In Quantenfeldtheorien werden Modelle durch die Lagrange-Dichte beschrieben. Diese enthält eine bestimmte Anzahl von freien Parametern, deren Zahlenwerte nicht durch die Theorie festgelegt sind, sondern experimentell bestimmt werden müssen. Im Grenzfall verschwindender Quantenkorrekturen (Bornschen Näherung), können viele freie Parameter direkt mit den physikalischen Größen, wie z. B. den Massen oder der elektrischen Ladung, identifiziert werden. Werden jedoch Quantenkorrekturen berücksichtigt, so wird der direkte Zusammenhang zwischen den freien Parametern der Lagrangedichte (den so genannten ”nackten“ (engl.: bare) Parametern) und den physikalischen Größen zerstört. Dies macht eine Redefinition (Renormierung) der Parameter und auch der Felder, notwendig. Im Verlauf der Berechnung des Zusammenhangs zwischen den (postuliert) „unphysikalischen“ und den (postuliert) physikalischen Parametern können Integrale auftreten, die divergieren. Die Art und Weise, wie die Konvergenz dieser Integrale gesichert wird, wird durch das Verfahren der so genannten Regularisierung festgelegt... Gelingt es, durch die Renormierung endlich viele Parameter sämtlich auftretender UV-Divergenzen in allen Ordnungen der Störungstheorie zu beseitigen, so ist die jeweilige Theorie renormierbar. Die Renormierbarkeit des Standardmodells wurde von ’t Hooft bewiesen. Bevor Felder und Parameter der Lagrange-Dichte renormiert werden können, müssen zunächst die bei der Berechnung der Schleifenintegrale auftretenden Divergenzen extrahiert werden. Prinzipiell würde eine Beschränkung der Energieintegration durch eine obere Grenze (engl.: cut-off) Λ bereits endliche Ergebnisse liefern, jedoch zerstört eine solche Beschränkung die Lorentz-Invarianz. Ein häufig angewandtes Verfahren ist die dimensionale Regularisierung, die Lorentz- und Eichinvarianz gewährleistet (Erhalt der inneren Symmetrien der Theorie). Durch die dimensionale Regularisierung werden die auftretenden Divergenzen in negativen Potenzen des Regularisierungsparameters ε isoliert. Mittels Renormierung wird dann die Abhängigkeit von diesem unphysikalischen Parameter subtrahiert und der Zusammenhang zwischen den im Modell auftretenden freien Parametern und den experimentell bestimmbaren physikalischen Größen neu festgelegt. In der Praxis werden dazu so genannte Gegenterme (engl.: counterterm) verwendet, welche einen formalen und systematischen Zugang zur Renormierung bieten. Dabei werden die ”nackten“ Parameter (m0, e0) und Felder (Φ0) der Lagrange-Dichte mittels Renormierungskonstanten Zi multiplikativ renormiert. Im so genannten On-Shell Schema (On-Shell-Renormierung) werden die Renormierungskonstanten so gewählt, dass die renormierten Parameter der Theorie den messbaren, physikalischen Größen in allen Ordnungen Störungstheorie entsprechen. Die renormierten Massen werden gleich den physikalischen gewählt. Werden alle Größen im On-Shell Schema bestimmt und erfolgt die Ladungsrenormierung in Thomson-Limes (Kopplung des Photons an das Elektron im Grenzfall eines verschwindenden Impulsübertrags), so hängt das endliche Ergebnis nicht mehr von der durch die Regularisierung eingeführten Massenskala ab. Neben den UV-Divergenzen aus der Region großer Schleifenimpulse qi → ∞ treten in Quantenfeldtheorien sowohl innerhalb der Schleifenintegrale bei endlichen Impulsen, als auch innerhalb der Phasenraumintegrale weitere Divergenzen auf, die ihre Ursache in Polen der Propagatoren haben. Diese treten auf, wenn Impulse der Propagatoren auf ihrer Massenschale liegen und dadurch der Nenner des Propagators Null wird. Daher werden diese Singularitäten im Allgemeinen als Massensingularitäten bezeichnet, da ihr Auftreten mit dem Verschwinden der äußeren und inneren Massen verbunden ist. Das Auftreten von Massensingularitäten rührt nicht ausschließlich von Schleifenintegralen her, sondern auch von Integrationen im Phasenraum der externen Teilchen. Diese führen in bestimmten Phasenraumbereichen zu Divergenzen...
Das "zauberhafte" fine-tuning ... die an den Haaren herbeigezogene Feinabstimmung Während die dimensionale Regularisierung aus Sicht des SM vor allem praktisch ist, kann man sich "dort" auf den Standpunkt stellen, das die Impulsintegrale bei einem bestimmten Maximalimpuls Λ abgeschnitten werden, da bei größeren Impulsen das Standardmodell durch eine andere (vereinheitlichende) Theorie ersetzt werden muss. Eine natürliche Wahl für Λ wäre dann Λ ~ mPlanck. Berechnet man die Strahlungskorrekturen zu den Fermionmassen, dann erhält man daraus einen zum Logarithmus von Λ proportionalen Korrekturterm, der auch bei Λ ~ mPlanck nur wenige Prozent der ”nackten“ Masse ausmacht. Anders bei der Higgs-Masse: Hier liefert die Strahlungskorrektur einen zu Λ proportionalen Anteil. Die Higgs-Masse mH ~ 125 GeV führt zu der Situation, dass sich die Strahlungskorrekturen und die nackte Masse auf 17 (siebzehn!!!) Nachkommastellen genau aufheben müssen!
Nun, das das nichts mehr mit exakter Wissenschaft, sondern nur noch mit brachialem Wünsch-Dir-Was-Denken und Wünsch-Dir-Was-Machen, egal zu welchem absurden Preis, zu tun hat, steht - analytisch rational betrachtet - außer Frage. Aphoristisch ausgedrückt: „Teilchenphysiker stecken tief in der Dekadenz; das Sensationelle gilt und nur einem strömen sie noch begeisterter zu: dem baren Unsinn.“ "Interdisziplinär" erst-formuliert": „Wir stecken tief in der Dekadenz; das Sensationelle gilt und nur einem strömt die Menge noch begeistert zu: dem baren Unsinn.“ Theodor Fontane (1819 - 1898) Es gibt eine Vielzahl weiterer - wahrlich unglaublicher - Aspekte zur Renormierung und Regularisierung, deren explizite Erörterung bei Weitem den Rahmen sprengen und unnötig den Fokus verschieben würde. Um es kurz und plakativ "zu machen": So definierte sich in den Anfängen bis heute insbesondere die Quantenelektrodynamik (QED) und die Quantenchromodynamik (QCD). Es wird solange (mathematisch) modelliert, bis die gewünschten Ergebnisse vorliegen, was mitunter - trotz "Super"-Computern - Jahre (↑total calculation time, GPU hours) dauert.
Des Weiteren: Es kommt noch "viel schlimmer". Wie sich im Bild der Masse-Raum Kopplung zeigt, sind die vermeintlich »anomalen magnetischen Momente« allesamt - phänomenologisch begründet - ohne Quantenfeld, willkürlicher Renormalisierung, etc. erklär- und berechenbar. All' die "schönen" quantenfeldtheoretischen Überlegungen zu den »anomalen magnetischen Momenten« sind - im wahrsten Sinne des Wortes - gegenstandslos.
An dieser Stelle nur soviel dazu: Die vermeintlich anomalen intrinsischen magnetischen Momente von Elektron und Proton sowie des Masse-Raum-Proton-Elektron-basierenden Neutrons sind letztendlich eine Kombination aus den »semi-klassisch« - einfachst zu berechnenden - "normalen" magnetischen Momenten und messungsinhärenten Beiträgen, die von dem Magnetfeld, welches zur Messung verwendet wird, herrühren. Eine entsprechende Phänomenologie und Formalisierung der Magnetfeldverkörperung und resultierende Magnetische-Moment-Berechnungen werden im Rahmen der Elementarkörpertheorie vorgestellt. Siehe explizit: Anatomie anomaler magnetischer Momente
Ein überfälliges Rendezvous mit ursächlicher Rationalität Ein Paradigmenwechsel der anderen Art
|