Wissen ist ein Privileg. Die Weitergabe eine Pflicht.

Dirk Freyling unabhängiger Forscher & Künstler

[Künstlername AlexDdaher auch adf als Autorenkürzel]

contact adf

data protection info

 

Mathematik ist wie Sprache

Ursprünglich wurde Sprache von Menschen erschaffen, um ihre Absichten verständlich kundzutun. Die Aussagen bezogen sich auf die ge- und erlebte Realität. Wenn jemand heute sagt oder schreibt, er fährt morgen nach Köln oder er war gestern in Hamburg, so sind diese Aussagen gut verständlich und bilden die Realität ab. Wenn jemand in einem Science-Fiction-Roman schreibt, er durchbricht mit seinem Raumschiff die Lichtmauer und fliegt in eine andere Galaxis oder lässt sich irgendwo hin beamen, dann ist das auch anwendbare Sprache. Das einzige Kriterium, welches bei der Sprache eine Rolle spielt, ob diese richtig oder falsch ist, ist die Grammatik. Es gibt Sprach- respektive Schreibregeln. Die Grammatik bewertet jedoch nicht die Sprachinhalte. Ob jemand mit dem Flugzeug real nach Köln fliegt oder sich von Frankfurt nach Köln beamt, ist grammatikalisch ohne Bedeutung. Grammatik prüft und bewertet keine Inhalte.

Mathematik ist wie Sprache. Anfangs konnte Mathematik nur Addieren und Subtrahieren. Daraus folgte die Multiplikation als Darstellungsmöglichkeit der Addition. „Verwandt“ mit der Summenbildung ist die Umkehrfunktion der Multiplikation, das Teilen.

Es lassen sich gemäß der Grundrechenarten (Addition, Subtraktion, Multiplikation, Division), gut verständlich, so genannte »mathematische Reihen« bilden. Des Weiteren Funktionen, Extrem- und Grenzwerte dieser, verständlich verstehen. In diesem Zusammenhang wird die Mathematik ergänzend zu den Grundrechenarten mittels Differential- und Integralrechnung erweitert, ohne das hier explizit zu erörtern. Als diesbezügliche »Mathematik-Erweiterer« sind hier historisch Gottfried Wilhelm Leibniz (1646 – 1716), Isaac Newton (1643 – 1726) und Leonhard Euler (1707 -1783)  zu nennen. Ohne auf weitere mathematische Teilgebiete einzugehen, lassen sich beispielsweise auch geometrische Eigenschaften mathematisch verständlich abbilden. Die so entstandene Mathematik hatte und hat einen festen Bezug zur Realität und wird benutzt, um beispielsweise reale Anwendungen zu optimieren. Die Optimierungsgedanken respektive Optimierungswünsche waren und sind „sinnerfahrbar“ sprich phänomenologisch begründet. Siehe das einfach zu verstehende Beispiel: Wie muss ein Rechteck aussehen, das bei einem gegebenen Umfang einen maximalen Flächeninhalt hat?

Dieser Teil der Mathematik und deren Anwendungen entsprechen der realitätsorientierten Wortsprache, die benutzt wurde und benutzt wird, um die machbare Realität zu beschreiben. So wie jemand, der mit Worten ausdrückt, das er morgen von Bonn mit dem Fahrrad nach Berlin fährt.

Was dann in der erweiterten Mathematik (Moderne Mathematik) mitunter folgte, war zwar axiomatisch richtig, was, in Analogie zur Sprache, der richtigen Grammatik entsprechen würde, aber keinen Bezug mehr zur Realität hat, wie, dass sich jemand irgendwo hin beamt.

Wenn Euklid (…lebte wahrscheinlich im 3. Jahrhundert v. Chr.) noch nach plausibler Anschauung für mathematische Grundlagen suchte und somit eine interdisziplinäre Verbindung herstellte, die man als richtig oder falsch bewerten konnte, so stellt sich in der modernen Mathematik die Frage nach richtig oder falsch nicht. Euklids Definitionen sind explizit, sie verweisen auf außermathematische Objekte der „reinen Anschauung“, wie Punkte, Linien und Flächen. "Ein Punkt ist, was keine Breite hat. Eine Linie ist breitenlose Länge. Eine Fläche ist, was nur Länge und Breite hat." Als David Hilbert (1862 – 1943) im 20. Jahrhundert erneut die Geometrie axiomatisierte, verwendete er ausschließlich implizite Definitionen. Die Objekte der Geometrie hießen zwar weiterhin „Punkte“ und „Geraden“ doch sie waren lediglich Elemente nicht weiter explizierter Mengen. Angeblich soll Hilbert gesagt haben, dass man jederzeit anstelle von Punkten und Geraden auch von Tischen und Stühlen reden könnte, ohne dass die rein logische Beziehung zwischen diesen Objekten gestört wäre. Das bedeutet: Axiomatik prüft und bewertet keine Inhalte beispielsweise in Hinblick auf machbare Realisierungen. Des Weiteren, Mathematik kann (und will auch) nicht zwischen Staub und Staubsauger unterscheiden.

Inwieweit axiomatisch begründete Abstraktionen (in Sprachanalogie wie Beamen, Zeitreisen etc.) insbesondere realphysikalische Objekte und deren wahrnehmbare Wechselwirkungsphänomene beschreiben, steht auf einem ganz anderen Blatt. Mathematik schafft keine neuen Erkenntnisse und ersetzt auch nicht die Realität.

Es mag sein, dass von dem Gedanken an beispielsweise Zeitreisen oder Beamen (Teleportation) eine große Strahlkraft ausgeht, dennoch ist festzustellen, dass rationale Wissenschaftler dies ausschließen.

Es ist auch davon auszugehen, das, insbesondere im Hinblick auf die Physik, Menschen aller möglichen Bildungsgrade erwarten, dass diejenigen die Mathematik anwenden, wissen was real ist und was nicht. Hier liegt jedoch ein fatales Mißverständnis vor.

Schon Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte." Ernst Mach (1838 - 1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882

Fragmentarischer Rückblick

Um eine Idee von der Entwicklung der »Modernen Mathematik« zu bekommen, sei das Folgende erwähnt.

Exemplarisch über Johann Carl Friedrich Gauß (1777 – 1855), Georg Friedrich Bernhard Riemann (1826 – 1866), der u.a. den Begriff der Metrik einführte …welcher modern bedeutet: Eine Metrik ist ein Skalarprodukt auf dem Tangentialraum einer Mannigfaltigkeit, die in differenzierbarer Weise vom Punkt abhängt. Die euklidische Metrik ist dabei lediglich ein Spezialfall… Geometrie ist im Riemannschen Sinne »innere Geometrie«, deren Objekte Größen sind, die nur von den lokalen Eigenschaften einer Metrik abhängen… 

folgen Felix Christian Klein’s (1849 – 1925) Ausführungen …beispielsweise zu Veränderungen der Lage - Drehungen, Spiegelungen, Verschiebungen, …diese sind die Wirkung einer Gruppe, die er als „Transformationsgruppe“ bezeichnet. Die geometrischen Objekte sind Invarianten gewisser Gruppen, die auf Mengen operieren. Mit Rückführung der Geometrie auf die Algebra konnte man Geometrien klassifizieren, indem man eine Grundmenge und die darauf operierende Gruppe angab. Zwischen 1870 und 1920 wurden die mathematischen Axiome neu geschrieben (Richard Dedekind, Georg Cantor), es entstanden die Differentialgeometrie (Poincare, Minkowski) und neue Algebren mit bisher unerforschten Symmetrien (Tensorkalkül, Lie-Algebra).

Die »vierdimensionale "physikalische Raumzeit“« wurde nicht – wie viele glauben - von Albert Einstein entwickelt sondern vom Mathematiker Hermann Minkowski (1864-1909). Minkowski hielt am 21. September 1908 in Köln auf der 80. Versammlung der Deutschen Gesellschaft der Naturforscher und Ärzte seinen Vortrag »Raum und Zeit«. In diesem Vortrag führt Minkowski die mathematischen Notationen ein, mit denen die Spezielle Relativitätstheorie Einsteins zur Allgemeinen Relativitätstheorie erweitert werden kann. Aufgrund des Relativitätsprinzips und der daraus folgenden Invarianz gegenüber Lorentztransformationen trägt in diesem Denkmodell nicht nur Masse, sondern auch jede Form von Energie zur Krümmung der Raumzeit bei. Dies gilt einschließlich der mit der Gravitation selber verbundenen Energie. Daher sind die »Einstein’schen Feldgleichungen« nichtlinear. Sie lassen sich im Bereich schwacher Krümmung durch lineare Gleichungen annähern, in denen sich das Newtonsche Gravitationsgesetz wieder finden lässt.

Ausgehend von der Suggestion, dass es sich um etwas „irgendwie“ Reales handeln muß, da die Raumzeit ja auch „irgendwie“ die Realität – beschreibt, wurde der Mythos geboren, das die Relativitätstheorie zwar richtig aber nicht zu verstehen sei. Tatsache ist jedoch: Die Raumzeit ist nicht sinnlich erfahrbar und auch nicht apparativ meßbar. Die Raumzeit ist ein rein mathematisches Konstrukt.

Für »Deutschlesende« am Rande bemerkt: Vergleiche exemplarisch die deutschen und englischen Wikipedia-Ausführungen zur Raumzeit. Vergleiche die deutschen und englischen Ausführungen zum Minkowski-Raum. Und vergleiche die deutschen und englischen Ausführungen zur Lorentz-Transformation. Hier fällt auf, dass der „Laie“ mittels der deutschen Wikipedia, im wahrsten Sinne des Wortes, unzureichend informiert wird. Es ist kaum zu glauben, dass die »Galionsfiguren der Raumzeit«, der deutsche Albert Einstein und der deutsche Hermann Minkowski waren.

Wie auch immer, die ersten Experimente zur Atom- und Quantenphysik ließen sich gut mit den bis dahin rein abstrakten mathematischen Formalismen verbinden, was erst zur bekannten Symbiose führte, welche sich sodann im Zuge der Begeisterung für mathematische Möglichkeiten letztendlich von der Realphysik abspaltete und diese, im Zuge der Standardmodelle der Theoretischen Denkmodellphysik, beherrschend wurde. Von da an musste die Natur der Mathematik genügen.

William Thurston (1946 – 2012) griff die Ideen von Felix Christian Klein auf. In seiner grundlegenden Definition einer Modellgeometrie verbindet er einen topologischen Raum mit der Wirkung einer Lie-Gruppe, welche gewissen Maximalitätsbedingungen genügt. Dieses Werkzeug führte zur vollständigen Charakterisierung aller möglichen Geometrien in der Dimension 3 und zur Klassifizierung aller kompakten, 3-dimensionalen Mannigfaltigkeiten. Lie-Gruppen und Lie-Algebren wurden um 1870 von Sophus Lie (1842 – 1899) in der Lie-Theorie zur Untersuchung von Symmetrien in Differentialgleichungen eingeführt. Unabhängig von Lie entwickelte Wilhelm Killing (1847 – 1923) ähnliche Ideen zum Studium nichteuklidischer Geometrien. Hermann (Klaus Hugo) Weyl (1885 – 1955)  veröffentlichte 1913 das Buch »Die Idee der Riemannschen Fläche«, in dem u.a. das moderne Konzept der Mannigfaltigkeiten erstmals systematisch eingesetzt wurde. In seinem Aufsatz »Gravitation und Elektrizität« von 1918 führt er erstmals das Konzept einer Eichtheorie ein, zunächst nicht in der heutigen Form, sondern durch einen lokal veränderlichen Skalenfaktor. In Weyl’s Vorlesungen »Raum, Zeit, Materie« entwickelt er systematisch den Riccischen Tensorkalkül und benutzt die Parallelverschiebung (Levi-Civita) von Vektoren als fundamentalen Begriff. Das Eichprinzip wurde seit seiner Entdeckung lange nur als Nebeneffekt angesehen, der einige Rechnungen vereinfachen kann, aber ansonsten nur wenig Bedeutung hat. Die eigentliche Bedeutung des Eichprinzips wurde erst 1918 von Hermann Weyl erkannt, der mit Hilfe einer Eichtheorie (Invarianz unter Änderung der Längenskala) versuchte, Maxwells Theorie mit der allgemeinen Relativitätstheorie zu vereinen. Dieser Versuch scheiterte, aber Weyl begründete damit eine ganz neue Herangehensweise an physikalische Probleme. Hermann Weyl ist der Begründer der Eichtheorien im heutigen Sinn.  

1954 veröffentlichten Robert L. Mills (1927 – 1999) und Chen Ning Yang (1922 -) eine Arbeit, in der sie die Eichinvarianz der Elektrodynamik verallgemeinerten und dadurch eine Theorie der schwachen und starken Wechselwirkung schufen. In den 1960ern erkannte man, dass alle bisher beobachteten Wechselwirkungen von Elementarteilchen durch Eichtheorien beschrieben werden können.

Schritt für Schritt wurden in der Folge Realobjekte zur Beschreibung der Materie und deren Wechselwirkungen bezüglich der beobachtbaren Phänomene, wie Gravitation und Elektromagnetismus, abgeschafft und rein mathematisch durch »axiomatische Entitäten« ersetzt.

Ein Beispiel soll das daraus entstehende Problem der Anschauung verdeutlichen.

 

Ein Fragment des Wissens-Horrorszenarios frühzeitig indoktrinierter Physikstudenten

Didaktischer Bullshit zum Thema des »quantenmechanischen Spin

 

Tatsachen zum »quantenmechanischen Spin« sind...

Wolfgang Pauli schlug 1924 vor einen »quantenmechanischen Freiheitsgrad« für das Elektron einzuführen, der zwei Werte annehmen kann, um die Emissionsspektren von Alkalimetallen beschreiben zu können. Ralph Kronig (1904 - 1995), ein Assistent Alfred Landés, schlug 1925 vor, dieser unbekannte Freiheitsgrad werde von der Eigenrotation des Elektrons hervorgerufen. Aufgrund der Kritik Paulis an dieser Idee blieb Kronigs Vorschlag jedoch unveröffentlicht. Ebenfalls 1925 postulierten Samuel Abraham Goudsmit und George Eugene Uhlenbeck den Elektronenspin zur Erklärung der Linienaufspaltung in den Spektren sowie des anomalen Zeeman-Effekts. Halten wir fest: Bis zu diesem Punkt war die Grundlage der Überlegungen eine phänomenologische Betrachtung. Da dies nicht gelang wurde nun rein axiomatisch vorgegangen.

Im Jahre 1927 formulierte Pauli einen Formalismus für den quantenmechanischen Spin des Elektrons. Mit Hilfe der Pauli-Matrizen konnte er Elektronen-Wellenfunktionen als 2-komponentige Spinoren darstellen. 1928 stellte Paul Dirac eine relativistische Bewegungsgleichung für das Elektron auf. Die nach ihm benannte Dirac-Gleichung beschreibt u.a. den halbzahligen quantenmechanischen Spin. In all diesen rein mathematischen Beschreibungen existiert keine phänomenologische Grundlage mehr. Die Folge: Der quantenmechanische Spin («QM-Spin«) "existierte" dann spätestens seit 1930 betrachtungsinkonsistent und ohne "Spin-Phänomenologie" rein mathematisch.

Denn der "QM-Drehimpuls" hat mit dem, was man sich unter diesem Namen als mechanische Größe vorstellen kann, nichts mehr gemein. Er entsteht aus keiner Bewegung, sondern aus dem Zusammenwirken eines räumlichen Vektors mit den Dirac-Matrizen in dem Raum ihrer vier abstrakten Dimensionen. Mit anderen Worten: Die Quantenmechanik (QM) "arbeitet", trotz besseren Wissens, oft in Illustrationen und semantischen Ausführungen mit einer falschen Suggestion mittels des Begriffes Spin (Eigenrotation), doch der assoziierte QM-Formalismus beschreibt keine solche realphysikalische Rotation.

"Einfach" ausgedrückt: Der quantenmechanische Spin hat nichts mit einer Rotation zu tun und ist sozusagen nichts weiter als eine notwendige aber vollkommen unbegründete (sprich ohne realphysikalische Anschauung) Quantenzahl, die im Rahmen der herrschenden Physik rein mathematisch generiert wird (vierkomponentiges Dirac-Spinorfeld mit vier Dirac-Matrizen).

Ist die Quantenmechanik unverständlich?

Eine weit verbreitete und gern geäußerte Schutzbehauptung besagt, dass die Quantenmechanik (QM) zwar unverständlich, irgendwie "seltsam" sei, aber wissenschaftlich betrachtet, sehr voraussagepräzise ist.

Das hat(te) für die »QM-Bewahrer« den Vorteil, dass sich nahezu niemand aufgerufen fühlt(e), sich kritisch mit Annahmen und Aussagepostulaten der QM zu beschäftigen. 

Erst einmal, die Quantenmechanik ist aus mathematischer Sicht nicht "seltsam". Es gibt im großen »Spektrum der Mathematik« deutlich schwierigere, komplexere und vor allen Dingen deutlich abstraktere Themenfelder. Siehe beispielsweise »Differentialtopologie« und »Abstrakte Algebra«.

Mathematische Hintergründe, ursprünglicher Sinn und Zweck, willentlicher Verzicht auf Anschauung

Gemäß dem Satz von Weierstraß lassen sich „beliebige“ Kurven durch „Sinus-Kosinus-Funktions-Kombinationen“  zumindest abschnittsweise nähern. Wenn die Funktion in einen neuen (Teil-)Abschnitt wechselt, werden im Grenzübergang die einzelnen Abschnitte immer kürzer und "schrumpfen" schließlich auf Punkte zusammen. Die Funktion wird punktweise angenähert. In diesem Grenzfall ist wieder das ursprüngliche Bild der differenzierbaren Mannigfaltigkeit erreicht, in dem jetzt die Eigenbasis des Bewegungsraums die Bausteine aus den Sinus- und Kosinus-Funktionen sind. Ohne auf weitere mathematische Fragen einzugehen folgt, dass jede mathematische Funktion f(t) durch eine so genannte Fourier-Reihe dargestellt werden kann.

Räume mit dieser Struktur werden als Hilbert-Räume bezeichnet. Im 20. Jahrhundert wurde dieser Ansatz erst in die Atomspektroskopie und dann allgemein in Quantenfeldtheorien eingeführt.

So wie ein Klang in dem Grundton x und die Obertöne 2x, 3x, 4x ... darstellbar ist, wird in der Quantenfeldtheorie der Zustand eines Teilchens (z.B. eines Elektrons) in einen Grundzustand x und höhere Zustände zerlegt. Am Anfang steht also die qualitative Zerlegung in Grundelemente, dann folgt für jedes Grundelement die Zerlegung in die „Obertonreihe“ (Fourier-Reihe). Insgesamt können nun Wahrscheinlichkeiten definiert respektive (interpretiert) gemessen werden, mit denen sich das Elektron in einem der möglichen Zustände befindet. Wenn man genauer hinschaut folgt hier die ganzzahlige Quantisierung banalerweise aus der mathematischen Darstellung. Der Formalismus ermöglicht nun die vermeintliche „Bequemlichkeit“ sich nicht realobjekt-inhaltlich mit der Phänomenologie der Quantisierung auseinandersetzen zu müssen um Ergebnisse zu erhalten.

Kopenhagener Deutung von 1927

Im Zuge der Kopenhagener Interpretation der Quantenmechanik ist der Realitätsverlust methodisch und gewollt. Gemäß der Kopenhagener Deutung von 1927 ist der Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell indeterministischen (unvorhersagbaren) Charakters von quantenphysikalischen Naturvorgängen. Des Weiteren "ersetzen" die »Objekte des Formalismus« die Realität, ohne selbst eine Realität zu besitzen. Die Kopenhagener Deutung zeichnet sich durch die Bequemlichkeit aus, die sie ihren »Gläubigen« liefert. Der Welle-Teilchen-Dualismus gestattet(e) ein "Umsteigen" auf die "Welle" mit einer e-Funktion mit komplexem Exponent, welcher gemäß Fourier-Theorems es wiederum gestattet »ALLES« stückweise monotone, also auch jedes experimentelle Ergebnis, formal mathematisch darzustellen. Die statistische Deutung hält von der Mühe ab, den physikalischen Prozeß zu erkunden, Anschaulichkeit und Phänomenologie werden ausgeblendet.

Bevor nachvollziehbar erörtert wird, warum der »große Glaube« an die Bedeutung der Quantenmechanik (QM), QM assoziierter Quantenfeldtheorie (QFT), daraus folgend die Quantenelektrodynamik (QED), sowie im Rahmen des Standardmodells der (Elementar-)Teilchenphysik (SM) die Quantenchromodynamik (QCD) und die Elektroschwache Theorie weit verbreitet ist, sollen drei Heroen der ersten Stunde der QM zu Wort kommen.

Exemplarisch drei QM-Heroen "im Nachgang"

Der QM-Mitbegründer Erwin Schrödinger (1887 - 1961) bemerkte rückblickend: „Ich wende mich nicht gegen ein paar spezielle Aussagen der heutigen Quantenphysik (1950er Jahre), ich wende mich sozusagen gegen die gesamte Quantenphysik, ich wende mich gegen ihre grundlegenden Ansichten, die vor 25 Jahren geprägt wurden, als Max Born seine Wahrscheinlichkeitsinterpretation vorlegte, die von fast allen akzeptiert wurde.“  ...Hätte ich gewusst, dass wir diesen verdammten Quantensprung nicht loswerden, hätte ich mich nie auf dieses Geschäft eingelassen! Quelle: »Dr Faustus of Modern Physics«

Der Mathematiker, John von Neumann (geb. Neumann János 1903 - 1957) publizierte 1932 sein opus magnum über die Mathematischen Grundlagen der Quantenmechanik. Das Datum der Publikation dieses Buchs hielt Carl-Friedrich von Weizsäcker für den Beginn der „Machtübernahme“ der Mathematik in der theoretischen Physik. Doch schon vor diesem Datum befielen von Neumann Zweifel an seiner Theorie. Dann im Jahr 1935 wies er nach, dass jede Theorie der Quantenmechanik, die auf dem »Hilbertraum« als Bezugsbasis entwickelt wird, physikalisch inakzeptabel ist. Jeden klaren Kommentar in der Öffentlichkeit darüber vermied er sein Leben lang, obwohl er zusammen mit F. J. Murray in einer Serie von mathematisch höchst innovativen Publikationen zur Algebra (Von-Neumann-Algebren) nachwies, wie eine zutreffende Fassung der Quantenmechanik zu gestalten sei.

Im wahrlich umfangreichen Bestand an Publikationen zur Quantentheorie findet man zu von Neumanns Dilemma kaum eine substantielle Notiz. Erst 44 Jahre nach seinem Tod im Jahr 1957 kann die Fachöffentlichkeit aus mehreren privaten Äußerungen erfahren, warum von Neumann niemals sein berühmtes Buch von 1932 widerrufen oder zurückgezogen hat. Das Motiv war einfach: Seine »Falsifikation« hätte niemand der Fachkollegen ernst genommen, da der »Hilbertraum« weltweit längst zum Grundbestand der Quantentheorie gehört. Aber auch gravierende thermodynamische Einwände spielten eine Rolle, mit denen sich außer von Neumann keiner der großen Quantenheroen in ihren Lehrbüchern befasste."...

Quelle: Nichtmechanistische Darstellung der physikalischen Disziplinen als mathematische Systemtheorie   Vilmos Balogh

Interessanterweise war es Albert Einstein (1879 - 1955), der die Quantenmechanik "schon früh" - nachvollziehbar argumentativ begründet - als unbrauchbar identifizierte sprich widerlegte:

..."die ψ-Funktion ist als Beschreibung nicht eines Einzelsystems, sondern einer Systemgemeinschaft aufzufassen. Roh ausgesprochen lautet dies Ergebnis: Im Rahmen der statistischen Interpretation gibt es keine vollständige Beschreibung des Einzelsystems. Vorsichtig kann man so sagen: Der Versuch, die quantentheoretische Beschreibung der individuellen Systeme aufzufassen, führt zu unnatürlichen theoretischen Interpretationen, die sofort unnötig werden, wenn man die Auffassung akzeptiert, daß die Beschreibung sich auf die Systemgesamtheit und nicht auf das Einzelsystem bezieht. Es wird dann der ganze Eiertanz zur Vermeidung des ‘Physikalisch-Realen’ überflüssig. Es gibt jedoch einen einfachen physiologischen Grund dafür, warum diese naheliegende Interpretation vermieden wird. Wenn nämlich die statistische Quantentheorie das Einzelsystem (und seinen zeitlichen Ablauf) nicht vollständig zu beschreiben vorgibt, dann erscheint es unvermeidlich, anderweitig nach einer vollständigen Beschreibung des Einzelsystems zu suchen, dabei wäre von vornherein klar, daß die Elemente einer solchen Beschreibung innerhalb des Begriffsschemas der statistischen Quantentheorie nicht enthalten wäre. Damit würde man zugeben, daß dieses Schema im Prinzip nicht als Basis der theoretischen Physik dienen könne. Die statistische Theorie würde - im Fall des Gelingens solcher Bemühungen - im Rahmen der zukünftigen Physik eine einigermaßen analoge Stellung einnehmen wie die statistische Mechanik im Rahmen der klassischen Mechanik."... A. Einstein, Qut of my later years. Phil Lib. New York 1950 Seite 498

Einsteins unschlagbare Argumente wurden und werden bis heute "schlicht" ignoriert. Einsteins kritische Äußerungen, insbesondere zur Quantenmechanik, führten letztendlich zu seiner Isolation. Er war zwar später ein "Medienstar" aber wissenschaftlich ohne weitere Bedeutung.

Claes Johnson (Professor für Angewandte Mathematik) beschreibt das in seinem Buch »Dr Faustus of Modern Physics« u.a. wie folgt,

"Einstein: Die Ikone der modernen Physik

Die Beziehung zwischen der modernen Physik und Albert Einstein kann wie folgt zusammengefasst werden: Einstein initiierte die Entwicklung der modernen Physik als (inkompatible) Kombination von Quantenmechanik und Relativitätstheorie, als Patentangestellter im Alter von 25 Jahren. Die Physik-Community nutzte Einstein als Ikone der modernen Physik und beurteilte ihn im Alter von 45 Jahren senil zu sein und nicht verstehen zu können, welche Aladdin-Lampe er berührt hatte. Dies ist eine klassische griechische Tragödie, deren Erfolg untrennbar mit dem Scheitern verbunden ist und deren Scheitern letztendlich das Spiel ausmacht. Es ist eine wahre Geschichte über einen Doktor Faustus, der seine junge Seele an Luzifer den Teufel verkauft, um Zugang zur Magie der Wissenschaft zu erhalten, und den Preis dafür zahlt, der Hölle bereits auf dieser Welt gegenüberzutreten, wenn die Wissenschaft, die er am meisten schätzt im Leben von ihm genommen wurde."

Ein "kurioser" Hauptgrund, warum sich die Standardmodelle der Kosmologie und der Teilchenphysik, trotz immenser Widersprüche und beliebiger mathematisch formulierter Abstraktionen, konkurrenzlos etablieren konnten, ist die Tatsache, dass es wortwörtlich keine praktischen Anwendungen gibt, die sich daraus ableiten lassen. Anders formuliert: Niemand fordert(e) eine praktische Anwendung für deren Existenzberechtigung.

Mythos  »Theorieschaft« [Theorie schafft]

Praktisch orientierte Ägypter, Römer und Griechen erschufen lange vor Einführung der Integral- und Differentialrechnung, lange vor theoretischen Modellen zur Tragfähigkeit und Biegemöglichkeit von Balken und Säulen, komplexe Bauwerke, deren Fragmente teils auch heute noch zu besichtigen sind. Nicht die Theorie zum Halbleiter schuf den Halbleiter, der Halbleiter als elektrotechnisches Bastel- und Tüftler-Objekt ließ Spielraum für theoretische Betrachtungen. Funktionierende Technik als Innovation Angewandter Physik bedarf und bedurfte versuchsfreudiger „Macher“, (Miß-)Erfolge (trial & error) zeigten den Weg.

Physik und Philosophie - Thesen und Realität

Die Physik beantwortet Wie-Fragen, die Philosophie beantwortet Warum-Fragen“ wird populärwissenschaftlich behauptet und gedacht. Naja, Philosophen äußern Meinungen, selten bis nie handelt es sich um Antworten, die inhaltlich über willkürliche, subjektive Bewertungen hinausgehen. Im Rahmen der Angewandten Physik gibt es praktische Antworten, die im Ergebnis beispielsweise Speichermedien, Kommunikation und realen Transport möglich machen. In der Modernen Theoretischen Denkmodell-Physik gibt es seit mehr als 100 Jahren keine Antworten mehr, die phänomenologisch basierend begründet sind, sofern man anschauliche Realphysik fordert.

Um übergeordnet verstehen zu können, warum sich das Standardmodell der (Elementar-)Teilchenphysik (SM) und das Kosmologische Standardmodell (ΛC[old]D[ark]M[atter]-Modell) ohne große Gegenwehr etablieren konnten, ist zu bemerken, dass diese Modellbetrachtungen für die Realphysikforschung sprich Material- und Anwendungs-Forschung keinerlei Bedeutung hatten und haben. Das gilt sowohl für die „Diagnostik“ (Materialuntersuchungen), als auch für die Konstruktion von (Material-)Anwendungen.

Relativitätstheorie und GPS

Ein »falscher Behauptungsklassiker« ist die zwingende Anwendung der Relativitätstheorie (Stichworte Zeitdilatation, Längenkontraktion, gravitativer Einfluß) zum „Funktionieren der Realität“, konkret: Die Relativitätstheorie sei evident für das GPS.

Claes Johnson ist Professor für Angewandte Mathematik am KTH Royal Institute of Technology in Stockholm. Auch er hat sich mit der Frage: „Hängt GPS von der Relativitätstheorie ab?“ 2019 explizit beschäftigt.

Seine Antwort, die jeder, auch ohne großes mathematisches oder physikalisches Verständnis im Ergebnis verstehen kann, lautet sinngemäß: Nein, denn mit der Anzahl der verwendeten Satelliten, die sich kontinuierlich synchronisieren, sind jedwede Abweichungen stetig aktualisiert korrigiert. Siehe: Does GPS depend on Theory of Relativity?

Auch wenn das hier der eine oder andere nicht verstehen kann respektive verstehen will, es geht hier nicht um die Frage, ob relativistische Effekte bei Positionsbestimmungen auftreten und eine signifikante Rolle spielen, es geht einzig um die praktische GPS-Situation. …Claes Johnson geht in seinen Ausführungen explizit von vier Satelliten aus, diese korrigieren alle denkbaren Abweichungen, gleichgültig wo diese herstammen und wie sich diese manifestieren. Bedeutet: Auch ohne jegliche Kenntnis der Relativitätstheorie und deren Effekte existiert und funktioniert GPS. Aphoristisch: Die GPS-Konstrukteure waren und sind »Relativitätstheorie befreit«.

Tatsache ist: Theoretische Modelle hink(t)en stets der (meßbaren) Realität hinterher. Der Mythos, dass hochkomplexe, mathematische Theorien die Wirklichkeit beschreiben und Neues generieren konnten und können, lebt. Dass jedoch die Voraussagefähigkeiten der theoretischen Modelle, bei genauer Sicht, Ergebnisse von immer wieder (neu) durchgeführten Nachkorrekturen sind, erschließt sich den meisten Interessierten nicht. Realobjekt-Interpretationen werden im Rahmen der Standardmodelle aus mathematisch formalisierten Konzepten geboren. Theoretisches wurde über Jahrzehnte immer wieder genaueren Meßergebnissen angepasst. Sei es durch Zusatzrechnungen, neue Quantenzahlen, neue Wechselwirkungspostulate und neue Substrukturthesen, sowie extrem zeitintensiven, iterativ-algorithmisch nachkorrigierten Ergebnissen mittels Cluster-Rechenanlagen respektive »Super-Computern«, die nicht selten Jahre rechnen, um selbstprophetisch bekannte Meßwerte axiomatisch zu reproduzieren.

 

Ich rechne respektive simuliere mir, gemäß meiner axiomatisch-algorithmischen, selbstprophetischen Möglichkeiten, die Welt "schön"...

Wie (u.a. erkenntnistheoretisch) sinnleer heutzutage gearbeitet und argumentiert wird, offenbart folgendes Beispiel...

Berechnung der Vierschleifen-Beiträge zu Taylor-Reihen-Entwicklungskoeffizienten der Vakuumpolarisationsfunktion in perturbativer Quantenchromodynamik

führt zu ungefähr 700 Feynman-Diagrammen

Lösung eines linearen Gleichungssystems mit nicht konstanten Koeffizienten

Größenordnung: Gleichungssystem mit 25 Millionen Gleichungen

liefert Lösungen für 4 Millionen Integrale

"Ergebnis"

Reihen-Entwicklung der Vakuumpolarisation

In Wirklichkeit ist das phänomenologisch unbegründete „Ergebnis“ selbstprophetisch, denn der verwendete Algorithmus enthielt bereits eingekapselt respektive bestimmt(e) die Lösung.

 

Übrigens, das die gängigen Theorien zur Vakuumpolarisation und damit verbunden der Vakuumenergie gleichfalls im Ergebnis Nonsens sind, ergibt sich durch folgenden Umstand: Die „gemessene“ Stärke der Vakuumenergie(dichte) stellt eines der größten Probleme der modernen System-Physik dar, da die experimentell gefundenen und die theoretisch vorhergesagten Werte extrem voneinander abweichen. Aufgrund von Beobachtungen wird die Energiedichte des Vakuums auf einen Wert der Größenordnung 10−9 J/mgeschätzt, dieser Wert ist damit etwa um den Faktor 10120 (!!!)niedriger als in den theoretischen Berechnungen des Standardmodells. 

 

 

Siehe des Weiteren exemplarisch...

Calculating the five-loop QED contribution to the electron anomalous magnetic moment: Graphs without lepton loops   veröffentlicht im November 2019

Autor: Dr. Sergey Volkov [Fachgebiete u.a. Kern- und Elementarteilchen-Physik, Relativitätstheorie]

 

Screenshot aus dem benannten "scientific paper"

Da die Ergebnisse von den vom Autor vorgegebenen Anfangsparametern sowie den theoretischen Modellerwartungen im Hinblick auf ergebnisorientierte, experimentelle Werte abhängig sind, stellt sich hier, auch ohne jegliche Kenntnis der Berechnungs-Details, die zentrale Frage, ob der Autor - stellvertretend für alle Autoren dieser Art von "Berechnungen" - nicht realisiert, das die so erzielten Ergebnisse selbstprophetisch sind respektive einen methodischen Selbstbetrug abbildenSB.

 

[SB] Siehe dazu exemplarisch folgende Bemerkungen und Ausführungen:

Um einen Eindruck von der grundsätzlichen Theorie-Problematik der „Strahlungskorrekturen“ in einem historischen Zusammenhang zu bekommen, empfiehlt sich der Beitrag von Mario Bacelar Valente :

The renormalization of charge and temporality in quantum electrodynamics

An konkreten Beispielen zeigt Valente auf, wie ergebnisorientierte, teils willkürliche „mathematische Erweiterungen und Umformungen“ in die Berechnungen einfließen und wie „hier und da“ Terme als unphysikalisch erklärt und deren Divergenzen nicht weiter berücksichtigt werden. Das ist höchst problematisch, da keine verbindlich axiomatischen Regeln gelten. Des Weiteren wird deutlich, dass keine physikalischen Interpretationen existieren, die die mathematischen Prozeduren mit phänomenologischen Inhalten "füllen“. 

Meinungen (Textauszüge):

Selbst in Anbetracht der Genauigkeit der Theorie bei niedrigeren Energien vertrat Schwinger die Ansicht, dass das Renormierungsverfahren, das es ermöglicht, die Unendlichkeiten in den Berechnungsergebnissen zu vermeiden, letztendlich aus der Physik ausgeschlossen werden muss. Die Position von Paul Dirac war diesbezüglich noch weniger sympathisch: "Ich bin sehr unzufrieden mit der Situation, weil diese sogenannte "gute Theorie" die Vernachlässigung von Unendlichkeiten beinhaltet, die in ihren Gleichungen auftauchen.

…”Even considering the accuracy of the theory at lower energies, Schwinger considered that the renormalization procedure, that permits avoiding the infinites in the results of the calculations, ultimately has to be excluded from physics. Regarding this problem the position of Paul Dirac was even less sympathetic: “I am very dissatisfied with the situation, because this so-called “good theory” does involve neglecting infinities which appear in its equations.3 ”…

3 Kragh, H. (1990, 184). Dirac: a scientific biography. Cambridge : Cambridge University Press.

Landau vertrat die Auffassung, dass die Grenzen der Quantenelektrodynamik noch drastischer seien, weil sie auf sehr grundlegende strukturelle Probleme im Aufbau der Theorie zurückzuführen seien: "Für sie waren allein schon das Konzept eines lokalen Feldoperators und die Postulierung eines detaillierten Mechanismus für die Wechselwirkung in einer mikroskopischen Raumzeitregion völlig inakzeptabel."

…”Landau considered that the limitations of quantum electrodynamics were even more drastic, because they would be due to very basic structural problems in the design of the theory: “for them the very concept of a local field operator and the postulation of any detailed mechanism for interaction in a microscopic spacetime region were totally unacceptable” 4 ”…

4Cao, T. Y., & Schweber, S. S. (1993). The conceptual foundations and philosophical aspects of renormalization theory. Synthese, 97, 33-108.  

Richard Feynman schrieb in The Strange Theory of Light and Matter (1985)

Das Shell-Spiel, das wir spielen, wird technisch als "Renormalisierung" bezeichnet. Aber egal wie schlau das Wort ist, ich würde es immer noch als schwachen Prozess bezeichnen! Der Rückgriff auf einen solchen Hokuspokus hat uns daran gehindert zu beweisen, dass die Theorie der Quantenelektrodynamik mathematisch in sich konsistent ist. Es ist überraschend, dass sich die Theorie auf die eine oder andere Weise als in sich konsistent erwiesen hat. Ich vermute, dass Renormalisierung mathematisch nicht legitim ist.“ 

…”The shell game that we play is technically called 'renormalization'. But no matter how clever the word, it is still what I would call a dippy process! Having to resort to such hocus-pocus has prevented us from proving that the theory of quantum electrodynamics is mathematically self-consistent. It's surprising that the theory still hasn't been proved self-consistent one way or the other by now; I suspect that renormalization is not mathematically legitimate.”…

Paul Dirac schrieb 1963 in dem Artikel The Evolution of the Physicist's Picture of Nature

"Die meisten Physiker sind sehr zufrieden mit der Situation. Sie sagen: 'Die Quantenelektrodynamik ist eine gute Theorie, über die wir uns keine Gedanken mehr machen müssen.' Ich muss sagen, dass ich mit der Situation sehr unzufrieden bin, denn diese so genannte 'gute Theorie' beinhaltet die Vernachlässigung von Unendlichkeiten, die in ihren Gleichungen auftauchen, und zwar auf eine willkürliche Weise. Das ist einfach keine vernünftige Mathematik. Vernünftige Mathematik beinhaltet, dass man eine Größe vernachlässigt, wenn sie klein ist - und nicht, dass man sie vernachlässigt, nur weil sie unendlich groß ist und man sie nicht haben will"...!

…”Most physicists are very satisfied with the situation. They say: 'Quantum electrodynamics is a good theory and we do not have to worry about it any more.' I must say that I am very dissatisfied with the situation because this so-called 'good theory' does involve neglecting infinities which appear in its equations, ignoring them in an arbitrary way. This is just not sensible mathematics. Sensible mathematics involves disregarding a quantity when it is small – not neglecting it just because it is infinitely great and you do not want it“…!

Abdus Salam schrieb 1972  in Infinity Suppression Gravity Modified Quantum Electrodynamics II

"Die feldtheoretischen Unendlichkeiten, die erstmals bei der Berechnung der Eigenmasse des Elektrons durch Lorentz auftraten, halten sich in der klassischen Elektrodynamik seit siebzig und in der Quantenelektrodynamik seit etwa fünfunddreißig Jahren. Diese langen Jahre der Frustration haben in der Fachwelt eine merkwürdige Zuneigung zu den Unendlichkeiten und einen leidenschaftlichen Glauben daran hinterlassen, dass sie ein unvermeidlicher Teil der Natur sind; so sehr, dass sogar die Andeutung einer Hoffnung, dass sie vielleicht doch umgangen werden können - und endliche Werte für die Renormierungskonstanten berechnet werden können - als irrational angesehen wird."

Field-theoretic infinities — first encountered in Lorentz's computation of electron self-mass — have persisted in classical electrodynamics for seventy and in quantum electrodynamics for some thirty-five years. These long years of frustration have left in the subject a curious affection for the infinities and a passionate belief that they are an inevitable part of nature; so much so that even the suggestion of a hope that they may, after all, be circumvented — and finite values for the renormalization constants computed — is considered irrational.“

 

Paul Dirac:

"Die Renormierung ist nur ein Notbehelf. Unsere Vorstellungen müssen sich grundlegend ändern, wahrscheinlich so grundlegend wie der Übergang von der Bohrschen Bahntheorie zur Quantenmechanik. Wenn sich eine Zahl als unendlich herausstellt, die eigentlich endlich sein sollte, sollte man zugeben, dass mit den Gleichungen etwas nicht stimmt, und nicht hoffen, dass man eine gute Theorie bekommt, indem man die Zahl einfach aufbessert."

"Renormalization is just a stop-gap procedure. There must be some fundamental change in our ideas, probably a change just as fundamental as the passage from Bohr’s orbit theory to quantum mechanics. When you get a number turning out to be infinite which ought to be finite, you should admit that there is something wrong with your equations, and not hope that you can get a good theory just by doctoring up that number.”

Quelle: Something is wrong in the state of QED

 

 

Renormierung und Regularisierung (Fragmentarisches zum Grundverständnis)

In Quantenfeldtheorien werden Modelle durch die Lagrange-Dichte beschrieben. Diese enthält eine bestimmte Anzahl von freien Parametern, deren Zahlenwerte nicht durch die Theorie festgelegt sind, sondern experimentell bestimmt werden müssen. Im Grenzfall verschwindender Quantenkorrekturen (Bornschen Näherung), können viele freie Parameter direkt mit den physikalischen Größen, wie z. B. den Massen oder der elektrischen Ladung, identifiziert werden. Werden jedoch Quantenkorrekturen berücksichtigt, so wird der direkte Zusammenhang zwischen den freien Parametern der Lagrangedichte (den so genannten ”nackten“ (engl.: bare) Parametern) und den physikalischen Größen zerstört. Dies macht eine Redefinition (Renormierung) der Parameter und auch der Felder, notwendig. Im Verlauf der Berechnung des Zusammenhangs zwischen den (postuliert) „unphysikalischen“ und den (postuliert) physikalischen Parametern können Integrale auftreten, die divergieren. Die Art und Weise, wie die Konvergenz dieser Integrale gesichert wird, wird durch das Verfahren der so genannten Regularisierung festgelegt...

Gelingt es, durch die Renormierung endlich viele Parameter sämtlich auftretender UV-Divergenzen in allen Ordnungen der Störungstheorie zu beseitigen, so ist die jeweilige Theorie renormierbar. Die Renormierbarkeit des Standardmodells wurde von ’t Hooft bewiesen.

Bevor Felder und Parameter der Lagrange-Dichte renormiert werden können, müssen zunächst die bei der Berechnung der Schleifenintegrale auftretenden Divergenzen extrahiert werden. Prinzipiell würde eine Beschränkung der Energieintegration durch eine obere Grenze (engl.: cut-off) Λ bereits endliche Ergebnisse liefern, jedoch zerstört eine solche Beschränkung die Lorentz-Invarianz. Ein häufig angewandtes Verfahren ist die dimensionale Regularisierung, die Lorentz- und Eichinvarianz gewährleistet (Erhalt der inneren Symmetrien der Theorie).

Durch die dimensionale Regularisierung werden die auftretenden Divergenzen in negativen Potenzen des Regularisierungsparameters ε isoliert. Mittels Renormierung wird dann die Abhängigkeit von diesem unphysikalischen Parameter subtrahiert und der Zusammenhang zwischen den im Modell auftretenden freien Parametern und den experimentell bestimmbaren physikalischen Größen neu festgelegt. In der Praxis werden dazu so genannte Gegenterme (engl.: counterterm) verwendet, welche einen formalen und systematischen Zugang zur Renormierung bieten. Dabei werden die ”nackten“ Parameter (m0, e0) und Felder (Φ0) der Lagrange-Dichte mittels Renormierungskonstanten Zi multiplikativ renormiert.

Im so genannten On-Shell Schema (On-Shell-Renormierung) werden die Renormierungskonstanten so gewählt, dass die renormierten Parameter der Theorie den messbaren, physikalischen Größen in allen Ordnungen Störungstheorie entsprechen. Die renormierten Massen werden gleich den physikalischen gewählt. Werden alle Größen im On-Shell Schema bestimmt und erfolgt die Ladungsrenormierung in Thomson-Limes (Kopplung des Photons an das Elektron im Grenzfall eines verschwindenden Impulsübertrags), so hängt das endliche Ergebnis nicht mehr von der durch die Regularisierung eingeführten Massenskala ab.

Neben den UV-Divergenzen aus der Region großer Schleifenimpulse qi →  treten in Quantenfeldtheorien sowohl innerhalb der Schleifenintegrale bei endlichen Impulsen, als auch innerhalb der Phasenraumintegrale weitere Divergenzen auf, die ihre Ursache in Polen der Propagatoren haben. Diese treten auf, wenn Impulse der Propagatoren auf ihrer Massenschale liegen und dadurch der Nenner des Propagators Null wird. Daher werden diese Singularitäten im Allgemeinen als Massensingularitäten bezeichnet, da ihr Auftreten mit dem Verschwinden der äußeren und inneren Massen verbunden ist. Das Auftreten von Massensingularitäten rührt nicht ausschließlich von Schleifenintegralen her, sondern auch von Integrationen im Phasenraum der externen Teilchen. Diese führen in bestimmten Phasenraumbereichen zu Divergenzen...

Zur Kenntnisnahme, Selbstanalyse, zur Erinnerung

Das "zauberhafte" fine-tuning   ... die an den Haaren herbeigezogene Feinabstimmung

Während die dimensionale Regularisierung aus Sicht des SM vor allem praktisch ist, kann man sich "dort" auf den Standpunkt stellen, das die Impulsintegrale bei einem bestimmten Maximalimpuls Λ abgeschnitten werden, da bei größeren Impulsen das Standardmodell durch eine andere (vereinheitlichende) Theorie ersetzt werden muss. Eine natürliche Wahl für Λ wäre dann Λ ~ mPlanck. Berechnet man die Strahlungskorrekturen zu den Fermionmassen, dann erhält man daraus einen zum Logarithmus von Λ proportionalen Korrekturterm, der auch bei Λ ~ mPlanck nur wenige Prozent der ”nackten“ Masse ausmacht. Anders bei der Higgs-Masse: Hier liefert die Strahlungskorrektur einen zu Λ proportionalen Anteil. Die Higgs-Masse mH ~ 125 GeV führt zu der Situation, dass sich die Strahlungskorrekturen und die nackte Masse auf 17 (siebzehn!!!) Nachkommastellen genau aufheben müssen!

 

[17]  Wikipedia "berichtet" zur Orientierung (für das "Gemeine Volk") zum fine-tuning "passenden" Hierachieproblem u.a.

[deutsche:] ..."Auch wenn das Higgs-Boson zentraler Bestandteil des Standardmodells der Elementarteilchenphysik ist, ist das Hierarchieproblem kein Problem des Standardmodells selbst... Streng genommen kann das Hierarchieproblem innerhalb des Standardmodells nicht einmal formuliert werden, da eine Berechnung der Higgs-Masse dort nicht möglich ist....

[englische:] ..."Angenommen, ein physikalisches Modell benötigt vier Parameter, die es ihm ermöglichen, ein sehr hochwertiges Arbeitsmodell zu erstellen, das Vorhersagen zu einigen Aspekten unseres physikalischen Universums ermöglicht. Angenommen, wir finden durch Experimente heraus, dass die Parameter Werte haben: 1,2, 1,31, 0,9 und 404.331.557.902.116.024.553.602.703.216,58 (ungefähr 4×1029). Wissenschaftler mögen sich fragen, wie solche Zahlen zustande kommen. Besonders neugierig sind sie aber auf eine Theorie, bei der drei Werte nahe bei eins liegen und der vierte so unterschiedlich ist, d. h. auf das enorme Missverhältnis, das zwischen den ersten drei Parametern und dem vierten zu bestehen scheint. Man könnte sich auch fragen, wenn eine Kraft so viel schwächer ist als die anderen, dass sie einen Faktor von 4×1029 benötigt, um mit ihnen in Bezug auf die Auswirkungen in Beziehung gesetzt werden zu können, wie kam es dann dazu, dass unser Universum bei der Entstehung seiner Kräfte so genau ausgeglichen war? In der gegenwärtigen Teilchenphysik sind die Unterschiede zwischen einigen Parametern viel größer als dieser Wert, so dass die Frage noch bemerkenswerter ist"...

..."Suppose a physics model requires four parameters which allow it to produce a very high-quality working model, generating predictions of some aspect of our physical universe. Suppose we find through experiments that the parameters have values: 1.2, 1.31, 0.9 and 404,331,557,902,116,024,553,602,703,216.58 (roughly 4×1029). Scientists might wonder how such figures arise. But in particular, might be especially curious about a theory where three values are close to one, and the fourth is so different; in other words, the huge disproportion we seem to find between the first three parameters and the fourth. We might also wonder if one force is so much weaker than the others that it needs a factor of 4×1029 to allow it to be related to them in terms of effects, how did our universe come to be so exactly balanced when its forces emerged? In current particle physics, the differences between some parameters are much larger than this, so the question is even more noteworthy."...

 

Nun, das das nichts mehr mit exakter Wissenschaft, sondern nur noch mit brachialem Wünsch-Dir-Was-Denken und Wünsch-Dir-Was-Machen, egal zu welchem absurden Preis, zu tun hat, steht - analytisch rational betrachtet - außer Frage.

Aphoristisch ausgedrückt:

Teilchenphysiker stecken tief in der Dekadenz; das Sensationelle gilt und nur einem strömen sie noch begeisterter zu: dem baren Unsinn.“

"Interdisziplinär" erst-formuliert":  Wir stecken tief in der Dekadenz; das Sensationelle gilt und nur einem strömt die Menge noch begeistert zu: dem baren Unsinn.“ Theodor Fontane  (1819 - 1898)

Es gibt eine Vielzahl weiterer - wahrlich unglaublicher - Aspekte zur Renormierung und Regularisierung, deren explizite Erörterung bei Weitem den Rahmen sprengen und unnötig den Fokus verschieben würde.

Um es kurz und plakativ "zu machen": So definierte sich in den Anfängen bis heute insbesondere die Quantenelektrodynamik (QED) und die Quantenchromodynamik (QCD). Es wird solange (mathematisch) modelliert, bis die gewünschten Ergebnisse vorliegen, was mitunter - trotz "Super"-Computern - Jahre (total calculation time, GPU hours) dauert.

Des Weiteren: Es kommt noch "viel schlimmer". Wie sich im Bild der Masse-Raum Kopplung zeigt, sind die vermeintlich »anomalen magnetischen Momente« allesamt - phänomenologisch begründet - ohne Quantenfeld, willkürlicher Renormalisierung, etc. erklär- und berechenbar. All' die "schönen" quantenfeldtheoretischen Überlegungen zu den »anomalen magnetischen Momenten« sind - im wahrsten Sinne des Wortes - gegenstandslos.

An dieser Stelle nur soviel dazu: Die vermeintlich anomalen intrinsischen magnetischen Momente von Elektron und Proton sowie des Masse-Raum-Proton-Elektron-basierenden Neutrons sind letztendlich eine Kombination aus den »semi-klassisch«  - einfachst zu berechnenden - "normalen" magnetischen Momenten und messungsinhärenten Beiträgen, die von dem Magnetfeld, welches zur Messung verwendet wird, herrühren. Eine entsprechende  Phänomenologie und Formalisierung der Magnetfeldverkörperung und resultierende Magnetische-Moment-Berechnungen werden im Rahmen der Elementarkörpertheorie vorgestellt.

Siehe explizit:   Anatomie anomaler magnetischer Momente

 

 

Ein überfälliges Rendezvous mit ursächlicher Rationalität

Ein Paradigmenwechsel der anderen Art